·

Cursos Gerais ·

Álgebra Linear

Send your question to AI and receive an answer instantly

Ask Question

Preview text

VARIÁVEIS COMPLEXAS Tiago Loyo Silveira Conteúdo sagah SOLUÇÕES EDUCACIONAIS INTEGRADAS Álgebra e geometria dos números complexos Objetivos de aprendizagem Ao final deste texto você deve apresentar os seguintes aprendizados Identificar a álgebra dos números complexos Efetuar as operações algébricas dos números complexos Definir a geometria dos números complexos Introdução O advento da unidade imaginária i possibilitou não apenas a representação algébrica de um número complexo mas também a representação de raízes negativas de uma forma geométrica Com isso mais aplicações para os números complexos surgiram Foi possível por exemplo que polinômios de raízes não reais fossem representados no plano cartesiano A álgebra moderna também incorporou os números complexos para representar vetores Neste capítulo você verá mais sobre as características algébricas e geométricas de um número complexo Avançaremos em nossos estudos pelas operações com os números complexos e as suas representações geométricas Álgebra dos números complexos Sejam m e n números reais podemos escrever m e n na forma de pares orde nados m 0 e n 0 Observe que as operações abaixo entre os números reais m e n são fechadas ou seja conservam o resultado no conjunto dos reais Igualdade m 0 n 0 se e somente se m n Cap2VariaveisComplexasindd 1 01032018 165133 Adição m 0 n 0 m n 0 0 m n 0 Multiplicação m 0n 0 mn 00 m0 0n mn 0 Nas operações descritas acima todas as coordenadas y nos pares ordenados são iguais a zero Portanto os números m 0 e n 0 podem ser representados no eixo das abscissas que é a reta real ou seja os números m 0 e n 0 podem ser escritos simplesmente como m e n respectivamente No entanto se um par ordenado possui coordenada y 0 não pode ser representado no eixo das abscissas Portanto na forma algébrica a bi onde o coeficiente a representa a parte real b a parte imaginária e i a unidade imaginária com b 0 esse número será um complexo Operações com números complexos Potências da unidade imaginária A defi nição do comportamento das potências de i comtempla as potências dos complexos z a bi uma vez que temos uma potência de um binômio no que se segue Observe já que todo número elevado a zero é igual a 1 já que todo número elevado a 1 é igual a si mesmo já que por definição Sendo de um modo geral temos Álgebra e geometria dos números complexos 2 Cap2VariaveisComplexasindd 2 01032018 165134 Ou seja as potências sendo são obtidas por meio dos restos da divisão por 4 sendo possível apenas os resultados 1 i 1 i Veja o exemplo abaixo Qual é o resultado de Solução Adição e subtração Sejam os números complexos e A adição e sub tração são feitas entre as partes reais e as partes imaginárias separadamente Dessa forma temos Multiplicação Sejam os números complexos e O produto entre números complexos atende a defi nição de produto entre pares ordenados Dessa forma temos Outra maneira de realizar o produto é utilizando a propriedade distributiva e as propriedades de potência da unidade imaginária Assim temos 3 Álgebra e geometria dos números complexos Cap2VariaveisComplexasindd 3 01032018 165134 Acompanhe o exemplo abaixo 4 i3 i 43 11 41 13i 12 1 4 3i 13 i Divisão Para defi nir a divisão dos complexos antes precisamos defi nir o conjugado de um número complexo Seja um número complexo Dizemos que a bi é o conjugado de Representamos com Os conjugados possuem as propriedades a seguir O conjugado da soma é igual à soma dos conjugados O conjugado do produto é igual ao produto dos conjugados O produto de um número complexo pelo seu conjugado é um número real não negativo que é um número real positivo O produto de um número complexo pelo seu conjugado é denominado norma de um número complexo Portanto dizemos que um número complexo z a bi foi normalizado se ele foi escrito na forma Sejam dois números complexos e sendo Obter o quociente da divisão de por significa encontrar um número complexo tal que Dessa forma escrevendo na sua forma algébrica temos Veja o exemplo abaixo Álgebra e geometria dos números complexos 4 Cap2VariaveisComplexasindd 4 01032018 165134 Da igualdade de complexos temos que Portanto e Uma outra maneira de realizar a divisão de complexos e sem precisar do uso de sistemas é multiplicar e pelo conjugado de Considere o exemplo abaixo Geometria dos números complexos Dois eixos ordenados centrados e perpendiculares na origem 00 defi nem o plano cartesiano De forma semelhante defi niremos um plano para representar os números complexos Para todos os fi ns é similar ao plano cartesiano mas o eixo x será chamado de eixo real Re e vai representar a coordenada real de um número complexo e o eixo y será chamado de eixo imaginário Im representando a coordenada imaginária de um número complexo O plano de representação dos números complexos é chamado de plano de ArgandGauss Dessa forma cada número complexo z a bi representa um ponto P nesse plano O plano de ArgandGauss ou plano complexo também é muito utilizado para representar vetores bidimensionais O ponto P é chamado de afixo do número complexo z 5 Álgebra e geometria dos números complexos Cap2VariaveisComplexasindd 5 01032018 165135 Figura 1 Plano de ArgandGauss Módulo de um número complexo A distância de um ponto P até a origem do plano é denominada módulo de um número complexo Representamos por ou pela letra grega rô Sendo o módulo de um número complexo é dado por Figura 2 Módulo de um número complexo Álgebra e geometria dos números complexos 6 Cap2VariaveisComplexasindd 6 01032018 165135 O módulo do número complexo z 5 12i será Figura 3 Módulo de um número complexo Argumento de um número complexo Sendo o módulo de um número complexo a distância entre a origem e um ponto P então se as coordenadas de P variam de forma que seja constante então teríamos uma circunferência centrada na origem Dessa forma um número complexo pode ser representado ou parametrizado de acordo com o ângulo formado entre e o eixo real Essa abertura recebe o nome de argumento de um número complexo indicada por arg z com medida no intervalo O argumento terá sentido antihorário com o seu sentido positivo 7 Álgebra e geometria dos números complexos Cap2VariaveisComplexasindd 7 01032018 165136 Figura 4 Argumento de um número complexo Portanto as coordenadas de um número complexo podem ser dadas em função do arco Qual é o argumento do número complexo z 1 i Solução Temos que Dessa forma o arco com e é o arco de 135º ou Álgebra e geometria dos números complexos 8 Cap2VariaveisComplexasindd 8 01032018 165136 Forma trigonométrica de um número complexo Como consequência do que vimos até aqui os números complexos podem ser apresentados além da sua forma algébrica em uma forma trigonométrica Das razões trigonométricas abaixo temos que Aplicando as relações obtidas vindas do plano de ArgandGauss na forma algébrica z a bi obtemos com A forma trigonométrica também chamada de polar possui aplicações diversas além de facilitar os cálculos de potências de números complexos Figura 5 Representação de uma circunferência de raio z 9 Álgebra e geometria dos números complexos Cap2VariaveisComplexasindd 9 01032018 165137 Potenciação de um número complexo Apesar de ser uma operação com número complexo deixamos para descrevê la somente agora pois a forma trigonométrica nos facilitará sobremaneira nesse processo Para elevar um número complexo z 0 a um expoente escrevemos z na sua forma trigonométrica Elevamos o módulo ao expoente n e os argumentos serão multiplicados por n Dessa forma temos Essa fórmula é denominada 1ª Lei de De Moivre em homenagem ao matemático francês Abraham de Moivre Se z 0 então qualquer que seja n teremos Moivre formulou ainda fórmulas para o produto quociente e para raízes todas utili zando sua forma polar MAPLI 2018 FÓRMULA 2017 httpsgooglBB4aXi httpsgooglzpq7ui Veja mais sobre o plano complexo e as suas peculiaridades PLANO 2016 httpsgooglnFThNv Assista a uma aula sobre produto de números complexos O MATEMÁTICO 2014 httpsgooglpMoN5g Álgebra e geometria dos números complexos 10 Cap2VariaveisComplexasindd 10 01032018 165137 1 Para que 6 3ik 6i seja um número real o valor de k deverá ser a k 0 b k 12 c k 12 d k 18 e k 18 2 Sendo i a unidade imaginária do conjunto dos números complexos o valor da expressão é a 1024i b 0 c 512i d 512i e 1024i 3 Observe o plano de ArgandGauss representado abaixo onde A é afixo do número complexo z a bi Qual é a diferença entre z e a b c d e 4 Sendo unidade imaginária do conjunto dos números complexos qual o valor da expressão a 2i b i c 2i d i e 0 5 Qual o argumento do número complexo a b c d e 11 Álgebra e geometria dos números complexos Cap2VariaveisComplexasindd 11 01032018 165139 FÓRMULA DE DE MOIVRE Wikipédia Flórida 2017 Disponível em httpsptwikipedia orgwikiFC3B3rmuladeDeMoivre Acesso em 21 fev 2018 MAPLI Fórmulas de De Moivre Matika Jundiaí 2018 Disponível em httpwww matikacombrnumeroscomplexosformulasdedemoivre Acesso em 21 fev 2018 O MATEMÁTICO Grings Aula 5 Produto de Números Complexos YouTube 2014 Disponível em httpswwwyoutubecomwatchvilNv7lVXpAY Acesso em 21 fev 2018 PLANO COMPLEXO Wikipédia Flórida 2016 Disponível em httpsptwikipedia orgwikiPlanocomplexo Acesso em 21 fev 2018 Leituras recomendadas BARRETO FILHO B SILVA C X Matemática aula por aula volume único São Paulo FTD 2005 IEZZI G et al Matemática volume único 6 ed São Paulo Atual 2015 RIGONATTO M Plano de ArgandGauss Brasil Escola Goiânia 2018 Disponível em httpbrasilescolauolcombrmatematicaplanoargandgausshtm Acesso em 21 fev 2018 Álgebra e geometria dos números complexos 12 Cap2VariaveisComplexasindd 12 01032018 165139 Encerra aqui o trecho do livro disponibilizado para esta Unidade de Aprendizagem Na Biblioteca Virtual da Instituição você encontra a obra na íntegra Introdução ao estudo das matrizes Objetivos de aprendizagem Ao final deste texto você deve apresentar os seguintes aprendizados Definir matriz e seus elementos classificação e relacionála com tabelas utilizadas no dia a dia Realizar as operações de adição subtração produto por escalar transposição e multiplicação de matrizes Resolver problemas aplicados envolvendo operações com matrizes Introdução As matrizes são ferramentas matemáticas muito úteis para organizar e processar informações Por isso elas estão frequentemente presentes em várias áreas da ciência Neste capítulo você aprenderá a construir e classificar uma matriz bem como manipulála algebricamente por meio das operações de soma subtração e multiplicação entre um escalar e uma matriz e entre matrizes A partir disso você aplicará esse conhecimento na resolução de problemas cotidianos por meio de matrizes Definição e classificação de matrizes Para que você desenvolva uma intuição inicial sobre matrizes considere o seguinte exemplo hipotético você e uma amiga são agentes autônomos e atuam em um escritório ofertando produtos financeiros a clientes que queiram investir na formação de poupança Os produtos financeiros são fundos de renda fixa RF fundos multimercado M e planos de previdência P Para o mês de janeiro você e sua amiga elaboraram um quadro com o quantitativo Quadro 1 que cada um ofertou desses produtos ÁLGEBRA LINEAR André Ricardo Rocha da Silva Introdução ao estudo das matrizes Objetivos de aprendizagem Ao final deste texto você deve apresentar os seguintes aprendizados Definir matriz e seus elementos classificação e relacionála com tabelas utilizadas no dia a dia Realizar as operações de adição subtração produto por escalar transposição e multiplicação de matrizes Resolver problemas aplicados envolvendo operações com matrizes Introdução As matrizes são ferramentas matemáticas muito úteis para organizar e processar informações Por isso elas estão frequentemente presentes em várias áreas da ciência Neste capítulo você aprenderá a construir e classificar uma matriz bem como manipulála algebricamente por meio das operações de soma subtração e multiplicação entre um escalar e uma matriz e entre matrizes A partir disso você aplicará esse conhecimento na resolução de problemas cotidianos por meio de matrizes Definição e classificação de matrizes Para que você desenvolva uma intuição inicial sobre matrizes considere o seguinte exemplo hipotético você e uma amiga são agentes autônomos e atuam em um escritório ofertando produtos financeiros a clientes que queiram investir na formação de poupança Os produtos financeiros são fundos de renda fixa RF fundos multimercado M e planos de previdência P Para o mês de janeiro você e sua amiga elaboraram um quadro com o quantitativo Quadro 1 que cada um ofertou desses produtos RF M P Você 14 10 12 Amiga 20 8 16 Quadro 1 Quantidade de cada produto financeiro ofertado Os números apresentados nesse quadro podem ser representados como O arranjo acima corresponde a uma matriz e cada número desse arranjo é denominado de elemento da matriz Cada linha representa o quanto de cada produto financeiro você e sua amiga ofertaram por exemplo na segunda linha é visto que sua amiga ofertou 20 fundos de renda fixa 8 fundos multi mercado e 16 planos de previdência Já cada coluna representa o quanto você e sua amiga ofertaram de cada tipo de produto financeiro por exemplo a primeira coluna mostra que você ofertou 14 fundos de renda fixa e sua amiga ofertou 20 fundos desse mesmo tipo Dessa forma uma matriz é simplesmente um agrupamento retangular de números dispostos regularmente em linhas e colunas O tamanho de uma matriz é definido pelo número de linhas e colunas que ela contém Assim uma matriz é dita ser do tipo m n leiase m por n quando ela tem m linhas e n colunas No exemplo anterior a matriz que representa o quantitativo de produtos financeiros ofertados por você e sua amiga no mês de janeiro é do tipo 2 3 m 2 e n 3 Consequentemente podese desenvolver uma classificação de diferentes tipos de matrizes baseada no tamanho delas Introdução ao estudo das matrizes 2 Matriz retangular É aquela na qual o número de linhas e colunas é diferente isto é m n A matriz a seguir é retangular pois é do tipo 2 3 Outro exemplo desse tipo de matriz seria o seguinte que é uma matriz do tipo 3 2 Matriz quadrada É aquela que contém o mesmo número de linhas e colunas isto é m n Esse é o caso de uma matriz do tipo 2 2 Matriz coluna É um caso particular de matriz retangular composta por uma única coluna Por isso é do tipo m 1 O exemplo a seguir mostra uma matriz coluna do tipo 3 1 Uma matriz coluna pode representar as componentes de um vetor e por isso também é conhecida por vetor coluna 3 Introdução ao estudo das matrizes Matriz linha É outro caso particular de matriz retangular pois é composta por uma única linha e por isso do tipo 1 n O exemplo a seguir mostra uma matriz linha do tipo 1 2 3 5 Uma matriz linha também pode representar as componentes de um vetor e por isso é conhecida por vetor linha Outra classificação importante de matrizes envolve os elementos da matriz Considere a matriz A dada por O elemento que aparece na intersecção da primeira linha i 1 com a segunda coluna j 2 é o número 0 Assim ele pode ser representado de forma mais geral como a12 0 Dessa maneira cada elemento da matriz é representado por uma coordenada de localização na matriz dada por aij em que o índice i indica a linha e o índice j indica a coluna em que se pode localizar um determinado elemento da matriz Neste exemplo os elementos da matriz são identificados como a11 1 a12 0 a21 6 e a22 4 Ou seja Para a matriz do tipo 2 3 dada por Introdução ao estudo das matrizes 4 os elementos da matriz são identificados como a11 1 a12 4 a13 0 a21 1 a22 2 e a23 3 Matriz diagonal Os elementos da diagonal principal de uma matriz são aqueles em que i j ou seja a11 a22 a33 etc Uma matriz quadrada em que os elementos fora da diagonal principal são todos nulos isto é aij 0 para i j é dita ser diagonal No exemplo a seguir a matriz B é diagonal pois os elementos b21 e b12 são nulos Matriz triangular Há dois tipos de matriz triangular a superior em que os elementos abaixo da diagonal principal são nulos ou seja e a inferior em que os elementos acima da diagonal principal são nulos ou seja Matriz escalar É uma matriz diagonal em que todos os elementos são iguais 5 Introdução ao estudo das matrizes Matriz identidade É um caso particular da matriz escalar pois todos seus elementos da diagonal principal são iguais à unidade isto é ajj 1 para i j Uma notação convencional para a matriz identidade é rotulála por I A matriz identidade do tipo 3 3 é e a matriz identidade do tipo 2 2 é Matriz transposta Dada uma matriz A do tipo 2 3 a matriz transposta de A denotada por AT é obtida pela transposição entre a primeira linha e a primeira coluna e entre a segunda linha e a segunda coluna resultando em uma matriz do tipo 3 2 A matriz transposta de A 1 0 6 4 é AT 1 6 0 4 A matriz transposta de 2 2 1 3 0 7 3 4 5 B é 2 3 3 2 0 4 1 7 5 BT Introdução ao estudo das matrizes 6 Matriz simétrica Uma matriz quadrada é simétrica quando AT A o que implica na seguinte relação entre os elementos da matriz fora da diagonal principal aij aji Por exemplo a matriz a seguir é simétrica uma vez que a12 a21 3 Em contrapartida uma matriz quadrada é antissimétrica se AT A Por exemplo é antissimétrica pois Matriz nula É aquela matriz em que todos os elementos são nulos isto é aij 0 para qualquer valor de i e j Operações com matrizes Depois de conhecidos os diferentes tipos de matrizes você aprenderá como efetuar algumas operações importantes com matrizes tais como adição subtração multiplicação por um escalar e finalmente multiplicação entre matrizes Igualdade Duas matrizes são iguais quando elas têm o mesmo tamanho e seus elementos são todos iguais Se as matrizes quadradas A e B do tipo 2 2 são iguais então aij bij 7 Introdução ao estudo das matrizes Exemplo Se a matriz quadrada B do tipo 2 2 dada por B b11 b12 b21 b22 for igual à matriz A 1 0 6 4 então é verdadeiro que b11 b12 b21 b22 1 0 6 4 implicando que b11 1 b12 0 b21 6 e b22 4 Se a matriz A 1 2 0 1 for igual à matriz C x y 0 1 então 1 2 0 1 x y 0 1 implicando que x 1 e y 2 Adição A operação de adição entre duas matrizes A e B de mesmo tamanho é realizada por meio da soma direta dos elementos de cada matriz que estão localizados em uma mesma linha e uma mesma coluna ou seja aij bij Exemplo Dadas duas matrizes quadradas do tipo 2 2 A 1 2 3 4 e B 2 5 3 3 então o resultado da soma dessas duas matrizes A B é A B 1 2 3 4 2 5 3 3 3 7 6 7 Observe que a11 b11 1 2 3 a12 b12 2 5 7 a21 b21 3 3 6 a22 b22 4 3 7 A operação de adição tem duas propriedades importantes descritas a seguir Propriedade comutativa Dadas duas matrizes A e B o resultado das somas A B e B A é igual A B B A Propriedade associativa Dadas três matrizes A B e C o resultado da soma A B com C é igual ao da soma de A com B C A B C A B C Subtração A operação de subtração entre duas matrizes A e B de mesmo tamanho é realizada por meio da subtração direta dos elementos de cada matriz que estão localizados em uma mesma linha e uma mesma coluna ou seja aij bij Exemplo Dadas duas matrizes quadradas do tipo 2 2 A 4 8 3 5 e B 2 5 3 3 então o resultado da subtração de A por B A B é A B 4 8 3 5 2 5 3 3 2 3 0 2 Observe que a11 b11 4 2 2 a12 b12 8 5 3 a21 b21 3 3 0 a22 b22 5 3 2 Saiba mais A matriz resultante de operações de adição ou subtração terá sempre o mesmo tamanho das matrizes que foram usadas nessas operações Multiplicação de uma matriz por um escalar Um escalar é simplesmente um número puro que também pode ser visto como uma matriz 1 1 Então a multiplicação de uma matriz A por um escalar c qualquer implica que cada elemento da matriz será multiplicado pelo escalar c isto é caij Por exemplo se c 2 então cA 2 1 3 2 0 2 1 2 3 2 2 2 0 2 6 4 0 Observe que nesse processo de multiplicação a matriz resultante tem o mesmo tamanho da matriz original A A operação de multiplicação de uma matriz por um escalar apresenta algumas propriedades que são descritas a seguir Dadas duas matrizes A e B e um escalar c o resultado da multiplicação do escalar pela soma das matrizes cA B é igual à soma das matrizes já multiplicadas individualmente pelo escalar cA cB cA B cA cB Dada uma matriz A e dois escalares c e d o resultado da soma dos escalares multiplicado pela matriz c dA é igual à soma da matriz multiplicada individualmente por cada um dos escalares cA dA c dA cA dA Dada uma matriz A e dois escalares c e d o resultado da multiplicação de um escalar pela matriz já multiplicada pelo outro escalar cdA é igual ao produto dos escalares multiplicado pela matriz cdA cdA cdA Multiplicação entre matrizes A multiplicação entre matrizes exigirá de você um pouco mais de atenção A única condição necessária para que se possa multiplicar duas matrizes A e B é que o número de colunas da matriz A seja igual ao número de linhas da matriz B Assim se a matriz A é do tipo m n e a matriz B é do tipo p q então o produto AB entre as matrizes somente ocorre se n p Além disso o resultado final dessa multiplicação entre as matrizes A e B será uma nova matriz do tipo m q ou seja com o mesmo número de linhas da matriz A mas com o mesmo número de colunas da matriz B Em particular para o caso de duas matrizes quadradas de mesmo tamanho a matriz resultante do produto entre elas será do mesmo tamanho que elas A existência dessa relação entre o número de colunas de uma matriz com o número de linhas da outra decorre da necessidade de se envolver um mesmo número de elementos para multiplicação entre as matrizes Considere o seguinte exemplo uma matriz A do tipo 2 3 dada por e uma matriz B do tipo 3 1 dada por Como o número de colunas de A que é 3 é igual ao número de linhas de B que também é 3 essa multiplicação é possível Observe também que a multiplicação de uma matriz do tipo 2 3 A por uma matriz do tipo 3 1 B resulta em uma matriz do tipo 2 1 AB Operacionalmente a multiplicação ocorre da seguinte maneira multiplica se a primeira linha da matriz A pela coluna da matriz B elemento por elemento na ordem que estão dispostos primeiro elemento da primeira linha de A 1 com o primeiro elemento da coluna de B 2 segundo elemento da primeira linha de A 1 com o segundo elemento da coluna de B 3 e assim por diante somandose os produtos individuais desses elementos 1 2 1 3 2 1 7 cujo resultado será o primeiro elemento da matriz coluna resultante do pro duto entre A e B Repetese o mesmo procedimento para a segunda linha da matriz A multiplicandoa com a primeira coluna da matriz B cujo resultado 2 2 3 3 3 1 13 corresponderá ao segundo elemento da matriz coluna resultante do produto entre A e B Veja 11 Introdução ao estudo das matrizes Agora considere uma nova matriz A do tipo 1 2 dada por 1 3 e uma nova matriz B do tipo 2 2 dada por Nesse caso o resultado da multiplicação da matriz A pela matriz B será uma matriz do tipo 1 2 Agora para você calcular o produto AB deve multiplicar a linha da matriz A pela primeira coluna da matriz B 1 2 3 2 8 cujo resultado fornece o primeiro elemento da matriz linha resultante do produto entre A e B O segundo elemento dessa matriz é obtido pela multiplicação da linha da matriz A com a segunda coluna da matriz B 1 3 3 1 6 Veja O último tipo de multiplicação de matrizes relevante é a multiplicação entre duas matrizes quadradas Considere duas matrizes do tipo 2 2 dadas por A matriz resultante do produto AB também será uma matriz quadrada do tipo 2 2 e é operacionalmente obtida como Logo Introdução ao estudo das matrizes 12 1 A multiplicação de uma matriz quadrada A pela matriz identidade I de mesmo tamanho é igual à própria matriz A Se A 3 2 1 5 então o produto AI fica sendo AI 3 2 1 5 3 2 1 5 1 0 0 1 2 Considere duas matrizes quadradas do tipo 3 3 A e B 2 1 3 1 0 1 4 2 3 1 3 0 0 5 1 2 2 2 Então o resultado produto entre elas AB é AB 2 1 1 0 3 2 2 3 1 5 3 2 2 0 1 1 3 2 1 1 0 0 1 2 1 3 0 5 1 2 1 0 0 1 1 2 4 1 2 0 3 2 4 3 2 5 3 2 4 0 2 1 3 2 AB 8 17 7 3 5 2 10 28 8 3 Se uma matriz A 3 2 1 5 multiplica uma matriz B 2 0 1 0 que contém uma coluna ou uma linha inteira com elementos nulos então o resultado será igual a uma matriz que também contém uma coluna ou uma linha inteira com elementos nulos AB 3 2 1 5 8 0 3 0 2 0 1 0 A operação de multiplicação entre matrizes apresenta algumas proprieda des importantes Considere três matrizes A B e C cujos tamanhos permitem realizar as operações de soma e multiplicação para cada situação de interesse Propriedade associativa O resultado da multiplicação da matriz A pelo produto das matrizes B e C é igual ao produto das matrizes A e B multiplicado pela matriz C ABC ABC 13 Introdução ao estudo das matrizes Propriedade distributiva À direita o resultado da multiplicação da soma das matrizes A e B pela matriz C é igual à soma dos produtos das matrizes A com C e B com C A BC AC BC À esquerda o resultado da multiplicação da matriz A pela soma das matrizes B e C é igual à soma dos produtos das matrizes A com B e A com C AB C AB AC Contudo vale a pena observar que em geral o produto entre duas matrizes não é comutativo isto é AB BA note que o produto entre dois escalares é sempre comutativo ou seja 2 3 3 2 6 Para que você entenda isso considere duas matrizes quadradas do tipo 2 2 e O produto AB é dado por O produto BA é dado por Logo quando você compara elemento por elemento em cada uma das matrizes resultantes de AB e BA por exemplo AB11 a11 b11 a12 b21 a11 b11 a21 b12 BA11 você percebe que eles são todos diferentes No entanto a partir desse tratamento geral para o produto de duas matri zes é possível extrair algumas condições particulares que possibilitam gerar AB BA Uma primeira condição surge quando uma das matrizes é a matriz identidade Por exemplo se B I então o produto entre A e I será comutativo Introdução ao estudo das matrizes 14 Faça b11 b22 1 e b12 b21 0 nos resultados acima de AB e BA A segunda condição particular é aquela em que as duas matrizes são diagonais ou seja A a11 0 0 a22 e B b11 0 0 b22 Nesse caso o produto entre as duas matrizes é comutativo pois AB BA a11 b11 0 0 a22 b22 Faça a12 a21 0 e b12 b21 0 nos resultados acima de AB e BA Equação matricial Uma equação matricial é uma relação de igualdade entre duas ou mais matrizes assim como ocorre com os escalares por exemplo 2x 4 0 Algumas equações matriciais típicas são A B C A 2B 3C AX B A2 X e assim por diante Exemplo 1 Dadas as matrizes A 3 2 1 5 B x y z t e C 0 1 1 2 é possível encontrar os valores dos elementos da matriz B que satisfaçam a equação matricial 2A B C Veja 2A B C 2 3 2 1 5 x y z t 0 1 1 2 6 4 2 10 x y z t 0 1 1 2 6 x 4 y 2 z 10 t 0 1 1 2 Agora como os elementos da matriz do lado esquerdo devem ser iguais aos da matriz do lado direito você tem simplesmente quatro equações escalares para as variáveis x y z e t 6 x 0 então x 6 4 y 1 então y 5 2 z 1 então z 3 e 10 t 2 então t 8 2 Dadas as matrizes A a11 a12 a21 a22 X x y e B b1 b2 a equação matricial AX B resulta em um sistema de duas equações lineares para as variáveis x e y Veja AX B a11 a12 a21 a22 x y b1 b2 a11x a12y a21x a22y b1 b2 Ou seja a11x a12y a21x a22y b1 b2 Um exemplo típico desse tipo de sistema é o seguinte 3x y 2 x 4y 1 onde nesse caso você pode identificar a matriz A como sendo 3 1 1 4 e a matriz B como sendo 2 1 Aplicações com matrizes Reconsidere o exemplo discutido no início deste capítulo em que você e sua amiga são agentes autônomos A matriz que representa o quantitativo de produtos financeiros ofertados por você e sua amiga no mês de janeiro é Para o mês de fevereiro o quantitativo de produtos financeiros ofertados por você e sua amiga é Introdução ao estudo das matrizes 16 Portanto a quantidade de diferentes produtos financeiros que vocês ofer taram nesses dois meses é Logo você ofertou 24 fundos de renda fixa e fundos multimercado en quanto sua amiga ofertou 30 fundos de renda fixa e 22 fundos multimercados Agora considere que vocês recebem uma comissão para cada produto financeiro ofertado Para fundos de renda fixa a comissão é de R 10000 por produto ofertado Já para os fundos multimercados e os planos de previdência as comissões são respectivamente de R 12000 e R 15000 por produto ofertado Para saber o valor total que cada um de vocês receberá de comissão ao final desses dois meses basta primeiro criar uma matriz do tipo 3 1 em que cada elemento será o valor da comissão para cada produto Assim Depois você pode multiplicar o resultado da soma das matrizes A e B ou seja A B com a matriz C Portanto nesses dois meses você receberá um total de R 933000 de comissão e sua amiga receberá um total R 984000 17 Introdução ao estudo das matrizes Como exemplo adicional de multiplicação de matrizes considere uma matriz A do tipo 2 2 dada por A a11 a12 a21 a22 e a matriz identidade I também do tipo 2 2 1 0 0 1 I Então o resultado do produto AI será AI a11 a12 a21 a22 a11 a12 a21 a22 1 0 0 1 Ou seja AI A Esse resultado é válido para qualquer tipo de matriz quadrada A do tipo m m desde que a matriz identidade também tenha o mesmo tamanho Verifique também que IA A ANTON H BUSBY R C Álgebra linear contemporânea Porto Alegre Bookman 2006 ANTON H RORRES C Álgebra linear com aplicações 8 ed Porto Alegre Bookman 2003 CRISPINO M L 320 questões resolvidas de álgebra linear Rio de Janeiro Ciência Mo derna 2012 Introdução ao estudo das matrizes 18 Encerra aqui o trecho do livro disponibilizado para esta Unidade de Aprendizagem Na Biblioteca Virtual da Instituição você encontra a obra na íntegra Conteúdo SAGAH SOLUÇÕES EDUCACIONAIS INTEGRADAS ÁLGEBRA LINEAR André Ricardo Rocha da Silva Inversão de matrizes Objetivos de aprendizagem Ao final deste texto você deve apresentar os seguintes aprendizados Calcular a inversa de uma matriz utilizando operações elementares com suas linhas Utilizar o produto de matrizes para escrever um sistema de equações lineares em forma de uma única equação matricial Resolver um sistema linear com o uso da matriz inversa Introdução Os sistemas de equações lineares são conjuntos de equações lineares que envolvem várias incógnitas simultaneamente e que podem ser representados por uma equação matricial Essa representação matricial permite obterá obtenção da solução de um sistema linear de equações por meio do cálculo da matriz inversa dos coeficientes do sistema Neste capítulo você aprenderá a calcular a matriz inversa e a escrever um sistema de equações lineares como uma equação matricial e a partir daí a resolver esse sistema de equações lineares usando o método da matriz inversa Inversa de uma matriz Uma operação simples na álgebra de escalares é a divisão de um número por ele mesmo cujo resultado é igual à unidade Assim se N é um número qualquer e 1N N1 então NN N N1 N1 N 1 Por exemplo para N 3 Aqui o número N1 representa o inverso do número N de modo que qualquer número multiplicado por seu inverso será igual à unidade Esse conceito também pode ser estendido para as matrizes com a devida adaptação Com efeito se A for uma matriz quadrada e B for outra matriz quadrada de mesmo tamanho então a verificação de uma relação do tipo AB BA I onde I é a matriz identidade implica necessariamente que B é a matriz inversa de A Desse modo você pode fazer a seguinte identificação B A1 Logo AA1 A1A I No entanto vale a pena fazer a seguinte ressalva diferentemente dos escalares não existe a relação para matrizes ou seja não é possível dividir algo um escalar ou mesmo uma matriz por uma matriz Para exemplificar como o conceito de matriz inversa pode ser visto con sidere a matriz A dada por cuja matriz inversa é a B pois Inversão de matrizes 2 Para o caso de uma matriz quadrada do tipo 2 2 é possível desenvolver uma solução geral para se determinar sua inversa Sejam a b c e d os ele mentos de uma matriz A e sejam x y z e t os elementos da matriz inversa de A que são em princípio desconhecidos A fim de se determinar os elementos dessa matriz inversa a partir do conhecimento dos elementos de A é necessário que a seguinte relação seja verificada A relação anterior conduz a um conjunto de quatro equações a quatro variáveis x y z e t pois os elementos a b c e d são supostamente conhecidos a partir de uma dada matriz A Logo ax cy 1 bx dy 0 az ct 0 bz dt 1 A partir das duas primeiras equações determinase x e y por exemplo basta isolar a variável x na primeira equação e substituir na segunda obtendose a variável y que depois pode ser substituída na primeira equação a fim de se obter x Desse modo A partir das duas últimas equações determinamse z e t por exemplo basta isolar a variável z na terceira equação z cta e substituir na quarta bcta dt 1 obtendose a variável t que depois pode ser substituída na terceira equação a fim de se obter z Desse modo 3 Inversão de matrizes Como o fator é comum a todos os elementos da matriz inversa você pode fatorálo na montagem da matriz inversa de maneira que No exemplo inicial proposto os elementos da matriz A eram a 3 b 5 c 1 e d 2 e portanto pelo resultado anterior a matriz inversa ficaria que é exatamente a matriz B inicialmente considerada como sendo a matriz inversa de A Uma consequência direta desse resultado para uma matriz do tipo 2 2 é que a matriz inversa existe somente se o denominador ad bc for diferente de 0 Observe que a quantidade ad bc nada mais é que o determinante da matriz A Caso contrário se ad bc 0 a matriz inversa não existe pois todos os elementos da matriz inversa estariam divididos por 0 Nesse sentido dizse que a matriz é invertível Se uma matriz A admite a existência de uma matriz inversa A1 então A1 é única não havendo outra matriz inversa para A Existem algumas propriedades envolvendo as matrizes inversas que valem a pena ser conhecidas Propriedade 1 Se uma matriz A contém uma inversa A1 então a inversa da matriz inversa é a própria matriz A A11 A Inversão de matrizes 4 No exemplo apresentado você viu que Então calculando a inversa dessa matriz A1 que é exatamente a matriz A Propriedade 2 Considere duas matrizes A e B ambas invertíveis então a inversa do produto entre elas AB será igual ao produto das inversas de B e A B1A1 AB1 B1A1 Por exemplo para as matrizes as respectivas matrizes inversas são Já o produto entre as matrizes A e B é Então a matriz inversa desse produto é 5 Inversão de matrizes Mas o produto da matriz inversa de B B1 com a matriz inversa de A A1 também resulta em Logo nesse exemplo verificase a validade da expressão AB1 B1A1 Propriedade 3 Se A é uma matriz quadrada então o produto de n vezes ela mesma será igual a An Além disso se a matriz inversa de A existe então a matriz An também contém uma inversa que é dada por An1 A1n Por exemplo para n 2 e a matriz cuja inversa é você tem que o quadrado de A é e a inversa dessa matriz é dada por No entanto o quadrado da matriz A1 é que é exatamente igual a A21 Logo verificase explicitamente que A21 A12 Inversão de matrizes 6 Matriz ortogonal Uma matriz A é dita ortogonal se sua matriz transposta é igual à sua matriz inversa AT A1 Assim como A1A AA1 I para uma matriz ortogonal vale também ATA AAT I Um bom exemplo de matriz ortogonal surge na física envolvendo a rotação de corpos rígidos ou sistemas de referência no plano Nesse caso a matriz de rotação é dada por A matriz transposta de R obtida trocando a primeira linha pela primeira coluna e a segunda linha pela segunda coluna é Então efetuando o produto entre R e RT você tem em que se empregou a identidade trigonométrica sen2θ cos2θ 1 Similarmente Embora o resultado obtido para encontrar a matriz inversa de uma matriz do tipo 2 2 7 Inversão de matrizes seja muito útil e relativamente fácil de ser construído desenvolver o mesmo procedimento que conduziu a esse resultado para obter a matriz inversa de matrizes de tamanhos maiores pode ser algo extremamente trabalhoso Outro método que você pode utilizar para encontrar a matriz inversa de matrizes de qualquer tamanho envolve apenas operações elementares sobre linhas A ideia básica é perfilar lado a lado uma matriz A que se quer determinar a inversa e a matriz identidade I ambas de mesmo tamanho da seguinte maneira AI Se você multiplicar essa relação por A1 pela esquerda você tem Observe atentamente que essa operação fez com que no lado esquerdo aparecesse a matriz identidade mas principalmente do lado direito surge a matriz inversa de A Portanto se você executar operações elementares entre linhas tal como multiplicar uma linha por uma constante ou somar uma linha com outra linha de modo a transformar a matriz A do lado esquerdo em uma matriz identidade então a matriz resultante que aparece no lado direito após esse processo é essencialmente a matriz inversa de A IA1 Como um primeiro exemplo sobre esse método considere novamente a matriz A dada no exemplo inicial deste capítulo Fazendo o perfilamento entre A e I você tem Agora você deve efetuar algumas operações elementares sobre essa matriz 2 4 a fim de transformar o bloco 2 2 do lado esquerdo em uma matriz identidade Inversão de matrizes 8 Para isso multiplique toda a segunda linha por 3 3 1 20 1 3 60 3 E a nova segunda linha fica Então some os elementos da primeira linha com os da segunda um a um mantendo a mesma ordem 3 51 0 3 60 3 0 11 3 Esses resultados vão compor a nova segunda linha Multiplique a segunda linha por 1 1 0 11 3 0 11 3 E a nova segunda linha fica Note que a segunda linha do lado esquerdo já tem a aparência da segunda linha de uma matriz identidade Agora multiplique a segunda linha por 5 e depois some com a primeira linha 5 0 11 3 3 51 0 3 06 15 E a nova primeira linha fica Por fim divida toda a primeira linha por 9 Inversão de matrizes E a nova primeira linha fica Observe que do lado esquerdo apareceu a matriz identidade Portanto do lado direito dessa relação você tem exatamente a matriz inversa de A Esse resultado para a matriz inversa de certamente já era esperado pois ele já foi obtido de outra maneira no início desta seção No entanto exatamente por já ser um resultado conhecido você pode desenvolver a aplicação desse método de obtenção da matriz inversa com mais segurança A partir deste ponto você já tem condições de empregar o método de inversão de matrizes para matrizes maiores que uma do tipo 2 2 Essa é a grande vantagem desse método Então para um segundo exemplo de uso do método considere a seguinte matriz quadrada do tipo 3 3 Para você encontrar C1 é necessário perfilar a matriz C com a matriz identidade de mesmo tamanho Multiplique a primeira linha por 1 e some com a última linha 1 1 2 31 0 0 1 0 80 0 1 0 2 51 0 1 E a nova terceira linha fica Inversão de matrizes 10 Agora multiplique a primeira linha por 2 e some com a segunda linha 2 1 2 31 0 0 2 5 30 1 0 0 1 32 1 0 E a nova segunda linha fica Multiplique a segunda linha por 2 e some com a terceira linha 2 0 1 32 1 0 0 2 51 0 1 0 0 15 2 1 E a nova terceira linha fica Multiplique a última linha por 1 1 0 0 15 2 1 0 0 15 2 1 E a nova terceira linha fica Aqui você já conseguiu obter a última linha de uma matriz identidade do tipo 3 3 do lado esquerdo Agora o próximo passo é transformar a segunda linha do lado esquerdo na segunda linha de uma matriz identidade Então multiplique a terceira linha por 3 e some com a segunda linha 3 0 0 15 2 1 0 1 32 1 0 0 1 013 5 3 11 Inversão de matrizes E a nova segunda linha fica que no lado esquerdo já corresponde à segunda linha da matriz identidade do tipo 3 3 Agora resta transformar apenas a primeira linha Para isso multiplique a última linha por 3 e some com a primeira linha 3 0 0 15 2 1 1 2 31 0 0 1 2 014 6 3 E a nova primeira linha fica Por fim multiplique a segunda linha por 2 e some com a primeira linha 2 0 1 013 5 3 1 2 014 6 3 1 0 040 16 9 E a nova primeira linha fica Observe que finalmente a matriz que aparece do lado esquerdo é a matriz identidade do tipo 3 3 Portanto a matriz inversa de C é dada por Em princípio você pode obter a matriz inversa desde que ela exista de uma dada matriz quadrada de qualquer tamanho por meio desse método Inversão de matrizes 12 Sistemas lineares com uma equação matricial Todo sistema de equações lineares contém naturalmente uma estrutura matri cial Para que você perceba isso considere um sistema do tipo 2 2 qualquer A estrutura do lado esquerdo dessas duas equações lineares é tipicamente igual àquela que envolveria o produto entre duas matrizes uma matriz qua drada do tipo 2 2 para os coeficientes aij em que i j 1 2 e outra matriz coluna do tipo 2 1 para as variáveis xj em que j 1 2 Dessa forma você pode escrever Similarmente as constantes bi em que i 1 2 que aparecem do lado direito das equações lineares anteriores também podem ser postas em um formato matricial mais especificamente como uma matriz coluna do tipo 2 1 Com efeito o sistema de equações lineares pode ser substituído por uma representação em forma de equação matricial do tipo AX B em que a matriz A é denominada de matriz dos coeficientes a matriz X é a matriz das variáveis e a matriz B é a matriz das constantes 13 Inversão de matrizes Uma vez estabelecida a relação entre sistemas de equações lineares e ma triciais você pode encontrar a solução de tais sistemas por meio das matrizes Veja como isso é possível se a matriz dos coeficientes A é quadrada e admite a existência de uma inversa A1 então você pode determinar a matriz das variáveis por multiplicar a equação matricial do sistema por A1 pela esquerda em que I é a matriz identidade Portanto a solução do sistema será dada pela matriz das variáveis X calculada por meio da relação X A1B Assim tornase necessário saber calcular a matriz inversa associada à matriz dos coeficientes a fim de se obter a solução do sistema Um sistema de equações lineares contém uma única solução quando a matriz dos coeficientes do sistema for invertível Sistemas lineares com matriz inversa Para que você coloque em prática os resultados da seção anterior e portanto consiga resolver um sistema de equações lineares por meio da matriz inversa dos coeficientes considere o seguinte sistema do tipo 2 2 Nesse caso é fácil reconhecer a matriz dos coeficientes Inversão de matrizes 14 enquanto que a matriz das variáveis é e a matriz das constantes é A fim de se determinar X por meio da equação matricial X A1B é necessário calcular a matriz inversa de A Então perfilando a matriz A e a matriz identidade do tipo 2 2 você obtém Primeiro multiplique a primeira linha por 3 e some com a segunda linha 3 1 11 0 3 20 1 0 53 1 E a nova segunda linha fica Divida a segunda linha por 5 E a nova segunda linha fica Agora multiplique a segunda linha por 1 e some com a primeira linha 1 0 135 15 1 11 0 1 025 15 E a nova primeira linha fica 15 Inversão de matrizes Multiplique a primeira linha por 1 1 1 025 15 1 025 15 E a nova primeira linha fica Observe que você já tem do lado esquerdo uma matriz identidade do tipo 2 2 Logo a matriz inversa de A é dada por Por fim para você determinar a matriz X basta calcular o produto matricial A1B Logo a solução desse sistema é dada por em que x 1 e y 5 ANTON H BUSBY R C Álgebra linear contemporânea Porto Alegre Bookman 2006 612 p ANTON H RORRES C Álgebra linear com aplicações 8 ed Porto Alegre Bookman 2012 786 p Leitura recomendada CRISPINO M L 320 questões resolvidas de álgebra linear Rio de Janeiro Ciência Moderna 2012 352 p Inversão de matrizes 16 Encerra aqui o trecho do livro disponibilizado para esta Unidade de Aprendizagem Na Biblioteca Virtual da Instituição você encontra a obra na íntegra Conteúdo S a G a H SOLUÇÕES EDUCACIONAIS INTEGRADAS ÁLGEBRA LINEAR Silvano Antonio Alves Pereira Junior Geometria vetorial e transformações lineares Objetivos de aprendizagem Ao final deste texto você deve apresentar os seguintes aprendizados Definir transformações matriciais Identificar a transformações lineares como casos particulares de transformações matriciais Relacionar as transformações lineares com inversão de matrizes Introdução Neste capítulo exploraremos um pouco mais o assunto sobre matrizes Você verá algumas aplicações práticas de matrizes como no estudo da geometria das transformações lineares Nesta etapa estaremos seguindo uma linha semelhante à apresentada em Nicholson 2006 Seguiremos estabelecendo as relações entre transformações lineares e matrizes Finalmente você será apresentado à conexão entre transformações lineares e inversão de matrizes Transformações matriciais Para caminhar na direção do primeiro objetivo trabalharemos com o plano R2 euclidiano E para tal fim não realizaremos distinção entre um ponto e o vetor associado ao transporte da origem até esse ponto conforme Figura 1 a seguir Figura 1 O ponto do plano e o vetor associado a ele 6 4 2 6 4 2 0 2 4 6 v xy Como pode ser visto na figura não há distinção entre o ponto Pxy e o vetor a ele associado Nesse contexto uma transformação matricial pode ser definida como o resultado do produto de uma matriz 2x2 pelos vetores do plano Isto é uma transformação matricial relaciona um vetor do plano à sua imagem pelo produto com uma determinada matriz Dessa forma serão válidas todas as propriedades do produto de matrizes Para entender como matrizes se relacionam com transformações geomé tricas do plano euclidiano apresentaremos alguns exemplos Considere a matriz R 1 0 0 1 Seja v x y um vetor qualquer do plano euclidiano qual é a imagem do vetor v pela transformação R Temse Rv 1 0 0 1 x y 1 x 0 y 0 x 1 y x y Em palavras a transformação R reflete o vetor v x y em torno do eixo coordenado x conforme Figura 2 Geometria vetorial e transformações lineares 2 v u 2 2 1 1 1 2 3 0 2 1 xy xy Figura 2 Reflexão de vetor em torno do eixo x Uma observação interessante sobre essa transformação é que ela é sua própria inversa Isto é ao aplicarmos a reflexão R duas vezes seguidas voltamos ao vetor original Temse RR 1 0 0 1 1 0 0 1 1 0 0 1 Esse é um primeiro exemplo de como algumas matrizes se relacionam com transformações geométricas Ali uma transformação geométrica foi induzida por uma matriz No próximo exemplo partiremos de uma transformação geométrica e veremos a matriz que induz a mesma transformação Considere a transformação geométrica que rotaciona vetores em torno da origem Figura 3 e que leva por exemplo o vetor v 1 0 no vetor u 1 0 Essa transformação pode ser induzida pela seguinte matriz 3 Geometria vetorial e transformações lineares 7 6 5 4 3 2 1 1 2 3 4 4 3 2 1 1 2 3 4 5 6 7 xy xy v u α C30º 0 Figura 3 Transformação geométrica rotacionando vetores 180º em torno da origem o x De maneira geral algumas transformações geométricas no plano R2 podem ser induzidas ou representadas por transformações matriciais Se T é uma transformação geométrica do plano então caso exista uma matriz A que induza tal transformação ela deve satisfazer para todo v no plano R2 A igualdade acima deve ser válida para v no plano R2 Perceba por exemplo que a rotação de 180º apresentada no exemplo anterior é igual à transformação de reflexão em torno do eixo y para os vetores v 1 0 e u 1 0 mas não para os demais do plano Com efeito a matriz que induz a transformação de reflexão em torno do eixo y apresenta a seguinte forma Ref 1 0 0 1 Geometria vetorial e transformações lineares 4 Ainda sobre matrizes de rotação no plano é importante destacar que elas apresentam uma forma geral Dada uma transformação geométrica no plano de rotação em torno da origem por um ângulo de θº a matriz que induz essa transformação é dada por Vamos determinar a matriz que induz a rotação de 45º em torno da origem no plano euclidiano Pela forma geral apresentada anteriormente temse Rθ cos 45º sen 45º sen 45º cos 45º Lembrandose de que cos 45º sin 45º 2 2 obtemos 2 2 2 2 2 2 2 2 Rθ A seguir você verá um importante resultado apresentado em Nicholson 2006 que nos permite determinar as matrizes que induzem reflexões e projeções para uma reta que passa pela origem do plano R2 Teorema considere a reta y mx que passa pela origem e tem inclinação m Então a projeção Pm sobre a reta e a reflexão Qm em torno da reta são ambas as transformações matriciais no plano euclidiano Mais precisamente Você poderá encontrar a demonstração desse teorema em Nicholson 2006 Veja a seguir um exemplo de como podemos utilizar esse resultado 5 Geometria vetorial e transformações lineares Considere a reta de equação y 2x Vamos determinar a reflexão do vetor v 1 3 em torno dessa reta Primeiramente utilizaremos o teorema anteriormente apresentado para encontra a matriz Q que induz tal transformação Como o coeficiente angular da reta é m 2 temos Q 1 1 22 1 22 2 2 2 2 221 Q 1 5 3 4 4 3 Q 3 5 4 5 4 5 3 5 Agora vamos calcular o resultado da ação da matriz Q sobre o vetor v 1 3 Obtemos Q 3 5 4 5 4 5 3 5 3 5 4 5 4 5 3 5 1 3 3 1 1 1 3 3 Veja na Figura 4 a representação dessa transformação 4 2 2 0 2 2 4 6 4 4 6 y 2x E Qv v A D Figura 4 Reflexão do vetor v 1 3 em torno da reta y 2x Cabe destacar que nem toda matriz de ordem 2x2 representa uma transformação geométrica do plano Geometria vetorial e transformações lineares 6 Transformações lineares Na seção anterior você aprendeu sobre algumas transformações geométricas do plano euclidiano e como elas podem ser representadas por matrizes que induzem tais transformações que eram casos particulares de um conceito mais abrangente que ocupa um papel central no estudo da álgebra linear as transformações lineares Inicialmente vamos apresentar a definição de transformação linear que pode ser encontrada em Nicholson 2006 e Anton e Busby 2006 Definição seja T R2 R2 uma aplicação que a cada vetor v do plano associa um vetor T v também em R2 Diremos que T é uma transformação linear se ela satisfizer as seguintes condições 1 para todo α R e todo v R2 2 para todo v u R2 Observe o caso das transformações matriciais estudadas na seção anterior Se T R2 R2 for uma transformação matricial existe uma matriz A tal que para todo v no plano R2 Então podemos verificar que T é de fato uma transformação linear Com efeito dados α R e v u R2 temos Segue das propriedades do produto de matrizes que Temos ainda que Novamente segue das propriedades do produto de matrizes que 7 Geometria vetorial e transformações lineares Portanto toda transformação matricial no plano euclidiano é também uma transformação linear De fato a relação entre transformações lineares e matrizes é ainda mais forte Temos o seguinte resultado Fato toda transformação linear em R2 tem um representação matricial Veja a seguir como encontrar a representação matricial de uma transfor mação linear em R2 Considere a seguinte transformação em R2 Txy 2x y Primeiramente vamos verificar se T é de fato uma transformação linear Dados α R e v u R2 com v x y e u r s temse Tαv Tαx αy 2αx αy α2x y Temos ainda Tv u Tx r y s 2x r y s 2x 2r y s 2x y 2r s Portanto Tv u Tv Tu Assim concluímos que T é uma transformação linear Agora vamos determinar a forma matricial dessa transformação Para tal tarefa precisaremos utilizar o fato de que a forma matricial de uma transformação linear T em R2 é dada por MT Te1Ee2 Isto é MT é uma matriz cujas colunas é a imagem dos vetores canônicos de R2 e1 1 0 e e2 0 1 pela transformação T Neste exemplo temos Te1 2 1 0 2 0 e Te2 2 0 1 0 1 Dessa maneira MT 2 0 0 1 Geometria vetorial e transformações lineares 8 Existem algumas transformações lineares que merecem destaque A trans formação identidade por exemplo é aquela que associa a cada vetor v em R2 a ele mesmo Isto é I22v v para todo v R2 Outra transformação linear que apresenta um papel distinto é a transforma ção nula isto é aquela que associa todos os vetores do plano ao vetor nulo 0 Verifiquemos que I22 é de fato linear Dados α R e v u R2 com e temse Temos ainda I22v u I22x r y s x r y s x r y s I22xy I22rs Portanto Concluindo que I22 é de fato uma transformação linear Conta semelhante pode ser realizada para a transformação nula Veja mais um exemplo que relaciona transformações lineares com suas representações matriciais Seja T uma transformação linear tal que T2 1 4 1 e que T1 1 2 1 Qual é a forma matricial da transformação T Observe que neste caso não temos em mãos a expressão da transformação linear para que possamos calcular Te1 e Te2 Entretanto podemos proceder da seguinte maneira v e 2 1 u 1 1 9 Geometria vetorial e transformações lineares Segue das propriedades aritméticas das matrizes e dos vetores que podemos escrever e1 v u e e2 2u v Usando a linearidade de T obtemos Te1 Tv u Tv Tu 41 21 20 De forma análoga Te2 T2u v T2u Tv 2Tu Tv 221 41 42 41 01 Finalmente utilizamos o fato apresentado no exemplo anterior para concluirmos que MT 2 0 0 1 Ainda sobre a forma matricial de transformações lineares existe uma relação de muita importância entre a composição de transformações lineares e suas formas matriciais Sejam T e S duas transformações lineares no plano euclidiano com suas respectivas formas matriciais dadas por MT e MS A composição TºS das transformações lineares tem como representação matricial a matriz dada por MTMS Lembramos aqui que TºS a composição das transformações é dada por Isto é primeiramente aplicamos S e em seguida T ao resultado Sv Veja um exemplo de como podemos utilizar essa informação Geometria vetorial e transformações lineares 10 Considere as seguintes transformações lineares T é a transformação de reflexão em trono do eixo y e S é a transformação que realiza uma rotação de 30º em torno da origem Qual é a representação matricial da composição TºS O plano é utilizar o resultado apresentado anteriormente que relaciona composição e representação matricial de transformações lineares Portanto começamos determi nando a representação matricial de cada uma das operações Para a transformação T vimos na seção anterior que a representação matricial para a reflexão em torno do eixo y é dada por MT 1 0 0 1 Para o caso da transformação S vimos que a forma matricial de uma transformação geométrica de rotação de θº em torno da origem é dada por Rθ cos θº sen θº sen θº cos θº Nesse caso temos 30º Obtemos portanto R30 cos 30º sen 30º sen 30º cos 30º 3 2 1 2 1 2 3 2 Finalmente para obtermos a representação matricial de TºS calcularemos o produto MTMS Temos 3 2 1 2 1 2 3 2 3 2 1 2 1 2 3 2 MTMS 1 0 0 1 Perceba que se quiséssemos obter apenas a imagem de um único vetor pela composição poderíamos têlo feito da forma direta 11 Geometria vetorial e transformações lineares É comum o erro de inverter a ordem do produto das matrizes Fique atento ao realizar esses cálculos e lembrese de que o produto das matrizes segue a mesma ordem da composição das transformações Transformações lineares e inversão de matrizes Nesta seção veremos como utilizar a relação entre transformações lineares e suas representações matriciais para obter informações de grande utilidade no processo de inversão de matrizes Aqui faremos uma abordagem do assunto semelhante à encontrada em Nicholson 2006 Assim como para matrizes existe também um conceito de inversa para transformações lineares Se T é uma transformação linear no plano euclidiano diremos que T1 é uma transformação inversa para T se for válida a seguinte igualdade TºT1 T1ºT I22 Em palavras T1 é uma transformação inversa para T se a composição desses seja pela esquerda ou pela direita resulta no operado identidade Na primeira seção vimos a transformação geométrica que realizava a refle xão em torno do eixo x além de que sua representação matricial era dada por Vimos ainda que MR era sua própria inversa Essa matriz MR induz a transformação que pode ser representada por Rxy xy Dada a experiência com a forma matricial seria natural imaginar que R é um bom candidato para ser sua própria transformação inversa Agora vamos calcular RºR Temos RºR RRxy Rxy xy xy I22xy Portanto R1 R Geometria vetorial e transformações lineares 12 Esse resultado não aconteceu por acaso Temos o seguinte teorema que também pode ser encontrado em Nicholson 2015 Teorema seja TR2 R2 uma transformação linear no plano euclidiano com representação dada por MT são equivalentes as seguintes afirmações 1 T é invertível isto é MT é invertível 2 Existe uma transformação linear S tal que TºS SºT I22 Além disso a matriz de S é dada por MT 1 Aqui é fundamental destacar a relação entre a transformação e sua forma matricial T é invertível se e somente se MT também for Essas relações nos permitem estabelecer um procedimento alternativo para encontrar a inversa de algumas matrizes Veja o exemplo a seguir Considere a matriz MT cos 60º sen 60º sen 60º cos 60º que representa uma rotação de 60º no sentido antihorário em torno da origem Calculando os valores de seno e cosseno MT pode ser escrita como MT 1 2 3 2 3 2 1 2 Nessa situação conhecemos bem a transformação geométrica envolvida Sabemos por exemplo que a transformação inversa seria uma rotação de 60º no sentido horário Essa transformação teria sua forma matricial dada por MT 1 cos 60º sen 60º sen 60º cos 60º 13 Geometria vetorial e transformações lineares Novamente calculando os valores de seno e cosseno obtemos MT 1 1 2 3 2 3 2 1 2 Essa MT 1 é nossa candidata à matriz inversa Vejamos se de fato ela é inversa de MT Para tal basta calcular os produtos MTMT 1 e MT 1MT Temos MTMT 1 1 2 3 2 3 2 1 2 1 2 3 2 3 2 1 2 1 0 0 1 De forma semelhante também obtemos MT 1MT 1 2 3 2 3 2 1 2 1 2 3 2 3 2 1 2 1 0 0 1 Assim MT 1 é de fato a inversa da matriz apresentada inicialmente O procedimento utilizado no exemplo anterior pode ser sumarizado da seguinte maneira 1 Observar a transformação geométrica induzida pela matriz caso ela exista 2 Procurar pela transformação inversa 3 Encontrar a matriz dessa transformação Assim como matrizes transformações lineares também apresentam a noção de núcleo que também se relaciona com o fato de uma transformação linear e por consequência a matriz que a induz ser ou não invertível Vamos denotar que o núcleo por NullT de uma transformação linear T é o conjunto de todos os vetores do v plano euclidiano tais que Tv 0 Geometria vetorial e transformações lineares 14 Segue da definição de uma transformação linear que o vetor nulo 0 sempre pertence ao núcleo de uma transformação linear isto é T00 se v NullT então todo múltiplo de v também pertencerá Essas observações somadas aos resultados previamente apresentados nos permitem apresentar o seguinte resultado Teorema seja TR2R2 uma transformação linear cuja forma matricial é MT são equivalentes as seguintes informações detMT0 NullT0 T é invertível MT é invertível Veja a seguir um exemplo de aplicação desse resultado Exemplo Considere A uma transformação de rotação de 90 no sentido antihorário Qual é o núcleo dessa transformação Como visto nas seções anteriores a forma matricial dessa transformação é dada por R90 cos 90 sen 90 sen 45 cos 90 Calculando os valores de seno e cosseno obtemos R90 0 1 1 0 Não é difícil perceber que o determinante dessa matriz é igual 1 e portanto diferente de zero Como consequência do resultado anterior temos NullT 0 Como um último resultado apresentamos um teorema que permite identifi car rotações e reflexões em torno de retas que passam pela origem a partir dos determinantes de suas matrizes Esse resultado também pode ser encontrado em Nicholson 2015 Teorema seja TR2 R2 uma transformação linear no plano euclidiano com forma matricial dada por MT temos que 4 T é uma rotação se e somente se detMT 1 5 T é reflexão se e somente se detMT 1 ANTON H BUSBY R C Álgebra linear contemporânea Porto Alegre Bookman 2006 NICHOLSON W K Álgebra linear 2 ed Porto Alegre McGrawHill 2006 Leitura recomendada LIPSCHUTZ S LIPSON M L Álgebra linear 4 ed Porto Alegre Bookman 2011 Coleção Schaum Geometria vetorial e transformações lineares 16 Encerra aqui o trecho do livro disponibilizado para esta Unidade de Aprendizagem Na Biblioteca Virtual da Instituição você encontra a obra na íntegra Conteúdo SAGAH SOLUÇÕES EDUCACIONAIS INTEGRADAS ÁLGEBRA LINEAR Silvano Antonio Alves Pereira Junior O espaço vetorial Rⁿ dependência e independência linear Objetivos de aprendizagem Ao final deste texto você deve apresentar os seguintes aprendizados Definir dependência e independência linear Relacionar dependência e independência linear com os conceitos de gerador e matriz inversa Reconhecer a interpretação geométrica de dois vetores linearmente dependentes Introdução Neste capítulo exploraremos um pouco mais os conjuntos de vetores em Rⁿ Você verá as definições de conjuntos linearmente independentes e dependentes conforme Nicholson 2006 Seguiremos estabelecendo conexão entre a geometria e as combinações lineares bem como relacionando as ideias de dependência independência linear e gerador com matrizes Dependência e independência linear Começamos com o resgate do conceito de combinação linear Dado um conjunto de vetores v₁ v₂ vₖ em Rⁿ diremos que o vetor w é uma combinação linear desses se existirem a₁ a₂ aₖ em R tais que w a₁v₁ a₂v₂ aₖvₖ Veja a seguir um exemplo de combinação linear No plano euclidiano ℝ2 temos alguns exemplos interessantes Os vetores e 1 e e 2 1 0 0 1 geram o espaço ℝ2 Em particular dado um vetor v a b podemos escrevêlo como uma combinação linear de e 1 e e 2 Com efeito temos v a b ae1 be2 a b 0 b 1 0 0 1 a 0 Mais precisamente qualquer vetor do plano pode ser escrito como uma combinação linear de e 1 e e 2 Consideremos agora um conjunto de vetores em ℝn que diremos que é linearmente independente se os únicos valores de a1 a2 ak em ℝ que tornam a combinação verdadeira são a1 a2 ak 0 Em outras palavras um conjunto de vetores é linearmente independente se e somente se a única combinação deles que resulta no vetor nulo for a que apresenta todos os coeficientes iguais a zero No exemplo anterior os vetores e 1 e e 2 1 0 0 1 formavam um conjunto de vetores linearmente independentes De fato se ae1 be2 0 teríamos a 0 0 0 b 0 Portanto a única combinação desses vetores que resulta no vetor nulo é a que tem todos os coeficientes nulos O espaço vetorial ℝn dependência e independência linear 2 Como era de se esperar nem todo conjunto de vetores é linearmente independente Considere o conjunto e1 e2 w formado pelos vetores do exemplo anterior e w 2 3 Utilizando o resultado desse exemplo podemos escrever w 2e1 3e2 Segue daí pelas propriedades algébricas dos vetores que também podemos escrever w 2e1 3e2 0 Ou seja existem coeficientes não todos nulos que formam uma combinação do vetor igual ao nulo O conjunto apresentado na segunda parte do exemplo anterior nos fornece um primeiro exemplo de um conjunto linearmente dependente Diremos que um conjunto em ℝ é linearmente dependente se existirem coeficientes a1 a2 ak em ℝ tais que Isto é existe uma combinação não nula que resulta no vetor nulo Uma interpretação importante de um conjunto linearmente dependente é que qualquer um dos vetores desse conjunto pode ser escrito como combinação linear dos demais Veja o exemplo a seguir Ainda no espírito do exemplo anterior vamos considerar o espaço ℝ3 De forma semelhante ao que ocorre com ℝ2 qualquer vetor v a b c em espaço ℝ3 pode ser escrito como uma combinação linear dos vetores e1 e2 e e3 1 0 0 0 1 0 0 0 1 Com efeito temos 3 O espaço vetorial ℝn dependência e independência linear v a b c ae1 be2 ce3 a b c 1 0 0 0 1 0 0 0 1 Ainda como em ℝ2 o conjunto e1 e2 e3 é linearmente independente Considere agora o conjunto formado por e1 e2 e3 w onde w 5 3 15 Tal conjunto é linearmente dependente de vetores Com efeito temos do apresentado anteriormente que w 5e1 3e2 15e3 5 3 15 Segue que w 5e1 3e2 15e3 0 Como dito podemos escrever qualquer um dos vetores de um conjunto linearmente dependente como combinação dos demais como e3 w e1 e2 1 15 1 3 1 5 Um importante teorema sobre esse assunto é apresentado em Nicholson 2006 Teorema se em ℝn é um conjunto linearmente independente então todo vetor em ger tem uma escrita única como combinação linear dos vetores v i Em palavras se um conjunto de geradores é linearmente independente cada vetor do espaço gerado é escrito de maneira única a menos da ordenação como combinação linear dos vetores geradores Veja o seguinte exemplo sobre conjuntos geradores linearmente independentes O espaço vetorial ℝn dependência e independência linear 4 Considere a matriz identidade Inn Vamos mostrar que as colunas dessa matriz formam um conjunto gerador de ℝn linearmente independente Temos Inn 1 0 0 1 e os vetores e1 e2 en 1 0 0 0 1 0 0 0 1 Verificamos primeiramente que esse conjunto gera o espaço ℝn Seguindo a mesma ideia apresentada nos exemplos anteriores temos que dado um vetor w є Rn w1 w2 wn podemos escrever w w1 w2 wn w1e1 w2e1 wnen w1 w2 wn 1 0 0 0 1 0 0 0 1 concluindo que gere1 e2 en ℝn Agora a parte sobre a independência linear digamos que exista uma combinação linear dos vetores e1 e2 en tal que a1e1 a2e2 anen 0 Teríamos então a1 0 0 0 0 a2 0 0 0 0 an 0 a1 0 a2 0 an 0 Portanto a única combinação desses vetores que resulta no vetor nulo é a com todos os coeficientes nulos 5 O espaço vetorial ℝn dependência e independência linear Gerador e matriz inversa O último exemplo da seção anterior nos fornece uma bela ideia de como conjuntos geradores estão relacionados com conjuntos linearmente indepen dentes Agora você verá de perto essa relação e como matrizes inversas e determinantes podem ser utilizadas para auxiliar na identificação de conjuntos linearmente independentes de vetores O método do exemplo anterior pode ser sumarizado da seguinte maneira NICHOLSON 2006 Teste para independência linear para verificar que um conjunto de vetores em ℝn é linearmente independente proceda do seguinte modo 1 Escreva uma combinação linear dos vetores e iguale ao vetor nulo 2 Mostre que a única maneira de isso ocorrer é trivialmente ou seja com todos os coeficientes iguais a zero É claro que se existir alguma solução não trivial o conjunto de vetores é linearmente dependente Veja mais um exemplo em que podemos utilizar essa ideia Considere a matriz A 1 2 0 0 2 1 0 0 0 0 1 2 0 0 3 6 Vamos verificar que as colunas dela não formam um conjunto linearmente inde pendente de vetores Temos os seguintes vetores O espaço vetorial ℝn dependência e independência linear 6 v1 v2 v3 v4 1 2 0 0 2 1 0 0 0 0 2 6 0 0 1 3 Escrevemos a combinação linear a1v1 a2v2 a3v3 a4v4 0 que dá origem ao seguinte sistema linear a1 2a2 0 2a1 a2 0 a3 2a4 0 3a3 6a4 0 Resolvendo esse sistema por substituição por exemplo obtemos a1 a2 a3 a4 0 O conjunto dos vetores coluna da matriz portanto é um conjunto linearmente dependente Ainda sobre o exemplo anterior é importante observar que o sistema linear associado ao problema poderia ser escrito em forma matricial como Observe primeiramente que o sistema é homogêneo Portanto se a matriz principal for invertível ele admite como solução apenas o vetor nulo Com efeito a matriz principal do sistema tem determinante igual 36 e portanto é invertível Segue que a única solução possível para esse sistema é a trivial Resumindo o fato exposto temos o seguinte teorema NICHOLSON 2015 Seja A uma matriz n n então as seguintes afirmações são equivalentes 1 A é invertível 2 As colunas de A são linearmente independentes em ℝn 3 As colunas de A geram o espaço ℝn 4 As linhas de A são linearmente independentes em ℝn 5 As linhas de A geram o espaço ℝn 7 O espaço vetorial ℝn dependência e independência linear Esse método de verificar se a matriz é invertível para concluir sobre a independência de um conjunto de vetores pode ser muito útil Veja o exemplo a seguir Vamos utilizar o resultado anterior para verificar que os vetores a seguir formam um conjunto de vetores linearmente independentes e mais gerv1 v2 v3 v4 ℝ4 v1 v2 v3 v4 1 0 0 0 2 1 0 0 0 3 4 5 3 2 3 0 Começamos montando uma matriz A cujas colunas são esses vetores Temos A 1 2 3 0 0 1 2 3 0 0 3 4 0 0 0 5 Pelo teorema anterior basta verificar se a matriz A é invertível ou não para podermos obter as informações desejadas Observe que a matriz A é diagonal superior e seu determinante é igual ao produto dos elementos em sua diagonal Segue que detA 1 1 3 5 15 0 Concluímos portanto que A é invertível Segue do teorema que os vetores formam um conjunto linearmente independente de geradores do espaço ℝ4 Consideremos os vetores v1 v2 cosθ senθ senθ cosθ Vamos verificar que para qualquer valor de θ esses vetores formam um conjunto de geradores linearmente independentes para o plano euclidiano Com efeito construímos a matriz A cosθ senθ senθ cosθ O espaço vetorial ℝn dependência e independência linear 8 O determinante dela é dado por detA cosθ cosθ senθsenθ detA cos2θ sen2θ 1 onde essa última igualdade é uma identidade trigonométrica fundamental Veja na Figura 1 alguns vetores dessa forma 22 2 18 16 14 12 1 08 06 04 02 0 02 04 06 08 1 12 14 16 18 2 16 14 12 1 08 06 04 02 02 04 06 08 1 90º 45º Figura 1 Representação de vetores com coordenadas determinadas por valores de seno e cosseno A matriz do exemplo anterior é de rotação Ainda é possível ver a relação entre dependência e independência linear e geometria Para encerrar este tópico veja ainda um teorema apresentado em Ni cholson 2015 Um conjunto de vetores em ℝn é linearmente dependente se e somente se pelo menos um dos vetores pode ser escrito como combinação linear dos demais 9 O espaço vetorial ℝn dependência e independência linear Combinações lineares e geometria Na seção anterior você estudou sobre a relação entre matrizes invertíveis sistemas lineares e independência linear de conjuntos de vetores Agora você terá maior contato com a geometria dos espaços ℝn e algumas de suas relações com conjuntos geradores dependência e independência linear Em continuação ao tópico anterior um corolário imediato daquele teorema pode ser enunciado como em Nicholson 2015 Corolário sejam u e v vetores não nulos em ℝ3 ou ℝ2 então 1 u v é linearmente dependente se e somente se os vetores são paralelos 2 u v é linearmente independente se e somente se os vetores não são paralelos Esse simples resultado pode nos ajudar a estabelecer alguns testes muito úteis para a compreensão de algumas propriedades geométricas No plano euclidiano por exemplo é muito importante conhecer quando dois vetores são paralelos Veja o exemplo a seguir Considere os vetores v1 v2 1 2 10 20 Eles são paralelos Podemos verificar por inspeção direta se existe α ℝ tal que v1 αv2 Por outro lado pelos resultados estudados até este ponto sabemos que tais vetores são paralelos se e somente se forem linearmente dependentes E eles assim serão se o determinante da matriz a seguir for igual a zero A 1 10 2 20 Temos detA 1 20 2 10 20 20 0 Logo os vetores são de fato paralelos Observe que em ℝ3 não podemos utilizar determinante para verificar a condição de paralelismo O espaço vetorial ℝn dependência e independência linear 10 Uma consequência importante desse corolário é a possibilidade de deter minar se duas retas em ℝ2 são paralelas ou não com o simples cálculo de um determinante Em ℝ3 temos algumas possibilidades quanto à geometria de espaços gerados Conjuntos com um único vetor não nulo dão origem a retas em ℝ3 Conjunto com dois vetores linearmente independentes geram como su bespaços planos em ℝ3 Por fim conjuntos com três vetores linearmente independentes geram o próprio espaço ℝ3 Unindo essa informação com a ideia de que em transformações matriciais as colunas geram o espaço imagem podemos determinar a geometria do espaço imagem por meio da dependência ou independência linear dos vetores coluna da matriz da transformação Veja o exemplo a seguir Considere a matriz A 4 1 5 7 5 2 9 3 6 Qual a geometria do espaço imagem dessa transformação reta plano ou todo o espaço Um primeiro teste que podemos fazer é o cálculo do determinante da matriz Se o determinante for diferente de zero as colunas serão linearmente independentes e portanto gerariam o espaço Obtemos que o determinante da matriz é igual a zero Logo as colunas não são linearmente independentes e existem números a b c ℝ não todos nulos que sejam solução do sistema 4a b 5c 0 7a 5b 2c 0 9a 3b 6c 0 Resolvendo esse sistema linear pelo método de eliminação gaussiana por exemplo obtemos a solução a 1 b 1 c 1 Temos portanto 1 1 1 4 7 9 1 5 3 5 2 6 0 0 0 11 O espaço vetorial ℝn dependência e independência linear Segue dessa última igualdade que 1 1 4 7 9 1 5 3 5 2 6 A terceira coluna é a soma das duas primeiras que por sua vez não são paralelas De fato não existe λ ℝ tal que 4 7 9 1 5 3 λ Dessa maneira o espaço imagem dessa transformação é um plano em ℝ3 Observe ainda que o sistema poderia ter sido resolvido com a simples constatação de que a última coluna é a soma das duas primeiras apenas seguindo o caminho contrário Veja outro exemplo sobre a geometria do espaço imagem de transformações matriciais Considere a seguinte matriz H 5 7 9 0 2 4 0 6 8 Vamos determinar a geometria do espaço imagem dessa transformação Podemos procurar por alguma combinação linear mais evidente como no exemplo anterior Observe que a primeira coluna parece o resultado da diferença entre o dobro da segunda coluna e a terceira De fato a conta é válida para os dois primeiros elementos mas falha no terceiro 5 2 7 9 0 2 2 4 0 2 6 8 O espaço vetorial ℝn dependência e independência linear 12 Seguimos então calculando o determinante dessa matriz obtendo detH 40 Uma vez que o determinante é diferente de zero sabemos que a matriz H é invertível e suas colunas formam um conjunto linearmente independente Assim o espaço imagem da transformação matricial é o próprio ℝ3 As relações de dependência e independência linear fornecem poderosas informações sobre conjuntos de vetores Futuramente você aprenderá sobre o importante papel que conjuntos geradores linearmente independentes exercem em álgebra linear É importante estar atento ao fato de que em muitas das contas envolvendo trans formações matriciais podemos utilizar os vetores linha ao invés dos vetores coluna NICHOLSON W K Álgebra linear 2 ed São Paulo McGrawHill 2006 Leitura recomendada ANTON H BUSBY R C Álgebra linear contemporânea Porto Alegre Bookman 2007 LIPSCHUTZ S LIPSON M Álgebra linear 4 ed Porto Alegre Bookman 2011 Coleção Schaum Referência 13 O espaço vetorial ℝn dependência e independência linear Encerra aqui o trecho do livro disponibilizado para esta Unidade de Aprendizagem Na Biblioteca Virtual da Instituição você encontra a obra na íntegra Conteúdo SagaH SOLUÇÕES EDUCACIONAIS INTEGRADAS ÁLGEBRA LINEAR Marcelo Maximiliano Danesi Espaços vetoriais dependência e independência linear Objetivos de aprendizagem Ao final deste texto você deve apresentar os seguintes aprendizados Definir os conceitos de dependência e independência linear para espaços vetoriais gerais Demonstrar a independência linear Avaliar se um conjunto dado é independente a partir de suas propriedades Introdução Neste capítulo você vai definirá o conceito de independência linear entre vetores dentro da definição generalizada dos espaços vetoriais Também verá exemplos de independência e dependência linear no espaço vetorial das matrizes dos polinômios e principalmente das funções A generalização de independência linear depende fortemente da definição estudada no Rn Você verá como esse conhecimento anterior está sendo usado como base e como adaptamos propriedades do Rn para o espaço vetorial das matrizes dos polinômios e das funções em R Dependência e independência linear Dados E espaço vetorial e um conjunto não vazio de vetores B u1 u2 un E dizemos que B é um conjunto linearmente independente se α1 u1 α2 u2 αn un 0 admite apenas a solução trivial α1 α2 αn 0 Caso contrário se houver solução além dessa dizemos que B é um conjunto linearmente dependente No espaço vetorial P2 dos polinômios de grau menor ou igual a 2 de coeficientes reais considere o conjunto B u1 u2 u3 tal que u1 x2 2x 1 u2 3x2 x u3 5x 3 Esse conjunto é linearmente dependente pois α1u1 α2u2 α3u3 0 admite a solução não trivial α1 3 α2 1 α3 1 de modo que 3u1 1u2 1u3 0 Um caso particular da definição é o caso onde B contém dois vetores Nesse caso B u1 u2 é linearmente dependente se e somente se α1u1 α2u2 0 admite solução não trivial tal que α1 α2 0 Assim a igualdade é equi valente a E podemos concluir que um conjunto de dois vetores é linearmente depen dente se e somente se u1 e u2 são vetores múltiplos Espaços vetoriais dependência e independência linear 2 Espaços vetoriais dependência e independência linear 3 Exemplo No espaço vetorial M32 R das matrizes 3 2 de coeficientes reais considere os conjuntos 1 B1 u1 2 3 1T u2 1 1 3 2 1 2 2 B2 v1 2 2 6 4 2 4 v2 3 3 9 6 3 6 Observe o seguinte B1 é linearmente independente pois não existe λ ℝ tal que u1 λu2 Para isso basta verificar que a igualdade u1 λu2 é equivalente ao sistema a seguir o qual não tem solução 2 1λ 1 2λ 3 1λ 2 1λ 1 3λ 0 2λ B2 é linearmente dependente pois existe λ ℝ tal que v1 λv2 Para isso verificamos que a igualdade v1 λv2 é equivalente ao sistema 2 3λ 4 6λ 2 3λ 2 3λ 6 9λ 4 6λ que tem solução λ 23 Isto é 1 2 2 6 4 2 4 23 3 3 9 6 3 6 0 0 0 0 0 0 A última igualdade do exemplo anterior sinaliza um detalhe muito sutil da definição de conjuntos linearmente independentes Nas condições da definição dizer que B é linearmente independente significa que a única combinação linear que resulta no vetor nulo é a combinação α1u1 α2u2 αnun 0 onde α1 α2 αn 0 Estamos destacando essa sutiliza pelo exemplo a seguir Exemplo No espaço vetorial C0IR das funções reais contínuas em IR considere os conjuntos 1 B1 u1 cos2x u2 1 sen2x 2 B2 v1 senx v2 cosx E observe o seguinte B1 é linearmente dependente pois existe λ IR tal que u1 λu2 Para isso temos que nos lembrar da relação fundamental trigonométrica que afirma para todo x IR cos2x sen2x 1 Portanto cos2x 1 1 sen2 x Essa igualdade vale para todo x IR B2 é linearmente independente pois não existe λ IR tal que v1 λv2 essa última igualdade ocorre porque v1 λv2 significa que senx λcosx Ou de forma equivalente senx cosx tgx λ onde a função tgx não é constante Isto é não existe λ tal que v1x λv2x para todo x IR Esse último exemplo saiu um pouco da nossa zona de conforto porque nem sempre conseguimos identificar de imediato as várias formas que uma função assume O critério a seguir ajuda imensamente nesse sentido Dados I ℝ intervalo aberto e o espaço vetorial C0I das funções reais contínuas em I se as funções u1 u2 un são diferenciáveis pelo menos n 1 vezes em I ANTON RORRES 2012 e a função for diferente de zero em pelo menos um ponto do intervalo I então as funções u1 u2 un são linearmente independentes em C0I Também podemos referir à função anterior como wronskiano de u1 u2 un ou Wu1 u2 un Essa definição será bastante utilizada na resolução de equações diferenciais A função u representa a derivada de primeira ordem da função u ux e a função un representa a derivada de nésima ordem da função u ux de forma que u e un du dx dnu dxn Veremos um exemplo sobre esse critério Em C0ℝ considere v1 senx v2 cosx Para esse conjunto o wronskiano calcula Wx det det senx senx cosx cosx sen2x cos2x 1 v1 v2 v1 v2 senx cosx cosx senx Assim Wx 1 para todo x ℝ e esse conjunto é linearmente independente 5 Espaços vetoriais dependência e independência linear Cuidado o critério fornecido pelo wronskiano é bastante poderoso mas nada garante a sua recíproca Isto é nas hipóteses da condição se Wu1 u2 un 0 para todo x I não necessariamente u1 u2 un é linearmente dependente ou independente Em C 0ℝ considere u1 u2 u3 tal que u1 x2 2x 1 u2 3x2 x u3 5x 3 Para esse conjunto o wronskiano calcula Wx det det u1 u2 u3 u1 u2 u3 u1 u2 u3 x2 2x 1 3x2 x 5x 3 2x 2 6x 1 5 2 6 0 0 3x2 x52 5x 32x 26 0 26x 15x 3 65x2 2x 1 90x2 34x 36 90x2 34x 36 0 Assim Wx 0 para todo x ℝ Não podemos garantir que esse conjunto seja linearmente independente Outras propriedades Antes de prosseguirmos é importante citarmos outras propriedades já co nhecidas e generalizar mais algumas Dados E espaço vetorial B E um conjunto de vetores se I 0 B então B é linearmente dependente II B u1 e u1 0 então B é linearmente independente III B u1 u2 então B é linearmente independente se e somente se u1 λu2 para todo λ ℝ IV E ℝn e B u1 u2 um onde m n então B é linearmente dependente Espaços vetoriais dependência e independência linear 6 V B é linearmente dependente então existe u B tal que u é combinação linear dos demais vetores em B VI B u1 u2 um é linearmente independente v E e v gerB então B v u1 u2 um v é linearmente independente Demonstração da independência linear A ideia agora é mostrarmos por meio de uma série de exemplos como veri ficamos a definição de independência linear nos diferentes espaços vetoriais Começando com um exemplo no espaço vetorial Pn n ℕ fixado dos polinômios de grau menor ou igual a n e de coeficientes reais Sejam n 3 e u1 u2 u3 P3 tal que u1 x3 2x 4 u2 x2 1 u3 2x3 x2 x 1 Pela definição u1 u2 u3 é linearmente independente se α1u1 α2u2 α3u3 0 admite apenas a solução trivial α1 α2 α3 0 Substituindo u1 u2 u3 na condição anterior podemos reescrevêla como α1x3 2x 4 α2x2 1 α32x3 x2 x 1 0 Reorganizando os termos de acordo com as potências de x a igualdade fica α1 2α3x3 α2 α3x2 2α1 α3x 4α1 α2 α3 0 Essa igualdade afirma então que cada coeficiente à esquerda é igual ao respectivo coeficiente do vetor nulo à direita Ou seja α1 2α3 0 α2 α3 0 2α1 α3 0 4α1 α2 α3 0 7 Espaços vetoriais dependência e independência linear é equivalente à equação matricial 1 0 2 0 1 1 2 0 1 4 1 1 α1 α2 α3 0 0 0 0 Aplicando o método de Gauss podemos escalonar essa matriz de forma que 1 0 2 0 1 1 2 0 1 4 1 1 1 0 2 0 1 1 0 0 5 0 1 7 1 0 2 0 1 1 0 0 5 0 0 6 1 0 2 0 1 1 0 0 1 0 0 0 é uma matriz triangular superior com 3 pivôs o que significa que a única solução dessa equação é a solução trivial α1 α2 α3 0 e u1 u2 u3 é linearmente independente É interessante observar que no exemplo anterior existe uma relação di reta entre a independência linear dos vetores u1 u2 u3 em P3 e a dos vetores v 1 1024 v 2 0101 v 3 2111 em ℝ4 os vetores coluna da matriz Essa relação serve para mostrar que o espaço Pn não é tão diferente do ℝn1 uma vez que identificamos o polinômio u anxn a1x a0Pn como o vetor v an a1 a0 ℝn1 Para todo n ℕ Pn é um subespaço vetorial de C 0ℝ Logo podemos usar o wronskiano para determinar a independência de polinômios O próximo exemplo explora uma relação similar no espaço vetorial Mmn ℝ n m ℕ fixados das matrizes m n de coeficientes reais Espaços vetoriais dependência e independência linear 8 Sejam m 3 n 2 e u1 u2 u3 u4 M32ℝ tal que u1 3 12 2 6 4 11 u2 0 3 4 0 2 4 u3 1 2 2 2 0 1 u4 3 2 0 1 3 2 Pela definição u1 u2 u3 u4 é linearmente independente se α1u1 α2u2 α3u3 α4u4 0 admite apenas a solução trivial α1 α2 α3 α4 0 Substituindo u1 u2 u3 u4 na condição anterior podemos reescrevêla como α1 α2 α3 α4 3 12 2 6 4 11 0 3 4 0 2 4 1 2 2 2 0 1 3 2 0 1 3 2 0 0 0 0 0 0 Somando as matrizes temos 3α1 1α3 3α4 2α1 4α2 2α3 4α1 2α2 3α4 12α1 3α2 2α3 2α4 6α1 2α3 1α4 11α1 4α2 1α3 2α4 0 0 0 0 0 0 Essa igualdade afirma então que cada entrada à esquerda seja igual à respectiva entrada do vetor nulo à direita Ou seja 3α1 1α3 3α4 0 12α1 3α2 2α3 2α4 0 2α1 4α2 2α3 0 6α1 2α3 1α4 0 4α1 2α2 3α4 0 11α1 4α2 1α3 2α4 0 9 Espaços vetoriais dependência e independência linear é equivalente à equação matricial 3 0 1 3 12 3 2 2 2 4 2 0 6 0 2 1 4 2 0 3 11 4 1 2 α1 α2 α3 α4 0 0 0 0 0 0 Aplicando o método de Gauss podemos escalonar essa matriz de forma que 3 0 1 3 12 3 2 2 2 4 2 0 6 0 2 1 4 2 0 3 11 4 1 2 1 2 1 0 12 3 2 2 3 0 1 3 6 0 2 1 4 2 0 3 11 4 1 2 1 2 1 0 0 21 14 2 0 6 4 3 0 12 8 1 0 6 4 3 0 18 12 2 1 2 1 0 0 21 14 2 0 6 4 3 0 0 0 5 0 0 0 6 0 0 0 7 1 2 1 0 0 21 14 0 0 6 4 0 0 0 0 1 0 0 0 0 0 0 0 0 1 2 1 0 0 3 2 0 0 3 2 0 0 0 0 1 0 0 0 0 0 0 0 0 3 0 1 0 0 3 2 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 é uma matriz com 3 pivôs uma variável livre o que significa que existe solução não nula e u1 u2 u3 u4 é linearmente dependente Em particular as soluções da equação matricial são da forma α1 α2 α3 α4 α3 1 3 2 1 0 3 com α3 ℝ o que significa que 13 23 1 0 0 3 12 2 6 4 11 0 3 4 0 2 4 1 2 2 2 0 1 3 2 0 1 3 2 ou 1 13 23 1 2 2 2 0 1 3 12 2 6 4 11 0 3 4 0 2 4 u3 u1 u2 1 3 2 3 Isso confere com a propriedade que diz que se o conjunto é linearmente dependente então algum vetor é combinação dos demais Espaços vetoriais dependência e independência linear 10 Como no exemplo anterior temos uma relação direta entre a independência linear dos vetores u1 u2 u3 u4 em M32ℝ e a dos vetores coluna da matriz da equação Essa relação alerta como podemos entender a independência linear das matrizes em Mmn ℝ a partir de vetores no ℝmn Inclusive podemos enunciar o seguinte Dado B u1 u2 uk conjunto contido em E espaço vetorial então B é linearmente dependente se I E ℝn e k n II E Pn e k n 1 III E Mmn ℝ e k m n Em C0ℝ não existe essa estimativa Inclusive podemos usar o wronskiano para mostrar que para todo k ℕ é possível construir um conjunto de k vetores linearmente independentes em C0ℝ A saber fixado k ℕ para o conjunto u1 1 u2 x u3 x2 uk xk1 calculamos Essa última matriz é uma diagonal superior e o seu determinante é o produto das constantes positivas ao longo da sua diagonal principal Logo Wx 0 para todo x ℝ e esse conjunto é linearmente independente em C 0ℝ Avaliação da independência linear a partir das propriedades do conjunto A ideia agora é mostrarmos por meio de uma série de exemplos como identificamos se um conjunto é linearmente independente ou dependente de acordo com as propriedades que listamos No exemplo a seguir exploramos a propriedade que fala sobre a independên cia de um conjunto formado por dois vetores Isto é que u1 u2 é linearmente independente se e somente se u1 λu2 para todo λ ℝ 11 Espaços vetoriais dependência e independência linear No espaço vetorial C 0ℝ das funções reais contínuas em ℝ considere os conjuntos 1 B1 u1 ex u2 2ex 2 B2 v1 ex v2 xex e observe o seguinte 1 B1 é linearmente dependente pois existe λ ℝ tal que u1 λu2 Para isso basta tomar λ 12 e observar que para todo x ℝ ex 2ex 1 2 2 B2 é linearmente independente pois não existe λ ℝ tal que v1 λv2 Essa última igualdade ocorre porque v1 λv2 significa que ex λxex Ou de forma equivalente que ex xex λ 1 x onde a função 1x não é uma constante Aliás também podemos justificar que esse conjunto é linearmente independente tomando o wronskiano Wx det det x 1e2x xe2x e2x v1 v2 v1 v2 ex xex ex x 1ex Assim Wx e2x 0 para todo x ℝ E podemos afirmar que esse conjunto é de fato linearmente independente A maior observação que temos de fazer em relação ao exemplo anterior é em relação ao uso do termo vetores múltiplos quando estamos no espaço das funções O conjunto ex 2ex é linearmente dependente porque essas funções são múltiplas por um número real enquanto que o conjunto ex xex é linearmente independente porque essas funções não são múltiplas por um número real No exemplo a seguir examinaremos que em Pn qualquer conjunto de n 2 vetores ou mais é obrigatoriamente linearmente dependente mas sempre é possível determinar um conjunto de n 1 vetores linearmente independente Em P2 o conjunto dos polinômios de grau menor ou igual a 2 de coeficientes reais considere os conjuntos Espaços vetoriais dependência e independência linear 12 1 B1 u1 u2 u3 u4 tal que u1 3x2 2x 1 u2 x2 x 1 u3 x2 x u4 3x 5 2 B2 v1 1 v2 x v3 x2 Observe o seguinte 1 Pela definição u1 u2 u3 u4 é linearmente independente se α1u1 α2u2 α3u3 α4u4 0 admite apenas a solução trivial α1 α2 α3 α4 0 Substituindo u1 u2 u3 u4 na condição anterior podemos reescrevêla como α13x2 2x 1 α2x2 x 1 α3x2 x α43x 5 0 Somando e reorganizando os termos de acordo com as potências de x a igualdade fica 3α1 α2 α3x2 2α1 α2 α3 3α4x α1 α2 5α4 0 Logo para cada coeficiente temos 3α1 α2 α3 0 2α1 α2 α3 3α4 0 α1 α2 5α4 0 que é equivalente à equação matricial α1 α2 α3 α4 0 0 0 3 1 1 0 2 2 1 3 1 1 0 5 Observe que para essa quantidade de vetores o método de Gauss nos indicará ao menos uma variável livre e por esse motivo u1 u2 u3 u4 é linearmente dependente Em particular 3 1 1 0 2 2 1 3 1 1 0 5 1 1 0 5 3 1 1 0 2 2 1 3 1 1 0 5 0 4 1 15 0 0 1 13 1 1 0 5 0 4 0 28 0 0 1 13 1 1 0 5 0 1 0 7 0 0 1 13 1 0 0 2 0 1 0 7 0 0 1 13 13 Espaços vetoriais dependência e independência linear e as soluções da equação matricial são da forma α1 α2 α3 α4 α42 7 13 1 com α4 ℝ o que significa que 23x2 2x 1 7x2 x 1 13x2 x 13x 5 0 ou 13x 5 23x2 2x 1 7x2 x 1 13x2 x u4 2u1 7u2 13u3 2 B2 é linearmente independente pois calculando o wronskiano Wx det det 2 v1 v2 v3 v1 v2 v3 v1 v2 v3 1 x x2 0 1 2x 0 0 2 Assim Wx 2 0 para todo x ℝ E podemos afirmar que esse conjunto é de fato linearmente independente Analogamente em Mmn ℝ qualquer conjunto de m n 1 vetores ou mais é obrigatoriamente linearmente dependente e sempre é possível determinar um conjunto de m n vetores linearmente independente Em M23ℝ qualquer conjunto com 7 ou mais matrizes é linearmente dependente enquanto que a seguinte matriz é um conjunto linearmente independente A11 A12 A13 A21 A22 A23 1 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 1 0 0 0 0 0 0 1 0 0 0 Espaços vetoriais dependência e independência linear 14 No exemplo a seguir coloque em prática a propriedade que dados B u1 u2 um e v E tal que B é linearmente independente e v gerB então B v u1 u2 um v é linearmente independente Em P3 o conjunto dos polinômios de grau menor ou igual a 3 de coeficientes reais considere o conjunto B1 u1 3x2 4 u2 2x2 1 e repare que esse é linearmente independente pois u1 não é múltiplo de u2 Se tomarmos v P3 um polinômio de grau 1 qualquer então v gerB1 e B2 B1 v é linearmente independente Podemos repetir esse processo mais uma vez já que nenhum polinômio de grau 3 pode ser escrito como combinação dos vetores em B2 Se w é um polinômio de grau 3 qualquer então B3 u1 u2 v w é linearmente independente ANTON H RORRES C Álgebra linear com aplicações 10 ed Porto Alegre Bookman 2012 Leituras recomendadas ANTON H BIVENS I DAVIS S Cálculo 10 ed Porto Alegre Bookman 2014 v 1 LAY D LAY S MACDONALD J Álgebra linear e suas aplicações 5 ed Rio de Janeiro LTC 2018 Referência 15 Espaços vetoriais dependência e independência linear Encerra aqui o trecho do livro disponibilizado para esta Unidade de Aprendizagem Na Biblioteca Virtual da Instituição você encontra a obra na íntegra Conteúdo S A G A H SOLUÇÕES EDUCACIONAIS INTEGRADAS ÁLGEBRA LINEAR Marcelo Maximiliano Danesi O espaço vetorial Rⁿ formas quadráticas Objetivos de aprendizagem Ao final deste texto você deve apresentar os seguintes aprendizados Definir formas quadráticas Reconhecer uma matriz positiva definida Resolver o algoritmo para a Decomposição de Cholesky Introdução Neste capítulo você aprenderá sobre matrizes ortogonais matrizes simétricas as propriedades que permitem reescrever as matrizes simétricas a partir de matrizes ortogonais o uso desse método para formas quadráticas a classificação de matrizes simétricas em relação aos seus autovalores e o cálculo da Decomposição de Cholesky para matrizes de uma classe das simétricas Para uma matriz simétrica seus autovalores e autovetores são essenciais para um tipo especial de diagonalização Usaremos essa decomposição para definir e reescrever as formas quadráticas dimensionais e classificálas Veremos também como a diagonalização de matrizes simétricas por matrizes ortogonais permite calcular uma forma especial de decomposição LU a decomposição de Cholesky que quando possível requer aproximadamente metade do número de operações necessário na fase de eliminação da fatoração LU Decomposição espectral e formas quadráticas Uma matriz A n n é dita ortogonal se A AT AT A I Isto é se A1 AT Considere as matrizes quadradas A 35 45 45 35 B 15 26 230 25 16 130 0 16 530 Mostre que A e B são matrizes ortogonais pela definição Solução A forma mais simples é calcular o produto da matriz pela sua transposta Se esse produto resultar na matriz identidade então a matriz em questão será ortogonal A AT 35 45 45 35 35 45 45 35 1 0 0 1 B BT 15 26 230 25 16 130 0 16 530 15 25 0 26 16 16 230 130 530 1 0 0 0 1 0 0 0 1 O espaço vetorial ℝn formas quadráticas 2 O exemplo anterior é interessante por mostrar uma propriedade entre linhas e colunas de uma matriz ortogonal frente ao produto escalar Se A é matriz n n então as afirmações a seguir são equivalentes a A é ortogonal b Os vetores coluna de A formam uma base ortonormal do ℝn c Os vetores linha de A formam uma base ortonormal do ℝn Isso significa que as matrizes ortogonais são essencialmente matrizes de mudança de base Uma matriz A aij n n é dita simétrica se AT A Isto é se para cada i j 1 n aij aji Um caso particular de matriz simétrica são as matrizes diagonais Uma matriz D dij n n é dita diagonal se dij 0 para i j e i j 1 n isto é uma matriz diagonal apresenta entradas nulas em todas as posições fora da diagonal principal 3 O espaço vetorial ℝn formas quadráticas Estas matrizes são simétricas A 3 4 4 3 B 1 5 0 5 2 3 0 3 0 C 2 0 0 0 0 0 0 0 5 Em particular C é uma matriz diagonal Estamos definindo essas características para mostrar no exemplo a se guir a relação entre matrizes ortogonais e simétricas Generalizaremos esse resultado na sequência Diagonalize a matriz simétrica A 3 4 4 3 Solução A equação característica de A é detA λI 0 det 3 λ 4 4 3 λ 0 3 λ3 λ 16 0 9 3λ 3λ λ2 16 0 λ2 25 0 O espaço vetorial ℝn formas quadráticas 4 Isto é A tem autovalores λ₁ 5 e λ₂ 5 Calculando os respectivos autovetores temos o seguinte Para λ₁ 5 A5x₁ x₂ 0 0 2 4 4 5 x₁ x₂ 0 0 que nos leva a 1x₁ 2x₂ 0 x₂ x₂ Portanto o autovetor associado é o vetor ṽ₁ 21 Para λ₂ 5 A5x₁ x₂ 0 0 8 4 4 2 x₁ x₂ 0 0 que nos leva a x₁ x₁ 2x₁ x₂ 0 Portanto o autovetor associado é o vetor ṽ₂ 12 Assim A contém dois autovalores reais e distintos com autovetores formando uma base C ṽ₁ 21 ṽ₂ 12 ortogonal do R² Lembrandose de que qualquer múltiplo de um autovetor também é um autovetor associado ao mesmo autovalor podemos normalizar a base B e construir uma base ortonormal de autovetores G 25 15 15 25 Dessa forma P e D 25 15 15 25 5 0 0 5 P1AP D são matrizes tal que P1AP D Como P é ortogonal P1 PT Logo 25 15 15 25 25 15 15 25 5 0 0 5 3 4 4 3 Isto é a matriz simétrica A é diagonalizável por uma matriz ortogonal formada pelos seus autovetores O resultado do exemplo não é uma coincidência Inclusive podemos enunciar que uma matriz A n n é diagonalizável por matriz ortogonal se e somente se A for matriz simétrica Outras propriedades de uma matriz A n n simétrica são as seguintes a A tem n autovalores reais contando multiplicidades b A dimensão do subespaço correspondente a cada autovalor λ é igual à multiplicidade da raiz λ na equação característica de A c Os subespaços definidos por cada autovalor são ortogonais entre si no sentido que os autovetores correspondentes a autovalores distintos são ortogonais Em suma toda matriz simétrica é diagonalizável por uma matriz ortogonal composta por autovetores Mas como proceder quando temos raízes múltiplas na equação característica O espaço vetorial ℝn formas quadráticas 6 Exemplo Diagonalize a matriz simétrica A 2 2 4 2 5 2 4 2 2 Solução A equação característica de A é λ³ 9λ² 108 0 que pode ser fatorada em λ3λ6² 0 Isto é A tem autovalores λ₁ 3 λ₂ 6 e λ₃ 6 Calculando os respectivos autovetores temos o seguinte Para λ₁ 3 A3x₁ x₂ x₃ 0 0 0 5 2 4 2 8 2 4 2 5 x₁ x₂ x₃ 0 0 0 que nos leva a 1x₁ 2x₂ 0 x₂ x₂ 2x₂ x₃ 0 Portanto o autovetor associado é o vetor ṽ₁ 212 Para λ₂ λ₃ 6 A 6I x₁ x₂ x₃ 0 0 0 4 2 4 2 1 2 4 2 4 x₁ x₂ x₃ 0 0 0 que nos leva a x₁ x₁ 2x₁ 1x₂ 2x₃ 0 x₃ x₃ ou na forma vetorial x₁ x₂ x₃ x₁1 2 0 x₃0 2 1 Portanto os autovetores associados são os vetores v₂ 1 2 0 v₃ 0 2 1 Isso nos mostra que o subespaço associado ao autovalor λ₂ λ₃ 6 tem dimensão 2 e é ortogonal ao subespaço determinado pelo autovalor λ₁ 3 Contudo a base associada a λ₂ λ₃ 6 não é ortogonal O que faremos é ortogonalizar o conjunto v₂ v₃ a fim de encontrar uma base ortogonal do subespaço definido pelo autovalor λ₂ λ₃ 6 Podemos fazer essa ortogonalização devido ao fato de que uma combinação linear de autovetores do mesmo autovalor também é um autovetor associado ao mesmo autovalor Aplicando o método de GramSchmidt à base v₂ v₃ obtemos a base ortogonal 1 2 0 154 2 5 Assim A contém três autovalores reais contando multiplicidade com autovetores formando uma base ortogonal do ℝ² C 2 1 2 1 2 0 15 4 2 5 Lembrandose de que qualquer múltiplo de um autovetor também é um autovetor associado ao mesmo autovalor podemos normalizar a base B e construir uma base ortonormal de autovetores G 2 3 1 3 2 3 0 1 5 2 5 4 45 2 45 5 45 Dessa forma 23 15 445 13 25 245 23 0 545 P e D 3 0 0 0 6 0 0 0 6 são matrizes tal que P1AP D Como P é ortogonal P1 PT Logo 3 0 0 0 6 0 0 0 6 23 13 23 15 25 0 445 245 545 23 15 445 13 25 245 23 0 545 2 2 4 2 5 2 4 2 2 Isto é a matriz simétrica A é diagonalizável por uma matriz ortogonal formada pelos seus autovetores Como esse exemplo ilustra o processo de diagonalizar ortogonalmente uma matriz simétrica A n n pode ser descrito pelo algoritmo a seguir a Calcule as raízes reais contando multiplicidade da equação caracte rística de A b Encontre a base de autovetores associada a cada autovalor c Use o método de GramSchmidt em cada uma das bases encontradas para obter uma base ortonormal do subespaço associado a cada autovalor d Escreva as matrizes a seguir respeitando a ordem que o autovalor λi está associado ao autovetor coluna v i P v 1 v 2 v n e 9 O espaço vetorial ℝn formas quadráticas D λ1 0 0 λ1 0 0 0 0 λn e Escreva a diagonalização ortogonal de A de forma que PTAP D D λ1 0 0 λ1 0 0 0 0 λn Note que no algoritmo de diagonalização ortogonal a matriz P é ortogonal e a matriz D é diagonal Uma consequência da decomposição descrita anteriormente é que respei tando a notação anterior podemos escrever a matriz A como A PDPT Isto é λ1 0 0 λ2 0 0 0 0 λn A v 1 v 2 v n v 1 v 2 v n T T T o que é equivalente a escrever A λ1v 1v 1 λ2v 2v 2 λnv nv n T T T O espaço vetorial ℝn formas quadráticas 10 que é denominada decomposição espectral da matriz A Para fins de cálculo vale ressaltar que v iv i T é o produto matricial da matriz v i n 1 pela matriz v i T 1 n resultando numa matriz n n Pelo cálculo do exemplo anterior podemos afirmar que a diagonalização de A 2 2 4 2 5 2 4 2 2 nos dá que 3 0 0 0 6 0 0 0 6 23 13 23 15 25 0 445 245 545 23 15 445 13 25 245 23 0 545 A Assim a decomposição espectral de A é A 3 23 13 23 6 15 25 0 23 13 23 15 25 0 445 245 545 6 445 245 545 Formas quadráticas Uma forma quadrática é uma função Q ℝn ℝ que transforma o vetor x x1 x2 xn no número real dado pela expressão Qx x Ax x1 x2 xn A T x1 x2 xn onde A é uma matriz simétrica n n associada à forma quadrática Q 11 O espaço vetorial ℝn formas quadráticas No ℝ2 escreva a expressão que calcula Q se A 3 4 4 3 Pela definição Qx1 x2 x1 x2 3 4 4 3 x1 x2 Logo Qx1 x2 3x1 3x2 8x1x2 2 2 É um pouco complicado representar por fórmulas mas fixado n ℕ dada uma expressão quadrática Qx1 x2 xn α1x1 α2x2 αnxn β12x1x2 βn1nxn1xn 2 2 2 Com α1 αn β12 βn1n ℝ sempre conseguiremos encontrar uma matriz simétrica A n n que reduz a expressão acima a uma forma quadrá tica Para tanto basta ocupar a diagonal principal de A com os coeficientes dos termos xi 2 e dividir igualmente entre as posições ij e ji de A i j os coeficientes dos termos cruzados xixj O espaço vetorial ℝn formas quadráticas 12 Escreva a matriz simétrica associada à expressão quadrática Qx1 x2 x3 1x1 3x2 2x3 7x1x2 5x1x3 4x2x3 2 2 2 Pelo que observamos a matriz simétrica A aij contém na diagonal principal os elementos a11 1 a22 3 a33 2 e nas posições anteriores da diagonal principal i j os elementos a12 72 a13 52 a23 42 De forma simétrica preenchemos as demais posições e a matriz A é A 1 72 52 72 3 2 52 2 2 Mudança de variáveis nas formas quadráticas É fato que os termos cruzados xixj estão ligados aos termos fora da diagonal principal da matriz A A dúvida que nos resta é será que existe uma mudança de coordenadas de x x1 x2 xn para y y1 y2 yn de maneira que a forma quadrática nas novas coordenadas não contenha termos cruzados yiyj A resposta é praticamente imediata agora que compreendemos o processo de diagonalização de uma matriz simétrica por matrizes ortogonais Dada uma matriz simétrica A n n existem P e D matrizes n n tal que P é ortogonal e formada por uma base de autovetores de A e D é uma matriz diagonal formada pelos autovalores de A Se considerarmos a mudança de coordenadas x Py ou reciprocamente P1x y temos Qx Py T APy y T PT APy y TDy 13 O espaço vetorial ℝn formas quadráticas Sendo essa última forma livre dos termos cruzados yiyj Vamos aproveitar os exemplos anteriores para mostrar como a mudança de coordenadas funciona para uma forma quadrática do ℝ2 A forma quadrática Qx1 x2 3x1 3x2 8x1x2 2 2 tem matriz simétrica associada A 3 4 4 3 que pode ser ortogonalmente diagonalizável por P e D 25 15 15 25 5 0 0 5 Se tomarmos a mudança de coordenadas x1 y1 y2 2 5 1 5 x2 y1 y2 1 5 2 5 ou reciprocamente y1 x1 x2 2 5 1 5 y2 x1 x2 1 5 2 5 podemos reescrever Q como Qy1 y2 5y1 5y2 2 2 O espaço vetorial ℝn formas quadráticas 14 Para o cálculo de P1x y lembrese de que P1 PT já que P é ortogonal Nessas condições as colunas de P são chamadas de eixos principais da forma quadrática Qx enquanto que y é o vetor formado pelas coordenadas de x relativas à base ortonormal do ℝn formada pelos eixos principais que são autovetores de A Repare também que em relação a y a forma quadrática é dada pela soma dos termos yi 2 e seus coeficientes são os autovalores de A Uma forma quadrática tem por imagem o conjunto de todos os valores possíveis de Qx com x variando em ℝn A mudança de coordenadas x Py não altera a imagem da forma quadrática ou seja a imagem de Qx com x variando em ℝn é igual à imagem de y TDy com y variando em ℝn Matriz positiva definida Dada uma forma quadrática existe uma mudança de coordenadas x Py tal que Qx λ1y1 λ2y2 λnyn 2 2 2 onde λ1 λ2 λn ℝ são os autovalores da matriz simétrica associada a Qx Essa conclusão nos permite classificar a forma Qx por meio dos autovalores λ1 λ2 λn Dada A matriz simétrica n n e Qx forma quadrática definida por A dizemos que a forma Q é 15 O espaço vetorial ℝn formas quadráticas positiva definida se e somente se todos os autovalores de A forem positivos e nesse caso Qx 0 se x 0 negativa definida se e somente se todos os autovalores de A forem negativos e nesse caso Qx 0 se x 0 indefinida se e somente se A tiver pelo menos um autovalor positivo e um autovalor negativo Um cuidado que devemos ter ao tentar classificar a forma Q a partir da matriz A é que os sinais das entradas de A não determinam a classificação de Q Veja a seguir o caso de uma matriz simétrica A com todas as entradas positivas mas que define uma forma indefinida Exemplo A matriz simétrica A 2 4 4 3 define a forma quadrática Qx₁ x₂ 2x₁² 3x₂² 8x₁x₂ Contudo essa forma não é positiva definida pois Q12 12 24 34 84 0 Podemos verificar que Q é uma forma indefinida por meio do cálculo dos autovalores de A que são λ₁ 5 652 e λ₂ 5 652 Isto é λ₁ 0 e λ₂ 0 importantes nas aplicações da teoria Então falaremos um pouco mais sobre como identificar se uma matriz simétrica é positiva definida sem calcular os seus autovalores Dada uma matriz A n n tal que A aij definimos a késima submatriz principal de A como sendo para cada k 1 n a matriz Ak a11 a12 a1k a21 a22 a2k ak1 ak2 akk Assim uma matriz simétrica A é positiva definida se e somente se o determinante de cada submatriz principal de A for positivo A matriz simétrica do exemplo anterior A 2 4 4 3 tem submatrizes principais A1 2 A2 2 4 A 4 3 Calculando os determinantes dessas matrizes percebemos que detA1 2 0 detA2 10 0 Portanto A não é positiva definida O exemplo anterior mostra que esse critério não nos dá os valores dos autovalores mas permite identificar se a matriz simétrica A é positiva definida ou não 17 O espaço vetorial ℝn formas quadráticas A matriz simétrica 1 1 1 1 1 4 2 0 1 2 3 1 1 0 1 2 B tem submatrizes principais B1 1 B2 1 1 1 4 B3 1 1 1 1 4 2 1 2 3 B4 B Calculando os determinantes dessas matrizes temos que detB1 1 detB2 3 detB3 5 detB4 3 Portanto podemos afirmar que B é positiva definida sem calcular os autovalores de B Fatoração de Cholesky Quando uma matriz simétrica A é positiva definida podemos aplicar um tipo decomposição muito útil para uma importante classe de algoritmos computa cionais Algebricamente essa decomposição é consequência da fatoração LU Contudo para calcularmos a fatoração de Cholesky não precisamos calcular as matrizes L e U poupando assim um esforço computacional considerável O espaço vetorial ℝn formas quadráticas 18 Dada uma matriz simétrica A aij n n A é positiva definida se e so mente se existir uma única matriz L n n triangular inferior com elementos da diagonal estritamente positivos tal que A L LT A fatoração de Cholesky possibilita calcular a matriz L lij entrada por entrada de forma recorrente de acordo com os seguintes passos 1 Para as entradas acima da diagonal principal i j lij 0 2 Para a primeira coluna l11 a11 li1 se i 2 n ai1 l11 3 Da segunda linha em diante calculamos entrada por entrada de acordo com lij se 1 j i n aij li1lj1 li2lj2 lij1ljj1 ljj lii aii li1 li2 lii1 se i 2 n 2 2 2 Aplique a decomposição de Cholesky à matriz simétrica A 2 2 4 2 5 2 4 2 21 19 O espaço vetorial ℝn formas quadráticas Solução Explicitamente L é uma matriz 3 3 tal que L l11 l12 l13 l21 l22 l23 l31 l32 l33 Assim para as entradas acima da diagonal principal l12 l13 l23 0 Para a primeira coluna calculamos l11 a11 2 e l21 a21 l11 2 2 l31 a31 l11 4 2 Para a segunda linha calculamos l22 a22 l21 5 222 5 2 3 2 Para a terceira linha calculamos l32 a32 l31l21 l22 2 4222 3 6 3 l33 a33 l31 l32 21 422 632 21 8 12 1 2 2 Logo L 2 0 0 22 3 0 42 63 1 e A 2 0 0 22 3 0 42 63 1 2 2 4 2 5 2 4 2 21 2 22 42 0 3 63 0 0 1 O espaço vetorial ℝn formas quadráticas 20 É importante ressaltar que enquanto A for uma matriz simétrica positiva de finida todas as operações quocientes e raízes quadradas estão bemdefinidas e podemos calcular a matriz L de acordo com o algoritmo da decomposição de Cholesky Aplique a decomposição de Cholesky à matriz simétrica 1 1 1 1 1 4 2 0 1 2 3 1 1 0 1 2 B Solução Explicitamente L é uma matriz 4 4 tal que L l11 l12 l13 l14 l21 l22 l23 l24 l31 l32 l33 l34 l41 l42 l43 l44 Assim para as entradas acima da diagonal principal l12 l13 l14 l23 l24 l34 0 Para a primeira coluna calculamos l11 a11 1 1 e l21 1 a21 l11 1 1 l31 1 a31 l11 1 1 l41 1 a41 l11 1 1 21 O espaço vetorial ℝn formas quadráticas Para a segunda linha calculamos l22 a22 l21 4 1 3 2 Para a terceira linha calculamos l32 a32 l32l21 l22 2 11 3 1 3 l33 a33 l31 l32 3 12 12 3 1 1 1 2 2 Para a quarta linha calculamos l42 a42 l41l21 l22 0 11 3 1 3 l44 a44 l41 l42 l43 2 12 132 132 2 2 2 5 3 l43 a43 l41l31 l42l32 l33 1 11 1313 1 1 3 Logo L 1 0 0 0 1 3 0 0 1 13 1 0 1 13 13 53 e B 1 1 1 1 1 4 2 0 1 2 3 1 1 0 1 2 1 0 0 0 1 3 0 0 1 13 1 0 1 13 13 53 1 1 1 1 0 3 13 13 0 0 1 13 0 0 0 53 É curioso observar nos últimos dois exemplos que o trabalho computa cional necessário para decomposição de B não é tão maior que o feito para a matriz A Nesse sentido é possível concluir que a decomposição de Cholesky é computacionalmente viável mesmo para matrizes de tamanho considerável O espaço vetorial ℝn formas quadráticas 22 ANTON H RORRES C Álgebra linear com aplicações 10 ed Porto Alegre Bookman 2012 CHAPRA S C CANALE R P Métodos numéricos para engenharia 7 ed Porto Alegre AMGH 2016 LAY D C LAY S R MACDONALD J J Álgebra linear e suas aplicações 5 ed Rio de Janeiro LTC 2018 Leituras recomendadas 23 O espaço vetorial ℝn formas quadráticas Encerra aqui o trecho do livro disponibilizado para esta Unidade de Aprendizagem Na Biblioteca Virtual da Instituição você encontra a obra na íntegra Conteúdo SaGaH SOLUÇÕES EDUCACIONAIS INTEGRADAS ÁLGEBRA LINEAR Marcelo Maximiliano Danesi Espaços vetoriais base Objetivos de aprendizagem Ao final deste texto você deve apresentar os seguintes aprendizados Reconhecer os conceitos de base e dimensão de espaços vetoriais gerais Avaliar se um conjunto é base de um espaço vetorial dado Encontrar uma base para um espaço vetorial dado Introdução Neste capítulo você definirá o conceito geral de base e dimensão de espaços vetoriais verá exemplos de conjuntos e suas bases e como podemos usar o conceito de dimensão junto com as transformações lineares a fim de melhor perceber os subespaços associados a ela Além disso saberá como construir a base de espaço vetorial usando as técnicas desenvolvidas em ℝⁿ A definição de base e dimensão num espaço vetorial qualquer permite uma aproximação do ℝⁿ por meio das coordenadas de um vetor e fornece as ferramentas que faltavam para entendermos as transformações lineares mediante aplicação do teorema do núcleo e da imagem Base e dimensão de espaços vetoriais Dentro da noção geral de espaço vetorial uma base de um espaço vetorial E é um conjunto B E linearmente independente e gerador de E Isto é se v E e B é uma base de E então podemos escrever de forma única v como uma combinação linear de elementos em B A saber existem v₁ vₙ B e α₁ αₙ ℝ tal que v α₁ v₁ αₙ vₙ Adicionalmente se B v1 vn então os números α1 αn são cha mados de coordenadas do vetor v na base B e escrevemos vB α1 αn Em P3 o espaço vetorial dos polinômios de grau menor ou igual a 3 e de coeficientes reais considere o conjunto formado pelos vetores v1 x3 2x 4 v2 x2 3x 2 v3 x3 2x2 3x 3 v4 4x3 x2 2x 7 a B v1 v2 v3 v4 é um conjunto linearmente independente b Como podemos escrever o vetor v 11x3 3x2 7x 4 como uma combinação linear dessa base Isto é quais são as coordenadas de v na base B Solução a B é um conjunto linearmente independente porque a combinação linear α1 v1 α2 v2 α3 v3 α4 v4 0 admite apenas a solução trivial α1 α2 α3 α4 0 Verificamos isso por meio da substituição dos vetores na igualdade α1 x3 2x 4 α2 x2 3x 2 α3 x3 2x2 3x 3 α44x3 x2 2 7 0 distribuindo e arranjando os termos de acordo com as potências de x α1 α3 4α4 x3 α2 2α3 α4 x2 2α1 3α2 3α3 2α4 x 4α1 2α2 3α3 7α4 0 Dessa forma podemos afirmar que em cada coeficiente α1 α3 4α4 0 α2 2α3 α4 0 2α1 3α2 3α3 2α4 0 4α1 2α2 3α3 7α4 0 o que é equivalente à equação matricial 1 0 1 4 0 1 2 1 2 3 3 2 4 2 3 7 α1 α2 α3 α4 0 0 0 0 que admite apenas a solução trivial Podemos calcular isso por meio do método de Gauss Espaços vetoriais base 2 b Pela definição precisamos calcular α1 α2 α3 α4 de forma que v α1 v1 αn vn Para isso substituindo os vetores 11x3 3x2 7x 4 α1 x3 2x 4 α2 x2 3x 2 α3 x3 2x2 3x 3 α4 4x3 x2 2x 7 e distribuindo e arranjando os termos de acordo com as potências de x temos 11x3 3x2 7x 4 α1 α3 4α4 x3 α2 2α3 α4x2 2α1 3α2 3α3 2α4x 4α1 2α2 3α3 7α4 Dessa forma podemos afirmar que em cada coeficiente α1 α3 4α4 11 α2 2α3 α4 3 2α1 3α2 3α3 2α4 7 4α1 2α2 3α3 7α4 4 o que é equivalente à equação matricial 1 0 1 4 0 1 2 1 2 3 3 2 4 2 3 7 α1 α2 α3 α4 11 3 7 4 que podemos resolver usando o método de Gauss Desse modo podemos calcular que existe uma única solução dada por vB α1 α2 α3 α4 3 1 0 2 Uma observação relevante nesse momento é que estamos trabalhando de forma análoga à feita em ℝ𝑛 e aproveitando disso para usarmos os conceitos de ℝ𝑛 para a solução do problema geral Com a noção de base estabelecida podemos afirmar que se E admite uma base com n vetores então todas as bases de E têm o mesmo número n de vetores Dizemos então que a dimensão de E é n e escrevemos dimE n Reunindo todos esses resultados podemos estabelecer para alguns espaços vetoriais a noção de base canônica e calcular sua dimensão 3 Espaços vetoriais base 1 Em Pn o espaço vetorial dos polinômios de grau menor ou igual a n e de coeficientes reais esse espaço é gerado pela base canônica B 1 x x2 xn e dimPn n 1 2 Em P o espaço vetorial de todos os polinômios de coeficientes reais esse espaço é gerado pela base canônica B 1 x x2 xn e dimP 3 Em Mm n o espaço vetorial das matrizes m n de coeficientes reais esse espaço é gerado pela base canônica composta pelas matrizes e dimMmn mn Repare que P é um subespaço do espaço vetorial das funções reais con tínuas logo dimC0ℝ O próximo exemplo ajuda na visualização das bases e no cálculo da dimensão dos espaços listados anteriormente Em P4 o espaço vetorial dos polinômios de grau menor ou igual a 4 e de coeficientes reais gerado pela base canônica B 1 x x2 x3 x4 e dimP4 5 Em M2 3 o espaço vetorial das matrizes 2 3 de coeficientes reais gerado pela base canônica B A11 A12 A13 A21 A22 A23 1 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 1 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 e dimM2 3 6 Espaços vetoriais base 4 Admitimos como convenção que se E 0 então dimE 0 se B é a base canônica e α₁ αₙ ℝ são as coordenadas de v na base B escrevemos v α₁ αₙ por simplicidade Dado E espaço vetorial tal que dimE n destacamos as seguintes propriedades se u₁ uₘ E é linearmente independente então m n se E geru₁ uₙ então u₁ uₙ é linearmente independente se F é subespaço de E então dimF n e dimF n somente se F E Essas propriedades abrem caminho para o Teorema do Núcleo e da Imagem paralelo ao Teorema do Posto dados E₁ E₂ espaços vetoriais T E₁ E₂ transformação linear então NT u E₁ Tu 0 ImT w Tuu E₁ são respectivamente subespaços de E₁ e E₂ que satisfazem dimNT dimImT dimE₁ Exemplo Considere a transformação linear A P₄ P₅ tal que Aαx⁴ bx³ cx² dx e 2a b c dx⁵ a 2c d ex⁴ b d e x³ 2a 2b c 2d ex² 2a c ex 2a b 6c 3d 3e De imediato podemos afirmar que essa transformação não é sobrejetora pois ImT dimP₄ 5 enquanto que dimP₅ 6 Investigando o núcleo de T dado u αx⁴ bx³ cx² dx e P₄ temos que uNA se Au 0 Isto é se 2a b c dx⁵ a 2c d ex⁴ b d ex³ 2a 2b c 2d ex² 2a c ex 2a b 6c 3d 3e 0 A igualdade anterior ocorre se 2a b c d 0 a 2c d e 0 b d e 0 2a 2b c 2d e 0 2a c e 0 2a b 6c 3d 3e 0 o que é equivalente ao sistema matricial 2 1 1 1 0 1 0 2 1 1 0 1 0 1 1 2 2 1 2 1 2 0 1 0 1 2 1 6 3 3 TA a b c d e 0 0 0 0 0 0 Aplicando o método de Gauss na matriz TA calculamos suas equivalências de forma que TA 1 0 2 1 1 0 1 5 3 2 0 1 0 1 1 0 2 5 4 1 0 0 5 2 3 0 1 10 5 5 1 0 2 1 1 0 1 5 3 2 0 0 5 2 3 0 0 5 2 3 0 0 5 2 3 0 0 5 2 3 5 0 0 1 1 0 1 0 1 1 0 0 5 2 3 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 que equivale ao sistema 5a d e 0 b d e 0 5c 2d 3e 0 d d e e Espaços vetoriais base 6 ou a 15 d 15 e b d e c 25 d 35 e d d e e Isto é a b c d e d151 2510 e15 1 3501 com d e ℝ Dessa forma NA ger15 x4 x3 25 x2 x 15 x4 x3 35 x2 1 O que significa que NA é um subespaço vetorial de P4 de dimensão 2 e ImA é um subespaço vetorial de P5 de dimensão 3 Interessante é que podemos determinar a dimensão de ImA sem calculamos uma base desse subespaço Conjunto como base de espaço vetorial Dados E espaço vetorial e B E B é base de E se B for linearmente independente E gerB Observe que essa última condição pode ser substituída pela dimE dimgerB Assim podemos afirmar que um conjunto B é base de E se B tiver dimE vetores e for linearmente independente Exemplo Em P2 considere B v1 v2 v3 tal que v1 x2 2x 4 v2 x2 3x 2 v3 x2 2x 7 Como B tem dimP2 3 vetores só precisamos verificar que B é linearmente independente para afirmarmos que B é base de P2 Calculando o wronskiano de B Wx det v1 v2 v3 v1 v2 v3 v1 v2 v3 det x2 2x 4x2 3x 2x2 2x 7 2x 22x 32x 2 222 10 Assim Wx 0 e B é linearmente independente Logo podemos afirmar que B é base de P2 É importante também vermos alguns exemplos de quando um conjunto não é base do espaço vetorial que o contém Exemplo Em P2 considere as seguintes afirmações B1 v1 x 1 v2 x2 1 é um conjunto linearmente independente pois v1 e v2 não são múltiplos Contudo dimgerB1 2 logo B1 não é base de P2 que tem dimensão 3 B2 v1 v2 v3 v1 v2 possui três vetores mas é linearmente dependente porque v3 é combinação dos demais Logo dimgerB2 dimP2 e B2 não é base de P2 Construção de uma base para espaço vetorial Usando as propriedades que vimos até agora podemos afirmar que dados E espaço vetorial C v1 vn E se C é linearmente dependente então existe B C tal que B é linearmente independente e gerB gerC Em P2 considere C v1 v2 v3 tal que v1 x2 2x 1 v2 x2 x 2 v3 x2 4x 5 Podemos verificar que esse conjunto é linearmente dependente pois a igualdade α1v1 α2v2 α3v3 0 admite solução não trivial Substituindo os vetores α1x2 2x 1 α2 x2 x 2 α3 x2 4x 5 0 e distribuindo e associando os termos de acordo com a potência de x obtemos α1 α2 α3x2 2α1 α2 4α3 x α1 2α2 5α3 0 Assim a igualdade é válida se e somente se em cada coeficiente temos α1 α2 α3 0 2α1 α2 4α3 0 α1 2α2 5α3 0 que é equivalente à equação matricial 1 1 1 2 1 4 1 2 5 α1 α2 α3 0 0 0 Aplicando o método de Gauss à matriz dos coeficientes calculamos suas equiva lências de forma que 1 1 1 2 1 4 1 2 5 1 1 1 0 3 6 0 3 6 1 1 1 0 1 2 0 0 0 1 0 1 0 1 2 0 0 0 que equivale ao sistema α1 α3 0 α2 2α3 0 α3 α3 ou α1 α3 α2 2α3 α3 α3 9 Espaços vetoriais base Isto é α1 α2 α3 α3 1 2 1 com α3 ℝ e uma solução não trivial seria 1v1 2v2 1v3 0 ou v3 v1 2v2 mostrando que v3 é combinação linear de v1 e v2 Dessa maneira v1 v2 é um conjunto linearmente independente e gerv1 v2 gerC No exemplo anterior o isomorfismo entre Pn e ℝn1 poderia ser usado para justificar que quando escalonamos a matriz de coeficientes na forma triangular superior 1 1 1 0 1 2 0 0 0 essa matriz indica através dos seus pivôs que os vetores nas colunas 1 e 2 da matriz original eram linearmente independentes e o vetor na coluna 3 da matriz original era uma combinação deles onde 1 2 1 x2 2x 1 1 1 2 x2 x 2 Segue daí a afirmação que v1 v2 é um conjunto linearmente independente e gerv1 v2 gerC Isso significa que dado um conjunto C de vetores de E é possível por meio do Teorema do Posto reduzir esse conjunto obtendo um B linearmente independente tal que gerB gerC Além disso existe uma dualidade entre os métodos de ℝn1 e Pn que podem ser usados a nosso favor Espaços vetoriais base 10 Vamos aproveitar essa ideia da dualidade e descrever um algoritmo que permite calcular o complemento da base de um subespaço de E para obtermos uma base do próprio E quando E Pn ou E Mmnℝ Sejam E espaço vetorial e B u1 u2 ur à base de um subespaço de E então considere as coordenadas u1u2 ur dos vetores de B na base canônica de E escreva a matriz A u1 u2 urTrdimE encontre os l dimE r vetores em ℝdimE que geram a solução da equação matricial A x 0 escreva a base de E como a união de B e os l vetores em E calculados pelas coordenadas do passo anterior Vamos a alguns exemplos comentando cada passo até obtermos esse complemento da base dada Exemplo Em P2 sabemos que B v1 v2 tal que v1 x2 2x 1 v2 x2 x 2 são linearmente independentes e que gerB P2 Isso significa que deve existir v P2 tal que v B é base de P2 Aplicando o algoritmo que descrevemos procedemos da seguinte forma Na base canônica x2 x 1 de P2 escrevemos os vetores em coordenadas v1 1 2 1 v2 1 1 2 Assim a matriz A fica definida por A 1 2 1 1 1 223 Calculando a solução da equação matricial aplicamos o método de Gauss à matriz A calculando suas equivalências de forma que que equivale ao sistema ou Isto é a b c c1 1 1 com c ℝ e NA ger111 ℝ³ Esse resultado está de acordo com o que era esperando já que dimP₂ 3 r 2 implica que precisamos de l 3 2 1 vetores para complementar a base B Escrevemos o vetor v P₂ usando as coordenadas na base canônica v 1x² 1x 1 v B v₁ v₂ v é uma base de P₂ Wx det det 18 Logo Wx 0 e v₁ v₂ v é linearmente independente Fique atento Uma base é sempre um conjunto ordenado Estamos escrevendo a base canônica de Pₙ como xⁿ x 1 por uma questão de conveniência Os cálculos são totalmente análogos se usarmos essa base como 1 x xⁿ Vamos a mais um exemplo agora no espaço das matrizes Exemplo Em M₃x₂ℝ considere o conjunto Esse conjunto é linearmente independente e gerB M₃x₂ℝ Isso significa que deve existir v₅ v₆ M₃x₂ℝ tal que v₅ v₆ B é base de M₃x₂ℝ u uma vez que dimM₃x₂ℝ 6 Aplicando o algoritmo que descrevemos temos o seguinte Na base canônica de M₃x₂ℝ escrevemos os vetores em coordenadas v₁ 1 2 1 0 2 3 v₂ 2 1 0 2 1 1 v₃ 1 0 1 1 2 1 v₄ 2 3 0 2 0 1 Assim a matriz A fica definida por Calculando a solução da equação matricial aplicamos o método de Gauss à matriz A calculando suas equivalências de forma que 1 2 1 0 2 3 2 1 0 2 1 1 1 0 1 1 2 1 2 3 0 2 0 1 1 2 1 0 2 3 0 3 2 2 5 5 0 2 2 1 4 2 0 1 2 2 4 7 1 2 1 0 2 3 0 3 2 2 5 5 0 0 2 1 2 4 0 0 4 8 7 16 1 2 1 0 2 3 0 3 2 2 5 5 0 0 2 1 2 4 0 0 0 2 1 8 1 2 1 0 2 3 0 3 2 0 6 13 0 0 4 0 3 16 0 0 0 2 1 8 4 8 0 0 5 28 0 2 0 0 3 14 0 0 4 0 3 16 0 0 0 2 1 8 4 0 0 0 7 28 0 2 0 0 3 14 0 0 4 0 3 16 0 0 0 2 1 8 que equivale ao sistema 4a 7e 28f 0 2b 3e 14f 0 4c 3e 16f 0 2d e 8f 0 e e f f ou a e 7f 7 4 b e 7f 3 2 c e 4f 3 4 d e 4f 1 2 e e f f Espaços vetoriais base 14 Isto é a b c d e f e f774401 com e f ℝ e NA ger ℝ⁶ Esse resultado está de acordo com o que esperávamos de l 2 vetores para complementar a base B Escrevemos os vetores v₅ v₆ M₃x₂ℝ usando as coordenadas na base canônica v₅ v₆ B v₁ v₂ v₃ v₄ v₅ v₆ é uma base de M₃x₂ℝ Não será demonstrado neste material mas vale lembrarse de que v₁ v₂ v₃ v₄ v₅ v₆ é linearmente independente Leituras recomendadas ANTON H BIVENS I C DAVIS S L Cálculo 10 ed Porto Alegre Bookman 2014 2 v ANTON H RORRES C Álgebra linear com aplicações 10 ed Porto Alegre Bookman 2012 LAY D LAY S MACDONALD J Álgebra linear e suas aplicações 5 ed Rio de Janeiro LTC 2018 LIMA E Álgebra linear 9 ed Rio de Janeiro IMPA 2016 Encerra aqui o trecho do livro disponibilizado para esta Unidade de Aprendizagem Na Biblioteca Virtual da Instituição você encontra a obra na íntegra Conteúdo SAGAH SOLUÇÕES EDUCACIONAIS INTEGRADAS ÁLGEBRA LINEAR Marcelo Maximiliano Danesi Espaços vetoriais produtos internos gerais Objetivos de aprendizagem Ao final deste texto você deve apresentar os seguintes aprendizados Explicar a importância de produto interno e norma para um espaço vetorial Usar o produto interno em espaços vetoriais arbitrários Reconhecer o conceito de ortogonalidade Introdução Neste capítulo você definirá o conceito de produto interno e norma para um espaço vetorial qualquer com exemplos no espaço vetorial das nuplas reais das matrizes e das funções contínuas verá como a ortogonalidade fica definida de acordo com o produto interno do espaço vetorial e alguns exemplos de conjuntos ortogonais no espaço das funções O conceito de produto interno generaliza para um espaço vetorial qualquer a noção de medida de vetores ângulos distâncias e ortogonalidade definida pelo produto escalar no IRn Inclusive essa generalização permite que no IRn seja definida uma medida diferente da proposta pelo produto escalar criando uma geometria diferente entre os vetores Produto interno e norma Um produto interno num espaço vetorial E é uma função E E IR que associa a cada par de vetores u v E um número real u v chamado de produto interno de u por v de modo que dados u v w E e α IR sejam válidas as propriedades 1 u v 0 e u u 0 somente se u 0 positividade 2 u v v u comutatividade 3 u v w u v u w distributividade em relação à soma vetorial 4 u α v α u v associatividade Todo produto interno define o número real não negativo dito norma ou comprimento de u com respeito a O produto interno permite a extensão de noções de ângulo ortogonalidade comprimento e distância a espaços vetoriais que não necessariamente o ℝn Assim a geometria do espaço vetorial é definida pela associação do espaço com um produto interno a qual chamamos de espaço vetorial com produto interno No ℝn o produto interno canônico é o produto escalar e a norma canônica corresponde ao módulo do vetor u u u u Contudo o produto interno canônico não é o único no ℝn nem a única forma de medir comprimentos Em ℝ2 um produto interno não canônico é dado por D ℝ2 ℝ2 ℝ u1 u2 v1 v2D 3u1v1 5u2v2 Mostramos a seguir que essa função de fato satisfaz as propriedades necessárias pois dados u u1 u2 v v1 v2 w w1 w2 ℝ2 e α ℝ 1 u u D u1 u2 u1 u2D 3u1u1 5u2u2 3u1 2 5u2 2 0 Vale a igualdade se e somente se u1 u2 0 isto é se u 0 0 2 u v D u1 u2 v1 v2D 3u1v1 5u2v2 3v1u1 5v2v2 v1 v2 u1 u2D v u D 3 u v w D u1 u2 v1 v2 w1 w2D u1 u2 v1 w1 v2 w2D 3u1v1 w1 5u2v2 w2 3u1v1 5u2v2 3u1w1 5u2w2 u v D u w D Espaços vetoriais produtos internos gerais 2 4 u α v D u1 u2 α v1 v2D u1 u2 αv1 αv2D 3u1αv1 5u2αv2 α 3u1v1 5u2v2 α u v D Portanto de fato D é um produto interno no ℝ2 e a norma de acordo com D é dada por u D u u D 3u1 2 5u2 2 Nessa norma dados u 1 1 v 1 1 podemos calcular que o comprimento de u e v é u D 3 12 5 12 8 v D 3 12 5 12 8 ao mesmo tempo que 1 11 1D 3 1 1 5 1 1 3 5 2 Enquanto que pelo produto escalar u v são ortogonais já que u v 1 1 1 1 1 1 1 1 0 Isto é além de a norma D medir o comprimento dos vetores de maneira distinta da canônica ela também altera a relação de ortogonalidade entre vetores do ℝ2 No exemplo anterior usamos a notação D com intenção de distinguir D do produto interno definido pelo produto escalar e generalizar o produto interno D numa classe maior no ℝn denominada produto interno ponderado Produto interno em espaços vetoriais arbitrários Produto interno ponderado em ℝ n Em ℝn dada uma matriz diagonal 3 Espaços vetoriais produtos internos gerais n n podemos generalizar o exemplo anterior definindo o funcional Esse funcional define um produto interno no ℝn se λi 0 para todo i 1 n Mostramos a seguir que esse produto interno de fato satisfaz as proprie dades necessárias pois dados u u1 un v v1 vn w w1 wn ℝn e α ℝ 1 pois cada parcela é positiva e a igualdade vale se e somente se u1 un 0 logo 2 3 4 Portanto de fato D é um produto interno em ℝn e a norma de acordo com D é dada por Espaços vetoriais produtos internos gerais 4 O produto interno ponderado recebe esse nome por admitir um peso λi 0 em cada direção xi Esse peso pode ser interpretado como uma importância maior ou menor dos dados naquela direção ou ainda como uma mudança de escala naquela direção Produto interno em Mmnℝ Em Mmnℝ com o espaço das matrizes mn de coeficientes reais um produto interno pode ser definido por onde BTA é uma matriz nn e trBTA é a soma do produto de todos os elementos de A e B de mesmos índices Essa definição não é intuitiva Então mostraremos como ela funciona em M23ℝ dadas as matrizes A a11 a12 a13 a21 a22 a23 B b11 b12 b13 b21 b22 b23 Temos BT A b11 b21 b12 b22 b13 b23 a11 a12 a13 a21 a22 a23 a11b11 a21b21 a12b12 a22b22 a13b13 a23b23 Observe que não calculamos as entradas fora da diagonal principal porque elas não serão necessárias para o cálculo do traço que calcula somente a soma dos elementos da diagonal principal Assim trBTA a11b11 a21b21 a12b12 a22 b22 a13b13 a23b23 5 Espaços vetoriais produtos internos gerais Uma forma alternativa de definir esse funcional é escrevendo que se A aijmn e B bijmn então A B a11b11 a12b12 a21b21 amnbmn sendo a última forma dada pelo somatório do produto de todos os termos de mesmo índice mais prática para a verificação das propriedades de produto interno Assim dados U uij V vij W wij Mmnℝ e α ℝ 1 e a igualdade vale se e somente se uij 0 para todo i j e portanto U 0 2 3 4 De fato é um produto interno em Mmnℝ e a norma de acordo com é dada por Em M23ℝ calcularemos o produto interno e a norma de algumas matrizes dadas U 1 0 2 2 1 1 V 0 3 1 2 0 1 W 6 2 1 2 1 1 Espaços vetoriais produtos internos gerais 6 Produto interno em C0a b Usando a teoria do cálculo em C0a b com o espaço das funções contínuas reais definidas no intervalo a b um produto interno pode ser definido por Mostramos a seguir que essa função de fato satisfaz as propriedades necessárias pois dados u ux v vx w wx C0a b e α ℝ 1 pois a integral de uma função positiva é positiva e a igualdade vale se e somente se ux 0 pois u é função contínua 2 3 Calculamos U U 1 1 0 0 2 2 2 2 1 1 1 1 11 U V 1 0 0 3 2 1 2 2 1 0 1 1 1 U W 1 6 0 2 2 1 2 4 1 5 1 1 0 V V 0 0 3 3 1 1 2 2 0 0 1 1 15 V W 0 6 3 2 1 1 2 4 0 5 1 1 0 W W 6 6 2 2 1 1 4 4 5 5 1 1 0 73 De acordo com esse produto interno a norma dessas matrizes é U U U 11 V V V 15 W W W 73 7 Espaços vetoriais produtos internos gerais 4 Portanto de fato é um produto interno no C0a b e a norma de acordo com é dada por Para mostrarmos como esse produto interno funciona no que segue fixamos a 1 e b 1 de modo que a b 1 1 é um intervalo simétrico em torno de x 0 Assim dados u x v x2 w x3 podemos calcular que x x 1 1 x x dx 1 1 x2 dx x3 3 1 1 13 3 13 3 2 3 x x2 1 1 x x2 dx 1 1 x3 dx 0 x4 4 1 1 14 4 14 4 x2 x3 1 1 x2 x3 dx 1 1 x5 dx 0 x6 6 1 1 16 6 16 6 x x3 1 1 x x3 dx 1 1 x4 dx x5 5 1 1 15 5 15 5 2 5 x3 x3 1 1 x3 x3 dx 1 1 x6 dx x7 7 1 1 17 7 17 7 2 7 x2 x2 1 1 x2 x2 dx 1 1 x4 dx 2 5 Espaços vetoriais produtos internos gerais 8 De acordo com esse produto interno a norma dessas funções é x x x 2 3 x2 x2 x2 2 5 x3 x3 x3 2 7 Ortogonalidade Seja E um espaço vetorial munido do produto interno Dados u v E dizemos que u v são ortogonais com respeito ao produto interno se e somente se u v 0 e denotamos por u v Assim como na definição de produto interno é importante ressaltar que ortogonalidade não é uma propriedade intrínseca ou fora de qualquer con venção mas que depende do produto interno definido em E Se E aceita dois produtos internos distintos então por uma medida dois vetores podem ser ortogonais e por outra medida não Em ℝ2 dados os vetores u 2 3 v 3 2 w 5 2 e os produtos internos u1 u2 v1 v2 u1 u2 v1 v2 u1v1 u2v2 u1 u2 v1 v2D 3u1v1 5u2v2 repare que 1 com respeito ao produto escalar os vetores u e v são ortogonais pois u v 2 3 3 2 2 3 3 2 0 9 Espaços vetoriais produtos internos gerais 2 com respeito ao produto interno D os vetores u e v não são ortogonais pois u v D 3 2 3 5 3 2 12 Contudo em relação a D os vetores u e w são ortogonais uma vez que u w D 3 2 5 5 3 2 0 Nas condições da definição de ortogonalidade podemos afirmar as se guintes propriedades 1 0 v para todo v E 2 u v se e somente se v u 3 se u v para todo v E então u 0 4 se u v e α ℝ então α u v Além disso dado C u1 u2 un E dizemos que C é um conjunto ortogonal se os vetores de C são dois a dois ortogonais isto é se ui uj 0 se i j Citando o exemplo anterior em M23ℝ com o produto interno A B trBTA podemos afirmar que para as seguintes matrizes U 1 0 2 2 1 1 V 0 3 1 2 0 1 W 6 2 1 4 5 1 Espaços vetoriais produtos internos gerais 10 calculamos que U V 1 U W 0 V W 0 Dessa forma U e V não são ortogonais enquanto que U W e V W Adicionalmente pelas propriedades podemos afirmar que qualquer múltiplo de U é ortogonal a qualquer múltiplo de W Conjuntos ortogonais em C0L L Usando a teoria do cálculo seja L 0 e I L L um intervalo simétrico em torno de x 0 Em C0I retomamos o produto interno definido por e analisamos a ortogonalidade entre funções contínuas usando a propriedade da integral que afirma o seguinte 1 Se fx é função par uma função f I ℝ é dita par se fx fx para todo x I então para todo a 0 2 Se gx é função ímpar uma função g I ℝ é dita ímpar se gx gx para todo x I então para todo a 0 11 Espaços vetoriais produtos internos gerais 3 Se fx e gx são funções respectivamente par e ímpar então fx gx é ímpar e ₐª fxgx dx 0 Por essa propriedade podemos afirmar que em C⁰L L de acordo com esse produto interno toda função par é ortogonal à toda função ímpar Isto é o conjunto das funções pares e o das funções ímpares são ambos os subespaços de C⁰L L Exemplo Exemplos de funções pares são qualquer função constante fx k k ℝ qualquer monômio de grau par x² x⁴ x⁶ qualquer função cosseno da forma fx coskx k ℝ a soma de funções pares é uma função par o produto de uma função par por um número real é uma função par Exemplos de funções ímpares são qualquer monômio de grau ímpar x x³ x⁵ x⁷ qualquer função seno da forma fx senkx k ℝ a soma de funções ímpares é uma função ímpar o produto de uma função ímpar por um número real é uma função ímpar Exemplo Podemos citar o exemplo anterior em C⁰1 1 que calculamos para u x v x² w x³ que x x² 0 x x³ 25 x² x³ 0 O conjunto B x x³ é linearmente independente e todos os seus elementos são ortogonais em relação a x² Contudo B não é um conjunto ortogonal Estendendo o exemplo anterior podemos afirmar que um conjunto line armente independente do subespaço das funções ímpares em C0L L é o conjunto B x x3 x5 x7 x9 Contudo esse conjunto não é ortogonal Um conjunto ortogonal desse subespaço é fornecido pelos polinômios de Legendre C P1 P3 P5 dados por Em C01 1 podemos verificar explicitamente que os polinômios de Legendre P1 P3 P5 são dois a dois ortogonais Para isso calculamos P1 P3 1 1 x 5x3 3x dx 1 1 x4 dx 1 1 x2 dx 0 1 2 5 2 5 2 2 5 3 2 3 2 2 3 P1 P3 1 1 x 63x5 70x3 15x dx 1 1 x6 dx 1 1 x4 dx 1 1 x2 dx 1 8 63 8 70 8 15 8 0 63 8 2 7 70 8 2 5 15 8 2 3 P3 P5 1 1 5x3 3x 63x5 70x3 15x dx 1 1 x8 dx 1 1 x6 dx 1 1 x4 dx 1 1 x2 dx 1 5 1 5 45 16 315 16 539 16 285 16 2 9 0 315 2 2 7 539 16 2 5 285 16 2 3 45 16 Para o cálculo daws integrais vale lembrarse de que as integrais de x6 x4 e x2 foram calculadas anteriormente e que 1 1 x8 dx 29 13 Espaços vetoriais produtos internos gerais Os polinômios de Legendre surgem das soluções da equação de Legendre uma equação diferencial ordinária linear de 2ª ordem e podem ser descritos diretamente de várias maneiras Uma delas é por meio da fórmula de Rodrigues que calcula para cada n ℕ o polinômio de Legendre de grau n Pnx x2 1n 1 n 2n dn dxn É um resultado bastante importante que tanto B quanto C são bases do subespaço das funções ímpares de CL L o subespaço de C0L L das funções que possuem derivadas de todas as ordens ANTON RORRES 2012 Por outro lado um conjunto ortogonal no subespaço das funções pares é o conjunto Para mostrarmos que essas funções são duas a duas ortogonais precisamos de algumas propriedades do cálculo 1 Dados p q ℝ 2 Se k ℤ e k 0 então Espaços vetoriais produtos internos gerais 14 Assim dadas as funções n1 n2 ℕ n1 n2 temos que n1 n2 0 e Esse paralelo que fizemos serve para mostrar dois conjuntos ortogonais diferentes em C0L L que requerem diferentes abordagens para que essa ortogonalidade seja verificada Em termos de aplicações toda função em CL L pode ser escrita como uma combinação linear de polinômios via série de Taylor e Maclaurin ou via série de Legendre sendo esta última especialmente importante no eletromagnetismo e na solução do potencial elétrico com simetria axial De forma alternativa toda função em CL L pode ser escrita como uma combinação linear das funções via série de Fourier sendo essa decomposição importante no estudo de ondas eletromag néticas ondas mecânicas mecânica de fluidos termodinâmica e inúmeros outros problemas e uma das principais ferramentas das ciências aplicadas ANTON 2012 ANTON H RORRES C Álgebra linear com aplicações 10 ed Porto Alegre Bookman 2012 Leituras recomendadas ANTON H BIVENS I C DAVIS S L Cálculo 10 ed Porto Alegre Bookman 2014 2 v LAY D LAY S MACDONALD J Álgebra linear e suas aplicações 5 ed Rio de Janeiro LTC 2018 LIMA E Álgebra linear 9 ed Rio de Janeiro IMPA 2016 Referência 15 Espaços vetoriais produtos internos gerais Encerra aqui o trecho do livro disponibilizado para esta Unidade de Aprendizagem Na Biblioteca Virtual da Instituição você encontra a obra na íntegra Conteúdo SAGAH SOLUÇÕES EDUCACIONAIS INTEGRADAS Visite nosso site wwwmcgrawhillcombr Álgebra Linear apresenta uma breve introdução à adição de matrizes multiplicação por escalar e transposição para em seguida abordar de forma bastante didática o algoritmo de Gauss para a resolução de sistemas de equações lineares multiplicação de matrizes determinantes geometria vetorial espaço vetorial Rn e espaços vetoriais gerais entre outros O livro estruturado em cinco capítulos contém apêndices sobre trigonometria básica indução e polinômios assim como Respostas e Soluções Selecionadas Aplicações Livrotexto para a disciplina Introdução à Álgebra Linear dos cursos de Matemática Física Estatística Ciência da Computação e Engenharia bem como dos cursos de Economia e Administração Ciências Sociais e Química CapaNicholsonqxd 270856 916 AM Page 1 2a Edição ISBN 8586804924 Nenhuma parte desta publicação poderá ser reproduzida ou distribuída de qualquer forma ou por qualquer meio ou armazenada em um banco de dados ou sistema de recuperação sem o consentimento por escrito da Editora incluindo mas não limitado a qualquer rede ou outro dispositivo eletrônico de armazenamento ou transmissão ou difusão para ensino a distância Todos os direitos reservados 2006 de McGrawHill Interamericana do Brasil Ltda Av Engenheiro Luís Carlos Berrini 1253 10o andar 04571010 São Paulo SP Tradução do original em inglês Elementary Linear Algebra Copyright 2004 2001 de McGrawHill Ryerson Limited uma subsidiária da The McGrawHill Companies Inc ISBN da obra original 0070911428 Diretorgeral Adilson Pereira Editora de Desenvolvimento Ada Santos Seles Preparação de Texto Jorge Avelino Imagem de Capa Hideki KuwajimaPhotonica Editoração Eletrônica Printfit Soluções Se você tem dúvidas críticas ou sugestões entre em contato pelo endereço eletrônico sacgrupoacombr LinearAlgebraFMPortuguesqxd 290856 1016 AM Page ii N624a Nicholson W Keith Álgebra linear recurso eletrônico W Keith Nicholson tradução técnica Célia Mendes Carvalho Lopes Leila Maria Vasconcellos Figueiredo Martha Salerno Monteiro 2 ed Porto Alegre AMGH 2014 Editado como livro impresso em 2006 ISBN 9788580554779 1 Álgebra linear I Título CDU 5179863 Catalogação na publicação Poliana Sanchez de Araujo CRB 102094 122 Sistemas de Equações Lineares Um conjunto finito de equações lineares é chamado sistema de equações lineares ou simplesmente sistema linear Uma solução que satisfaz todas as equações do sistema é chamada solução do sistema A essência da álgebra linear é um procedimento rotineiro de encontrar todas as soluções de qualquer sistema de equações lineares Primeiro vejamos alguns exemplos Exemplo 3 No Exemplo 1 o sistema de duas equações lineares xy480000 10100 x11100 y50000 tem solução X x y 280000 200000 Observe que esse sistema tem uma única solução Exemplo 4 Um sistema de equações pode não ter solução Por exemplo o sistema xy1 xz2 yz1 não tem solução Na verdade a soma das últimas duas equações dá xy3 contrariando a primeira equação Um sistema de equações lineares é chamado inconsistente se ele não tiver nenhuma solução e o sistema é chamado consistente quando ele admitir uma ou mais soluções Exemplo 5 Verifique que X 1ts 2ts s tT é uma solução para o sistema x12x23x3x43 2x1x23x3x40 para todos os valores dos números s e t nesse contexto chamados parâmetros SOLUÇÃO Simplesmente substitua x11ts x22ts x3s e x4t em cada equação x12x23x3x41ts22ts3st3 2x1x23x3x421ts2ts3st0 Como ambas as equações são satisfeitas X é solução para todo s e todo t Observe que esse sistema tem infinitas soluções pois há infinitas escolhas para os parâmetros s e t De fato toda solução do sistema no Exemplo 5 é da forma mostrada para alguma escolha de parâmetros s e t Para entender por que isso acontece e para ver como se chega a conjuntos de soluções como aqueles do Exemplo 5 desenvolvemos um procedimento geral para encontrar soluções dessa forma Para simplificar os cálculos introduzimos a notação matricial para descrever sistemas de equações lineares Dado o sistema x12x23x3x43 2x1x23x3x40 de duas equações e quatro incógnitas os coeficientes das incógnitas formam uma matriz 24 1 2 3 1 2 1 3 1 chamada matriz dos coeficientes do sistema A matriz 25 1 2 3 1 3 2 1 3 1 0 NTT Os termos impossível e incompatível também são usados para denominar um sistema de equações lineares inconsistente assim como os termos possível ou compatível são também empregados para designar um sistema de equações consistente é chamada matriz completa ou também matriz aumentada do sistema é a matriz dos coeficientes acrescida da coluna formada pelos termos constantes É evidente que o sistema fica totalmente descrito pela matriz completa7 portanto não é surpresa que possamos encontrar todas as soluções do sistema com a manipulação dessa matriz Para ver como isso é feito convém chamar dois sistemas de equivalentes se eles possuírem as mesmas soluções Começando com um dado sistema de equações lineares nós o resolvemos escrevendo uma série de sistemas um depois do outro cada um deles equivalente ao anterior Como todos os sistemas têm as mesmas soluções a finalidade é encontrar um que seja fácil de resolver Existe um método simples e rotineiro de realizar isso O exemplo a seguir proporciona uma ilustração Exemplo 6 Encontre todas as soluções para o sistema do Exemplo 5 x12x23x3x43 2x1x23x3x40 SOLUÇÃO O sistema está escrito a seguir junto com sua matriz completa x12x23x3x43 2x1x23x3x40 1 2 3 1 3 2 1 3 1 0 Primeiro eliminamos x1 da equação 2 por meio da subtração de duas vezes a primeira equação da segunda O resultado é o seguinte sistema acompanhado de sua matriz completa x12x23x3x43 3x23x33x46 1 2 3 1 3 0 3 3 3 6 Esse novo sistema é equivalente ao original ver Teorema 1 a seguir Observe que a nova matriz completa pode ser obtida diretamente da original se subtrairmos duas vezes a primeira linha da segunda Agora multiplicamos a segunda equação por 13 para obter outro sistema equivalente x12x23x3x43 x2x3x42 1 2 3 1 3 0 1 1 1 2 Mais uma vez a nova matriz completa é resultado da multiplicação da segunda linha por 13 Finalmente eliminamos x2 da equação 1 pela adição de duas vezes a segunda equação à primeira O resultado é o sistema equivalente x1 x3 x41 x2 x3 x42 1 0 1 1 1 0 1 1 1 2 Esse sistema é fácil de resolver De fato escolhendose arbitrariamente números x3 e x4 então x1 e x2 podem ser encontrados de maneira que as equações sejam satisfeitas Mais precisamente se estabeleceremos que x3s e que x4t onde s e t são parâmetros arbitrários as equações passam a ser x1st1 e x2st2 portanto x11ts e x22ts Isso nos dá a solução exibida no Exemplo 5 e como todos os sistemas na série são equivalentes como será provado no Teorema 1 obtemos todas as soluções para o problema original Observe que a cada estágio do procedimento acima uma certa operação é executada no sistema e portanto na matriz completa para produzir um sistema equivalente As operações a seguir chamadas operações elementares podem ser efetuadas rotineiramente em sistemas para produzir sistemas equivalentes I Trocar a ordem das equações II Multiplicar uma equação por um número diferente de zero III Somar um múltiplo de uma equação com outra equação 7 Quando um sistema é resolvido por um computador é utilizada a matriz completa 12 Equações Lineares 13 Valemonos apenas dos procedimentos II e III para o cálculo no Exemplo 6 mas a operação do tipo I às vezes também tem sua utilidade O teorema a seguir é crucial para o método que estamos desenvolvendo Se uma operação elementar é executada em um sistema linear de equações o sistema resultante é equivalente ao original Demonstraremos o teorema para operações do tipo III argumentos semelhantes funcionam para operações dos tipos I e II Suponha que modificamos o sistema original mediante a substituição da equação p por uma nova equação formada pela adição de um múltiplo de outra equação q à equação p Então qualquer solução do sistema original irá satisfazer a nova equação pois satisfaz ambas as equações p e q e portanto será a solução do novo sistema Em contrapartida o novo sistema contém a equação q porque p e q são equações diferentes Isso significa que o novo sistema pode ser transformado de volta ao sistema original mediante a subtração da nova equação pelo mesmo múltiplo da equação q Logo o mesmo argumento mostra que toda solução para o novo sistema é uma solução do sistema original Conseqüentemente os dois sistemas têm o mesmo conjunto de soluções portanto operações do tipo III produzem sistemas equivalentes O Teorema 1 tem conseqüências profundas na álgebra linear Particularmente ele possibilita o uso do procedimento do Exemplo 6 em qualquer sistema de equações lineares A idéia é aplicar ao sistema uma série de operações elementares com o objetivo de encontrar um sistema de fácil resolução Como todos os sistemas criados dessa maneira são equivalentes pelo Teorema 1 as soluções do sistema fácil de resolver são também as soluções do sistema original Como no Exemplo 6 as operações elementares efetuadas em um sistema de equações lineares produzem manipulações correspondentes nas linhas da matriz completa vistas como matrizeslinha Em cálculos feitos a mão e em programas de computador linhas são mais fáceis de manipular do que equações Por esse motivo reenunciamos as três operações elementares para as linhas I Trocar a ordem das linhas II Multiplicar uma linha por um número diferente de zero III Somar um múltiplo de uma linha com outra linha Essas são as chamadas operações elementares com as linhas Temos aqui outro exemplo do nosso método no qual todo o cálculo é efetuado por meio da manipulação da matriz completa Encontre todas as soluções para o seguinte sistema de equações lineares x1 x2 3x3 3 2x1 x2 4 4x1 2x2 3x3 7 A matriz completa do sistema original é 1 1 3 3 2 1 0 4 4 2 3 7 Começamos utilizando o 1 no canto superior esquerdo para limpar a coluna 1 ou seja para obter zeros nas outras posições isso corresponde a eliminar x1 das equações 2 e 3 Mais precisamente adicionamos duas vezes a linha 1 à linha 2 e subtraímos quatro vezes a linha 3 da linha 1 O resultado é 1 1 3 3 0 1 6 2 0 2 15 5 Isso completa o trabalho na coluna 1 S O L U Ç Ã O Exemplo 7 D E M O N S T R A Ç Ã O TEOREMA 1 AlgebraChap01PORTUGUESqxd 310856 1120 AM Page 13 Agora usamos o 1 na segunda posição da linha 2 para limpar a coluna 2 isto é para obter zeros nas posições acima e abaixo isso corresponde a eliminar x2 das equações 1 e 3 Conseguimos isso subtraindo a linha 1 da 2 e adicionando duas vezes a linha 2 à linha 3 Assim temos 1 0 3 1 0 1 6 2 0 0 3 1 Observe que essas duas operações não afetaram a coluna 1 porque o primeiro elemento da linha 2 é zero A seguir dividimos a linha 3 por 3 para obter o número 1 na terceira posição 1 0 3 1 0 1 6 2 0 0 1 13 Finalmente limpamos a coluna 3 por meio da subtração da linha 1 por três vezes a linha 3 e pela adição de seis vezes a linha 3 à linha 2 1 0 0 2 0 1 0 0 0 0 1 13 O sistema de equações lineares correspondente é x12 x20 x313 e a solução única X 2 0 13T está aparente Como esse sistema de equações é equivalente ao sistema original essa é a solução para o sistema original 123 Método de Eliminação de Gauss8 Nos cálculos dos Exemplos 6 e 7 operações elementares com as linhas na matriz completa conduziram a matrizes da forma 1 0 0 1 e 1 0 0 0 1 0 0 0 1 respectivamente onde cada indica um número Em ambos os casos a solução foi facilmente obtida pelos sistemas de equações correspondentes As matrizes que aparecem são geralmente descritas da maneira a seguir Dizemos que uma matriz está na forma escalonada por linha e será chamada matriz escalonada por linhas se as seguintes condições forem satisfeitas 1 Todas as linhas nulas estão abaixo de todas as linhas não nulas 2 O primeiro elemento não nulo em cada linha não nula é igual a 1 e é chamado pivô 3 Cada pivô se localiza à direita de todos os pivôs das linhas acima dele Uma matriz está na forma escalonada reduzida se além disso satisfizer 4 Cada pivô é o único elemento não nulo em sua coluna 8 Carl Friedrich Gauss 17771855 foi um dos maiores matemáticos de todos os tempos Ele realizou descobertas fundamentais em todos os tópicos da matemática e fez importantes contribuições à astronomia e à física NTT Ou simplesmente denominada matriz escalonada NTT Alguns autores chamamno 1líder Assim as matrizes escalonadas possuem uma forma de escada como indicado a seguir novamente os asteriscos indicam números arbitrários 0 1 0 0 0 1 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 0 0 Os pivôs se localizam à direita e abaixo uns dos outros ao longo da matriz e todo elemento à esquerda e abaixo de um pivô é nulo Em uma matriz escalonada reduzida a condição adicional é que todos os elementos acima de cada pivô também sejam nulos Qualquer matriz escalonada pode ser colocada na forma reduzida por meio de mais algumas operações elementares por linhas zerando um por um os elementos acima dos pivôs A primeira matriz abaixo está na forma escalonada e a segunda na forma escalonada reduzida para qual pode ser transformada por meio de operações por linhas 1 0 0 1 0 0 0 0 1 1 0 0 0 0 1 0 0 0 0 0 1 Em geral usamos uma seta para indicar que foram efetuadas operações com as linhas Aqui temos um procedimento pelo qual qualquer matriz pode ser levada à forma escalonada e depois à forma escalonada reduzida se desejado utilizando nada além de operações elementares de linhas Qualquer matriz pode ser levada à forma escalonada pelo método a seguir Passo 1 Se a matriz consiste inteiramente de zeros pare ela já se encontra na forma escalonada Passo 2 Caso contrário encontre a primeira coluna vindo da esquerda que contém um elemento k não nulo e mova a linha contendo esse elemento ao topo da matriz Passo 3 Multiplique a linha no topo por 1 k para obter o primeiro pivô Passo 4 Anule cada elemento abaixo do pivô subtraindo múltiplos de suas linhas das linhas inferiores Isso completa a primeira linha todas as demais operações por linha são efetuadas nas demais linhas Passo 5 Repita os passos 14 na matriz formada pelas linhas remanescentes Observe que o algoritmo de Gauss é recursivo no seguinte sentido depois de se obter o primeiro pivô todo o processo é repetido nas demais linhas Isso torna fácil de se usar o método no computador Observe ainda que no passo 4 podemos também anular cada elemento acima do pivô Nesse caso o algoritmo leva a matriz à forma escalonada reduzida como nos exemplos 6 e 7 A razão para a distinção entre as duas formas de escalonamento será discutida posteriormente O algoritmo de Gauss certamente demonstra o teorema a seguir Toda matriz pode ser colocada na forma escalonada reduzida se desejado mediante uma seqüência de operações elementares por linhas TEOREMA 2 ALGORITMO DE GAUSS9 Exemplo 8 12 Equações Lineares 15 NTT Também conhecido como escalonamento da matriz 9 Embora Gauss tenha de fato usado esse procedimento o método é atribuído aos chineses que o utilizaram vários séculos antes AlgebraChap01PORTUGUESqxd 310856 1120 AM Page 15 Encontre todas as soluções do seguinte sistema de equações lineares x1 2x2 x3 3x4 1 2x1 4x2 x3 5 x1 2x2 2x3 3x4 4 A matriz completa é dada a seguir Como o primeiro pivô está no lugar passamos a anular os demais elementos da coluna 1 1 2 1 3 1 2 4 1 0 5 1 2 2 3 4 1 2 1 3 1 0 0 3 6 3 0 0 3 6 3 Agora subtraímos a segunda linha da terceira e então10 multiplicamos a segunda linha por 1 3 para conseguir a matriz abaixo agora na forma escalonada por linhas 1 2 1 3 1 0 0 1 2 1 0 0 0 0 0 Agora use o segundo pivô na coluna 3 para anular os demais elementos da coluna 3 e portanto conseguir a forma escalonada 1 2 0 1 2 0 0 1 2 1 0 0 0 0 0 Essa forma é até onde o algoritmo de Gauss pode nos levar O sistema de equações correspondente é x1 2x2 x4 2 x3 2x4 1 0 0 Os pivôs estão nas colunas 1 e 3 e as incógnitas correspondentes x1 e x3 são chamadas variáveis dependentes Para resolver o sistema atribuímos valores arbitrários às variáveis independentes chamados parâmetros e então as duas equações são usadas para determinar as variáveis dependentes em termos dos parâmetros Mais precisamente escrevemos x2 s e x4 t onde s e t são parâmetros arbitrários de modo que as equações se tornam x1 2s t 2 e x3 2t 1 Resolvendo obtemos x1 2 2s t e x3 1 2t Logo as soluções são dadas por X 2 2s t s 1 2t tT 2 2s t s 1 2t t A solução X 2 2s t s 1 2t tT no Exemplo 9 é chamada solução geral do sistema porque toda solução tem essa forma para alguma escolha de valores para os parâmetros s e t Quando a matriz completa de um sistema linear é transformada na forma escalonada reduzida as variáveis correspondentes aos pivôs são chamadas variáveis dependentes Assim o método de resolução no Exemplo 9 fornece uma maneira de escrever as soluções de qualquer sistema linear desde que existam soluções Assuma que um sistema de equações lineares tem pelo menos uma solução Então a solução geral pode ser encontrada na forma paramétrica da seguinte maneira Passo 1 Reduza a matriz completa do sistema à forma escalonada reduzida por linhas Passo 2 Atribua parâmetros às variáveis livres Método de Eliminação de Gauss S O L U Ç Ã O Exemplo 9 C A P Í T U L O 1 Equações Lineares e Matrizes 16 10 Esses passos não estão na ordem especificada pelo algoritmo Entretanto o objetivo é levar a matriz à forma escalonada usando alguma seqüência de operações por linhas A seqüência estabelecida no algoritmo sempre irá funcionar mas pode não ser a mais eficiente 1 NTT Também chamadas variáveis livres AlgebraChap01PORTUGUESqxd 310856 1120 AM Page 16 Passo 3 Use as equações correspondentes à forma escalonada reduzida para escrever as variáveis dependentes em termos dos parâmetros Esse procedimento resolve qualquer sistema de equações que tem uma solução O exemplo a seguir mostra como o método revela que um sistema não tem solução No Exemplo 4 foi mostrado diretamente que o sistema x y 1 x z 2 y z 1 não tem solução A redução da matriz completa à forma escalonada é a seguinte 1 1 0 1 1 0 1 2 0 1 1 1 1 1 0 1 0 1 1 1 0 1 1 1 1 1 0 1 0 1 1 1 0 0 0 2 1 1 0 1 0 1 1 1 0 0 0 1 Esta última matriz corresponde a um sistema no qual a última equação é 0x 0y 0z 1 É claro que nenhuma escolha de x y e z irá satisfazer essa equação logo esse último sistema e portanto o sistema original não tem solução Tipicamente é isso o que acontece quando o sistema não tem solução Quando se usa o método de eliminação de Gauss para resolver um sistema grande é mais eficiente reduzir a matriz completa apenas até a forma escalonada11 atribuir parâmetros às variáveis livres e então calcular as variáveis dependentes fazendo substituição de trás para frente Use a última equação para encontrar a última variável dependente em termos dos parâmetros substitua esse valor na penúltima equação para calcular a penúltima variável dependente e assim por diante Esse método é mais eficiente do que transformar a matriz até a forma escalonada reduzida como pode ser confirmado por uma contagem do número de operações envolvidas ver na maioria dos livros de análise numérica 124 Posto de uma Matriz Será demonstrado na Seção 16 Teorema 4 que A forma escalonada reduzida de uma matriz A é unicamente determinada por A Isto é independentemente de qual série de operações por linha é usada para levar A à matriz na forma escalonada reduzida o resultado será sempre o mesmo Entretanto a mesma matriz pode ser levada a diferentes matrizes na forma escalonada Por exemplo se A 1 3 4 2 7 9 então A 1 3 4 0 1 1 e A 1 3 4 0 1 1 1 2 3 0 1 1 Portanto A pode ser levada a duas matrizes escalonadas diferentes 1 3 4 0 1 1 e 1 2 3 0 1 1 Entretanto mostraremos na Seção 44 que O número de pivôs deve ser o mesmo independentemente de como é feito o escalonamento de A Esse número de pivôs é chamado posto da matriz A e é denotado por postoA 11 Isso é com frequência conhecido como algoritmo de Gauss particularmente em análise numérica Exemplo 11 Calcule o posto de A 1 2 1 3 2 1 1 5 1 4 5 1 Solução A matriz A é levada à forma escalonada da seguinte maneira A 1 2 1 3 2 1 1 5 1 4 5 1 1 2 1 3 0 3 3 1 0 6 6 2 1 2 1 3 0 1 1 13 0 0 0 0 Como há dois pivôs temos que posto A 2 A relação entre posto e sistemas de equações lineares é dada no seguinte teorema Teorema 3 Suponha que um sistema de m equações em n indeterminadas tem pelo menos uma solução Se o posto da matriz completa é r o conjunto de soluções tem exatamente n r parâmetros Demonstração Reduza a matriz completa do sistema a uma forma escalonada R Então R tem r pivôs já que o posto é r logo há exatamente r variáveis dependentes Conseqüentemente há n r variáveis livres e a cada uma delas associamos um parâmetro O Teorema 3 tem um número surpreendente de conseqüências e será usado várias vezes no que segue Vimos exemplos de sistemas sem solução com uma solução ou com infinitas soluções a primeira aplicação do Teorema 3 é mostrar que essas são as únicas possibilidades Teorema 4 Para qualquer sistema de equações lineares há exatamente três possibilidades 1 Não há solução 2 Há uma única solução 3 Há infinitas soluções Demonstração Se existir uma solução então ou toda variável é uma variável dependente solução única ou há pelo menos uma variável livre infinitas soluções porque há um parâmetro envolvido Como salientado anteriormente um sistema de equações lineares é chamado consistente se ele tem pelo menos uma solução O sistema é dito inconsistente se ele não tiver nenhuma solução Assim um sistema consistente tem ou uma única solução ou infinitas soluções Ele não pode ter digamos exatamente duas soluções A veracidade do Teorema 4 pode ser vista graficamente para um sistema de duas equações em duas incógnitas x e y Lembrese que o gráfico de uma equação da forma ax by c é uma reta se a e b forem não ambos nulos e que s t é uma solução da equação exatamente quando o ponto Ps t com coordenadas s t está sobre a reta Considere agora um sistema a1x b1y c1 a2x b2y c2 Os gráficos dessas equações são duas retas L1 e L2 desde que a1 e b1 sejam não ambos nulos e que a2 e b2 sejam não ambos nulos Geometricamente aqui estão três possibilidades para essas duas retas ilustradas na Figura 11 1 As retas são paralelas e distintas O sistema não tem solução porque não há ponto comum às duas retas 2 As retas não são paralelas O sistema tem uma única solução que corresponde ao ponto de interseção das retas 3 As retas são coincidentes O sistema tem infinitas soluções uma para cada ponto sobre a reta comum 12 Equações Lineares 19 Claramente essas três possibilidades correspondem àquelas no Teorema 4 Figura 11 O gráfico de uma equação ax by cz d é um plano no espaço se a b e c forem não todos nulos isso será discutido com detalhes na Seção 33 Logo um sistema com 2 equações e 3 incógnitas pode ou não ter soluções os planos são paralelos ou ter infinitas soluções os planos coincidem ou se interceptam em uma reta Uma solução única não é possível nesse caso Isso ilustra o Teorema 3 já que há n 3 indeterminadas e a matriz completa tem posto r 2 porque há duas equações logo n r 3 2 1 que corresponde ao número de parâmetros Um argumento gráfico similar pode ser dado para ver que um sistema com três equações em três indeterminadas tem que ter ou nenhuma ou uma ou infinitas soluções como no Teorema 4 Entretanto o argumento geométrico falha para sistemas com mais que três incógnitas e temos que confiar no Teorema 4 Y X 0 L1 L2 Infinitas Soluções 3 Y X 0 L1 L2 Uma Única Solução 2 Y X 0 L1 L2 Sem Solução 1 AlgebraChap01PORTUGUESqxd 310856 1120 AM Page 19 13 Sistemas Homogêneos 21 Nesta seção vamos nos concentrar em uma classe particular de sistemas de equações lineares a saber os sistemas em que o termo constante de cada equação é igual a 0 Um sistema de equações lineares é denominado homogêneo se todos os termos constantes forem nulos Assim uma equação linear homogênea típica em n indeterminadas x1 x2 xn tem a forma a1x1 a2x2 anxn 0 Como os termos constantes são todos nulos qualquer sistema homogêneo admite sempre a solução trivial x1 0 x2 0 xn 0 em que toda variável é igual a zero Muitos problemas práticos se resumem em descobrir se um sistema homogêneo tem alguma solução nãotrivial ou seja uma solução em que pelo menos uma das variáveis é diferente de zero O teorema a seguir apresenta uma situação importante em que isso certamente ocorre Se um sistema de equações lineares homogêneo tem mais incógnitas que equações então ele admite uma solução nãotrivial Suponha que existam m equações em n incógnitas de forma que nossa hipótese é que n m Se r é o posto da matriz completa então r m porque o número r de pivôs não pode exceder o número m de equações Portanto r m n donde r n Pelo Teorema 3 da Seção 12 isso significa que o número n r de parâmetros é nãonulo Então existem infinitas soluções nãotriviais A existência de uma solução nãotrivial é freqüentemente o resultado desejado para um sistema homogêneo O exemplo a seguir fornece uma ilustração de como o Teorema 1 pode ser usado em geometria O gráfico de uma equação ax2 bxy cy2 dx ey f 0 é chamada cônica se a b e c forem não todos nulos Circunferências elipses hipérboles e parábolas são exemplos de cônicas Mostre que há pelo menos uma cônica que passa por quaisquer cinco pontos fixados no plano que não estejam alinhados Suponha que as coordenadas dos cinco pontos sejam p1 q1 p2 q2 p3 q3 p4 q4e p5 q5 O gráfico da equação ax2 bxy cy2 dx ey f 0 passa pelo ponto pi qi se ap2 i bpiqi cq2 i dpi eqi f 0 Como há cinco pontos temos cinco equações lineares homogêneas nas seis incógnitas a b c d e e f Conseqüentemente há uma solução nãotrivial pelo Teorema 1 Se nessa solução ocorrer a b c 0 então todos os cinco pontos estão sobre a reta de equação dx ey f 0 contrário às nossas suposições Por essa razão a b ou c é nãonulo e temos uma cônica S O L U Ç Ã O Exemplo 1 D E M O N S T R A Ç Ã O TEOREMA 1 131 Sistemas Homogêneos 13 SISTEMAS HOMOGÊNEOS AlgebraChap01PORTUGUESqxd 310856 1120 AM Page 21 Claramente o método de eliminação de Gauss também funciona para sistemas homogêneos Na verdade ele fornece um modo de escrever as soluções de modo conveniente que será necessário mais adiante Resolva o seguinte sistema homogêneo x1 2x2 x3 x4 0 x1 2x2 x4 0 2x1 4x2 x3 0 e expresse as soluções como somas de múltiplos escalares de soluções específicas A matriz completa é reduzida da seguinte maneira 1 2 1 1 0 1 2 0 1 0 2 4 1 0 0 1 2 1 1 0 0 0 1 2 0 0 0 1 2 0 1 2 0 1 0 0 0 1 2 0 0 0 0 0 0 Por essa razão as variáveis dependentes são x1 e x3 e as variáveis livres x2 e x4 tornamse parâmetros x2 s e x4 t Assim as equações no sistema final determinam as variáveis dependentes em termos dos parâmetros x1 2s t and x3 2t Isso significa que a solução geral é X 2s t s 2t tT A nova idéia agora é separar esse resultado em parcelas de modo que em cada uma apareça apenas um dos parâmetros s ou t X 2s t s 2t t 2s s 0 0 t 0 2t t s 2 1 0 0 t 1 0 2 1 Assim X1 2 1 0 0 e X2 1 0 2 1 são soluções particulares e a solução geral X tem a forma X sX1 tX2 As soluções particulares X1 e X2 no Exemplo 2 são chamadas soluções básicas do sistema homogêneo Elas têm a propriedade que toda solução X é da forma X sX1 tX2 onde s e t são números arbitrários Esse fato acontece em todo sistema homogêneo Para descrever a situação geral a seguinte terminologia será útil se X1 X2 Xk são colunas uma expressão da forma s1X1 s2X2 skXk onde s1 s2 sk são números arbitários é chamada combinação linear das colunas X1 X2 Xk Dado qualquer sistema de equações lineares homogêneo um cálculo como o feito no Exemplo 2 resulta na expressão de toda solução do sistema como uma combinação linear de certas soluções particulares Essas soluções particulares são chamadas soluções básicas produzidas pelo algoritmo de Gauss É claro que o sistema pode ter apenas a solução trivial nesse caso dizemos que o sistema não tem soluções básicas S O L U Ç Ã O Exemplo 2 132 Soluções Básicas C A P Í T U L O 1 Equações Lineares e Matrizes 22 e AlgebraChap01PORTUGUESqxd 310856 1120 AM Page 22 Encerra aqui o trecho do livro disponibilizado para esta Unidade de Aprendizagem Na Biblioteca Virtual da Instituição você encontra a obra na íntegra ÁLGEBRA LINEAR Marcelo Maximiliano Danesi Espaços vetoriais exemplos e propriedades básicas Objetivos de aprendizagem Ao final deste texto você deve apresentar os seguintes aprendizados Definir espaço e subespaço vetoriais Demonstrar que um conjunto dado é um espaço vetorial Avaliar se um subconjunto de um espaço vetorial dado é um subespaço vetorial Introdução Neste capítulo você aprenderá a identificar espaços vetoriais não necessariamente ndimensionais como ℝn seus subespaços vetoriais as condições necessárias às operações que definem o espaço e seus subespaços as propriedades básicas dos espaços e subespaços assim como verá exemplos principais de espaços e subespaços vetoriais É natural que o primeiro contato do aluno com a álgebra linear seja por meio de matrizes e vetores do ℝn Nesse ambiente é mais fácil visualizarmos os resultados e as propriedades desses espaços as operações e as relações de ângulo e medida Agora que temos uma visão mais aguçada do assunto podemos generalizar esses conceitos a fim de percebermos essa estrutura linear em outros sistemas conjuntos ou aplicações Os espaços vetoriais Um espaço vetorial E é um conjunto de vetores no qual estão definidas ope rações de soma e de multiplicação por um número real de modo que dados vetores u v E e α ℝ 1 u v E isto é a soma de u e v também é um vetor em E 2 αu E isto é o produto de u por um número real α também é um vetor em E Quando as condições anteriores são satisfeitas podemos dizer que o con junto E é fechado em relação às operações de soma e multiplicação por nú mero real Adicionalmente essas operações devem satisfazer para quaisquer α β ℝ e u v w E as seguintes condições ditas axiomas do espaço vetorial a Comutatividade u v v u b Associatividade u v w u v w e αβ u αβu c Vetor nulo existe 0 E dito vetor nulo tal que para todo v E v 0 0 v v d Inverso aditivo para cada u E existe u E dito inverso aditivo de u tal que u u u u 0 e Distributividade α β u αu βu e αu v αu αv f Identidade por 1 para todo u E 1 u u Uma curiosidade é reparar que usamos o símbolo 0 tanto para o nú mero real zero quanto para o vetor nulo Isso não será problema pois uma consequência desses axiomas é que 0 u 0 Espaços vetoriais exemplos e propriedades básicas 2 Num espaço vetorial qualquer os elementos que compõem E não são necessariamente nuplas de números reais representando um segmento orientado Logo não usamos a notação u para os elementos d e E como fazíamos no espaço vetorial ℝn O exemplo trivial que poderíamos citar é o caso que E ℝn e os vetores u são as nuplas de números reais Ao invés dele falaremos de um espaço vetorial muito similar mas que mostra uma flexibilidade da definição para outros tipos de conjuntos Fixado n ℕ seja Pn o conjunto formado por todos os polinômios de grau menor ou igual a n de coeficientes reais e definidos em ℝ Ou seja os elementos de Pn são u an xn a1x a0 v bn xn b1x b0 onde an a1 a0 bn b1 b0 ℝ Nesse espaço definimos as operações de modo que u v an bnxn a1 b1x a0 b0 αu αan xn αa1 x αa0 Assim o vetor nulo é 0 0xn 0x 0 E o inverso aditivo de u é u an xn a1x a0 3 Espaços vetoriais exemplos e propriedades básicas Esse exemplo não é muito diferente do ℝn porque existe uma identificação entre os polinômios de grau n de coeficientes reais definidos em ℝ e as nuplas de números reais na medida em que Contudo é válido imaginar o significado de um produto interno nesse espaço vetorial o que seriam polinômios ortogonais e as transformações lineares sobre esses elementos Antes de prosseguir com essas questões vamos explorar um exemplo distante do ℝn Usando a teoria do cálculo seja I ℝ um intervalo aberto e C0 I o conjunto formado por todas as funções contínuas reais definidas em I Ou seja os elementos de C0 I são u ux v vx Nesse espaço definimos as operações de modo que u v ux vx αu α ux Essas operações resultam em funções contínuas porque a soma de funções contínuas é contínua e a multiplicação de uma função contínua por um número real é uma função contínua ANTON 2012 Assim o vetor nulo é para todo x I 0 0x 0 E o inverso aditivo de u é u ux Espaços vetoriais exemplos e propriedades básicas 4 Esse exemplo é mais distante do Rn porque uma função é definida pelas imagens dos infinitos x I Isso nos dá abertura para imaginarmos o conceito de dimensão aplicado a esse conjunto Como será que podemos definir uma base Novamente antes de falarmos dessas questões mais avançadas seguiremos com a próxima definição natural Subespaços vetoriais Seja E um espaço vetorial Um subespaço vetorial ou apenas subespaço de E é um subconjunto F E que ainda é um espaço vetorial em relação às operações de E Isto é F apresenta as seguintes propriedades i Se u v F então u v F ii Se u F então para todo α R αu F São considerados subespaços triviais de E o conjunto 0 que contém apenas o vetor nulo e o próprio E Aproveitando os exemplos anteriores podemos dar os seguintes subespaços não triviais Exemplo Fixados m n N m n sejam Pn o conjunto formado por todos os polinômios de grau menor ou igual a n de coeficientes reais definidos em R e Pm o conjunto formado por todos os polinômios de grau menor ou igual a m de coeficientes reais definidos em R Dessa maneira dado u Pm o grau de u é menor que n logo u Pn e Pm Pn a soma de polinômios de grau menor ou igual a m tem grau menor ou igual a m assim como a multiplicação por número real logo Pm é fechado em relação às operações de Pn O espaço vetorial definido pelas funções contínuas em I também nos dá um exemplo de subespaço Exemplo Usando a teoria do cálculo sejam I R um intervalo aberto C0 I o conjunto formado por todas as funções reais contínuas definidas em I e C1 I o conjunto de todas as funções reais deriváveis em I Dessa maneira dado u C1 I u é função derivável e portanto contínua ANTON 2014 logo u C0 I o que implica que C1 I C0 I a soma de funções deriváveis é derivável assim como a multiplicação por número real ANTON 2014 logo C1 I é fechado em relação às operações de C0 I Portanto C1 I é um subespaço de C0 I Subespaços gerados Dado um conjunto de vetores B u1 u2 un contido no espaço vetorial E dizemos que u E é combinação linear de u1 u2 un se existem α1 α2 αn R u α1 u1 α2 u2 αn un O conjunto de todas as combinações lineares dos vetores de B é dito gerado de B gerB ger u1 u2 un uu é combinação linear de u1 u2 un Esse conjunto é subespaço vetorial de E pois 1 B E implica que ui E para todo i 1 n como E é fechado as combinações lineares de B pertencem a E logo gerB E 2 escolhendo α1 α2 αn 0 temos u 0 gerB 3 dados u v gerB existem coeficientes α1 α2 αn β1 β2 βn R tal que u α1 u1 α2 u2 αn un v β1 u1 β2 u2 βn un Dessa maneira os vetores u v e αu também são combinações lineares de B pois para todo α R u v α1 β1 u1 α2 β2 u2 αn βn un αu αα1 u1 αα2 u2 ααn un Isso quer dizer que gerB é fechado em relação às operações de E Exemplo Usando a teoria do cálculo sejam I 01 R intervalo fechado C0 I o conjunto formado por todas as funções reais contínuas definidas em I e B o conjunto de todas as funções reais definidas em I da forma un x sen nπx onde n 1 Assim podemos afirmar que o gerado de B é um subespaço de C0 I no qual para todo u ger B existem a1 a2 R tal que ux a1 sen nπx a2 sen nπx u0 u1 0 Podemos entender esse conjunto como sendo o das cordas tensionadas e vibrantes entre os pontos fixos 00 e 10 onde cada ui representa uma frequência de u Veja a seguir a Figura 1 Figura 1 O gráfico à esquerda mostra em verde u1 x semπx em vermelho u2 x sem2πx e em azul u3 x sem3πx O gráfico à direita mostra ux 12 u1 14 u2 14 u3 Um conjunto como espaço vetorial Pelo que foi definido anteriormente um conjunto E dotado de uma operação de soma e uma operação de multiplicação por um número real é um espaço vetorial se E satisfaz as condições i e ii de fechamento das operações e as condições de a até f das propriedades necessárias às operações Podemos reescrever essa definição como um algoritmo a fim de verificar se um determinado conjunto E com duas operações é espaço vetorial 1 Identificar o conjunto E de elementos que serão os vetores 2 Identificar as operações de soma e multiplicação por escalar 3 Verificar as condições i e ii isto é se as operações de soma e mul tiplicação por escalar são fechadas em E 4 Verificar as propriedades a até f Considere o conjunto F das matrizes 2 2 da forma u a11 a12 a21 a22 onde aij ℝ para todo ij 12 Dados u v e α є ℝ a11 a12 a21 a22 b11 b12 b21 b22 definimos a soma e a multiplicação por escalar em F como u v a11 b11 a12 b12 a21 b21 a22 b22 αu αa11 αa12 αa21 αa22 Assim verificamos as seguintes condições i u v é uma matriz 2 2 e cada entrada de u v é um número real logo u v F ii αu é uma matriz 2 2 e cada entrada de αu é um número real logo αu F A seguir verificamos se essas operações satisfazem os axiomas Dados u v w є E e α β є ℝ a11 a12 a21 a22 b11 b12 b21 b22 c11 c12 c21 c22 Espaços vetoriais exemplos e propriedades básicas 8 a u v v u a11 b11 a12 b12 a21 b21 a22 b22 b11 a11 b12 a12 b21 a21 b22 a22 b u v w a11 b11 a12 b12 a21 b21 a22 b22 c11 c12 c21 c22 a11 b11 c11 a12 b12 c12 a21 b21 C21 a22 b22 c22 a11 a12 a21 a22 u v w b11 c11 b12 c12 b21 c21 b22 c22 e αβu αβu αβa11 αβa12 αβa21 αβa22 αβa11 αβa12 αβa21 αβa22 c Tomando 0 0 0 0 0 então para todo v E 0 v v 0 0 0 0 b11 b12 b21 b22 b11 b12 b21 b22 d Para cada u E tomando u 1u a11 a12 a21 a22 temos u u a11 a12 a21 a22 a11 a12 a21 a22 0 0 0 0 e α βu α β a11 a12 a21 a22 α βa11 α βa12 α βa21 α βa22 αu βu αa11 βa11 αa12 βa12 αa21 βa21 αa22 βa22 e αu v αu αv αa11 b11 αa12 b12 αa21 b21 αa22 b22 αa11 αa12 αa21 αa22 αb11 αb12 αb21 αb22 f Para todo u E temos que 1 u u 1a11 1a12 1a21 1a22 Portanto F é espaço vetorial Vamos alterar o exemplo acima para mostrar algumas sutilezas do algoritmo 9 Espaços vetoriais exemplos e propriedades básicas Fixado λ ℝ considere o conjunto Gλ das matrizes 2 2 da forma u a11 a12 a21 λ onde aij ℝ para todo ij 12 Dados u v e α є ℝ a11 a12 a21 λ b11 b12 b21 λ definimos a soma e a multiplicação por escalar em Gλ como u v αu a11 b11 a12 b12 a21 b21 λ αa11 αa12 αa21 λ Assim verificamos as seguintes condições i u v é uma matriz 2 2 e cada entrada de u v é um número real com o elemento da posição 22 valendo λ logo u v Gλ ii αu é uma matriz 2 2 e cada entrada de αu é um número real com o elemento da posição 22 valendo λ logo αu Gλ A seguir verificamos se essas operações satisfazem os axiomas Dados u v w є Gλ e α β є ℝ a11 a12 a21 λ b11 b12 b21 λ c11 c12 c21 λ a u v v u a11 b11 a12 b12 a21 b21 λ b11 a11 b12 a12 b21 a21 λ b u v w a11 b11 a12 b12 a21 b21 λ a11 b11 c11 a12 b12 c12 a21 b21 c21 λ c11 c12 c21 λ b11 c11 b12 c12 b21 c21 λ a11 a12 a21 λ u v w αβu αβu αβa11 αβa12 αβa21 λ αβa11 αβa12 αβa21 λ c Tomando 0 0 0 0 λ então para todo v E 0 0 0 v 0 λ v b11 b12 b21 λ b11 b12 b21 λ Espaços vetoriais exemplos e propriedades básicas 10 d Para cada u E tomando u 1u a11 a12 a21 λ temos u u a11 a12 a21 λ a11 a12 a21 λ 0 0 0 λ e α βu α β a11 a12 a21 λ α βa11 α βa12 α βa21 λ αa11 βa11 αa12 βa12 αa21 βa21 λ αu βu e αu v αu αv αa11 b11 αa12 b12 αa21 b21 λ αa11 αa12 αa21 λ αb11 αb12 αb21 λ f Para todo u E temos que u u a11 a12 a11 λ a11 a12 a11 λ 0 0 0 λ Portanto Gλ é espaço vetorial O paralelo que precisamos fazer entre os dois exemplos anteriores é Gλ é um subconjunto de F mas F e Gλ são espaços vetoriais com operações distintas e incompatíveis se λ 0 De forma mais precisa se compararmos a soma de u v Gλ pela soma definida em F com a soma definida em Gλ Podemos reparar que se λ 0 então u vF u vG Isso significa que dado um conjunto existem diferentes maneiras de definirmos as suas operações a fim de obtermos um espaço vetorial O próximo exemplo mostra que nem toda operação define um espaço vetorial 11 Espaços vetoriais exemplos e propriedades básicas Considere o conjunto H das matrizes 2 2 da forma u a11 a12 a21 a22 onde aij ℝ para todo ij 12 Dados u v e α є ℝ a11 a12 a21 a22 b11 b12 b21 b22 definimos a soma e a multiplicação por escalar em H como u v a11 b11 a12 b12 a21 b21 a22 b22 αu αa11 αa12 αa21 αa22 2 2 2 2 2 2 2 2 Dessa forma as condições i e ii funcionam igual aos demais exemplos assim como a condição a Contudo a condição b não é verificada pois u v w a11 b11 a12 b12 a21 b21 a22 b22 c11 c12 c21 c22 a11 b11 c11 a12 b12 c12 a21 b21 C21 a22 b22 c22 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 Enquanto que u v w a11 a12 a21 a22 b11 c11 b12 c12 b21 c21 b22 c22 2 2 2 2 2 2 2 2 a11 b11 c11 a12 b12 c12 a21 b21 c21 a22 b22 c22 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 Logo com as operações definidas anteriormente H não é espaço vetorial É impor tante ressaltar também a necessidade de verificarmos todas as condições e proprie dades da definição a fim de concluirmos se o conjunto e as operações definem um espaço vetorial Exemplos de espaços vetoriais Antes de prosseguir vamos a outros exemplos de espaços vetoriais que não foram mencionados neste capítulo mas que são comuns nas aplicações Espaços vetoriais exemplos e propriedades básicas 12 Generalizando um dos exemplos anteriores fixados m n ℕ seja Mm nℝ o conjunto formado por todas as matrizes m n de coeficientes reais isto é o conjunto formado pelos elementos da forma u aij v bij onde aij bij ℝ para i 1 m e j 1 n Nesse conjunto definimos as operações de modo que u v cij onde cij aij bij para i 1 m e j 1 n e αu αaij Assim o vetor nulo é a matriz formada por zero em todas as posições 0 0 E o inverso aditivo de u é u aij Outro exemplo são as sequências ordenadas de infinitos números reais o ℝ Nesse conjunto os elementos de ℝ são u a1 a2 a3 v b1 b2 b3 onde a1 b1 a2 b2 a3 b3 ℝ Nesse espaço definimos as operações de modo que u v a1 b1 a2 b2 a3 b3 αu αa1 αa2 αa3 13 Espaços vetoriais exemplos e propriedades básicas Assim o vetor nulo é 0 0 0 0 E o inverso aditivo de u é u a1 a2 a3 Um subconjunto como subespaço vetorial Como foi definido dado E espaço vetorial um subespaço vetorial ou subespaço de E é um subconjunto F E que ainda é um espaço vetorial em relação às operações de E Isto é F precisa ser fechado em relação às operações de E Confirmamos isso se verificarmos o seguinte Se u v F então u v F Se u F então para todo α R α u F A tarefa de determinar se um subconjunto é subespaço depende de um número menor de condições por F herdar as operações do espaço E Essas operações trazem de forma implícita as propriedades a até f necessitando apenas mostrar que F é fechado em respeito a essas operações Vamos a alguns exemplos de subespaço Exemplo No espaço vetorial Mnxn R das matrizes n n de coeficientes reais com as operações naturais de soma matricial e multiplicação por número real definimos o subconjunto Sn A Mnxn R A é matriz simétrica Lembrando que uma matriz A aij n n é dita simétrica se para todo ij 1 n aij aji isto é se A coincide com a sua transposta A AT Nessas condições verificamos que Sn é um subespaço de Mnxn R pois i dadas as matrizes A aij B bij Sn então A B cij onde cij aij bij aji bji cji logo A B é matriz simétrica e A B Sn ii dadas as matrizes A aij Sn e α ℝ então αA αaij onde αaij αaji logo αA é matriz simétrica e αA Sn Isso mostra que Sn é um subespaço de Mn nℝ Em relação ao exemplo anterior poderíamos trocar o conjunto das matrizes simétricas pelo das matrizes triangulares superiores A aij tal que aij 0 se i j pelo conjunto das matrizes triangulares inferiores A aij tal que aij 0 se i j ou ainda pelo conjunto das matrizes diagonais A aij tal que aij 0 se i j Todos esses definem diferentes subespaços de Mn nℝ É importante não diminuirmos a importância das condições i e ii para podermos afirmar que um subconjunto é de fato subespaço do espaço que o contém Vejamos alguns exemplos de como essa relação é delicada Retomando exemplos anteriores falamos do conjunto F M22ℝ Com as operações naturais de soma matricial e multiplicação por número real e fixado λ ℝ falamos do conjunto Gλ a11 a12 a21 є ℝ a11 a12 a21 λ Com as operações de soma e multiplicação por número real de forma que u v є Gλ e α є ℝ a11 a12 a21 λ b11 b12 b21 λ 15 Espaços vetoriais exemplos e propriedades básicas u v a11 b11 a12 b12 a21 b21 λ αu αa11 αa12 αa21 λ Mostramos anteriormente que fixado λ ℝ F e Gλ são espaços vetoriais com essas operações e Gλ F Contudo Gλ só é subespaço de F se λ 0 pois as operações de F e Gλ funcionam de maneira diferente quando λ 0 A saber u vF u vGλ a11 b11 a12 b12 a21 b21 λ λ a11 b11 a12 b12 a21 b21 λ Essa comparação ilustra o fato que os espaços e subespaços são formados por uma terna de um conjunto e duas operações e que um subconjunto só é subespaço quando usa as mesmas operações do espaço que o contém No exemplo acima podemos dizer que o subconjunto Gλ surge da fixação de uma das coordenadas dos elementos u M22ℝ Essa dinâmica pode ser revista por meio de um exemplo similar Usando a teoria do cálculo sejam I 01 ℝ intervalo fechado e C0 I o conjunto formado por todas as funções reais contínuas definidas em I Fixando x0 I definimos o subconjunto de C0 I Gx0 u E ux0 0 das funções contínuas em I e que contém um ponto fixo em x00 Tomando as opera ções naturais de soma de funções e multiplicação por número escalar verificamos que 1 dadas as funções u v Gx0 então u v ux vx é uma função contínua de forma que u vx0 ux0 vx0 0 0 0 logo u v Gx0 2 dada a função u Gx0 e α ℝ então αu αux é uma função contínua de forma que αux0 αux0 α0 0 logo αu Gx0 Isso mostra que Gx0 é um subespaço de C0 I Espaços vetoriais exemplos e propriedades básicas 16 O exemplo anterior também define um subespaço vetorial se fixássemos como zero a imagem de uma quantidade infinita de elementos em I O que não definiria um subespaço é se fixássemos um valor diferente de zero para essas imagens Exemplo Usando a teoria do cálculo sejam I 01 R intervalo fechado e C0 I o conjunto formado por todas as funções reais contínuas definidas em I Fixando x0 I e λ R tal que λ 0 definimos o subconjunto de C0 I Hx0 u E ux0 λ das funções contínuas em I e que contém um ponto fixo em x0 λ Esse não é subespaço vetorial de C0 I porque a soma de funções em Hx0 não é fechada Hx0 Dadas as funções u v Hx0 então u v ux vx é uma função contínua de forma que u vx0 ux0 vx0 λ λ 2λ λ logo u v Hx0 Isso mostra que Hx0 não é um subespaço de C0 I Fique atento Na definição de subespaço vetorial temos implicitamente a seguinte propriedade Se F é subespaço de E então o vetor nulo de E é o vetor nulo de F Podemos inclusive esboçar a prova dessa propriedade afirmando que para qualquer u F os elementos 1u e 1u também pertencem a F pois F é fechado em relação à multiplicação por número real Como F também é fechado em relação à soma então 1u 1u 0u 0 logo o vetor nulo pertence a F Essa propriedade seria suficiente para afirmar que Hx0 não é um subespaço de C0 I no exemplo anterior já que o vetor nulo de C0 I é a função identicamente nula a qual não é elemento de Hx0 Vejamos outros exemplos de subconjuntos de espaços vetoriais que não definem subespaços Seja M32ℝ o espaço vetorial das matrizes 3 2 de coeficientes reais com as operações naturais de soma de matrizes e multiplicação por número real Definindo subconjunto G u є M32 ℝ a11 0 a11 a12 a21 a22 a31 a32 Verificamos o seguinte 1 Dadas as matrizes u v є G a11 a12 a21 a22 a31 a32 b11 b12 b21 b22 b31 b32 então u v a11 b11 a12 b12 a21 b21 a22 b22 a31 b31 a32 b32 é uma matriz 3 2 de coeficientes reais de forma que a11 b11 0 0 0 logo u v G 2 Dados α 1 e u 2 3 3 4 4 5 então α ℝ u G enquanto que αu є G 2 3 3 4 4 5 Logo G não é fechado para a multiplicação por número real Portanto G não é subespaço de M32ℝ Seja M22ℝ o espaço vetorial das matrizes 2 2 de coeficientes reais com as operações naturais de soma de matrizes e multiplicação por número real Definindo subconjunto G A M22ℝ A não possui inversa Espaços vetoriais exemplos e propriedades básicas 18 ANTON H RORRES C Álgebra linear com aplicações 10 ed Porto Alegre Bookman 2012 Leituras recomendadas ANTON H BIVENS I DAVIS S Cálculo 10 ed Porto Alegre Bookman 2014 v 1 LAY D LAY S MACDONALD J Álgebra linear e suas aplicações 5 ed Rio de Janeiro LTC 2018 Referência Verificamos que G não é fechado para a soma pois dados u 2 3 0 0 e v 0 0 1 0 temos que u v G Os determinantes de u e v são nulos logo não contêm inversa enquanto que u v 2 3 1 0 cujo determinante é diferente de zero logo contém inversa Portanto u v G e G não é subespaço de M22ℝ 19 Espaços vetoriais exemplos e propriedades básicas Encerra aqui o trecho do livro disponibilizado para esta Unidade de Aprendizagem Na Biblioteca Virtual da Instituição você encontra a obra na íntegra Conteúdo s a G a H SOLUÇÕES EDUCACIONAIS INTEGRADAS ÁLGEBRA LINEAR Silvano Antonio Alves Pereira Junior O espaço ℝⁿ subespaços e geradores Objetivos de aprendizagem Ao final deste texto você deve apresentar os seguintes aprendizados Aplicar as propriedades da geometria tridimensional para o espaço de dimensão n com n 3 Explicar subespaços vetoriais a fim de reconhecer quando um conjunto munido de adição e multiplicação por escalar é um subespaço de um dado espaço vetorial Definir conjuntos geradores a fim de reconhecer quando um conjunto pode ser denominado conjunto gerador de um dado espaço vetorial Introdução Neste capítulo você estudará um pouco mais sobre álgebra linear sendo apresentado ao espaço ℝⁿ uma generalização natural dos conceitos que aprendemos em ℝ² e ℝ³ Verá também o que são subespaços e conjuntos de geradores além de entender como alguns subespaços especiais se relacionam com transformações matriciais Espaços ℝⁿ O espaço ℝⁿ é uma generalização natural dos espaços ℝ² e ℝ³ para dimensões maiores No espaço ℝⁿ para n 4 perdemos a capacidade de desenhar ficando sem o apelo da visualização Contudo como será visto as propriedades algébricas dos espaços e das transformações matriciais continuam válidas e passam a ter um papel ainda mais importante Seguiremos uma linha semelhante à apresentada em Nicholson 2006 Começamos de maneira muito semelhante ao que fizemos para o plano ℝ2 onde identificamos os seus pontos com os vetores que representam o transporte da origem até esses pontos Seguindo por esse caminho lembramonos de que os pontos do espaço ℝn são núplas de números reais Px1 x2 xn onde os xi são também números reais Assim sendo não faremos distinção entre o ponto Px1 x2 xn e o vetor associado ele que representa o transporte da origem a esse ponto Esses vetores são chamados de nvetores e o espaço ℝn é o que contém todos os nvetores assim definidos Veja a seguir alguns exemplos de espaços do tipo ℝn Um exemplo é o plano espaço euclidiano ℝ2 estudado anteriormente onde os pontos Px1 x2 são identificados com os vetores correspondentes v x1 x2 Veja a Figura 1 3 2 1 0 1 2 3 1 2 3 Pxy v B Figura 1 Ponto e vetor no plano euclidiano No plano ℝ2 você já estudou transformações como reflexões rotações e projeções onde a representação gráfica foi de grande auxílio O espaço ℝn subespaços e geradores 2 No próximo exemplo adaptado de Nicholson 2006 você verá um pri meiro exemplo de um espaço onde os vetores apresentam mais do que três coordenadas Paulo um economista que trabalha para uma rede de pizzarias tem em mãos dados sobre as vendas das unidades e a quantidade de estudantes que moram nas redondezas dessas lojas Quantidade de Estudantes mil Vendas mil R 3 30 1 27 1 26 05 23 35 32 Paulo deseja encontrar a reta de regressão desses valores isto é uma reta que tente explicar como as vendas variam à medida que o número de estudantes aumenta Veja a Figura 2 Figura 2 Gráfico de desempenho de vendas Paulo precisa encontrar uma reta da forma y mx b que melhor aproxime os pontos desse gráfico A ideia central é encontrar valores yi mx b que cheguem aos valores das vendas 3 O espaço ℝn subespaços e geradores Essa noção de distância será semelhante à de distância no plano Considere seguintes vetores Y e Y y1 y2 y3 y4 y5 y1 y2 y3 y4 y5 que são vetores de ℝ5 O problema consiste então em encontrar valores de m e b de maneira que o valor dYY y1 y12 y2 y22 y3 y32 y4 y42 y5 y52 O método de minimizar a distância é conhecido como mínimos quadrados Paulo por exemplo utilizando esse método e com o auxílio de uma planilha ele trônica encontrou a seguinte equação para a reta y 247x 2313 Você pode encontrar mais sobre o método dos mínimos quadrados em Nicholson 2006 na seção 46 É importante observar que as operações de soma e produto por escalar definidas em ℝn são análogas às definidas em ℝ2 e ℝ3 Isto é dados e em ℝn e α ℝ temos 1 2 O espaço ℝn subespaços e geradores 4 Portanto assim como nos casos já estudados operações de soma e produto por escalar ocorrem coordenada à coordenada Você verá que na medida em que perdemos as representações gráficas mais importante serão as propriedades algébricas dos objetos estudados Subespaços vetoriais Na seção anterior apresentamos os espaços ℝn como são definidos e alguns exemplos deles Agora você estudará os subespaços do espaço ℝn Começamos em moldes semelhantes ao apresentado em Nicholson 2006 e Anton e Busby 2006 apresentando a definição de subespaço Considere um espaço ℝn Diremos que um subconjunto de vetores E ℝn é um subespaço de ℝn se com as operações de soma e produto por escalar definidas em ℝn ele atender às seguintes condições 1 0 E 2 se u v E então u v E 3 dados α ℝ e v E temse que α v E A primeira propriedade exprime a necessidade de que o elemento nulo seja de um subespaço A segunda e a terceira propriedades exigem que o subespaço seja fechado quando as operações do espaço ℝn isto é ao operar dois elementos do subespaço o resultado deve ainda ser um elemento dele Veja um primeiro exemplo envolvendo subespaços Vamos verificar que o E v є R5u x1 x2 0 0 0 é um subespaço de ℝ5 Com efeito tomando x1 x2 0 concluímos que a primeira condição é satisfeita Agora para verificar mos as demais vamos tomar um par de vetores u v E e α ℝ digamos com 5 O espaço ℝn subespaços e geradores u x1 x2 0 0 0 e v y1 y2 0 0 0 Temos portanto 1 u v є E x1 x2 0 0 0 y1 y2 0 0 0 x1 y1 x2 y2 0 0 0 0 0 0 x1 y1 x2 y2 0 0 0 2 αu α є E x1 x2 0 0 0 αx1 αx2 α0 α0 α0 αx1 αx2 0 0 0 Logo E é de fato um subespaço de ℝ5 Na verdade o leitor mais ávido percebeu que se trata em algum sentido de uma cópia do espaço ℝ2 imersa em ℝ5 Existem dois subespaços que costumam ser chamados de subespaços triviais o próprio ℝn e o subespaço nulo o subespaço formado apenas pelo vetor nulo Será que todos os subconjuntos de um espaço ℝn são também subespaços Se assim fosse não teríamos por que criar uma nova nomenclatura Veja a seguir um exemplo de um subconjunto que não é um subespaço Considere o subconjunto E do plano formado pelos vetores da forma v 1 t 1 t t є R Observe que ele não inclui o vetor nulo De fato se 1 t 0 t 1 temos a primeira coordenada nula Mas para esse mesmo valor a segunda será igual a 2 Esse conjunto coincide com a reta de equação y x 2 que não passa pela origem do plano euclidiano O espaço ℝn subespaços e geradores 6 Vejamos ainda mais um exemplo de subespaço de ℝn Considere o seguinte subconjunto de ℝn E v є R4 v onde x y є R x y y x y y Vamos verificar que esse de fato é um subconjunto de ℝn A primeira condição pode ser verificada tomando x y 0 Obtemos que o vetor nulo está nesse subconjunto Para verificar as outras condições vamos tomar vetores u v E e α ℝ com v v1 v2 v2 v1 v2 v2 u u1 u2 u2 u1 u2 u2 e Obtemos u v v1 v2 v2 v1 v2 v2 u1 u2 u2 u1 u2 u2 x y y x y y onde x v1 u2 e y v2 u2 Portanto u v E Temos também que αu α u1 u2 u2 u1 u2 u2 αu1 αu2 αu2 αu1 αu2 αu2 x y y x y y onde x αu1 e y αu2 Portanto α u E Concluímos que E é de fato um subespaço de ℝn Precisamos ainda definir dois subespaços de ℝn que aparecem em diversas aplicações da álgebra linear o espaço anulado e o espaço imagem Para tal consideremos uma matriz Ann que induz uma transformação linear em ℝn Definimos então 7 O espaço ℝn subespaços e geradores Em palavras o espaço anulado aNulA é um subespaço do domínio da transformação A enquanto o espaço imagem ImA é um subespaço do contradomínio da transformação A Aqui é oportuno relembrar um importante resultado sobre determinantes Teorema seja Ann uma matriz são equivalentes as seguintes afirmações 1 aNulA 0 2 detA 0 3 ImA ℝn No exemplo a seguir você verá o cálculo desses subespaços para uma transformação matricial Considere a matriz a seguir que induz uma transformação no espaço ℝ3 A 1 1 1 0 2 1 0 0 1 Vamos determinar seu espaço anulado e seu espaço imagem Para encontrar o espaço anulado precisamos buscar por todos os vetores que têm o vetor nulo como imagem Temos 1 1 1 0 2 1 0 0 1 x1 x2 x3 0 0 0 x1 x2 x3 0 2x2 x3 0 x3 0 O espaço ℝn subespaços e geradores 8 Considere a seguinte matriz que induz uma transformação no espaço ℝ4 A 1 1 1 1 0 0 2 1 0 2 1 0 0 0 1 0 Vamos determinar seu espaço anulado e seu espaço imagem Para encontrar o espaço anulado precisamos buscar todos os vetores que têm o vetor nulo como imagem Observe que o determinante dessa matriz é igual a 0 logo não podemos aplicar o resultado anterior Temos 1 1 1 1 0 0 2 0 0 2 1 0 0 0 1 0 x1 x2 x3 x4 0 0 0 0 x1 x2 x3 x4 0 2x3 0 2x2 x3 0 x3 0 x1 x4 0 x3 0 x2 0 x3 0 Resolvendo o sistema por substituição obtemos que a única solução é o vetor nulo x1 x2 x3 0 Segue do resultado enunciado acima que aNulA 0 e ImA ℝ3 Observe que poderíamos ter calculado o determinante de A para chegarmos à mesma conclusão Veja mais um exemplo do cálculo de espaço anulado e espaço imagem 9 O espaço ℝn subespaços e geradores Obtemos portanto que os vetores no espaço anulado de A são da forma x1 0 0 x1 ou ainda aNulA x1 x1 є R 1 0 0 1 Para o espaço imagem temos 1 1 1 1 0 0 2 0 0 2 1 0 0 0 1 0 x1 x2 x3 x4 x1 x2 x3 x4 x1 x2 x3 x4 2x3 2x2 x3 x3 1 0 0 0 1 0 2 0 1 2 1 1 1 0 0 0 1 0 0 0 1 0 2 0 1 2 1 1 x1 x4 x2 x3 Assim o espaço imagem é dado por ImA v x1 x4 x2 x3 x1 x2 x3 x4 є R 1 0 0 0 1 0 2 0 1 2 1 1 Sempre que possível inicie problemas envolvendo o espaço anulado e o espaço imagem de uma transformação matricial por meio do cálculo do determinante Utilizar o teorema anterior poderá ajudar a economizar algumas linhas de contas Conjuntos geradores Nesta seção ainda em continuidade ao estudo do espaço ℝn você aprenderá sobre geradores Você deve ter reparado no último exemplo da seção anterior que o espaço imagem era essencialmente uma combinação de algumas das colunas da matriz A Isso não ocorre por acaso O espaço ℝn subespaços e geradores 10 Seguindo o apresentado em Nicholson 2006 começamos apresentado a definição de geradores Para isso precisamos introduzir o conceito de com binação linear Dados os vetores em ℝn diremos que o vetor é uma combinação linear dos vetores com coeficiente a1 a2 an Assim a imagem da transformação do exemplo anterior era uma combinação linear de algumas das colunas daquela matriz Dados vetores em ℝn o conjunto de todas as possíveis combi nações lineares desse constitui o conjunto gerado por eles Mais precisamente Veja a seguir um primeiro exemplo Considere os vetores e1 1 0 e e2 0 1 Vamos verificar que o conjunto gerado por eles é o próprio plano euclidiano De fato dado um vetor v v1 v2 podemos escrever v v1 v2 v1e1 v2e2 v1 v2 1 0 0 1 Portanto o vetor v pertence ao gere1 e2 A outra inclusão de que os vetores desse conjunto gerado pertencem ao plano segue de forma natural Uma importante interpretação dos espaços gerados está associada ao estudo de retas no plano euclidiano no espaço euclidiano e nos espaços de dimensões maiores Temos que dado um vetor v ℝn a reta r que passa pela origem e tem como vetor direto o vetor v é dada por 11 O espaço ℝn subespaços e geradores Essa representação fornece uma maneira compacta e inteligente de represen tar retas mesmo em espaços onde a representação gráfica não é mais possível Um importante resultado apresentado em Nicholson 2015 relaciona su bespaços com conjuntos gerados Temse o seguinte Teorema sejam vetores quaisquer em ℝn então 1 ger é um subespaço de ℝn que contém os vetores 2 se um subespaço V contém os vetores então ger V Em outras palavras o conjunto gerado é sempre um subespaço e além disso se um subespaço contém determinados vetores ele também conterá o espaço gerado por esses Um corolário natural desse resultado é o de que ger é o menor subespaço que contém os vetores Os vetores são chamados de geradores do subespaço ger Veja o exemplo a seguir Os vetores v1 v2 e v3 1 0 1 0 0 1 0 3 0 formam um conjunto de geradores para o espaço euclidiano Esse tipo de verificação costuma ser feito por meio de duas inclusões A primeira gerv1 v2 vn ℝ3 é natural restando a necessidade de verificar que ℝ3 gerv1 v2 v3 Com efeito dado um vetor v ℝn digamos v v1 v2 v3 observe inicialmente que v v1 v2 v3 v1 v2 v3 1 0 0 0 1 0 0 0 1 O espaço ℝn subespaços e geradores 12 Temos ainda que e1 v1 v2 e2 v3 e3 v2 1 3 Segue daí que v v1v1 v2 v2 v3 v3v2 v1 v2 v3 1 3 v v1v1 v3 v1 v2 v3 є ger v1 v2 v3 v2 3 De fato o conjunto apresentado é de geradores para o espaço É importante apresentar ainda um exemplo em que o conjunto de geradores não consegue gerar o espaço que o contém O vetor v1 2 0 sozinho não pode gerar o plano euclidiano De fato se isso fosse possível existiriam números reais a e b tais que av1 bv1 1 1 Mas isso é o mesmo que a bv1 1 1 a b1 a b0 1 1 implicando portanto que 0 1 o que é um absurdo Dessa maneira esse vetor sozinho não pode gerar todo o plano euclidiano 13 O espaço ℝn subespaços e geradores Em álgebra linear é essencial praticar a resolução de problemas Você poderá encontrar alguns problemas adicionais no livro de Nicholson 2006 p 177 ANTON H BUSBY R C Álgebra linear contemporânea Porto Alegre Bookman 2007 NICHOLSON W K Álgebra linear 2 ed São Paulo McGrawHill 2006 Leitura recomendada LIPSCHUTZ S LIPSON M Álgebra linear 4 ed Porto Alegre Bookman 2011 Coleção Schaum O espaço ℝn subespaços e geradores 14 Encerra aqui o trecho do livro disponibilizado para esta Unidade de Aprendizagem Na Biblioteca Virtual da Instituição você encontra a obra na íntegra ÁLGEBRA LINEAR Marcelo Maximiliano Danesi Transformações lineares Sejam E F espaços vetoriais uma transformação linear A E F é uma lei que associa a cada vetor u E um vetor Au F de modo que para quaisquer u v E e α ℝ A satisfaz que Au v Au Av Aα u α Au Dizemos que Au é a imagem de u pela transformação A A transformação linear é um caso particular de função no mesmo sen tido definido pelo cálculo ANTON BIVENS DAVIS 2014 O diferencial da definição acima é que essa função ocorre entre espaços vetoriais não necessariamente iguais e que ela obedece a duas condições ditas condições de linearidade Já trabalhamos com as transformações lineares de ℝn em ℝm já que qualquer transformação linear entre esses espaços vetoriais pode ser representada por uma matriz n m Vejamos a seguir alguns exemplos nos espaços vetoriais mais gerais Lembrandose de que Mnmℝ é o espaço vetorial das matrizes nm fixamos TA uma matriz 3x2 e definimos a transformação A M2mℝ M3mℝ tal que dado u M2mℝ Au TA u Ou seja essa transformação calcula a imagem Au M3mℝ por meio da multi plicação matricial da matriz TA com a matriz u Veja que essa transformação é de fato linear já que dados α ℝ e u M2mℝ temos 1 Au v TA u v TA u TA v Au Av 2 Aα u TA α u α TA u α Au Portanto A é uma transformação linear de M2mℝ em M3mℝ Espaços vetoriais transformações lineares 2 O exemplo a seguir mostra duas transformações não lineares entre espaços vetoriais Considere B M22ℝ M22ℝ e C M22ℝ ℝ tal que dado u M22ℝ Bu u u Cu detu Observe que essas transformações não são lineares pois tomando u u1 u2 1 0 0 1 1 0 0 0 0 0 0 1 temos u u1 u2 e 1 B 2 B 1 0 0 1 2 0 0 2 2 0 0 2 2 0 0 2 4 0 0 4 Enquanto que 2B 2 2 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 2 0 0 2 Logo B 2 1 0 2B 0 1 1 0 0 1 2 Cu C det 1 0 1 0 1 1 0 0 1 Enquanto que Cu1 C det 1 0 0 0 0 1 0 0 0 Cu2 C det 0 0 0 0 1 0 0 0 1 Logo Cu Cu1 u2 Cu1 Cu2 Portanto B e C são transformações não lineares 3 Espaços vetoriais transformações lineares Considere a transformação A P2 R tal que Aα2x2 a1x a0 a2 a1 a0 Essa é uma função que dado qualquer v P2 o espaço vetorial dos polinômios de grau menor ou igual a dois calcula um valor associado em ℝ que também é um espaço vetorial Veja que essa transformação é de fato linear já que dados α ℝ e u v P2 tal que u a2x2 a1x a0 v b2x2 b1x b0 temos 1 Au v Aa2 b2x2 a1 b1x a0 b0 a2 b2 a1 b1 a0 b0 a2 a1 a0 b2 b1 b0 Au Av 2 Aα u Aαa2x2 αa1x αa0 αa2 αa1 αa0 αa2 a1 a0 α Au Portanto A é um funcional linear de P2 em ℝ Uma consequência da definição de transformação linear é que nas con dições da definição dados B u1 u2 un E e u gerB existem α1 α2 αn ℝ tal que u α1u1 α2u2 αnun Au α1Au1 α2Au2 αnAun Isto é o cálculo da transformação de u por A depende apenas do cálculo de cada ui por A onde i 1 n Usando a teoria do cálculo considere a transformação A que calcula a derivada de primeira ordem de uma função u Cℝ o espaço vetorial das funções que apre sentam derivadas de todas as ordens 5 Espaços vetoriais transformações lineares Descrevendo A como a transformação A Cℝ Cℝ tal que Au u Veja que essa transformação é de fato linear já que dados α ℝ e u v Cℝ temos 1 Au v u v u v Au Av 2 Aα u α u α u α Au Logo A é um operador linear em Cℝ e dado u polinômio de grau n então u gerxn x2 x 1 de forma que existem α0 α1 αn ℝ tal que u αnxn α1x1 α0 e definindo Axi ixi1 A1 0 para todo i 1 n podemos calcular a derivada de u pelas regras de derivação anteriores de maneira que Aαnxn α1x1 α0 αnnxn1 α11x0 α00 Esse exemplo ilustra o método usado no ensino das técnicas de derivação numa primeira disciplina de cálculo Cada função elementar é a combinação não necessariamente linear de monômios funções trigonométricas expo nenciais ou logarítmicas Definindo a derivada de cada um desses elementos básicos é possível calcular a derivada de suas combinações Usando a teoria de integração do cálculo podemos falar de outro operador que trabalha no espaço das funções contínuas Dados a b ℝ a b fixamos uma função contínua 𝛿 a b a b ℝ e definimos a transformação AC0ℝ C0ℝ por Au a b δx yuy dy Espaços vetoriais transformações lineares 6 Essa transformação é de fato linear já que dados α ℝ e u v C0ℝ temos 1 Au v a b δx yu vy dy a b δx yuy uy dy a b δx yuy dy a b δx yvy dy Au Av 2 Aα u a b δx yαuy dy a b αδx yuy dy α a b δx yuy dy α Au Logo A é um operador linear em C0ℝ Esse exemplo de operador integral é muito usado nas ciências aplicadas quando 𝛿 é uma função densidade ANTON BIVENS DAVIS 2014 Outros usos incluem a transformada de Laplace a transforma de Fourier a esperança e a variância de variáveis aleatórias contínuas na probabilidade etc Núcleo e imagem de uma transformação linear Dada uma transformação linear A E F definimos dois subespaços vetoriais importantíssimos para determinarmos se A admite ou não uma inversa A imagem de A é o subconjunto de F ImA w Au u E de todos os elementos que são imagem por A de algum vetor em E Essa definição é válida para qualquer função A diferença aqui é que quando A é uma transformação linear ImA é um subespaço vetorial de F Considere o funcional linear A P2 ℝ tal que Aa2x2 a1x a0 a2 a1 a0 7 Espaços vetoriais transformações lineares Essa transformação tem como imagem ImA ℝ Pois para todo w ℝ se tomarmos o polinômio u P2 tal que ux x2 x w 3 w 3 w 3 então Au w w 3 w 3 w 3 Numa transformação linear A E F tal que ImA F dizemos que A é uma transformação linear sobrejetora É o caso do exemplo anterior No que já estudamos sobre os espaços vetoriais ℝn dada a transformação linear A ℝn ℝm existe matriz T m n tal que Au T u E o conjunto imagem de A corresponde ao espaço das colunas da matriz T Esse espaço das colunas é o gerado da base determinada no teorema do Posto Considere a transformação linear A P2 ℝ tal que Aa2x2 a1x a0 a2 2a1 a0 3a2 2a1 a0 Dado w x1 x2 ℝ2 temos que w ImA se existe u ax2 bx c tal que Au w isto é se a2 2a1 a0 3a2 2a1 a0 x1 x2 Espaços vetoriais transformações lineares 8 Ou melhor se e somente se a2 2a1 a0 x1 3a2 2a1 a0 x2 o que é equivalente ao sistema matricial 1 2 1 3 2 1 a2 a1 a0 w TA Esse sistema também significa que w pertence ao gerado das colunas de TA pois essa igualdade pode ser reescrita como a2 a1 a0 w 1 3 2 2 1 1 Como o primeiro e o segundo vetor coluna de TA são linearmente independentes o gerado deles é o próprio ℝ2 Logo ImA ℝ2 O núcleo de A é o subconjunto de E 𝒩A u Au 0 de todos os elementos que tem por imagem o vetor nulo de F Novamente essa definição é válida para qualquer função A diferença aqui é que quando A é uma transformação linear 𝒩A é um subespaço vetorial de E Considere o funcional linear A P2 ℝ tal que Aa2x2 a1x a0 a2 a1 a0 Essa transformação tem como núcleo 𝒩A ux a2x2 a1x a0 a2 a1 a0 0 9 Espaços vetoriais transformações lineares Pela teoria dos polinômios a2 a1 a0 0 é equivalente a afirmar que x 1 é raiz de ux Dessa forma podemos reescrever que 𝒩A ux x 1 é raiz de u Numa transformação linear A E F tal que A 0 dizemos que A é uma transformação linear injetora Não é o caso do exemplo anterior mas é o do próximo exemplo Considere a transformação linear A P3 P4 tal que dado u ux P3 Au x 1 u Vimos anteriormente que essa transformação calcula a imagem de grau 4 da mul tiplicação por x 1 de um polinômio de grau 3 Assim para essa transformação x 1 u 0 u 0 Logo o único vetor em P3 que tem como imagem o vetor nulo é ux 0 Portanto 𝒩A 0 e essa transformação é injetora Por outro lado essa transformação não é sobrejetora pois dada qualquer constante real k 0 ela não é imagem de algum ux P3 isto é x 1ux k para todo u P3 Isso porque o lado esquerdo da desigualdade é um polinômio de grau um no mínimo e o lado direito é uma constante Espaços vetoriais transformações lineares 10 No que já estudamos sobre os espaços vetoriais ℝn dada a transformação linear A ℝn ℝm existe matriz T m n tal que Au T u E o conjunto núcleo de A corresponde ao espaço nulo de A calculado pela solução homogênea da igualdade T u 0 Considere a transformação linear A P2 ℝ2 tal que Aa2x2 a1x a0 a2 2a1 a0 3a2 2a1 a0 Dado u ax2 bx c P2 temos que u 𝒩A se Au 0 isto é se a2 2a1 a0 3a2 2a1 a0 0 0 Ou melhor se e somente se a2 2a1 a0 0 3a2 2a1 a0 0 o que é equivalente ao sistema matricial 1 2 1 3 2 1 a2 a1 a0 TA 0 0 Aplicando o método de Gauss na matriz TA calculamos suas equivalências tal que 1 2 1 3 2 1 1 2 1 0 8 4 1 2 1 0 2 1 1 0 0 0 2 1 11 Espaços vetoriais transformações lineares então o conjunto A1 Ax Ax2 Ax3 x 1 x2 x x3 x2 x4 x3 é linearmente independente sobre P4 Uma maneira de calcularmos isso é por meio do Wronskiano dessas funções Wx det x 1 x2 x x3 x2 x4 x3 x 1 x2 x x3 x2 x4 x3 x 1 x2 x x3 x2 x4 x3 x 1 x2 x x3 x2 x4 x3 det 129x4 6x3 9x2 7x 1 x 1 x2 x x3 x2 x4 x3 1 2x 1 3x2 2x 4x3 3x2 0 2 6x 2 12x2 6x 0 0 6 24x 6 Isto é Wx 0 para todo x ℝ E podemos afirmar que A1 Ax Ax2 Ax3 é linearmente independente sobre P4 Um caso particular de transformação linear injetora e sobrejetora é o operador linear I E E tal que para todo u E Iu u Dizemos que esse é o operador identidade em E e em geral usamos a notação IE ao invés de I No caso mais geral uma transformação linear A E F é invertível se A é simultaneamente injetora e sobrejetora isto é existe B F E tal que para cada u E e w F BAu u ABw w Isso quer dizer que BA IE AB IF e B é transformação linear injetora e sobrejetora Na teoria das funções uma função injetora e sobrejetora é dita bijetora No caso das transformações lineares existe um termo mais significativo se A E F é uma transformação linear bijetora dizemos que A é um isomorfismo entre E e F e E e F são espaços isomorfos Na prática isso significa que os espaços E e F são conjuntos similares que apresentam estrutura algébrica similar não significa que sejam os mesmos conjuntos ou as mesmas operações 13 Espaços vetoriais transformações lineares Existe um isomorfismo entre ℝ3 e P2 dado pela transformação A ℝ3 P2 tal que Aa0 a1 a2 a0 a1x a2x2 Mostramos isso tomando α ℝ u v ℝ3 tal que u a0 a1 a2 v b0 b1 b2 Assim A é linear pois 1 Au v Aa0 b0 a1 b1 a2 b2 a0 b0 a1 b1x a2 b2x2 a0 a1x a2x2 b0 b1x b2x2 Au Av 2 Aαu Aαa0 αa1 αa2 αa0 αa1x αa2x2 αa0 a1x a2x2 αAu A é injetora pois 1 Au 0 implica que a0 a1x a2x2 0 isto é o vetor nulo de P2 que é o polinômio identicamente nulo portanto a0 a1 a2 0 o que significa que 𝒩A 0 A é sobrejetora pois 2 para todo wx P2 existem w0 w1 w2 ℝ tal que Aw0 w1 w2 w0 w1x w2x2 wx Uma consequência importante desse isomorfismo é que todo conjunto linearmente independente de ℝ3 é transformado num conjunto linearmente independente de P2 Em particular se tomarmos o conjunto dos vetores canônicos de ℝ3 eles serão transformados no conjunto linearmente independente de P2Ae1 Ae2 Ae3 1 x x2 O exemplo anterior pode ser estendido ao caso geral que afirma que dado n ℕ existe um isomorfismo entre ℝn1 e Pn de forma que 1 x x2 xn é um conjunto linearmente independente dos vetores ditos canônicos em Pn Outro isomorfismo entre os espaços vetoriais que estudamos é ilustrado no exemplo a seguir Espaços vetoriais transformações lineares 14 Existe um isomorfismo entre ℝ6 e M23ℝ dado pela transformação B ℝ6 M23ℝ tal que Ba1 a2 a3 a4 a5 a6 a1 a2 a3 a4 a5 a6 Mostramos isso tomando α ℝ u v ℝ3 tal que u a1 a2 a3 a4 a5 a6 v b1 b2 b3 b4 b5 b6 Assim B é linear pois 1 Bu v Ba1 b1 a2 b2 a3 b3 a4 b4 a5 b5 a6 b6 a1 b1 a2 b2 a3 b3 a4 b4 a5 b5 a6 b6 Bu Bv a1 a2 a3 a4 a5 a6 b1 b2 b3 b4 b5 b6 2 Bαu Bαa1 αa2 αa3 αa4 αa5 αa6 α αBu αa1 αa2 αa3 αa4 αa5 αa6 a1 a2 a3 a4 a5 a6 B é injetora pois 1 Bu 0 implica que a1 a2 a3 a4 a5 a6 0 isto é o vetor nulo de M23ℝ portanto a1 a2 a3 a4 a5 a6 0 o que significa que 𝒩A 0 B é sobrejetora pois 2 para todo w M23ℝ existem w1 w2 w3 w4 w5 w6 ℝ tal que Bw1 w2 w3 w4 w5 w6 w Uma consequência importante desse isomorfismo é que todo conjunto linearmente independente de ℝ6 é transformado num conjunto linearmente independente de M23ℝ Em particular se tomarmos o conjunto dos vetores canônicos de ℝ6 eles serão transformados no conjunto linearmente independente de M23ℝ Be1 Be2 Be3 Be4 Be5 Be6 1 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 0 1 15 Espaços vetoriais transformações lineares O exemplo anterior pode ser estendido ao caso geral que afirma que dados existe um isomorfismo entre ℝmn e Mmnℝ de forma que o conjunto de todas as matrizes Ers aij Mmnℝ com r 1 m s 1 n tal que é um conjunto linearmente independente dos vetores ditos canônicos em Mmnℝ Além disso como esses isomorfismos admitem transformação inversa que também é um isomorfismo temos uma relação direta entre o espaço vetorial das matrizes de coeficientes reais dos polinômios de coeficientes reais e dos vetores ndimensionais Um último detalhe importante é que não existe transformação linear bijetora do ℝn em C0 ℝ Uma forma de justificar essa afirmação é lembrarse de que para todo l ℕ o conjunto 1 x x2 xl1 é linearmente independente em C0 ℝ Como em ℝn qualquer conjunto com mais de n vetores é linearmente dependente não tem como levar um conjunto linearmente independente de C0 ℝ arbitrariamente grande para o ℝn e manter a propriedade de independência linear Espaços vetoriais das transformações lineares Mais adiante voltaremos a falar de funcionais lineares e como alguns tipos deles definem uma medida no espaço vetorial Nesse sentido enunciamos algumas propriedades dos espaços vetoriais definidos por transformações lineares Sejam E F espaços vetoriais O conjunto ℒE F de todas as transforma ções lineares A E F é um espaço vetorial se dados A B ℒ E F e α ℝ definimos as operações A Bu Au Bu αAu α Au Espaços vetoriais transformações lineares 16 Nesse espaço o vetor nulo é a transformação trivial 0u 0 para todo u E e o inverso aditivo de A ℒ E F é a transformação A E F tal que Au 1 Au Nessas condições 1 se E F dizemos que ℒ E ℒ E E é o espaço vetorial dos opera dores lineares de E 2 se E ℝ dizemos que E ℒ E ℝ é o espaço vetorial dual de E Adicionalmente um funcional linear f E ou é sobrejetivo ou é identi camente nulo pois os únicos subespaços de ℝ são ℝ e 0 ANTON H BIVENS I C DAVIS S L Cálculo 10 ed Porto Alegre Bookman 2014 v 1 e 2 Leituras recomendadas ANTON H RORRES C Álgebra Linear com aplicações 10 ed Porto Alegre Bookman 2012 LAY D C LAY S R MACDONALD J J Álgebra linear e suas aplicações 5 ed Rio de Janeiro LTC 2018 LIMA E L Álgebra linear 9 ed Rio de Janeiro SBM 2016 Referência 17 Espaços vetoriais transformações lineares ÁLGEBRA LINEAR Marcelo Maximiliano Danesi onde α1 αn ℝ Adicionalmente os números α1 αn são chamados de coordenadas do vetor v na base B A base mais simples que podemos definir no ℝn é o que chamamos de base canônica do ℝn Essa base é formada pelos n vetores e i que têm 1 na iésima componente e 0 nas demais Em ℝ5 a base canônica é o conjunto B formado pelos vetores e 1 10000 e 2 01000 e 3 00100 e 4 00010 e 5 00001 Repare que esses vetores são linearmente independentes e a matriz 5x5 da forma demonstrada a seguir é a matriz identidade 5x5 e 1 e 5 1 0 0 0 0 0 1 0 0 0 0 0 1 0 0 0 0 0 1 0 0 0 0 0 1 Genericamente falando usamos bases não canônicas em ℝn quando que remos estudar aspectos do problema que não ocorrem nas direções canônicas desse espaço Pode parecer difícil mas de certa forma já estávamos estudando alguns aspectos desse assunto quando trabalhamos a definição de autovetores Espaço vetorial ℝn base e dimensão 2 Em ℝ4 se considerarmos o conjunto formado pelos vetores v 1 1024 v 2 0132 v 3 1233 v 4 4127 a B v 1 v 2 v 3 v 4 é um conjunto linearmente independente b Como podemos escrever o vetor v 1 11374 como uma combinação linear dessa base Isto é quais são as coordenadas de v na base B Solução a B é um conjunto linearmente independente porque a a seguinte equação matricial admite apenas a solução trivial 0000 Podemos calcular isso pelo método de Gauss 1 0 1 4 0 1 2 1 2 3 3 2 4 2 3 7 x1 x2 x3 x4 0 0 0 0 b Pela definição precisamos calcular α1 α2 α3 α4 de forma que v α1 v 1 α2 v 2 α3 v 3 α4 v 4 Substituindo os vetores temos 11 3 7 4 α1 1 0 2 4 α2 0 1 3 2 α3 1 2 3 3 α4 4 1 2 7 Isso equivale a solucionar a seguinte equação matricial que pode ser resolvida usando o método de Gauss 1 0 1 4 0 1 2 1 2 3 3 2 4 2 3 7 a1 a2 a3 a4 11 3 7 4 Dessa forma podemos calcular que existe uma única solução dada por α1 α2 α3 α4 3102 3 Espaço vetorial ℝn base e dimensão Uma observação que podemos fazer em relação ao exemplo anterior é que a solução calculada 3102 realmente descreve coordenadas do vetor v 11374 na base B Isto é estamos considerando um sistema de referência diferente do sistema de coordenadas definido pela base canônica e isso está definindo outra maneira de nos referirmos a esse vetor Aproveitando definimos a notação v B α1 αn se esse é o vetor formado pelos coeficientes de v na base B de ℝn O caso particular onde B é a base canônica temos que v B v Quando fixamos um vetor v em ℝn ele existe independente de uma base Quando fixamos uma base B e escrevemos a representação de v na base B essa representação v B é única em relação a B e para cada base teremos uma representação diferente Matriz de mudança de base em ℝn Com base no que vimos anteriormente podemos nos perguntar como calcular uma matriz de mudança de coordenadas de uma base para outra do ℝn Considere B v 1 v n uma base ℝn e ℰ a sua base canônica Se tomar mos a matriz n n da forma MBℰ v 1 v n essa matriz transforma um vetor v B na sua forma canônica v Desse modo se quisermos calcular uma matriz que faça o caminho contrário isto é que calcule v B a partir do vetor v precisamos calcular a matriz inversa de MBE Espaço vetorial ℝn base e dimensão 4 Em ℝ2 a base B 31 21 define a matriz MBℰ 3 2 1 1 Assim a como podemos calcular a inversa dessa matriz b dado v 34 como calcular a sua forma na base B Solução a Como essa é uma matriz 2 2 e seu determinante é não nulo podemos usar a fórmula a b c d 1 1 ad bc d b c a que resulta em MBℰ 1 1 3 1 1 2 1 2 1 3 1 2 1 3 1 2 1 3 1 1 b Assim podemos calcular diretamente que v B MBℰ v 1 1 2 1 3 3 4 11 15 3 8 3 12 Isto é v B 1115 Isso significa que v 11 31 15 21 34 onde essa última igualdade mostra como v B é o vetor v só que escrito de uma forma alternativa não canônica A fim de simplificar um pouco a notação vamos nos aproveitar da sime tria do problema acima e escrever que MℰB MBℰ Essa matriz é a matriz mudança de coordenadas da base canônica ℰ para a base B pela igualdade v B MℰB v 1 5 Espaço vetorial ℝn base e dimensão Em ℝ3 a base B 121 210 141 define a matriz MBℰ 1 2 1 2 1 4 1 0 1 Assim a como podemos calcular a inversa dessa matriz b dado v 521 como calcular a sua forma na base B Solução a Como essa é uma matriz 3 3 usamos o método de redução linear ANTON ROR RES 2012 p 55 onde juntamos a matriz identidade I à direita de MBℰ da forma MBℰ I e efetuamos operações com as linhas dessa matriz até que o lado esquerdo esteja reduzido a I Desse modo a matriz final terá a forma I MℰB Fazendo as contas temos 1 2 1 2 1 4 1 0 1 1 0 0 0 1 0 0 0 1 Trocamos a primeira e a terceira linhas e multiplicamos a segunda por 1 1 0 1 2 1 4 1 2 1 0 0 1 0 1 0 1 0 0 Somamos duas vezes a primeira linha à segunda e a primeira linha à terceira 1 0 1 0 1 2 0 2 2 0 0 1 0 1 2 1 0 1 Espaço vetorial ℝn base e dimensão 6 Somamos duas vezes a segunda linha à terceira 1 0 1 0 1 2 0 0 2 0 0 1 0 1 2 1 2 5 Multiplicamos a terceira linha por 12 1 0 1 0 1 2 0 0 1 0 0 1 0 1 2 12 1 52 Somamos 1 vez a terceira linha à primeira e duas vezes a terceira linha à segunda 1 0 0 0 1 0 0 0 1 1 3 1 1 12 52 1 12 72 Portanto MℰB 1 2 7 2 1 1 3 1 1 1 2 5 2 b Com a matriz MℰB calculada podemos calcular diretamente que v B MℰB v 1 3 1 5 2 1 1 4 2 52 2 72 5 2 3 52 2 52 1 12 72 12 1 52 Isto é v B 142 Isso significa que v 1 121 4 210 2 141 521 onde esta última igualdade mostra como v B é o vetor v só que escrito de uma forma alternativa não canônica 7 Espaço vetorial ℝn base e dimensão Bases de um subespaço do ℝn De forma similar ao que definimos anteriormente dado um subespaço vetorial E do ℝn uma base de E é um conjunto B de vetores linearmente independentes tal que BE e B é gerador de E Isto é se v E e B é uma base de E então existem v 1 v m e α1 αm ℝ tal que v α1 v 1 αm v m Essa combinação é única em E Adicionalmente os números α1 αm são chamados de coordenadas do vetor v na base B É importante observar que o número de vetores m na base de um subespaço de ℝn é tal que m n Quais dos conjuntos de vetores dados são bases de subespaços do ℝ3 a B1 143 025 b B2 212 123 347 c B3 143 025 111 d Dos conjuntos B1 B2 e B3 anteriores considere apenas os que definem uma base e para cada um determine se o vetor v 120 pertence ao subespaço gerado Solução a B1 é linearmente independente pois seus vetores não são múltiplos Isso significa que o espaço gerado por B1 é um subespaço de ℝ3 b B2 é linearmente dependente pois a equação matricial 2 1 3 1 2 4 2 3 7 x1 x2 x3 0 0 0 admite outras soluções diferentes da solução trivial 000 Podemos observar isso por meio do método de Gauss e da falta de pivôs na forma escalonada Logo B2 não é uma base de um subespaço do ℝ3 Espaço vetorial ℝn base e dimensão 8 a B3 é linearmente independente pois a equação matricial 1 0 1 4 2 1 3 5 1 x1 x2 x3 0 0 0 admite apenas a solução trivial 000 calculada por exemplo pelo método de Gauss Logo B3 é uma base de um subespaço do ℝ3 base do próprio ℝ3 na verdade b Em B1 v pertence ao subespaço gerado se existe solução para a equação vetorial 1 2 0 1 4 3 0 2 5 α1 α2 No caso essa igualdade não tem solução pois as soluções na primeira α1 1 e segunda coordenadas α2 1 não são soluções na terceira coordenada Portanto v não pertence ao gerado de B1 Em B3 a equação vetorial 1 2 0 1 1 1 1 4 3 0 2 5 α1 α2 α3 é equivalente à equação matricial 1 0 1 4 2 1 3 5 1 a1 a2 a3 1 2 0 Usando o método de Gauss temos que v B3 723 123 1623 e v pertence ao gerado de B3 Qualquer conjunto de vetores de ℝn gera um subespaço de ℝn Para um conjunto ser base desse subespaço ele precisa ser formado apenas por vetores linearmente independentes Isto é a base de um subespaço é o menor conjunto de vetores que gera esse subespaço Vamos falar mais sobre essa diferença ainda neste capítulo 9 Espaço vetorial ℝn base e dimensão Seja E o subespaço vetorial de ℝ3 formado pelos vetores v x y z que satisfazem x 2y 4z 0 Como podemos obter uma base v 1 v 2 ℝ3 de forma que v 1 v 2 E Solução A equação x 2y 4z 0 admite infinitas soluções xyz Uma maneira de expres sarmos essas soluções é escrevendo a equação como x 2y 4z e atribuirmos valores arbitrários para y e z a fim de calcularmos x É importante lembrarse da noção de variável livre e variável dependente Nesse caso x é variável dependente enquanto que y e z são variáveis independentes Se escolhermos y 2 e z 3 calculamos x 2 2 4 3 16 Assim o vetor v 1 1623 satisfaz a equação dada e podemos afirmar que v 1 E Para calcularmos v 2 é conveniente lembrarse de que desejamos descrever uma base de E Isso implica que os vetores precisam ser linearmente independentes no caso da dimensão 2 e não podem ser múltiplos Isto é se escolhermos y 4 e z 6 então o vetor 3246 não seria uma boa alternativa pois ele é múltiplo de v 1 Se escolhermos y 0 e z 1 calculamos x 2 0 4 1 4 Assim o vetor v 2 401 satisfaz a equação dada o conjunto v 1 v 2 é linearmente independente e seu plano gerado é descrito pela equação No exemplo anterior a equação x 2y 4z apresenta infinitas soluções Isso significa que existem infinitas bases que podemos escolher para E O importante é observar que todas essas bases descrevem exatamente o mesmo subespaço E 11 Espaço vetorial ℝn base e dimensão Subespaços vetoriais de ℝn n 3 Em geral para n 3 não nos preocupamos em dar nome aos subespaços que surgem do ℝn pois eles podem ser descritos por meio de bases ou condições algébricas a respeito dos vetores que compõem esse subespaço Veja os exem plos a seguir Seja F o subespaço vetorial de ℝ4 formado pelos vetores v xyzw que satisfazem 3x y z 0 2x 3y w 0 Como podemos obter uma base de F Qual é a dimensão desse subespaço Solução Esse exemplo apesar de mais complexo não é tão diferente do anterior no qual identificamos algumas variáveis livres na equação e escrevemos as variáveis depen dentes a partir dessas Neste exemplo faremos o mesmo no sistema de equações dado Considerando 3x y z 0 2x 3y w 0 Escrevemos z e w em função de x e y z 3x y w 2x 3y Substituindo as variáveis z e w em v podemos reescrever v como v xy 3x y 2x 3y que por sua vez por ser reescrito como a soma de um vetor que depende de x e um vetor que depende de y v xy 3x y 2x 3y x03x2y 0yy3y Espaço vetorial ℝn base e dimensão 12 que por sua vez pode ser reescrito como a combinação linear de dois vetores v x 1032 y 0113 Portanto qualquer v F é uma combinação linear de v1 1032 v2 0113 E v 1 v 2 é uma base do subespaço vetorial F de dimensão 2 em ℝ4 Seja G o subespaço vetorial de ℝ5 formado pelos vetores v x1x2x3x4x5 que satisfazem 3x1 2x2 2x3 x4 0 x1 2x3 3x4 2x5 0 Como podemos obter uma base de G Qual é a dimensão desse subespaço Solução Vamos tentar generalizar os exemplos anteriores por meio deste O sistema de equações lineares 3x1 2x2 2x3 x4 0 x1 2x3 3x4 2x5 0 apresenta 5 variáveis e 2 equações Isto é podemos escolher 3 variáveis livres e escrever as demais em função dessas apenas Para isso somamos 3 vezes a segunda equação à primeira 2x2 8x3 10x4 6x5 0 x1 2x3 3x4 2x5 0 Multiplicamos a primeira linha por 12 e a segunda linha por 1 x2 4x3 5x4 3x5 0 x1 2x3 3x4 2x5 0 13 Espaço vetorial ℝn base e dimensão Logo podemos escrever x1 e x2 em função das demais variáveis x2 4x3 5x4 3x5 x1 2x3 3x4 2x5 e v como a soma de 3 vetores cada um dependendo de apenas uma das variáveis livres v 2x3 3x4 2x54x3 5x4 3x5x3x4x5 2x34x3x300 3x45x40x40 2x53x500x5 x3 24100 x4 35010 x5 23001 Portanto qualquer v G é uma combinação linear de v1 24100 v2 35010 v3 23001 E v 1 v 2 v 3 é uma base do subespaço vetorial G de dimensão 3 em ℝ5 Bases em conjuntos e sua dimensão Vamos retomar alguns conceitos e analisar com cuidado como identificar se um conjunto dado é uma base para um subespaço Existem vários conceitos implícitos nesse objetivo Mencionamos anteriormente que nem todo conjunto de vetores é uma base Por definição isso ocorre sempre que um conjunto de vetores é linearmente dependente Num conjunto de vetores linearmente dependente não consegui mos determinar a dimensão do gerado desse conjunto ou uma representação única levando em consideração esse conjunto de vetores Espaço vetorial ℝn base e dimensão 14 Em ℝ5 considere o conjunto de vetores C 20314 01122 2213023052 e veja que a C é linearmente dependente b podemos determinar um subconjunto de C que é linearmente independente e que gera o mesmo subespaço que C Solução a Por definição v 1 v 2 v 3 v 4 é linearmente independente se α1 v 1 αn v n 0 admite apenas a solução trivial α1α2α3α4 0000 Quando aplicamos esse critério aos vetores dados temos 2 0 3 1 4 0 1 1 2 2 2 2 1 3 0 2 3 0 5 2 0 0 0 0 0 α1 α2 α3 α4 Essa igualdade pode ser escrita na forma matricial 2 0 2 2 0 1 2 3 3 1 1 0 1 2 3 5 4 2 0 2 a1 a2 a3 a4 0 0 0 0 0 que resolveremos usando a matriz aumentada e eliminação gaussiana ANTON RORRES 2012 p 11 Assim em 2 0 2 2 0 0 1 2 3 0 3 1 1 0 0 1 2 3 5 0 4 2 0 2 0 15 Espaço vetorial ℝn base e dimensão Multiplicamos a primeira linha por 12 e a quinta linha por 12 1 0 1 1 0 0 1 2 3 0 3 1 1 0 0 1 2 3 5 0 2 1 0 1 0 Somamos 3 vezes a primeira linha à terceira1 vez a primeira linha à quarta e2 vezes a primeira linha à quinta 1 0 1 1 0 0 1 2 3 0 0 1 2 3 0 0 2 4 6 0 0 1 2 3 0 Somamos 1 vez a segunda linha à terceira 2 vezes a segunda linha à quarta e a primeira linha à quinta 1 0 1 1 0 0 1 2 3 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 Nesse momento podemos analisar que α3 e α4 são variáveis livres do sistema Isso significa que existem infinitas combinações α1α2α3α4 que resultam no vetor nulo Portanto C é linearmente dependente b Podemos verificar que se v 1 20314 v 2 01122 v 3 22130 v 4 23052 então v 4 v 1 3v 2 e v 3 v 1 2v 2 Isso nos permite afirmar que B v 1 v 2 é uma base do gerado de C Isso ocorre por percebermos que todos os vetores de C são obtidos por combinações de apenas dois vetores não múltiplos e portanto linearmente independentes Assim quaisquer dois vetores não múltiplos no gerado de C formam uma base do gerado de C Espaço vetorial ℝn base e dimensão 16 No exemplo anterior vimos que o vetor v 3 pode ser escrito em relação ao conjunto C como v 3 1v 1 2v 2 0v 3 0v 4 ou como v 3 0v 1 0v 2 1v 3 0v 4 Isso ilustra nossa afirmação de que os vetores de um subespaço apresentam de composição única apenas sobre uma base daquele subespaço Ainda observando o exemplo anterior vemos que não é imediato perceber que a dimensão do conjunto gerado por C é 2 Vejamos agora uma versão simplificada do teorema do posto para matrizes ANTON RORRES 2012 p 238 que nos dará a solução para esse problema Em ℝn dado o conjunto de vetores C v 1 v m o subespaço vetorial gerado por C terá dimensão igual ao número de pivôs da forma escalonada da matriz M v 1 v m Adicionalmente as colunas que tiverem pivôs na forma escalonada são as dos vetores em M que compõem uma base do gerado de C Retomando o exemplo anterior em ℝ5 o conjunto de vetores C 20314 01122 22130 23052 17 Espaço vetorial ℝn base e dimensão tem uma matriz associada 2 0 2 2 0 1 2 3 3 1 1 0 1 2 3 5 4 2 0 2 Como essa matriz tem uma forma escalonada 1 0 1 1 0 1 2 3 0 0 0 0 0 0 0 0 0 0 0 0 podemos afirmar que o subespaço gerado por C tem dimensão 2 e precisamos de apenas dois vetores para formar uma base desse gerado No caso v 1 e v 2 pois nessas colunas temos a presença de pivôs Em ℝ4 dado o conjunto de vetores C 1121 2102 1223 3352 como determinar a dimensão do gerado de C e uma base desse subespaço Solução Como esse conjunto de vetores tem uma matriz associada 1 2 1 3 1 1 2 3 2 0 2 5 1 2 3 2 para calcular a sua forma escalonada somamos a primeira linha à segunda2 vezes a primeira linha à terceira e1 vez a primeira linha à quarta 1 2 1 3 0 3 3 0 0 4 4 1 0 4 4 1 Espaço vetorial ℝn base e dimensão 18 Multiplicamos a segunda linha por 13 somamos 1 vez a terceira linha à quarta 1 2 1 3 0 1 1 0 0 4 4 1 0 0 0 0 Somamos quatro vezes a segunda linha à terceira 1 2 1 3 0 1 1 0 0 0 0 1 0 0 0 0 E chegamos à forma escalonada que nos permite contar 3 pivôs Logo o subespaço gerado por C tem dimensão 3 e uma base para esse subespaço é v 1 v 2 v 4 pela forma escalonada ter pivôs nas colunas 1 2 e 4 Acessando o link a seguir você pode visualizar exercícios de bases e sistemas de coordenadas disponibilizados pela Unicamp classificados quanto à sua dificuldade categoria e solução httpsgooglsYUrHS ANTON H RORRES C Álgebra linear com aplicações 10 ed Porto Alegre Bookman 2012 786 p LAY D C LAY S R MCDONALD J J Álgebra linear e suas aplicações 5 ed Rio de Janeiro LTC 2018 480 p 19 Espaço vetorial ℝn base e dimensão ÁLGEBRA LINEAR André Ricardo Rocha da Silva Para o terceiro tipo de operação a soma de um múltiplo de uma linha com outra significa multiplicar todos os elementos de uma linha por um número e depois somar esse resultado à outra linha Por exemplo depois de multiplicar a segunda linha por 3 você pode somar esse resultado com a primeira Observe que essa operação produziu um elemento nulo na segunda coluna da primeira linha Com efeito uma matriz elementar é uma matriz quadrada que pode ser obtida a partir da matriz identidade de mesmo tamanho por meio de uma única operação elementar sobre linhas Veja a seguir alguns exemplos 1 A seguinte matriz é elementar pois foi obtida da matriz identidade por meio da multiplicação por 5 da primeira linha 5 0 0 1 2 Esta matriz é elementar pois foi obtida da matriz identidade por meio da troca entre a primeira e a segunda linha 0 1 0 1 0 0 0 0 1 3 A matriz a seguir é elementar pois foi obtida da matriz identidade por meio da multiplicação da última linha por 2 somada com a primeira linha 1 2 0 1 3 Matrizes elementares e fatoração LU Uma propriedade fundamental das matrizes elementares diz respeito ao efeito que elas causam sobre outras matrizes Se por exemplo uma matriz elementar E1 é resultado da multiplicação da primeira linha da matriz unidade por 2 então a multiplicação dessa matriz elementar à esquerda de outra qualquer de mesmo tamanho A produzirá como único efeito a multiplicação da primeira linha de A por 2 Por exemplo se E1 for dada por e a matriz A for A 2 3 1 1 então o produto E1A fica cujo resultado é igual a multiplicar por 2 a primeira linha da matriz A É possível realizar uma segunda operação elementar sobre linhas na ma triz A multiplicando o produto E1A por uma segunda matriz elementar Por exemplo para a matriz elementar E2 dada por que é uma matriz elementar produzida pela multiplicação da primeira linha da matriz identidade por 3 somada com a segunda linha Então o resultado de E2E1A é que representa simplesmente a multiplicação da primeira linha da matriz E1A por 3 e depois somada com a segunda linha Veja multiplicando a primeira linha de E1A por 3 e depois somando a segunda linha 3 4 6 12 18 12 18 1 1 11 19 Matrizes elementares e fatoração LU 4 o resultado é que é exatamente o mesmo de E2E1A Desse modo duas ou mais operações elementares realizadas sobre uma matriz A qualquer podem ser obtidas pela multiplicação sucessiva das matrizes elementares que produzem tais operações sobre linhas A aplicação sucessiva de duas operações elementares a e b respectivamente sobre uma matriz A implica uma mesma ordem de aplicação das matrizes elementares representativas dessas operações EbEaA Portanto o conceito de matrizes elementares é fundamental para a resolu ção de sistemas de equações lineares pois permite o desenvolvimento de um algoritmopadrão para a realização de operações elementares sobre as linhas da matriz dos coeficientes do sistema a fim de solucionálo Inversão de matrizes Um aspecto importante sobre as operações elementares é que a mudança gerada por uma operação pode ser desfeita por meio de outra operação elementar Considere a matriz elementar obtida da matriz identidade multiplicando a primeira linha por 5 Essa operação pode ser desfeita por meio da multiplicação da primeira linha por 15 ou seja multiplicando E1 pela matriz elementar 5 Matrizes elementares e fatoração LU Observe com atenção como a primeira matriz elementar E1 tem origem na matriz identidade I por meio de uma operação elementar então desfazer essa operação elementar implica retornar à matriz identidade E por isso a matriz elementar que desfez a operação dada por E1 foi propositalmente denotada por pois ela representa a matriz inversa de E1 De fato observe que Outro exemplo que você viu foi o da matriz elementar obtida da matriz identidade por meio da troca entre a primeira e a segunda linha Essa operação pode ser desfeita mediante a realização de uma nova troca entre a primeira e a segunda linha Logo nesse caso E2 e por isso De fato o cálculo do quadrado da matriz E2 resulta na matriz identidade Nesse caso vale a pena notar que essa matriz elementar é ortogonal pois E2 T ou seja a matriz inversa é igual à matriz transposta e também uma matriz simétrica já que E2 implica que E2 T E2 A matriz elementar do tipo 3 3 que faz a troca da primeira linha com a terceira também é uma matriz ortogonal e simétrica Matrizes elementares e fatoração LU 6 Um outro exemplo importante envolve a seguinte matriz complementar obtida da matriz identidade por meio da multiplicação da última linha por 2 somada com a primeira linha Essa mudança pode ser desfeita pela multi plicação da última linha da matriz identidade por 2 e da soma do resultado com a primeira linha Isto é a matriz elementar que representa a matriz inversa de E3 é De fato você pode verificar que Portanto para uma dada matriz elementar que representa uma operação elementar sobre a matriz identidade sua matriz inversa é simplesmente a operação elementar inversa ou seja retornase novamente à matriz identidade Toda matriz elementar contém uma matriz inversa que por sua vez também é uma matriz elementar O conceito de matriz elementar desempenha um papel fundamental na construção de uma matriz Para uma dada matriz quadrada A que possui uma inversa A1 as seguintes proposições são válidas 1 É sempre possível transformar A por meio de sucessivas aplicações de matrizes elementares em uma matriz identidade I En E2E1A I 2 Podese representar A como um produto de matrizes elementares sobre I 7 Matrizes elementares e fatoração LU Isso pode ser visto da seguinte maneira desde que A1A I então pela proposição 1 você pode identificar diretamente que A1 En E2E1 Agora a inversa de A1 é a própria matriz A A11 A Então A11 En E2E11 A Como as matrizes elementares contêm inversas vale a seguinte igualdade que se aplica ao cálculo da inversa de uma matriz resultante do produto entre outras matrizes Portanto Ou seja como a matriz inversa de uma matriz elementar também é uma matriz elementar esse resultado está de acordo com a proposição 2 vista anteriormente Além disso como a matriz A contém uma inversa o produto da inversa de matrizes elementares também possui uma inversa Os resultados fornecem duas importantes aplicações A primeira aplicação possibilita resolver sistemas de equações lineares Com efeito podese aplicar as matrizes elementares para resolver sistemas de equações lineares Isso pode ser feito utilizando a representação matricial de um sistema dada pela equação matricial AX B Matrizes elementares e fatoração LU 8 em que A é a matriz quadrada dos coeficientes X é a matriz coluna das variáveis e B é a matriz coluna das constantes Você viu que En E2E1A 1 Por isso a aplicação sucessiva de matrizes elementares no lado esquerdo dessa equação matricial e em ambos os lados dessa relação de igualdade resulta em que é a solução do sistema de equações lineares Como você pode notar essa solução depende da existência da matriz inversa dos coeficientes do sistema Agora a segunda aplicação importante é fornecer um método para deter minar quando existir a inversa de uma matriz que por tabela também auxilia na solução de um sistema linear que é a primeira aplicação Se você multiplicar pela direita a equação matricial En E2E1A I por A1 você obtém Ou seja é possível obter a matriz inversa de A por meio de sucessivas multiplicações de matrizes elementares à esquerda da matriz identidade I Dessa forma comparando os seguintes resultados En E2E1A I A1 En E2E1I você pode observar um conceito fundamental as mesmas operações ele mentares sobre linhas geradas pelo produto das várias matrizes elementares que transformam a matriz A em uma matriz identidade I também transformam a matriz identidade I na matriz inversa de A que é dada por A1 9 Matrizes elementares e fatoração LU Com efeito para que você possa encontrar a inversa de uma matriz A basta executar uma sequência de operações elementares sobre linhas que transforma A em uma matriz identidade e simultaneamente essa mesma sequência de operações elementares sobre linhas para transformar I na matriz inversa de A Para que você possa executar simultaneamente a mesma sequência de operações elementares sobre as matrizes A e I é recomendável que você perfile as matrizes A e I lado a lado da seguinte maneira AI Veja que embora as duas matrizes estejam uma do lado da outra há uma divisória simbolizada por que permite separálas de forma individual A partir dessa configuração a execução de operações elementares sobre A lado esquerdo que resultará na matriz I ocorre simultaneamente sobre I lado direito cujo resultado é a matriz A1 Para exemplificar esse processo considere a seguinte matriz Então perfilea junto à matriz I Agora a ideia é realizar operações simultâneas sobre as linhas das ma trizes A e I perfiladas que formam um tipo de matriz 2 4 de modo a transformar a matriz A no lado esquerdo em I O que resultar no lado direito será identificado como sendo A1 Matrizes elementares e fatoração LU 10 Nesse exemplo se você multiplicar a segunda linha por 2 e somar com a primeira linha 2 0 10 1 1 21 0 1 01 2 o resultado será uma nova primeira linha Veja que do lado esquerdo já apareceu a matriz identidade e por con seguinte a matriz do lado direito é necessariamente a matriz inversa de A É fácil você comprovar isso mostrando que AA1 A1A I Fatoração LU Em diversas situações evolvendo cálculos tornase útil a fatoração de um número ou mesmo a fatoração de uma expressão matemática para simplificar um cálculo Veja os dois exemplos de fatoração a seguir a b A mesma ideia vale para as matrizes O processo de fatoração de uma matriz implica escrever uma dada matriz como sendo o resultado do produto de duas ou mais matrizes A aplicação dessa técnica é especialmente útil para a resolução de sistemas de equações lineares pois fornece uma alternativa operacional direta e simples de ser executada Por isso ela também é bastante empregada em computadores para a execução de processos que envolvam muitos cálculos Um caso particular da fatoração de matrizes é a denominada fatoração LU que consiste em escrever uma dada matriz A que possui inversa como sendo o produto de outras duas matrizes L e U de modo que A LU 11 Matrizes elementares e fatoração LU A matriz U é obtida a partir da aplicação do método de eliminação de Gauss sobre A Ou seja a partir da operação elementar sobre linhas aplicadas à matriz A é possível transformála em uma matriz triangular superior U En E2E1A U Multiplicando pela esquerda os dois lados dessa relação por En E2E11 você obtém Desde que chegase finalmente à relação Aqui a matriz é uma matriz triangular inferior desde que não se tenha feito trocas de linhas na aplicação do método de eliminação Gauss para obter a matriz U Se uma matriz quadrada A pode ser reduzida à forma escalonada U por meio do método de eliminação de Gauss sem troca de linhas então essa matriz pode ser fatorada como A LU em que a matriz L é uma matriz triangular inferior Matrizes elementares e fatoração LU 12 Para você entender o procedimento de como realizar a fatoração LU para uma dada matriz considere a seguinte matriz do tipo 2 2 Aplicandose o método de eliminação de Gauss você pode multiplicar a primeira linha de A por 3 e somar com a segunda linha obtendo assim a matriz U Essa operação elementar realizada sobre A também corresponde à aplicação da matriz elementar obtida pela multiplicação da primeira linha da matriz identidade por 3 depois somada com a segunda linha Veja Com efeito a matriz L é obtida simplesmente por calcular a matriz inversa de E Nesse caso se você multiplicar a primeira linha por 3 e depois somar com a segunda linha você já tem do lado esquerdo a matriz identidade e portanto 13 Matrizes elementares e fatoração LU Logo a matriz L fica Claro que você poderia ter obtido esse mesmo resultado observando que a operação elementar sobre linhas contrárias à realizada para obter a matriz U é de multiplicar a primeira linha da matriz identidade por 3 e depois somar com a segunda linha que tem o mesmo efeito de multiplicar a primeira linha da matriz identidade por 3 e depois fazer a subtração com a segunda linha Assim onde aparece o fator 3 na matriz elementar E aparecerá o fator 3 na matriz L Desse modo a fatoração LU para a matriz A é dada por De modo geral para se fazer a fatoração LU de uma dada matriz A basta registrar as matrizes elementares que conduziram à forma escalonada U da matriz A e então calcular a matriz inversa dessas matrizes elementares cujo produto em ordem invertida delas resulta na matriz L Como você já deve ter percebido a maior parte do trabalho para fazer a fatoração LU consiste em encontrar L No entanto você pode construir a matriz L mais facilmente notando que Observe que no caso de E1 obtida pela multiplicação do primeiro ele mento da matriz identidade por 5 e cuja ação sobre outra matriz consiste em multiplicar o elemento correspondente por 5 a sua matriz inversa é obtida simplesmente dividindo por 5 o primeiro elemento Já para a matriz elementar E2 obtida pela multiplicação da primeira linha da matriz identidade por 3 que depois foi somada com a segunda linha a sua matriz inversa é obtida pela multiplicação da primeira linha da matriz identidade por 3 depois subtraída da segunda linha Em outras palavras a matriz inversa de Matrizes elementares e fatoração LU 14 uma matriz elementar corresponde exatamente à operação algébrica inversa da matriz elementar Se a ação da matriz elementar é multiplicar a matriz inversa dividirá se a ação da matriz elementar é somar uma linha a matriz inversa subtrairá uma linha Veja agora como a fatoração LU é empregada para se obter a solução de um sistema de equações lineares A representação matricial do sistema é do tipo AX B Como a matriz dos coeficientes pode ser posta na forma A LU então a equação matricial do sistema fica LUX B Agora essa equação matricial pode ser separada em outras duas LY B e UX Y Desse modo primeiro você resolve a equação matricial auxiliar LY B determinando assim a matriz Y Depois você substitui esse resultado na equação matricial UX Y determinando a matriz X e portanto resolvendo o problema A vantagem desse processo é que o formato escalonado das matrizes L e U permite uma solução direta e rápida para as matrizes Y e X respectivamente Como exemplo de resolução de um sistema de equações lineares pelo mé todo da fatoração LU considere o seguinte sistema de duas equações lineares A matriz dos coeficientes é dada por cuja fatoração LU está dada logo acima U 1 1 0 5 L 1 0 3 1 15 Matrizes elementares e fatoração LU Além disso a matriz das variáveis é e a matriz das constantes é Sendo a primeira equação matricial LY B fica Logo y1 6 e y2 7 36 25 Assim Agora usando a equação matricial UX Y Logo x2 5 e x1 x2 6 1 Portanto é a solução do sistema de equações lineares proposto Talvez para um sistema do tipo 2 2 a fatoração LU possa não parecer tão fácil de ser usada Afinal nesse caso até mesmo uma tentativa direta pode ser bemsucedida Mas o valor da fatoração LU provase para situações envolvendo conjuntos de sistemas e equações lineares de tamanho maior Matrizes elementares e fatoração LU 16 ANTON H BUSBY R C Álgebra linear contemporânea Porto Alegre Bookman 2006 612 p ANTON H RORRES C Álgebra linear com aplicações 8 ed Porto Alegre Bookman 2012 786 p Leitura recomendada CRISPINO M L 320 questões resolvidas de álgebra linear Rio de Janeiro Ciência Moderna 2012 352 p 17 Matrizes elementares e fatoração LU ÁLGEBRA LINEAR Silvano Antonio Alves Pereira Junior Caso 2 2 Consideremos a seguinte matriz O determinante da matriz A será denotado por detA e pode ser calculado da seguinte maneira detA 2 1 3 1 2 3 1 como em resumo o produto dos elementos da diagonal principal a da esquerda para a direita menos o produto dos elementos da diagonal secundária a da direita para a esquerda Essa propriedade é válida para matrizes dois por dois em geral isto é você poderá utilizar a seguinte fórmula Se então detA a d c b Para calcular o determinante da matriz B 1 1 2 2 Você deverá proceder da seguinte maneira detB 1 2 2 1 2 2 0 Um fato importante para se considerar em matrizes de maneira geral é que uma matriz quadrada Ann é invertível se e somente se seu determinante for diferente de zero Assim os exemplos anteriormente apresentados são de uma matriz invertível a matriz A e da matriz B que não possui inversa Para matrizes 2 2 cujo determinante seja não nulo podemos ainda trabalhar com a seguinte fórmula tem como inversar a matriz Determinantes e autovalores 2 Caso 3 3 Para matrizes de tamanho 3 3 você poderá calcular o determinante utilizando determinantes menores e cofatores Definição se A é uma matriz quadrada então o menor relacionado à entrada aij também denominado ijésimo menor de A é denotado por Mij e definido como o determinante da submatriz que sobra quando suprimimos a iésima linha e a jésima coluna de A O número Cij 1ijMij é denominado cofator da entrada aij ou o ijésimo cofator Considere a matriz A 1 0 2 1 1 1 3 0 2 O cálculo para C31 pode ser realizado da seguinte maneira Sabese que C31 131M31 e que o menor M31 é o determinante da matriz que obtemos após eliminar a linha 3 e a coluna 1 da matriz A Ou seja M 0 2 0 1 1 2 2 1 1 Portanto C31 131M31 C31 142 C31 12 C31 2 A partir dos cofatores podemos calcular o determinante de uma matriz quadrada Ann utilizando a expansão do determinante em cofatores 3 Determinantes e autovalores Expansão em cofatores Seja Ann uma matriz quadrada de números reais a expansão em cofatores do determinante da matriz Ann a partir da késima linha é dada por detA ak1Ck1 ak2Ck2 ak3Ck3 aknCkn É muito importante estar alerta ao termo 1ij pois um erro de sinal nessa parte do cálculo é muito comum Para evitar que isso aconteça lembrese de que o resultado dessa conta depende da paridade de i j Se i j for par o resultado será igual a 1 se i j for ímpar o resultado será igual a 1 Essa fórmula permite calcular o determinante de matrizes de qualquer tamanho mas observe que o número de operações cresce de maneira muito rápida O determinante de uma matriz 3 3 implica três determinantes de matrizes 2 2 na sua expansão em cofatores Já o determinante de uma matriz 4 4 implica quatro determinantes de matrizes 3 3 sendo que cada um desses implica três determinantes de matrizes 2 2 gerando um total de 12 determinantes 2 2 Vejamos um exemplo do cálculo de determinantes utilizando a expansão em cofatores Considere novamente a matriz A 1 0 2 1 1 1 3 0 2 Vamos calcular o seu determinante fazendo a expansão em cofatores a partir da linha 1 Temos detA a11C11 a12C12 a13C13 detA 1C11 0C12 2C13 detA C11 2C13 Determinantes e autovalores 4 Agora calculamos os cofatores 1 1 0 2 C11 111 M11 C11 1 C11 1 2 C11 2 e 1 1 3 0 C31 113 M13 C31 1 C31 1 3 C31 3 Segue que detA 2 2 3 4 Um ponto a ser destacado é que a expansão pode ser feita a partir de qualquer uma das linhas Não existe nenhuma restrição mas a fim de reduzir o número de cálculos é comum escolher a linha com a maior quantidade de zeros Veja o seguinte exemplo Considere a matriz H 1 0 0 3 2 1 3 1 1 Podese calcular o seu determinante fazendo a expansão em cofatores a partir da linha 1 tendo em mente que essa é a linha que tem a maior quantidade de elementos nulos Utilizando a fórmula de expansão obtemos detH a11C11 a12C12 a13C13 detH 1C11 0C12 0C13 detH C11 Perceba que como a linha tem dois elementos nulos o cálculo do determinante reduziuse ao de um determinante de ordem 2 2 5 Determinantes e autovalores Considere a matriz A 7 0 0 2 1 0 1 1 4 Podese calcular o seu determinante fazendo uso das propriedades do determinante Observe que a matriz é do tipo triangular superior Logo seu determinante é igual ao produto dos elementos em sua diagonal Portanto detA 7 1 4 28 Como dito anteriormente a expansão em cofatores pode ser utilizada para matrizes de qualquer dimensão não apenas 2 2 ou 3 3 Veja um exemplo disso a seguir Considere a matriz A 1 0 0 5 1 2 4 1 3 0 0 0 1 1 0 0 Podese calcular o seu determinante fazendo uso da fórmula de expansão em cofatores Para tal a escolha da terceira linha da matriz pode ser uma boa opção tendo em vista que é a que contém mais elementos nulos Obtémse detA a31C31 a32C32 a33C33 a34C34 detA a31C31 0C32 0C33 0C34 detA a31C31 detA 3C31 Resta calcular o cofator C31 Nesse caso C31 20 C31 131 0 0 5 2 4 1 1 0 0 C31 1 1 131 0 5 4 1 Segue que detA 3 20 60 7 Determinantes e autovalores Matriz inversa Na seção anterior você aprendeu que uma matriz possui inversa se e somente se seu determinante é diferente de zero Além disso você também aprendeu a calcular a matriz inversa de uma matriz 2 2 utilizando o determinante Agora verá como utilizar a fórmula de expansão em cofatores para encon trar a inversa de uma matriz quadrada de qualquer dimensão Para tal você precisará do seguinte resultado Teorema seja A33 uma matriz cujo determinante é diferente de zero e então sua matriz inversa A1 pode ser calculada desta forma Em palavras a matriz inversa de A é igual ao inverso do determinante de A multiplicado à transposta da matriz de cofatores de A O resultado foi enunciado no caso 3 3 para facilitar a compreensão mas pode ser utilizado para matrizes de qualquer dimensão Veja um exemplo da aplicação desse resultado Considere a matriz A 1 0 3 0 1 0 0 0 2 do tipo triangular inferior Portanto seu determinante é igual ao produto dos elementos em sua diagonal Segue que detA 1 1 2 2 Portanto podese aplicar o resultado anterior a essa matriz Agora basta montar a transposta da matriz de cofatores para encontrar a inversa C11 C21 C31 C12 C22 C32 C13 C23 C33 2 0 3 0 2 0 0 0 1 Determinantes e autovalores 8 A matriz inversa de A tem a seguinte forma A1 1 2 2 0 3 0 2 0 0 0 1 A1 1 0 32 0 1 0 0 0 12 Uma simples multiplicação das matrizes é suficiente para verificar que A A1 I33 Um importante resultado sobre matrizes inversas é enunciado a seguir Teorema dada uma matriz Ann as afirmações listadas a seguir são equivalentes 1 Ann é invertível 2 detA 0 3 As n linhas de Ann são linearmente independentes Veja um exemplo da aplicação desse resultado Considere a matriz A 1 1 0 0 1 0 1 0 2 Como decidir se ela é invertível ou não Podemos utilizar qualquer um dos itens da equivalência apresentada Escolhemos então a mais comum o valor do determinante Usaremos a expansão em cofatores a partir da segunda linha Por que Porque essa é a linha com a maior quantidade de elementos nulos Obtemos detA a21C21 a22C22 a23C23 detA 0C21 1C22 0C23 detA C22 9 Determinantes e autovalores O cálculo do cofator C22 pode ser feito da seguinte maneira C22 122 1 0 1 2 1 0 1 2 C22 1 C22 1 Logo detA 1 0 Portanto a matriz A é invertível Outro fato importante sobre matrizes inversas é que elas são fortemente relacionadas aos sistemas lineares Considere um sistema de equações lineares homogêneo cuja forma matricial seja Ax 0 Fato o sistema linear homogêneo anterior tem apenas a solução trivial se e somente se a matriz A é invertível Esse fato nos fornece uma maneira simples e prática de verificar se a solução trivial vetor nulo é a única de um sistema linear homogêneo É comum o erro de em vez de se utilizar a matriz transposta da matriz de cofatores se tomar a própria matriz de cofatores Concluímos esta seção com uma importante relação entre o determinante de uma matriz e o determinante de sua inversa Determinantes e autovalores 10 Teorema seja Ann uma matriz invertível então Veja a seguir um exemplo de aplicação desse resultado Considere a matriz A 23 0 0 2 1 0 1 1 1 Qual é o determinante de A1 Sabemos que A é uma matriz triangular inferior Logo segundo as propriedades do determinante ele é igual ao produto dos elementos em sua diagonal Ou seja detA 23 Portanto aplicando o teorema anterior obtémse detA1 1 23 Observe que a exigência de o determinante ser diferente de zero A invertível é necessária uma vez que não se pode ter divisão por zero Autovalores e diagonalização de matrizes Nesta seção você verá como calcular os autovalores de uma matriz e como utilizálos no processo de diagonalização de matrizes essencial na resolução de sistemas lineares Um número λ 0 é um autovalor de uma matriz Ann se existe algum vetor v tal que Av λv 11 Determinantes e autovalores Em palavras λ é um autovalor de Ann se existir um vetor v tal que ao aplicarmos Ann sobre v obtemos λv Nesse caso a operação de aplicar uma transformação linear foi capsulada no produto por um número Diremos também que v é um autovetor de Ann associado ao autovalor λ Isso é equivalente a dizer que λ é um autovalor de Ann se existir solução para o sistema linear homogêneo A λIv 0 Outra maneira de procurar pelos autovalores de uma matriz é por meio do polinômio característico Dada uma matriz Ann seu polinômio característico é definido por pλ detA Iλ Dada a matriz A 2 0 0 3 1 0 1 2 2 que é do tipo triangular superior podese encontrar o polinômio característico da seguinte maneira pλ detA Iλ pλ 2 λ21 λ pλ 2 λ 0 0 3 1 λ 0 1 2 2 λ Segue que os autovalores de A são λ1 1 e λ2 2 este último com multiplicidade 2 isto é λ2 2 é uma raiz dupla do polinômio característico Observe ainda que conhecidos os autovalores se pode resolver os sistemas lineares associados e encontrar os autovetores Agora você verá um resultado apresentado por Nicholson 2006 que nos permite relacionar autovalores e autovetores com o processo de diagonalização de matrizes Determinantes e autovalores 12 Teorema seja Ann uma matriz então 1 a é diagonalizável se e somente se ela possui autovetores x1 x2 xn tais que a matriz P x1 x2 xn é invertível 2 quando esse for o caso temos PAP1 diagλ1 λ2 λn onde λi é o autovalor associado ao autovetor xi Como aplicação desse resultado veja o seguinte exemplo O problema consiste em procurar caso exista a forma diagonalizada da matriz A 2 0 0 3 0 0 0 1 0 O polinômio característico dessa matriz tem a seguinte forma pλ 2 λλ 11 λ Existem portanto três autovalores diferentes como requer o teorema A saber λ1 2 λ2 1 e λ3 1 associados respectivamente aos seguintes autovetores v1 1 2 1 v2 0 1 1 v3 0 1 1 Segue que a matriz P tem a seguinte forma P 1 0 0 2 1 1 1 1 1 Para verificar o resultado basta realizar 1 0 0 2 1 1 1 1 1 2 0 0 3 0 0 0 1 0 1 0 0 2 1 1 1 1 1 2 0 0 0 1 0 0 0 1 O fato de termos P P1 foi apenas uma coincidência não é uma regra 13 Determinantes e autovalores Você encontrará exercícios e vídeos de boa qualidade com excelente conteúdo na Khan Academy disponível no link a seguir httpsqrgopagelinkhtszk Veja um último exemplo sobre a diagonalização de matrizes Dada a matriz H 3 0 0 0 2 0 1 0 7 Devese encontrar sua forma diagonal D Para tal começase encontrando o poli nômio característico da matriz Observe ainda que essa matriz é do tipo triangular superior Portanto pλ 3 λ2 λ7 λ Podese concluir que D tem a seguinte representação D 3 0 0 0 2 0 0 0 7 Um último resultado extremamente interessante e relacionado ao polinômio característico de uma matriz é o Teorema de CayleyHamilton Esse resultado atribuído aos matemáticos Arthur Cayley e William Hamilton diz que uma matriz Ann é um zero de seu próprio polinômio característico De maneira mais precisa quer dizer o seguinte Determinantes e autovalores 14 Teorema CayleyHamilton considere a matriz Ann Se pλ é o polinômio característico da matriz Ann então pA 0 Esse teorema fornece um excelente teste para verificar se o cálculo do polinômio característico foi efetuado de maneira correta ANTON H BUSBY R C Álgebra linear contemporânea Porto Alegre Bookman 2006 612 p NICHOLSON W K Álgebra linear 2 ed São Paulo McGrawHill 2006 394 p Leitura recomendada LIPSCHUTZ S LIPSON M Álgebra linear mais de 600 exercícios resolvidos 4 ed Porto Alegre Bookman 2011 434 p Coleção Schaum 15 Determinantes e autovalores