·

Ciência da Computação ·

Álgebra Linear

· 2022/1

Send your question to AI and receive an answer instantly

Ask Question

Recommended for you

Preview text

Questão 1 Para o operador linear \( T : \mathbb{R}^2 \to \mathbb{R}^2 \) definido por \[ T \left( \begin{bmatrix} x \\ y \end{bmatrix} \right) = \begin{bmatrix} x+y \\ x-y \end{bmatrix} \] e \( B = \left\{ \begin{bmatrix} 1 \\ 2 \end{bmatrix}, \begin{bmatrix} 1 \\ 1 \end{bmatrix} \right\} \) base de \( \mathbb{R}^2 \), faça o que se pede: (a) determine \([T]_B = [T]_{\mathcal{B}_B}\); (b) aplicando o teorema de representação de TL e a matriz encontrada em (a), calcule \( T(v) \) ( ou seja, o vetor de coordenadas de \( T(v) \) na base canônica de \( \mathbb{R}^2 \) ) para \( v = \begin{bmatrix} 5 \\ 3 \end{bmatrix} \); (c) Sendo \( C \) a base canônica de \( \mathbb{R}^2 \), calcule \([I]^C_B\). Questão 2 Faça o que se pede, considerando o subespaço \( W \) de \( \mathbb{R}^3 \) que tem como base o conjunto \[ B = \left\{ \begin{bmatrix} 1 \\ -1 \\ 1 \end{bmatrix}, \begin{bmatrix} 1 \\ 1 \\ 1 \end{bmatrix}, \begin{bmatrix} -1 \\ 1 \\ 3 \end{bmatrix} \right\}. \] (a) Descreva explicitamente o complemento ortogonal \( W^\perp \) de \( W \) e dê uma base e a dimensão deste subespaço; (b) Considere o seguinte FATO da teoria (teorema): Se \( v_1, v_2, \ldots, v_r \) é uma base ortogonal de um subespaço \( W \) de \( \mathbb{R}^n \) e \( v \in \mathbb{R}^n \) então o vetor projeção \( \text{proj}_W (v) \) de \( v \) sobre \( W \) é dado por \[ \text{proj}(v) = \text{proj}_{v_1} (v) + \text{proj}_{v_2} (v) + \ldots + \text{proj}_{v_r} (v). \] Prova-se ainda que este é o vetor de \( W \) mais próximo do vetor \( v \). Considerando o resultado acima, encontre o vetor de \( W \) mais próximo de \( v = \begin{bmatrix} 1 \\ 2 \\ 3 \end{bmatrix} \in \mathbb{R}^3 \). Capítulo 9 Produto Interno, Projeções e Operadores Ortogonais 9.1 Introdução Até o momento tratamos de diversos conceitos do \( \mathbb{R}^n \), sem abordar os concei‐ tos de norma de vetor e de ângulo entre vetores e suas consequências diretas, as quais são a distância entre pontos e a ideia de perpendicularidade. Para abordar esses conceitos, precisamos definir o conceito de produto escalar. Aproveitando o momento, vamos introduzir um conceito mais geral, que é o de produto interno. O produto interno nos permitirá estender as noções de distância e perpendicula‐ ridade a outros espaços vetoriais diferentes do \( \mathbb{R}^n \). Introduzindo o conceito de produto interno, podemos mostrar que o produto escalar do \( \mathbb{R}^n \) é um exemplo de produto interno. Por simplicidade, é bom imaginar que, pelo menos no princípio, quando falamos de produto interno, nos referimos ao produto escalar do \( \mathbb{R}^n \). 9.2 Produto Interno Iniciemos com a definição do produto interno no \( \mathbb{R}^n \). Definição 9.1 Suponha que, para cada par de vetores \( \mathbf{u}, \mathbf{v} \in \mathbb{R}^n \), existe uma função que associa um número real, denotado por \( \langle \mathbf{u}, \mathbf{v} \rangle \). Essa função é chamada produto interno de \( V \) se satisfizer às seguintes propriedades: \( I_1 \) (Linearidade) \( \langle \alpha\mathbf{u} + \beta\mathbf{v}, \mathbf{w} \rangle = \alpha \langle \mathbf{u}, \mathbf{w} \rangle + \beta \langle \mathbf{v}, \mathbf{w} \rangle \); \( I_2 \) (Simetria) \( \langle \mathbf{u}, \mathbf{v} \rangle = \langle \mathbf{v}, \mathbf{u} \rangle \); \( I_3 \) (Positividade) \( \langle \mathbf{u}, \mathbf{u} \rangle \geq 0, \langle \mathbf{u}, \mathbf{u} \rangle = 0 \) se, e somente se, \( \mathbf{u} = 0 \), para todo \( \mathbf{u}, \mathbf{v} \) e \( \mathbf{w} \in \mathbb{R}^n \) e \( \alpha, \beta \in \mathbb{R} \). O \( \mathbb{R}^n \) com o produto interno é denominado espaço vetorial com produto interno ou ainda espaço euclidiano\(^1\). Vamos definir o exemplo mais importante de produto interno no \( \mathbb{R}^n \). Exemplo 9.2 O produto escalar usual do \( \mathbb{R}^2 \), isto é, para \( \mathbf{u} = \begin{bmatrix} x_1 \\ x_2 \end{bmatrix} \) e \( \mathbf{v} = \begin{bmatrix} y_1 \\ y_2 \end{bmatrix} \) definido por \( \langle \mathbf{u}, \mathbf{v} \rangle = x_1y_1 + x_2y_2 \), é um exemplo de produto interno. De fato, é claro que esta é uma função que toma dois vetores e retorna um número. Vamos verificar que esta função satisfaz às propriedades para que seja um produto interno. Para verificar a linearidade, considere ainda o vetor \( \mathbf{w} = \begin{bmatrix} z_1 \\ z_2 \end{bmatrix} \). Então, \[ \langle \alpha\mathbf{u} + \beta\mathbf{v}, \mathbf{w} \rangle = \left\langle \begin{bmatrix} \alpha x_1 + \beta y_1 \\ \alpha x_2 + \beta y_2 \end{bmatrix}, \begin{bmatrix} z_1 \\ z_2 \end{bmatrix} \right\rangle \] \[ = (\alpha x_1 + \beta y_1)z_1 + (\alpha x_2 + \beta y_2)z_2 \] \[ = \alpha (x_1z_1 + x_2z_2) + \beta (y_1z_1 + y_2z_2) = \alpha \langle \mathbf{u}, \mathbf{w} \rangle + \beta \langle \mathbf{v}, \mathbf{w} \rangle. \] A simetria é evidente e, para a positividade, basta observar que \( \langle \mathbf{u}, \mathbf{u} \rangle = x_1^2 + x_2^2 \geq 0 \) é zero, se e somente se, \( x_1 = x_2 = 0 \), isto é, no caso em que \( \mathbf{u} = 0 \). Podemos generalizar o produto escalar usual para o \( \mathbb{R}^n \), com \( n > 2 \). Exemplo 9.3 Considere os vetores \( \mathbf{u}, \mathbf{v} \in \mathbb{R}^n \). Digamos que \[ \mathbf{u} = \begin{bmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{bmatrix} , \mathbf{v} = \begin{bmatrix} y_1 \\ y_2 \\ \vdots \\ y_n \end{bmatrix} \] defina \( \langle \mathbf{u}, \mathbf{v} \rangle = x_1y_1 + x_2y_2 + \cdots + x_ny_n \). Verifique que a função assim definida satisfaz às propriedades exigidas de um produto interno, como fizemos para o caso do produto escalar no plano. Gostaria de frisar que, para o melhor entendimento, no primeiro momento é interessante quando ler que \( \mathbb{R}^n \) é um espaço vetorial munido de um produto interno, imaginar que o produto interno é o produto escalar. Vamos deduzir algumas propriedades que devem valer para qualquer produto interno. Para fazer isto só usaremos propriedades que constam na definição. Em particular, devem valer para o produto escalar. \(^1\)O produto interno pode ser generalizado para vetores de \( \mathbb{C}^n \), mas para fazer isso, precisamos substituir a propriedade \( I_2 \) por \( \langle \mathbf{u}, \mathbf{v} \rangle = \langle \mathbf{v}, \mathbf{u} \rangle \), onde a barra denota a conjugação complexa. Nesse texto faremos apenas a teoria para espaços vetoriais reais. 9.2. Produto Interno 1. O produto interno também é linear na sua segunda entrada. Veja: ⟨u, αv + βw⟩ = ⟨αv + βw, u⟩ = α ⟨v, u⟩ + β ⟨w, u⟩ = α ⟨u, v⟩ + β ⟨u, w⟩. A primeira e terceira igualdades seguem pela simetria e a segunda igualdade da linearidade. 2. O produto ⟨0, u⟩ = ⟨0u, u⟩ = 0 ⟨0, u⟩ = 0, e, pela observação 1, temos, também, ⟨u, 0⟩ = 0. Vamos dar um exemplo de uma função diferente do produto escalar que também satisfaz às propriedades do produto interno. E, mais adiante, vamos usar o produto interno para introduzir as noções de distância e ângulo entre vetores. Como podemos usar várias funções, vemos que existem várias maneiras (diferentes) de medir distância e ângulo entre vetores. Então, podemos fazer diversas perguntas, tais como: o que é invariante entre uma forma de medir e outra? E, sabendo as medidas de um objeto com respeito a um produto interno, como podemos determinar as suas medidas em relação a um outro produto interno? Com respeito à primeira pergunta, existe um ramo na matemática chamado topologia que responde a boa parte desta questão. Exemplo 9.4 Sejam u = [x1/x2] e v = [y1/y2] em R^2, e considere ⟨u, v⟩ = 2x1y1 − x1y2 − x2y1 + x2y2. Vamos verificar que essa função é um produto interno no plano. Para isso, seja w = [z1/z2]. Vamos verificar a bilinearidade. Para isso, considere w = [z1/z2] e α ∈ R um escalar. Então, ⟨u + αv, w⟩ = ⟨[x1+αy1/x2+αy2], [z1/z2]⟩ = 2(x1 + αy1)z1 − (x1 + αy1)z2 − (x2 + αy2)z1 + (x2 + αy2)z2 = 2x1z1 − x1z2 − x2z1 + x2z2 + α(2y1z1 − y1z2 − y2z1 + y2z2) = ⟨[x1/x2], [z1/z2]⟩ + α ⟨[y1/y2], [z1/z2]⟩ = ⟨u, w⟩ + α ⟨v, w⟩ , e, portanto, a função é linear na primeira entrada. Vamos verificar ainda a simetria ⟨u, v⟩ = 2x1y1 − x1y2 − x2y1 + x2y2 = 2y1x1 − y1x2 − y2x1 + y2x2 = ⟨v, u⟩. E, por fim, (u, u) = 2x1^2 − x1x2 − x2x1 + x2^2 = x1^2 + 2x1^2 − x1x2 − x2x1 + x2^2 = x1^2 + (x1−x2)^2 ≥ 0. A expressão x1^2 + (x1−x2)^2 = 0 se, e somente se, x1 = x2 = 0. Portanto, essa função satisfaz a todas as propriedades requeridas para que seja um produto interno. Jones Colombo e José Koiller (um texto preparatório) 203 Capítulo 9. Produto Interno, Projeções e Operadores Ortogonais 9.3 Normas Lembramos que, no plano, para calcular o comprimento de um vetor u = [x1/x2], basta calcular √x1^2 + x2^2. Isso se dá pela aplicação do teorema de Pitágoras. Para certificar-se de que entendeu isso, veja a figura 9.1. Falar no comprimento (ou norma) de um vetor é equivalente a calcular a distância da origem até as coordenadas que definem o vetor. Figura 9.1: Aplicação do Teorema de Pitágoras Observe que, se considerarmos o produto interno no plano, como o sendo o produto escalar, podemos expressar: √x1^2 + x2^2 = √⟨u, u⟩. É possível fazer algo similar se estivermos no R^3 com o produto interno sendo o produto escalar (repita o raciocínio acima). Podemos generalizar o conceito de comprimento de vetor sempre que tivermos um produto interno definido, uma vez que, pela condição I3, o produto interno de um vetor por si mesmo é sempre não negativo e, por isto, podemos definir: Definição 9.5 Sejam R^n com um produto interno ⟨ , ⟩ e u ∈ R^n. Definimos a norma de um vetor u por ser ‖u‖ = √⟨u, u⟩. Se ‖u‖ = 1 ou, de maneira equivalente, ⟨u, u⟩ = 1, dizemos que o vetor é unitário e que o vetor está normalizado. No caso em que u ≠ 0, com ‖u‖ ≠ 1, então podemos definir o versor desse vetor por fazer u' = 1/‖u‖u. Observe que o versor u' tem norma igual a 1 e a mesma direção que o vetor u. Esse processo também é conhecido por normalização do vetor u. Jones Colombo e José Koiller (um texto preparatório) 204 9.4. Ortogonalidade Observação 9.6 Esta observação nos será muito útil no futuro. Sejam u e v dois vetores, então: ‖u + v‖^2 = ⟨u + v, u + v⟩ = ⟨u, u⟩ + ⟨u, v⟩ + ⟨v, u⟩ + ⟨v, v⟩ = ‖u‖^2 + 2 ⟨u, v⟩ + ‖v‖^2. Exemplo 9.7 Considere u = [1−23] ∈ R^3 e o produto interno, o produto escalar. Logo a norma é ‖u‖ = √1 + 2^2 + (−3)^2 = √14. Observação 9.8 Se R^n está munido de um produto interno, então a norma satisfará à seguinte propriedade: para quaisquer u, v ∈ V, temos ‖u + v‖ ≤ ‖u‖ + ‖v‖ (Desigualdade Triangular). Essa propriedade nos diz que o comprimento de um dos lados de um triângulo é sempre menor ou igual à soma dos comprimentos dos outros dois lados. Veja figura 9.2. Figura 9.2: Desigualdade Triangular Definição 9.9 Seja R^n com um produto interno ⟨ , ⟩. A distância entre u e v é definida por dist(u, v) = ‖u − v‖ . Exemplo 9.10 Considerando R^2 e o produto interno é o usual, calcule a distância entre u = [−12] e v = [23]. dist(u, v) = ‖[−12] − [23]‖ = √([−23], [−23]) = √13 unidades. 9.4 Ortogonalidade Vamos justificar a ideia de u ser ortogonal ou perpendicular a v. Jones Colombo e José Koiller (um texto preparatório) 205 Capítulo 9. Produto Interno, Projeções e Operadores Ortogonais Seja novamente R2 com o produto interno o produto escalar. Considere dois vetores não nulos e não múltiplos um do outro, u = [x1 y1] e v = [x2 y2]. Então, podemos considerar os vetores u, v, u - v, são os lados de um triângulo (veja figura 9.3), e relacionar o comprimento de seus lados, usando a lei dos cossenos, se θ é o ângulo formado entre os vetores u e v então ||u - v||2 = ||u||2 + ||v||2 - 2 ||u|| ||v|| cos θ. Isso é equivalente a dizer que ||u|| ||v|| cos θ = 1/2 [||u||2 + ||v||2 - ||u - v||2] = 1/2 [x12 + x22 + y12 + y22 - (x1 - y1)2 - (x2 - y2)2] = x1y1 + x2y2 = ⟨u, v⟩, e temos a seguinte relação: ⟨u, v⟩ = ||u|| ||v|| cos θ. Logo, se θ = π/2, isto é, u é ortogonal a v, temos, neste caso, ⟨u, v⟩ = 0. Reciprocamente, se u e v são dois vetores não nulos e ⟨u, v⟩ = 0, então o ângulo entre eles é de cos θ = 0, portanto, θ = π/2. Portanto, definimos para qualquer produto interno. Definição 9.11 Considerando o Rn com um produto interno, dizemos que dois vetores u e v em Rn são ortogonais (ou perpendiculares) se, e somente se, ⟨u, v⟩ = 0. Neste caso, denotamos por u ⊥ v. As seguintes propriedades seguem imediatamente a definição de ortogonalidade. 1) Qualquer que seja o vetor u ∈ Rn, temos u ⊥ 0. 2) u ⊥ w se, e somente se, w ⊥ u. 3) Se u ⊥ w, para todo w ∈ V, então u = 0. 4) Se u ⊥ w e v ⊥ w, então (u + λv) ⊥ w. Dizemos que X = {u1, u2, ..., un} é um conjunto ortogonal, se ⟨ui, uj⟩ = 0, para todo i ≠ j. E, se além disso, ⟨ui, ui⟩ = 1, para todo i = 1, 2, ..., n, dizemos que X é ortonormal. Teorema 9.12 Considere o Rn munido de produto interno ⟨ , ⟩. Se X é um conjunto ortogonal formado por vetores não nulos, então X é LI. Demonstração: Veja o exercício R9.1. Exemplo 9.13 Considere R3 e o produto interno ⟨ , ⟩ o produto escalar do R3 e X = {[1 1 1], [-1 1 0], [-1 1/2]}. Vamos verificar que esse conjunto é ortogonal. Para isso, considere ⟨[1 1 1], [-1 1 0]⟩ = -1 + 1 = 0, ⟨[1 1 1], [-1 1/2]⟩ = -1 - 1 + 2 = 0 e ⟨[-1 1 0], [-1 1/2]⟩ = 1 - 1 = 0. Portanto, esse conjunto é ortogonal. Observação 9.14 Teorema de Pitágoras: Sejam Rn com um produto interno e u e v dois vetores. Então, sabemos que ||u + v||2 = ||u||2 + 2 ⟨u, v⟩ + ||v||2. Se u ⊥ v, temos que ⟨u, v⟩ = 0 e daí ||u + v||2 = ||u||2 + ||v||2, que é o Teorema de Pitágoras para o caso vetorial. 9.4.1 Complemento Ortogonal Seja F um subconjunto do Rn, o qual está munido de um produto interno ⟨ , ⟩. O complemento ortogonal de F, denotado por F⊥, consiste nos vetores de Rn que são ortogonais a cada vetor v ∈ F, ou seja, F⊥ = {u ∈ Rn : ⟨u, v⟩ = 0, para todo v ∈ F}. No caso em que F = {v}, temos que v⊥ = {u ∈ Rn : ⟨u, v⟩ = 0} É fácil perceber que nesta situação v⊥ é um subespaço vetorial. Capítulo 9. Produto Interno, Projeções e Operadores Ortogonais Exemplo 9.15 Considere F = {u = [1 -1/2], v = [-2 1 0]} um subconjunto de R3. Encontre F⊥. Queremos determinar w = [x y z], tais que ⟨w, u⟩ = 0 e, também, ⟨w, v⟩ = 0. Fazendo as contas, obtemos {x + 2y - z = 0 -2x + z = 0 ⇔ {y = 3/2 x z = 2x. Portanto, F⊥ = { [x 3/2x 2x] : x ∈ R } = Span { [3/2 1 2] }. Teorema 9.16 Seja F um subconjunto do Rn, o qual está munido de um produto interno, então F⊥ é um subespaço vetorial de Rn. Demonstração: Veja o exercício R9.4. 9.5 Projeções Ortogonais O objetivo é discutir como definir operadores lineares que projetam ortogonalmente um vetor sobre um subespaço vetorial W do Rn. Inicialmente, considere o vetor unitário v e outro vetor u qualquer do Rn. Chamamos o vetor ⟨u, v⟩ v de projeção ortogonal de u sobre v. Veja a figura 9.4. Figura 9.4: Projeção ortogonal sobre o v Vamos justificar esse nome, verificando que w = u - ⟨u, v⟩ v é perpendicular ao vetor v. ⟨v, w⟩ = ⟨v, u - ⟨u, v⟩ v⟩ = ⟨v, u⟩ - ⟨u, v⟩ ⟨v, v⟩ = 0, pois ⟨v, v⟩ = 1. E, no caso geral, se v é um vetor não nulo qualquer, consideremos o seu versor, v' = 1/||v|| v. Então, novamente ⟨u, v'⟩ v' é a projeção ortogonal de u sobre v' e, substituindo v' por v, temos: ⟨u, v'⟩ v' = ⟨u, 1/||v|| v⟩ 1/||v|| v = ⟨u, v⟩ v / ||v||2 = ⟨u, v⟩ / ⟨v, v⟩ v. 9.5. Projeções Ortogonais Denotamos a projeção ortogonal de u sobre v por proj_v(u) = \frac{⟨u,v⟩}{⟨v,v⟩}v. Observe ainda que a norma do vetor v é indiferente para o resultado. Por isso, é mais interessante considerarmos o subespaço vetorial gerado por v, isto é, W = Span {v}, e definirmos proj_W(u) = \frac{⟨u,v⟩}{⟨v,v⟩}v, onde 0 ≠ v ∈ W. Antes de continuarmos, vamos dar um exemplo da forma que esse operador assume no plano. Exemplo 9.17 Estamos interessados em determinar as fórmulas de uma transformação linear que projeta um dado vetor u ∈ R² sobre uma reta, passando pela origem, e que, portanto, tem equação y = ax para algum a ∈ R fixo. Logo, a reta é gerada pelo vetor v = \begin{bmatrix} 1 \\ a \end{bmatrix}, isto é, qualquer ponto da reta é um múltiplo deste vetor. Considere u = \begin{bmatrix} x \\ y \end{bmatrix}. Queremos encontrar λ ∈ R, tal que λv seja a projeção ortogonal de u sobre a reta y = ax. Como vimos anteriormente, outra maneira de expressar essa relação, é pedir que os vetores v e u - λv sejam perpendiculares, isto é, ⟨v, u - λv⟩ = ⟨v, u⟩ - λ⟨v, v⟩ = 0. Isolando λ, temos que λ = \frac{⟨v, u⟩}{⟨v, v⟩} = \frac{\begin{bmatrix} 1 \\ a \end{bmatrix}⟨\begin{bmatrix} x \\ y \end{bmatrix}⟩}{\begin{bmatrix} 1 \\ a \end{bmatrix}⟨\begin{bmatrix} 1 \\ a \end{bmatrix}⟩} = \frac{x + ay}{1 + a²}. Portanto, se definirmos P : R² → R² por u ↦ proj_v(u) = λv, este operador terá a seguinte expressão: \begin{bmatrix} x \\ y \end{bmatrix} ↦ \left[ \begin{bmatrix} \frac{1}{1+a²}x + \frac{a}{1+a²}y \\ \frac{a}{1+a²}x + \frac{a²}{1+a²}y \end{bmatrix} \right]. No exemplo 9.18, veremos que a reflexão de um vetor, em torno de uma reta que passa pela origem, está intimamente ligada com a projeção do vetor sobre esta mesma reta. Exemplo 9.18 A reflexão de um vetor u sobre uma reta y = ax nos dá um vetor Su do lado oposto da reta, de tal maneira que o segmento de reta determinado por u e Su é perpendicular a reta y = ax que corta este segmento no ponto médio, conforme figura 9.6. Jones Colombo e José Koiller (um texto preparatório) 209 Capítulo 9. Produto Interno, Projeções e Operadores Ortogonais Figura 9.5: Projeção Figura 9.6: Reflexão Observe na figura 9.6 que o vetor u+Su está sobre a reta y = ax, uma vez que esta reta é exatamente a diagonal do paralelogramo determinado pelos vetores u e Su. Além disso, o vetor u + Su é igual a duas vezes a projeção ortogonal de u sobre o vetor v = \begin{bmatrix} 1 \\ a \end{bmatrix} que determina a reta. E, portanto, 2 proj_v u = u + Su ⇔ Su = 2 proj_v u - u. Em termos de fórmulas, obtemos: S \begin{bmatrix} x \\ y \end{bmatrix} = 2 \left[ \begin{bmatrix} \frac{1}{1+a²}x + \frac{a}{1+a²}y \\ \frac{a}{1+a²}x + \frac{a²}{1+a²}y \end{bmatrix} \right] - \begin{bmatrix} x \\ y \end{bmatrix} = \left[ \begin{bmatrix} \frac{1-a²}{1+a²}x + \frac{2a}{1+a²}y \\ \frac{2a}{1+a²}x + \frac{a²-1}{1+a²}y \end{bmatrix} \right]. 9.5.1 Desigualdade de Cauchy-Schwarz Vamos retornar à situação z = proj_v(u) e definir w = u - z, isso implica que u = w + z, com w ⊥ z. Pelo teorema de Pitágoras, temos que: ||u||² = ||w||² + ||z||². Em particular, ||z|| ≤ ||u||, isto é, o comprimento da projeção proj_v(u) é sempre menor ou igual ao comprimento de u. Mas a norma de proj_v(u) é ||⟨u,v⟩||/||v||. Segue que ||⟨u,v⟩||/||v|| ≤ ||u||, ou seja, |⟨u,v⟩| ≤ ||u|| ||v|| (Desigualdade de Cauchy-Schwarz). Jones Colombo e José Koiller (um texto preparatório) 210 9.5. Projeções Ortogonais 9.5.2 Processo de Ortonormalização de Gram-Schmidt O processo de Gram-Schmidt é um procedimento que inicia com um conjunto LI {v₁, v₂, ..., v₅} de vetores de Rⁿ e retorna um conjunto ortonormal {u₁, u₂, ..., u₅}, com a seguinte propriedade: para cada k, com 1 ≤ k ≤ s, os vetores u₁, u₂, ..., uₖ pertencem ao subespaço vetorial Span {v₁, v₂, ..., vₖ}. Para entender o processo de ortogonalização de Gram-Schmidt, vamos voltar a nossa discussão de como obter a projeção ortogonal de um vetor u sobre um subespaço vetorial W, de dimensão dois, do Rⁿ. Como estamos interessados em encontrar uma fórmula para a projeção ortogonal de um vetor u sobre W, considere v,w ∈ W, tal que W = Span {v,w}. Lembrando que já sabemos calcular proj_v u e proj_w u. Então, certamente existem α e β ∈ R, tais que o vetor \tilde{u} = α proj_v u + β proj_w u é a projeção ortogonal de u sobre W. Precisamos determinar α e β. Como sabemos que (u - \tilde{u}) ⊥ v deve acontecer, temos: ⟨(u - \tilde{u}), v⟩ = ⟨u - (α proj_v u + β proj_w u), v⟩ = ⟨u, v⟩ - α⟨proj_v u, v⟩ - β⟨proj_w u, v⟩ = ⟨u, v⟩ - α \frac{⟨u,v⟩}{⟨v,v⟩}⟨v, v⟩ - β \frac{⟨u,w⟩}{⟨w,w⟩}⟨w, v⟩ = ⟨u, v⟩ - α⟨u, v⟩ - β \frac{⟨u,w⟩⟨w, v⟩}{⟨w, w⟩} = 0. E, como também (u - \tilde{u}) ⊥ w deve acontecer, obtemos que: ⟨(u - \tilde{u}), w⟩ = ⟨u - (α proj_v u + β proj_w u), w⟩ = ⟨u, w⟩ - α \frac{⟨u,v⟩}{⟨v,v⟩}⟨v, w⟩ - β⟨u, w⟩ = 0. Encontrar α e β é equivalente a encontrar a solução de um sistema linear com duas equações nas variáveis α e β. Mas este sistema possui uma solução muito simples se v ⊥ w: nesta circunstância a solução é α = 1 = β. Além disso, se v Jones Colombo e José Koiller (um texto preparatório) 211 Capítulo 9. Produto Interno, Projeções e Operadores Ortogonais proj_W(u) proj_V(u) u v ôw ŵ w proj_W ŵ = w - proj_v w û û = proj_V u + proj_ŵ u v e w não são perpendiculares, sem nenhuma perda, podemos escolher os vetores v, ŵ = w - proj_V w, e teremos que v ⊥ ŵ, uma vez que ainda W = Span {v, ŵ}. Juntando tudo isso, podemos definir o operador projeção ortogonal de u sobre W por ser proj_W u = proj_V u + proj_ŵ u. Essa situação se generaliza para espaços em qualquer dimensão, e é a base do processo de ortonormalização de Gram-Schmidt que descrevemos abaixo. O processo inicia com um conjunto LI X = {v_1, v_2, ..., v_s} de vetores de ℝ^n e retorna um conjunto ortonormal Y = {u_1, u_2, ..., u_s}, com a seguinte propriedade: para cada k, com 1 ≤ k ≤ s, os vetores u_1, u_2, ..., u_k pertencem ao subespaço vetorial Span {v_1, v_2, ..., v_k}. Vamos descrever o procedimento, fazendo v'_1 = v_1 e {u_1} ⊂ Span {v_1} v'_2 = v_2 - ⟨v_2, v'_1⟩/⟨v'_1, v'_1⟩ v'_1 ∈ {v'_1, v'_2} ⊂ Span {v_1, v_2} v'_3 = v_3 - (⟨v_3, v'_1⟩/⟨v'_1, v'_1⟩ v'_1 + ⟨v_3, v'_2⟩/⟨v'_2, v'_2⟩ v'_2) ∈ {v'_1, v'_2, v'_3} ⊂ Span {v_1, v_2, v_3} ... v'_k = v_k - (∑_{j=1}^{k-1} ⟨v_k, v'_j⟩/⟨v'_j, v'_j⟩ v'_j) ∈ {v'_1, v'_2, ..., v'_k} ⊂ Span {v_1, v_2, ..., v_k} ... v'_s = v_s - (∑_{j=1}^{s} ⟨v_s, v'_j⟩/⟨v'_j, v'_j⟩ v'_j) ∈ {v'_1, v'_2, ..., v'_s} ⊂ Span {v_1, v_2, ..., v_s}. E, finalmente, vamos normalizar os vetores, isto é, u_1 = 1/‖v'_1‖ v'_1, ..., u_s = 1/‖v'_s‖ v'_s. Exemplo 9.19 Seja o ℝ^3 com o produto escalar, considere a seguinte base {v_1 = [1, 1, 1], v_2 = [0, 2, 1], v_3 = [0, 0, 3]} do ℝ^3 e aplique o processo de ortonormalização de Gram-Schmidt para obtermos uma base ortogonal: 9.5. Projeções Ortogonais v'_1 = v_1 = [1, 1, 1] v'_2 = v_2 - ⟨v_2, v'_1⟩/⟨v'_1, v'_1⟩ v'_1 = [0, 2, 1] - ⟨[0, 2, 1], [1, 1, 1]⟩/⟨[1, 1, 1], [1, 1, 1]⟩ [1, 1, 1] = [0, 2, 1] - 3/3 [1, 1, 1] = [-1, 1, 0] v'_3 = v_3 - (⟨v_3, v'_1⟩/⟨v'_1, v'_1⟩ v'_1 + ⟨v_3, v'_2⟩/⟨v'_2, v'_2⟩ v'_2) = [0, 0, 3] - ((⟨[0, 0, 3], [1, 1, 1]⟩/⟨[1, 1, 1], [1, 1, 1]⟩ [1, 1, 1]) + (⟨[0, 0, 3], [-1, 1, 0]⟩/⟨[-1, 1, 0], [-1, 1, 0]⟩ [-1, 1, 0])) = [0, 0, 3] - 3/3 [1, 1, 1] - 0 [-1, 1, 0] = [-1, 1, 0] = [0, 0, 3] - 1 [1, 1, 1] - 0 [-1, 1, 0] 1 = [-1, -1, 2]. Normalizando, temos: u_1 = 1/‖v'_1‖ v'_1 = 1/√3 [1, 1, 1] ; u_2 = 1/√2 [-1, 1, 0] e u_3 = 1/√6 [-1, -1, 2] , a qual é uma base ortonormal do ℝ^3. Observação 9.20 Como consequência do processo de ortonormalização de Gram-Schmidt, temos que todo espaço vetorial de dimensão finita, munido de um produto interno, admite uma base ortonormal. De fato, seja {v_1, v_2, ..., v_n} uma base qualquer de ℝ^n, aplicando o processo de Gram-Schmidt, obtemos {u_1, u_2, ..., u_n} ortonormal, que gera ℝ^n. Pelo teorema 9.12, sabemos que {u_1, u_2, ..., u_n} é LI e, portanto, ele é uma base de ℝ^n. Observação 9.21 Uma outra consequência do conceito de projeção ortogonal é que o mesmo minimiza a distância de um vetor u ∈ ℝ^n a um subespaço vetorial W ⊂ ℝ^n. Para compreender bem esta propriedade, suponha que û = proj_W(u), isto é, û é a projeção ortogonal de u sobre o subespaço vetorial W. Vamos mostrar que ‖u - û‖ ≤ ‖u - v‖ , para todo v ∈ W. Seja v um vetor qualquer de W, então û − v ∈ W ⊆ (û − v) ⊥ (u − û), mas pelo teorema de Pitágoras, para espaços vetoriais, ‖u − v‖^2 = ‖u − û + û − v‖^2 = ‖u − û‖^2 + ‖û − v‖^2 . Assim, obtém-se ‖u − v‖ ≥ ‖u − û‖, para todo v ∈ W. Essa propriedade possui numerosas aplicações, tais como o Método dos Mínimos Quadrados ou Regressão linear, quadrática ou Regressão exponencial, como é conhecido na Estatística. Capítulo 9. Produto Interno, Projeções e Operadores Ortogonais 9.6 Matrizes e Operadores Ortogonais As matrizes ortogonais são interessantes, pois com elas podemos executar movimentos sem deformação no ℝ^n. Vamos fazer uma observação que serve como motivação para a definição da matriz ortogonal. Seja V = ℝ^3 e o produto interno o produto escalar do ℝ^3. Se {u_1 = [x_1/√2, y_2/√2, z_3/3], u_2 = [y_1/2, y_2/3, z_2/√2], u_3 = [z_1/z_2, z_2/√3, z_3/√3]} é uma base ortonormal, isto é, ⟨u_i, u_j⟩ = u'_i u_j = 0, se i ≠ j, se i = j, então ⟨u_i, u_i⟩ = u'_i u_i = ‖u_i‖^2 = 1. Logo, se montarmos a matriz A, colocando os vetores u_i nas colunas, acharemos A = [u_1 u_2 u_3] , e ao calcularmos A'A = [x_1 x_2 x_3 y_1 y_2 y_3 z_1 z_2 z_3] [x_1 y_1 z_1 x_2 y_2 z_2 x_3 y_3 z_3] = [⟨u_1, u_1⟩ ⟨u_1, u_2⟩ ⟨u_1, u_3⟩ ⟨u_2, u_1⟩ ⟨u_2, u_2⟩ ⟨u_2, u_3⟩ ⟨u_3, u_1⟩ ⟨u_3, u_2⟩ ⟨u_3, u_3⟩]. E, usando que {u_1, u_2, u_3} é uma base ortonormal, teremos que A'A = I (veja definição 9.11). Definição 9.22 Dizemos que uma matriz quadrada A é uma matriz ortogonal se A'A = I. Exemplo 9.23 De acordo com o exemplo 9.19, o conjunto {u_1 = 1/√3 [1, 1, 1], u_2 = 1/√2 [-1, 1, 0], u_3 = 1/√6 [-1, -1, 2]} é uma base ortonormal e, portanto, a matriz A = [1/√3 -1/√2 -1/√6 1/√3 1/√2 -1/√6 1/√3 0 2/√6] é ortogonal. Teorema 9.24 Seja ⟨ , ⟩ um produto interno em ℝ^n, considere α e β, duas bases ortonormais em ℝ^n. Então a matriz de mudança de coordenadas [I]_β^α é uma matriz ortogonal. Demonstração: Vamos fazer a demonstração para o caso em que n = 3. Acreditamos que você será capaz de dar uma prova para o caso geral. Sejam α = {u_1, u_2, u_3} e β = {v_1, v_2, v_3} duas bases ortonormais de \mathbb{R}^3. Para achar a matriz [I]^β_α, precisamos encontrar as coordenadas dos vetores da base β com respeito à base α. Digamos que u_1 = a_{11}v_1 + a_{21}v_2 + a_{31}v_3 \ u_2 = a_{12}v_1 + a_{22}v_2 + a_{32}v_3 \ u_3 = a_{13}v_1 + a_{23}v_2 + a_{33}v_3. \ A matriz fica: \ [I]^β_α = \begin{bmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33} \end{bmatrix}. \ Queremos ver que essa matriz é ortogonal. Para isso, observe que, como α e β são ortonormais, obtemos: \ 1 = \langle u_i, u_i \rangle = \langle a_{i1}v_1 + a_{i2}v_2 + a_{i3}v_3, a_{i1}v_1 + a_{i2}v_2 + a_{i3}v_3 \rangle = a^2_{i1} + a^2_{i2} + a^2_{i3}, \ e, também, se i ≠ j, temos: \ 0 = \langle u_i, u_j \rangle = \langle a_{i1}v_1 + a_{i2}v_2 + a_{i3}v_3, a_{1j}v_1 + a_{2j}v_2 + a_{3j}v_3 \rangle = a_{i1}a_{1j} + a_{i2}a_{2j} + a_{i3}a_{3j}. \ Isso mostra que [I]^β_α é ortogonal. \ Vamos definir agora os operadores ortogonais que estão conectados com as matrizes ortogonais \ Definição 9.25 \ Sejam \langle , \rangle um produto interno de \mathbb{R}^n e T : \mathbb{R}^n \rightarrow \mathbb{R}^n um operador linear, se a matriz [T]^α_α com respeito a alguma base ortonormal α, for ortogonal, dizemos que T é um operador ortogonal. \ Exemplo 9.26 \ Quando tratamos de rotações de um ângulo θ em torno da origem, ao calcular a matriz deste operador linear em termos da base canônica, obtemos, no exemplo 5.8, a matriz \ A = \begin{bmatrix} \cos θ & - \sen θ \\ \sen θ & \cos θ \end{bmatrix}. \ Agora, se temos os vetores u = \begin{bmatrix} \cos θ \\ \sen θ \end{bmatrix}, v = \begin{bmatrix} - \sen θ \\ \cos θ \end{bmatrix}, obtidos por tomar as colunas da matriz A, veremos que \langle u, u \rangle = \cos^2 θ + \sen^2 θ = 1 = \langle v, v \rangle. Além disso, \langle u, v \rangle = 0, e {u, v} é uma base ortonormal. Portanto, A é uma matriz ortogonal. \ Teorema 9.27 \ Sejam \langle , \rangle um produto interno em \mathbb{R}^n e T : \mathbb{R}^n \rightarrow \mathbb{R}^n um operador linear, então as seguintes condições são equivalentes: \ Jones Colombo e José Koiller (um texto preparatório) ---------------- 215 Capítulo 9. Produto Interno, Projeções e Operadores Ortogonais \ (1) T é um operador ortogonal; \ (2) A matriz de T com respeito a qualquer base ortonormal é ortogonal; \ (3) \langle T(u), T(v) \rangle = \langle u, v \rangle, \ \forall \ u, v \ e \ V. \ Exercícios resolvidos \ R9.1. Prove o teorema 9.12: Seja \langle , \rangle um produto interno em \mathbb{R}^n. Se X é um conjunto ortogonal formado por vetores não nulos, então X é LI. \ Solução: Considere X = {u_1, u_2, \ldots , u_n} um conjunto formado por vetores não nulo e ortogonais. Queremos verificar que a única solução do sistema \ α_1u_1 + α_2u_2 + \cdots + α_nu_n = 0 \ é a solução trivial. Se fizermos o produto interno com u_i, obtemos \ \langle α_1u_1 + α_2u_2 + \cdots + α_nu_n, u_i \rangle = \langle 0, u_i \rangle = 0. \ Logo, α_i \langle u_i, u_i \rangle = 0 ⇒ α_i = 0, para todo \ i = 1, 2, \ldots , n e, portanto, a única solução é a trivial \ α_1 = α_2 = \cdots = α_n = 0. Por isso, X é LI. \ R9.2. Prove o teorema 9.27: Sejam \langle , \rangle um produto interno em \mathbb{R}^n e T : \mathbb{R}^n \rightarrow \mathbb{R}^n um operador linear, então as seguintes condições são equivalentes: \ (1) T é um operador ortogonal; \ (2) A matriz de T com respeito a qualquer base ortonormal é ortogonal; \ (3) \langle T(u), T(v) \rangle = \langle u, v \rangle, \ \forall u \ e \ v \ e \ V. \ Solução: (1) ⇒ (2) Esta implicação segue da seguinte propriedade: digamos que A e B sejam matrizes ortogonais, então AB também é uma matriz ortogonal. De fato, se calcularmos (AB)^tAB = B^t(A^tA)B = B^tIB = B^tB = I. \ Vamos aplicar esta propriedade para provar a implicação. Iniciemos com α \subseteq V, uma base ortonormal, na qual [T]^α_α é ortonormal, e β \subseteq V, uma outra base ortonormal qualquer. Podemos calcular as matrizes de mudança de coordenadas [I]^β_α e [I]^α_α, que são ortogonais pelo lema 9.24. Então, como \ [T]^β_β = [I]^β_α [T]^α_α[I]^β_α, \ segue da observação inicial que [T]^β_β também é ortogonal. \ (2) ⇒ (3) Seja β = {v_1, v_2, \ldots , v_n} uma base ortonormal de V e seja \ A = [T]^β_β = [a_{ij}]. \ ---------------- \ Jones Colombo e José Koiller (um texto preparatório) ---------------- 216 Então, os escalares a_{ij} são obtidos por \ T(v_j) = \sum_{i=1}^n a_{ij}v_i \ e \ T(v_k) = \sum_{r=1}^n a_{rk}v_r, \ com \ j, k = 1, \ldots, n. \ E temos \ \langle T(v_j), T(v_k) \rangle = \Bigg\langle \sum_{i=1}^n a_{ij}v_i, \sum_{r=1}^n a_{rk}v_r \Bigg\rangle \ = \sum_{i=1}^n \sum_{r=1}^n a_{ij}a_{rk} \langle v_i, v_r \rangle \ = \sum_{i=1}^n a_{ij}a_{ik} \ e \ como \ a \ matriz \ [a_{ij}] \ é \ ortogonal \ = δ_{jk} \ = \langle v_j, v_k \rangle \ E \ \langle T(v_j), T(v_k) \rangle = \langle v_j, v_k \rangle \ e \ a \ propriedade \ é \ válida \ para \ os \ vetores \ da \ base \ inicial. \ Mas \ então, \ se \ u \ e \ v \ são \ vetores \ quaisquer \ de \ V, \ então \ podemos \ escrever \ u = \sum_{j=1}^n x_jv_j \ e \ v = \sum_{k=1}^n y_k v_k, \ logo, \ \langle T(u), T(v) \rangle = \Bigg\langle \sum_{j=1}^n x_jT(v_j), \sum_{k=1}^n y_kT(v_k) \Bigg\rangle \ = \sum_{j=1}^n \sum_{k=1}^n x_jy_k \langle T(v_j), T(v_k) \rangle \ = \sum_{j=1}^n \sum_{k=1}^n x_jy_k \langle v_j, v_k \rangle \ = \sum_{j=1}^n x_jv_j, \sum_{k=1}^n y_kv_k \rangle = \langle u, v \rangle. \ (3) ⇒ (1) \ Seja \ \alpha = {u_1, u_2, \ldots, u_n}, \ uma base ortonormal de \mathbb{R}^n, \ e \ a_{ij} \ \in \ \mathbb{R} \ escolhidos por \ satisfazer: \ T(v_j) = \sum_{i=1}^n a_{ij}v_i \ e \ T(v_k) = \sum_{r=1}^n a_{rk}v_r, \ com \ j, k = 1, \ldots, n. \ Isto é, os a_{ij} são os coeficientes da matriz [T]^α_α. Então, \ δ_{ij} = \langle v_j, v_k \rangle \ = \langle T(v_j), T(v_k) \rangle \ = \Bigg\langle \sum_{i=1}^n a_{ij}v_i, \sum_{r=1}^n a_{rk}v_r \Bigg\rangle \ = \sum_{i=1}^n a_{ij}a_{ik}. \ ---------------- \ Jones Colombo e José Koiller (um texto preparatório) ---------------- \ Exercícios ---------------- 217 Capítulo 9. Produto Interno, Projeções e Operadores Ortogonais Mas isso é equivalente a dizer que \(T_{U}^{\alpha}\) é ortogonal. R9.3. a) Encontre a aplicação linear \(S : \mathbb{R}^2 \to \mathbb{R}^2\), que é a reflexão em torno da reta \(y = x\). b) Obtenha a matriz de \(S\) na base canônica. Solução: Lembrando que \(Su = 2Pu - u\) é dada pela fórmula \[ S \left( \begin{bmatrix} x \\ y \end{bmatrix} \right) = \begin{bmatrix} \frac{1-a^2}{1+a^2} & \frac{2a}{1+a^2} \\ \frac{2a}{1+a^2} & \frac{a^2-1}{1+a^2} \end{bmatrix} \begin{bmatrix} x \\ y \end{bmatrix} \]. Como a hipótese do exercício é \(a = 1\), segue que \(S \left( \begin{bmatrix} x \\ y \end{bmatrix} \right) = \begin{bmatrix} y \\ x \end{bmatrix}\), e a matriz, em relação à base canônica, é \[ A = \left[ S \left( \begin{bmatrix} 1 \\ 0 \end{bmatrix} \right) \enspace S \left( \begin{bmatrix} 0 \\ 1 \end{bmatrix} \right) \right] = \begin{bmatrix} 0 & 1 \\ 1 & 0 \end{bmatrix}. \] R9.4. Prove o teorema 9.16: Se \(F\) é um subconjunto do \(\mathbb{R}^n\), o qual está munido de um produto interno, então \(F^{\perp}\) é um subespaço vetorial de \(\mathbb{R}^n\). Solução: Para garantir que \(F^{\perp}\) é um subespaço vetorial de \(\mathbb{R}^n\) é necessário verificar as seguintes três condições: - \(0 \in F^{\perp}\), uma vez que \(\langle u, 0 \rangle = 0\), para todo \(u \in F\); - Se \(v, w \in F^{\perp}\), então \(\langle u, v + \alpha w \rangle = \langle u, v \rangle + \alpha \langle u, w \rangle = 0 + \alpha 0 = 0\) para todo \(\alpha \in \mathbb{R}\) e, portanto, \(v + \alpha w \in F^{\perp}\). Isto é suficiente para garantir que \(F^{\perp}\) seja um subespaço vetorial. Veja que não exigimos nenhuma restrição ao subconjunto \(F\). Exercícios propostos P9.1. Encontre \(k\), tal que os vetores \[ \mathbf{u} = \begin{bmatrix} 1 \\ -2 \\ k \\ 3 \end{bmatrix} \qquad \text{e} \qquad \mathbf{v} = \begin{bmatrix} 3 \\ k \\ 7 \\ -6 \end{bmatrix} \] de \(\mathbb{R}^4\) sejam ortogonais. P9.2. Encontre uma base ortogonal para os subespaços de \(\mathbb{R}^3\), gerados pelos vetores: a) \(\begin{bmatrix} 1 \\ -1 \\ 1 \end{bmatrix}, \begin{bmatrix} 0 \\ 1 \\ -1 \end{bmatrix} \) b) \(\begin{bmatrix} 2 \\ 1 \\ 1 \end{bmatrix}, \begin{bmatrix} 1 \\ 3 \\ 1 \end{bmatrix} \). Jones Colombo e José Koiller (um texto preparatório) 218 Exercícios P9.3. Em cada um dos casos abaixo, determine se o conjunto \(\{\mathbf{u}, \mathbf{v}, \mathbf{w}\} \subset \mathbb{R}^3\) é ortogonal, apenas ortogonal ou nenhum dos dois. a) \(\mathbf{u} = \begin{bmatrix} 2 \\ 1 \\ 1 \end{bmatrix}, \mathbf{v} = \begin{bmatrix} -1 \\ 1 \\ -1 \end{bmatrix}, \mathbf{w} = \begin{bmatrix} 1 \\ 1 \\ 2 \end{bmatrix}\). b) \(\mathbf{u} = \begin{bmatrix} a \\ b \\ c \end{bmatrix}, \mathbf{v} = \begin{bmatrix} -b \\ a \\ 0 \end{bmatrix}, \mathbf{w} = \begin{bmatrix} -ac \\ -bc \\ a^2+b^2 \end{bmatrix}\). c) \(\mathbf{u} = \frac{1}{7} \begin{bmatrix} 2 \\ 3 \\ 6 \end{bmatrix}, \mathbf{v} = \frac{1}{7} \begin{bmatrix} 3 \\ 2 \\ 3 \end{bmatrix}, \mathbf{w} = \frac{1}{7} \begin{bmatrix} -3 \\ -6 \\ -2 \end{bmatrix}\). P9.4. Use a desigualdade de Cauchy-Schwarz no \(\mathbb{R}^3\), para mostrar que, se \(a > 0\), \(b > 0\) e \(c > 0\), então \[ (a+b+c) \left( \frac{1}{a} + \frac{1}{b} + \frac{1}{c} \right) \geq 9. \] P9.5. Sejam \(a, b, c\) números reais positivos, tais que \(a + b + c = 1\). Use a desigualdade de Cauchy-Schwarz no \(\mathbb{R}^3\), para mostrar que \[ \left( \frac{1}{a} - 1 \right) \left( \frac{1}{b} - 1 \right) \left( \frac{1}{c} - 1 \right) \geq 8. \] P9.6. Encontre uma base ortogonal para o espaço solução de: a) \(\begin{cases} 2x + y + z = 0 \\ y + z = 0 \end{cases}\) b) \(x - y + z = 0\). P9.7. a) Encontre a aplicação linear \(S : \mathbb{R}^2 \to \mathbb{R}^2\), que é a reflexão em torno da reta \(y = 2x\). b) Obtenha a matriz de \(S\) na base canônica. P9.8. Mostre a lei do paralelogramo: \(|\mathbf{u} + \mathbf{v}|^2 + |\mathbf{u} - \mathbf{v}|^2 = 2 |\mathbf{u}|^2 + 2 |\mathbf{v}|^2\), para quaisquer que sejam \(\mathbf{u}, \mathbf{v} \in \mathbb{R}^n, \langle , \rangle\). P9.9. Sejam \(\mathbf{u}, \mathbf{v} \in \mathbb{R}^n\), prove que se \((\mathbf{u}+\mathbf{v}) \perp (\mathbf{u}-\mathbf{v})\), então \(|\mathbf{u}| = |\mathbf{v}|\). Interprete o resultado geometricamente. P9.10. Mostre que, se \(S\) é um conjunto ortogonal de vetores não nulos, \(S\) é linearmente independente. P9.11. Seja \(\{\mathbf{u}_1, \mathbf{u}_2, \ldots, \mathbf{u}_n\}\) uma base ortogonal de \(\mathbb{R}^n\). Então, dado qualquer \(\mathbf{v} \in \mathbb{R}^n\), verifique que as coordenadas de \(\mathbf{v}\) com respeito à base são dadas por \[ \mathbf{v} = \frac{\langle \mathbf{v}, \mathbf{u}_1 \rangle}{\langle \mathbf{u}_1, \mathbf{u}_1 \rangle} \mathbf{u}_1 + \frac{\langle \mathbf{v}, \mathbf{u}_2 \rangle}{\langle \mathbf{u}_2, \mathbf{u}_2 \rangle} \mathbf{u}_2 + \cdots + \frac{\langle \mathbf{v}, \mathbf{u}_n \rangle}{\langle \mathbf{u}_n, \mathbf{u}_n \rangle} \mathbf{u}_n. \] P9.12. Seja \(\{\mathbf{e}_1, \mathbf{e}_2, \ldots, \mathbf{e}_n\}\) uma base ortogonal de \(\mathbb{R}^n\) e \(\mathbf{u}, \mathbf{v} \in \mathbb{R}^n\), dois vetores quaisquer, mostre que \[ \langle \mathbf{u}, \mathbf{v} \rangle = \langle \mathbf{u}, \mathbf{e}_1 \rangle \langle \mathbf{v}, \mathbf{e}_1 \rangle + \cdots + \langle \mathbf{u}, \mathbf{e}_n \rangle \langle \mathbf{v}, \mathbf{e}_n \rangle. \] Jones Colombo e José Koiller (um texto preparatório) 119 Capítulo 9. Produto Interno, Projeções e Operadores Ortogonais P9.13. Mostre que \((I - A)(I + A)^{-1}\) é uma matriz ortogonal, onde \(A = \begin{bmatrix} 0 & 5 \\ -5 & 0 \end{bmatrix}\). P9.14. Determine valores para \(x, y\) e \(z\), tal que a matriz abaixo seja canônica \[ \begin{bmatrix} \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} & 0 \\ 0 & 0 & 1 \\ x & y & z \end{bmatrix}. \] P9.15. Considere em \(\mathbb{R}^3\) a função dada por \(\langle \mathbf{u}, \mathbf{v} \rangle = 8x_1x_2 - 3x_2y_1 - 3x_1y_2 + 2y_1y_2 + 2z_1z_2\), onde \(\mathbf{u} = \begin{bmatrix} x_1 \\ y_1 \\ z_1 \end{bmatrix}\) e \(\mathbf{v} = \begin{bmatrix} x_2 \\ y_2 \\ z_2 \end{bmatrix}\). (a) Verifique que essa função é um produto interno. (b) Usando a norma que é a consequência deste produto interno, encontre o vetor do plano \(2x + 3y - 6z = 0\) que está mais próximo do vetor \(\mathbf{w} = \begin{bmatrix} 1 \\ 1 \\ -3 \end{bmatrix}\). (c) Calcule a distância, usando a função distância que provém deste produto interno, de \(\mathbf{w}\) até o plano \(2x + 3y - 6z = 0\). P9.16. Considere o \(\mathbb{R}^2\) com o produto interno dado por \(\langle \mathbf{u}, \mathbf{v} \rangle = x_1y_1 + 2x_2y_2 - x_1y_2 - x_2y_1\), onde \(\mathbf{u} = \begin{bmatrix} x_1 \\ x_2 \end{bmatrix}\) e \(\mathbf{v} = \begin{bmatrix} y_1 \\ y_2 \end{bmatrix}\). (a) Determine \(m\), de tal forma que os vetores \(\begin{bmatrix} 1+m \\ 2 \end{bmatrix}\) e \(\begin{bmatrix} 3 \\ 1 \end{bmatrix}\) sejam ortogonais. (b) Determine todos os vetores de \(\mathbb{R}^2\) ortogonais a \(\begin{bmatrix} 2 \\ 1 \end{bmatrix}\). (c) Determine todos os vetores \(\begin{bmatrix} m \\ m-1 \end{bmatrix}\) que têm norma 1. P9.17. Mostre que uma transformação ortogonal do plano no plano deixa invariante a distância entre dois pontos, isto é, dados \(\mathbf{u}\) e \(\mathbf{v}\), dois vetores quaisquer, \[ ||T\mathbf{u} - T\mathbf{v}|| = ||\mathbf{u} - \mathbf{v}||. \] P9.18. Mostre que, se \(T\) é uma transformação ortogonal do plano no plano, sua matriz em relação à base canônica só pode ser da forma: \[ A = \begin{bmatrix} \cos \theta & -\sen \theta \\ \sen \theta & \cos \theta \end{bmatrix} \quad (\text{Rotações}) \] ou da forma \[ B = \begin{bmatrix} \cos \theta & \sen \theta \\ \sen \theta & -\cos \theta \end{bmatrix} \quad (\text{Reflexões}). \] Jones Colombo e José Koiller (um texto preparatório) 220 Capítulo 10 Cônicas, Matrizes Simétricas e Formas Quadráticas Nesse capítulo vamos exibir dois métodos de mudança de coordenadas. No primeiro método mostraremos um resultado mais forte, o qual nos fala que: para toda equação do 2º grau, existe um sistema de coordenadas ortonormal no qual a equação se escreve como uma das equações padrões das cônicas. Para demonstrar esse resultado, introduziremos um tipo especial de operador linear, conhecido como operador autoadjunto, e mostraremos que todo operador desse tipo possui uma base ortonormal de autovetores. O segundo método dar-nos-á um algoritmo que permite reduzir qualquer forma quadrática a uma forma diagonal, consistindo em uma técnica útil para cálculos em espaços de dimensão superior. Além disso, essa técnica é usada para classificar as formas bilineares simétricas. Ela tem o inconveniente, porém, de gerar um sistema de coordenadas final que não é ortogonal. Ao final do capítulo aplicaremos tais técnicas para classificar as quadráticas em duas variáveis. Deve ficar claro que esse processo pode ser estendido para equações de segundo grau em mais de duas variáveis. Além disso, neste capítulo, nós iremos introduzir três conceitos que estão relacionados: matrizes simétricas, formas bilineares simétricas e formas quadráticas. No texto, apresentaremos as conexões entre eles, mas não nos aprofundaremos no estudo das formas quadráticas e na classificação das formas bilineares. Gostaríamos apenas de chamar a atenção para o fato de que esses dois conceitos oferecem inúmeras aplicações em questões de otimização e de tratamento de dados. Capítulo 7 Mudança de Base Este capítulo é mais técnico, nele pretendemos explicar como as coordenadas de um vetor mudam, ao mudarmos de uma base para outra. Antes de começar é preciso fazer uma distinção sem a qual não é possível entender os conceitos discutidos neste capítulo. A distinção é a de que quando escrevemos w estamos imaginando um vetor (como ente geométrico) e quando escrevemos [w], estamos pensando nas coordenadas deste vetor com respeito à uma base. 7.1 Matriz Mudança de Coordenadas Vamos considerar uma base α = {u1, u2, ..., un} do R^n, então qualquer vetor w ∈ R^n pode ser escrito de maneira única como combinação linear dos vetores de α, isto é, existem x1, x2, ..., xn ∈ R tais que: w = x1u1 + x2u2 + · · · + xnun. Se ordenarmos o conjunto α podemos associar para cada vetor w um único conjunto de números que informam as coordenadas do vetor w, em relação aos vetores de α, e escreveremos [w]α = [x1 x2 ··· xn]^t. Reciprocamente, se dermos um conjunto de n números x1, x2, ..., xn existe um único vetor associado, que é o vetor w = x1u1 + x2u2 + · · · + xnun. Agora se tivermos outra base, digamos β = {v1, v2, ..., vn}, então podemos encontrar y1, y2, ..., yn ∈ R, tais que o mesmo vetor w se escreve w = y1v1 + y2v2 + · · · + ynvn, e as coordenadas desse vetor com respeito à base β são [w]β = [y1 y2 ··· yn]^t. Nesta seção vamos entender como relacionar as coordenadas de w, na base α, com as coordenadas de w, com respeito à base β. 7.1.1 Dimensão 2 Faremos as contas somente para o caso em que a dimensão do espaço vetorial é 2, isso porque o resultado obtido em dimensão 2 estende-se para espaços de dimensão maior sem nenhuma dificuldade. Capítulo 7. Mudança de Base Sejam α = {u1, u2} e β = {v1, v2} duas bases ordenadas de R^2. Então dado, o vetor w = x1u1 + x2u2 = y1v1 + y2v2. Como v1 e v2 são vetores, podemos determinar as coordenadas destes vetores com respeito à base α, isto é, v1 = a11u1 + a21u2 v2 = a12u1 + a22u2. Substituindo na igualdade acima obtemos: w = y1v1 + y2v2 = y1(a11u1 + a21u2) + y2(a12u1 + a22u2) = (a11y1 + a12y2)u1 + (a21y1 + a22y2)u2. E usando a unicidade da representação de um vetor em termos de uma base ordenada e a multiplicação de matrizes obtemos que: [x1 x2] = [a11 a12] [y1] [a21 a22] [y2]. Observe que qualquer que seja o vetor w, se soubermos as coordenadas dele com respeito à base β, [w]β, podemos encontrar as coordenadas de w na base α, [w]α, bastando para isso multiplicar [w]β pela matriz acima. Chamamos essa matriz de matriz de mudança de coordenadas da base β para a base α e a denotamos por [I]βα. Exemplo 7.1 Considere V = R^2 e α = { [1 0] ,[0 1] } e a base β = { [−1] ,[1] }. Então, para [ 1] [1] conhecer α para a mesma obtemos: [w]β para a base α e escrever w de termos em resolver de serem são vetoriais equações Estas portanto. a=2 a=1 e a12=1, a11=-1, as são soluções soluções as sendo Para {0 1] t = p2/1 ) [1/2 = (e]+ [1 1] - [-1] 2 t= para chegamos contas as fazemos Depois β. base em vetores os escrevermos precisamos isso Para [I]βα. também = [1][ 2 1/] 1 2]-/1 [ ] 1αβ = -[ 1] [- 1]. Vamos determinar também [I]βα. Para isso precisamos escrever os vetores da base α, em termos da base β. Depois de fazermos as contas chegamos que: [1 0]=−1/2[(−]1 1].−1/211 [1 1] e [0 1]= 1/2 [(1−1]+ [1 1] J. Jones Colombo e José Koiller (um texto preparatório) 7.1. Matriz Mudança de Coordenadas Portanto, [I]^β_α = \begin{bmatrix} -1/2 & 1/2 \\ 1/2 & 1/2 \end{bmatrix}. Vamos fazer duas observação: a primeira é a de que [I]^β_α [I]^α_β = I, portanto, uma é inversa da outra (este resultado é geral!) A segunda é a de que a matriz [I]^β_α tem como colunas os vetores da base β, esse fato sempre ocorre se a base de chegada é a base canônica. 7.1.2 Caso Geral Vamos tratar o caso geral. Suponha que α = \{u₁, u₂, … , uₙ\} é uma base de V assim como β = \{v₁, v₂, … , vₙ\} e, que w seja um vetor qualquer de V, então podemos determinar as coordenadas [w]_α = \begin{bmatrix} x₁ \\ x₂ \\ \vdots \\ xₙ \end{bmatrix} e [w]_β = \begin{bmatrix} y₁ \\ y₂ \\ \vdots \\ yₙ \end{bmatrix}. Escrevendo os vetores da base β, em termos da base α, podemos determinar os n² números aᵢⱼ a seguir: v₁ = a₁₁u₁ + a₂₁u₂ + \cdots + aₙ₁uₙ v₂ = a₁₂u₁ + a₂₂u₂ + \cdots + aₙ₂uₙ … vⱼ = a₁ⱼu₁ + a₂ⱼu₂ + \cdots + aₙⱼuₙ … vₙ = a₁ₙu₁ + a₂ₙu₂ + \cdots + aₙₙuₙ E, montando a matriz, [I]^β_α = [v₁]_α [v₂]_α ⋯ [vₙ]_α = \begin{bmatrix} a₁₁ & a₁₂ & ⋯ & a₁ₙ \\ a₂₁ & a₂₂ & ⋯ & a₂ₙ \\ \vdots & \vdots & \ddots & \vdots \\ aₙ₁ & aₙ₂ & ⋯ & aₙₙ \end{bmatrix}. Essa matriz foi obtida ao pegar os coeficientes que aparecem na expressão do vetor vⱼ como combinação linear dos vetores uᵢ’s e colocar na j-ésima coluna. Essa matriz é chamada de matriz de mudança da coordenadas de β para a base α ou simplesmente matriz de mudança de coordenadas. Observação 7.2 Na literatura a matriz [I]^β_α é muitas vezes chamada de matriz de mudança da base α para a base β, ou, simplesmente, matriz de mudança de base. Você poderia pensar que cometemos um equívoco, mas, de fato, não cometemos. Mais para frente justificaremos este nome. Jones Colombo e José Koiller (um texto preparatório) 165 Capítulo 7. Mudança de Base 7.2 Aplicações lineares e Matrizes Até o momento sabemos que dada uma aplicação linear T : ℝⁿ → ℝᵐ podemos associar uma matriz A = [aᵢⱼ], de ordem m × n e, reciprocamente, dada uma matriz A = [aᵢⱼ], de ordem m × n, podemos determinar uma aplicação linear S : ℝⁿ → ℝᵐ definida por x ∈ ℝⁿ ↦ Ax ∈ ℝᵐ. Vamos estender esse conceito para quando levarmos em conta as coordenadas de um vetor. Vamos iniciar considerando a aplicação linear T : ℝⁿ → ℝᵐ, e sejam α = \{u₁, u₂, … , uₙ\} uma base de ℝⁿ e β = \{v₁, v₂, … , vₘ\} uma base de ℝᵐ. Ob- serve que em qualquer vetor u ∈ ℝⁿ o vetor T(u) ∈ ℝᵐ podemos determinar as coordenadas do mesmo com respeito à base β em particular, T(u₁) = a₁₁v₁ + a₂₁v₂ + \cdots + aₘ₁vₘ T(u₂) = a₁₂v₁ + a₂₂v₂ + \cdots + aₘ₂vₘ ⋮ T(uⱼ) = a₁ⱼv₁ + a₂ⱼv₂ + \cdots + aₘⱼvₘ ⋮ T(uₙ) = a₁ₙv₁ + a₂ₙv₂ + \cdots + aₘₙvₘ Assim, podemos associar a matriz [T]^α_β = \begin{bmatrix} a₁₁ & a₁₂ & ⋯ & a₁ₙ \\\ a₂₁ & a₂₂ & ⋯ & a₂ₙ \\\ · & · & · & · \\\ aₘ₁ & aₘ₂ & ⋯ & aₘₙ \end{bmatrix} que é chamada matriz da aplicação linear T com respeito às bases α e β. Exemplo 7.3 Considere T : ℝ³ → ℝ² definida por \begin{bmatrix} x \\ y \\ z \end{bmatrix} ↦ \begin{bmatrix} 2x + y − z \\ 3x − 3y − 4z \end{bmatrix} e as bases α = \begin{Bmatrix} \begin{bmatrix} 1 \\ 1 \\ 1 \end{bmatrix}, \begin{bmatrix} −1 \\ −1 \\ 0 \end{bmatrix} \end{Bmatrix} e β = \begin{Bmatrix} \begin{bmatrix} −1 \\ 1 \end{bmatrix}, \begin{bmatrix} 1 \\ 1 \end{bmatrix} \end{Bmatrix}. Encontre a matriz de T com respeito à estas bases. Precisamos encontrar as Jones Colombo e José Koiller (um texto preparatório) 166 7.2. Aplicações lineares e Matrizes coordenadas, na base β, dos vetores da base α avaliados por T. T\begin{pmatrix} \begin{bmatrix} 1 \\ 1 \\ 1 \end{bmatrix} \end{pmatrix} = \begin{bmatrix} -2 \\ -4 \end{bmatrix} = (-3)\begin{bmatrix} -1 \\ 1 \end{bmatrix} + (-1)\begin{bmatrix} 1 \\ 1 \end{bmatrix}; T\begin{pmatrix} \begin{bmatrix} -1 \\ -1 \\ 0 \end{bmatrix} \end{pmatrix} = \begin{bmatrix} -3 \\ 0 \end{bmatrix} = (3/2)\begin{bmatrix} -1 \\ 1 \end{bmatrix} + (-3/2)\begin{bmatrix} 1 \\ 1 \end{bmatrix}; T\begin{pmatrix} \begin{bmatrix} 1 \\ 0 \\ 0 \end{bmatrix} \end{pmatrix} = \begin{bmatrix} 2 \\ 3 \end{bmatrix} = (1/2)\begin{bmatrix} -1 \\ 1 \end{bmatrix} + (5/2)\begin{bmatrix} 1 \\ 1 \end{bmatrix}. Portanto, a matriz de T, com respeito às bases α e β é [T]^{α}_{β} = \begin{bmatrix} -3 & 3/2 & 1/2 \\ -1 & -3/2 & 5/2 \end{bmatrix}. Teorema 7.4 Sejam T : ℝⁿ → ℝᵐ uma aplicação linear, α uma base de ℝⁿ, β uma base de ℝᵐ, então [T(w)]β = [T]^{β}_{α}[w]α. Demonstração: Esse teorema nos diz que se tomarmos o vetor w e calcularmos as coordenadas de T(w), com respeito à base β, será o mesmo que calcularmos [w]α vezes a matriz da aplicação T, com respeito às bases α e β. Faremos a demonstração somente para o caso n = 2 e m = 3, por acreditar que isso é bem mais instrutivo que a demonstração no caso geral. Para começar, sejam α = \{u₁, u₂\} uma base do ℝ² e β = \{v₁, v₂, v₃\} uma base do ℝ³. Sabemos que existem únicos coeficientes aᵢⱼ ∈ ℝ, tais que: T(u₁) = a₁₁v₁ + a₂₁v₂ + a₃₁v₃ T(u₂) = a₁₂v₁ + a₂₂v₂ + a₃₂v₃, e obtemos a matriz [T]^{α}_{β} = \begin{bmatrix} a₁₁ & a₁₂ \\\ a₂₁ & a₂₂ \\\ a₃₁ & a₃₂ \end{bmatrix}. Seja w um vetor de ℝ² e sejam [w]α = \begin{bmatrix} x₁ \\ x₂ \end{bmatrix} e [T(w)]β = \begin{bmatrix} y₁ \\ y₂ \\ y₃ \end{bmatrix} as suas coordenadas. Logo, w = x₁u₁ + x₂u₂ e por fazer uso da linearidade da aplicação T temos: T(w) = T(x₁u₁ + x₂u₂) = x₁T(u₁) + x₂T(u₂) = x₁(a₁₁v₁ + a₂₁v₂ + a₃₁v₃) + x₂(a₁₂v₁ + a₂₂v₂ + a₃₂v₃) = (a₁₁x₁ + a₁₂x₂)v₁ + (a₂₁x₁ + a₂₂x₂)v₂ + (a₃₁x₁ + a₃₂x₂)v₃. Jones Colombo e José Koiller (um texto preparatório) 167 Capítulo 7. Mudança de Base Mas T(w) = y1v1 + y2v2 + y3v3 e como as coordenadas com respeito a uma base são únicas segue que \(\begin{cases} y1 = a11x1 + a12x2 \\ y2 = a21x1 + a22x2, \text{ que é equivalente a, } \\ y3 = a31x1 + a32x2 \end{cases}\) \(\begin{bmatrix} y1 \\ y2 \\ y3 \end{bmatrix} = \begin{bmatrix} a11 & a12 \\ a21 & a22 \\ a31 & a32 \end{bmatrix} \begin{bmatrix} x1 \\ x2 \end{bmatrix}\). Isto é, [T(w)]_β = [T]_β^α[w]_α. Exemplo 7.5 Considere o caso especial I : \(\mathbb{R}^n \rightarrow \mathbb{R}^n\) o operador identidade, isto é, I(v) = v para todo v \(\in \mathbb{R}^n\). Considere α = {v1, v2, ..., vn} uma base do domínio de I e uma base β = {u1, u2, ..., un} do contradomínio de I. Vamos determinar a matriz deste operador com respeito a estas bases. Para isso calcule: I(v1) = v1 = a11u1 + a21u2 + ... + a1nun; I(v2) = v2 = a12u1 + a22u2 + ... + a2nun; ⋮ I(vj) = vj = aj1u1 + a2ju2 + ... + anjun; ⋮ I(vn) = vn = a1nu1 + a2nu2 + ... + annun. Observe que a matriz de I com respeito às duas bases é obtida por pegar as coordenadas do vetor vj, em termos da base β e colocar na j-ésima coluna da matriz. Mas isso é exatamente a forma de calcular a matriz de mudança de coordenada. Portanto, [I]_β^α = \(\begin{bmatrix} a11 & a12 & ... & a1n \\ a21 & a22 & ... & a2n \\ ⋮ & ⋮ & ⋱ & ⋮ \\ an1 & an2 & ... & ann \end{bmatrix}\). E por isso denotar a matriz de mudança de coordenadas da base α para a base β por [I]_β^α não é nada de especial, é apenas a matriz do operador I com respeito às bases α e β. Teorema 7.6 Sejam T : \(\mathbb{R}^n \rightarrow \mathbb{R}^m\) e S : \(\mathbb{R}^m \rightarrow \mathbb{R}^k\) duas aplicações lineares e α, β e γ bases de \(\mathbb{R}^n\), \(\mathbb{R}^m\) e \(\mathbb{R}^k\), respectivamente. Então, a composta de S o T : \(\mathbb{R}^n \rightarrow \mathbb{R}^k\), é linear e [S o T]_γ^α = [S]_γ^β ⋅ [T]_β^α. A demonstração desse resultado é fácil, mas muito trabalhosa, veja o exercício R7.2. Observação 7.7 Você há de convir que seria muito mais natural definir a multiplicação entre matrizes como a simples multiplicação entre as entradas correspondentes e somente para matrizes de mesmo tamanho, similarmente ao que ocorre com a operação de soma de matrizes. Definimos dessa forma para tornar o Teorema 7.6 verdadeiro. O Teorema 7.6 nos diz que a multiplicação entre matrizes é compatível com a composição de funções lineares. Corolário 7.8 Se T : \(\mathbb{R}^n \rightarrow \mathbb{R}^n\) é um operador linear invertível e se α e β são bases do domínio e do contradomínio, respectivamente. Logo, \(T^{-1} : \mathbb{R}^n \rightarrow \mathbb{R}^n\) também é um operador linear e [T^{-1}]_β^α = ([T]_β^α)^{-1}. Demonstração: Segue das seguintes duas observações. Em primeiro lugar, se I : \(\mathbb{R}^n \rightarrow \mathbb{R}^n\) é o operador identidade, e γ é uma base de qualquer de \(\mathbb{R}^n\), então, ao calcularmos [I]_γ^γ obtemos sempre a matriz identidade, qualquer que seja γ escolhida. A segunda observação é a seguinte [T^{-1}]_β^α[T]_β^α = \(T^{-1} o T\)_α^α = [I]_α^α. Portanto, [T^{-1}]_β^α = ([T]_β^α)^{-1}. Segue deste corolário que se [I]_β^α é a matriz de mudança de coordenadas da base β para a base α, então [I]_β^α = ([I]_β^α)^{-1}. Se T : \(\mathbb{R}^n \rightarrow \mathbb{R}^m\) é uma aplicação linear e, α e α' são bases de \(\mathbb{R}^n\) e β e β' são bases de \(\mathbb{R}^m\), então podemos associar as seguintes matrizes [T]_β'γ' o [T]_βγ à aplicação linear T. Como podemos relacionar estas matrizes? Como elas provêm da mesma transformação linear, devem ter a mesma ação sobre os vetores de \(\mathbb{R}^n\), o que deve sofrer alteração, são as coordenadas desses vetores. Observe que para avaliar o vetor w \(\in \mathbb{R}^m\) em T, por usar a matriz [T]_βγ, precisamos obter as coordenadas de w na base α, digamos ainda que conheçamos as coordenadas na base α', isto é, [w]_γ'. Portanto, para obtermos as coordenadas na base α precisamos da matriz [I]_αγ, e, por um lado, [T(w)]_γ = [T]_β'γ'[w]_α'. E por outro, [T(w)]_βγ = [T]_β^α[I]_α^γ[w]_α'. Se ainda conhecermos a matriz [I]_βγ', então temos a igualdade [I]_βγ'[T]_β^α[w]_α' = [I]_βγ'[T(w)]_βγ = [T(w)]_βγ = [T]_β^α[I]_α^γ[w]_α'. Como isso vale para todo vetor w, logo essa igualdade é válida entre as matrizes, isto é, [I]_βγ'[T]_γ'γ = [T]_β^α[I]_α^γ. Capítulo 7. Mudança de Base Exemplo 7.9 Considere a mesma aplicação T : \(\mathbb{R}^3 \rightarrow \mathbb{R}^2\) definida no exemplo 7.3 e α' a base canônica do \(\mathbb{R}^3\) e β' a base canônica do \(\mathbb{R}^2\), então [T]_γ'β' = \(\begin{bmatrix} 2 & 1 & -1 \\ 3 & -3 & -4 \end{bmatrix}\). Vamos conectar com a matriz [T]_γ^α = \(\begin{bmatrix} -3 & 3/2 & 1/2 \\ -1 & -3/2 & 5/2 \end{bmatrix}\), calculada no exemplo 7.3 com essa matriz, para isso precisamos das matrizes [I]_βγ', que foi calculada no exemplo 7.1, e também [I]_γα. Executando as contas obtemos: [I]_βγ' = \(\begin{bmatrix} -1/2 & 1/2 \\ 1/2 & 1/2 \end{bmatrix}\) e [I]_γα = \(\begin{bmatrix} 0 & 0 & 1 \\ 0 & -1 & 1 \\ 1 & -1 & 0 \end{bmatrix}\). Vale a seguinte igualdade (verifique): \(\begin{bmatrix} -1/2 & 1/2 \\ 1/2 & 1/2 \end{bmatrix} \begin{bmatrix} 2 & 1 & -1 \\ 3 & -3 & -4 \end{bmatrix}\) = [I]_βγ'[T]_γ'β' = \(\begin{bmatrix} 1/2 & -2 & -3/2 \\ 5/2 & -1 & -5/2 \end{bmatrix}\) = [T]_βγ[I]_γα = \(\begin{bmatrix} -3 & 3/2 & 1/2 \\ -1 & -3/2 & 5/2 \end{bmatrix}\) \(\begin{bmatrix} 0 & 0 & 1 \\ 0 & -1 & 1 \\ 1 & -1 & 0 \end{bmatrix}\). Se na equação [I]_βγ'[T]_γ'β' = [T]_βγ[I]_γα tivermos m = n e α = β e α' = β', a igualdade aqui demonstrada se torna [I]_γα'[T]_γα' = [T]_γα[I]_γα', lembrando que ([I]_γα')^{-1} = [I]_γα' se multiplicarmos a igualdade por ([I]_γα')^{-1} obtemos: [T]_γα' = [I]_γα[T]_γα'[I]_γα'. Observação 7.10 Continuando com a notação anterior, observe que ao fazemos [T]_γα[I]_γα' obtemos [T]_γα'. Portanto, a matriz [I]_γα' toma a matriz de T, na base α, α e retorna a matriz de T com respeito às bases α', α, podemos dizer que a matriz [I]_γα' é a matriz de mudança da base α para a base α'. Isso justifica o nome dado anteriormente na observação 7.2. Definição 7.11 Sejam A e B duas matrizes quadradas. Dizemos que A e B são matrizes semelhantes e denotamos por A ≅ B se existe uma matriz P invertível, tal que \(B = P^{-1}AP\). Disso temos que todas as matrizes associadas a um operador são semelhantes. Exercícios resolvidos R7.1. Sejam α = {u1, u2} e β = {v1, v2} as bases de um espaço vetorial V , e suponha que v1 = 6u1 − 2u2 e v2 = 9u1 − 4u2. a) Determine a matriz de mudança de coordenadas [I]αβ ; b) Determine, usando o item a), [w]β para w = 3u1 − 4u2. Solução: a) Da expressão de v1 e v2 como combinação linear de u1, u2 obtemos [I]β α = [ 6 9 −2 −4]. Como ([I]β α )−1 = [I]αβ segue que [I]αβ = [ 2/3 3/2 −1/3 −1 ]. b) Como sabemos que as coordenadas de w, com respeito à base α, para encontrarmos as coordenadas de w, com respeito à base β, basta calcularmos: [w]β = [I]αβ[w]α = [ 2/3 3/2 −1/3 −1 ][ 3 −4 ] = [ −4 3 ]. R7.2. Prove o teorema 7.6. Sejam T : Rn → Rm e S : Rm → Rk duas aplicações lineares e α, β e γ bases de Rn, Rm e Rk, respectivamente. Então, a composta de S ◦ T : Rn → Rk é linear e [S ◦ T ]γα = [S]γβ · [T ]βα. Solução: Suponha que α = {u1, . . . , un} ⊂ Rn, β = {v1, . . . , vm} ⊂ Rm e γ = {w1, . . . , wk} ⊂ Rk sejam bases de Rn, Rm e Rk, respectivamente. Podemos determinar escalares aij e bjl, satisfazendo: T (ui) = m ∑ j=1 aijvj ∈ S(vj) = k ∑ l=1 bjlwl, com i = 1, . . . , n e j = 1, . . . , m. E isto determina as matrizes [S]γβ = [bjl]k×m e [T ]βα = [aij]m×n. Agora, observe o seguinte: (S ◦ T )(ui) = S(T (ui)) = S ( m ∑ j=1 aijvj) = m ∑ j=1 aijS(vj) = m ∑ j=1 aij k ∑ l=1 bjlwl = k ∑ l=1 m ∑ j=1 aijbjl wl. O escalar ∑m j=1 aijbjl é a entrada il da matriz da transformação linear S ◦ T com respeito às bases α e γ. Por outro lado, a entrada na posição il da matriz obtida por multiplicar [bjl]k×m por [aij]m×n é o escalar ∑m j=1 aijbjl . De onde obtemos a igualdade desejada. R7.3. Considere o operador linear F de R2 definido por F ([ x y ]) = [ 5x−y 2x+y ] e as bases de R2 a seguir: α = {[ 1 0 ], [ 0 1 ]} e β = {[ 4 1 ], [ 2 7 ]}. a) Encontre a matriz P de mudança de coordenada da base α para a base β e a matriz Q de mudança de coordenada da base β para a base α. b) Encontre a matriz A que representa F na base α. c) Encontre a matriz B que representa F na base β. Solução: a) Vamos começar determinando a matriz Q = [I]βα , a qual é muito fácil de determinar, visto que precisamos escrever os vetores da base β como combinação linear dos vetores da base α que é a base canônica, além disso, P = Q−1, então: Q = [ 1 4 2 7 ] logo P = Q−1 = Q = 1 −1 [ 7 −2 −4 1 ] = [ −7 2 4 −1 ]. b) A matriz A = [T ]αα é facilmente obtida da expressão, basta fazer [ 5x−y 2x+y ] = x [ 5 2 ] + y [ −1 1 ] e daí A = [T ]αα = [ 5 −1 2 1 ]. c) Como sabemos que [T ]ββ = [I]βα[T ]αα[I]αβ , logo: [T ]ββ = [ −7 2 4 −1 ][ 5 −1 2 1 ][ 1 1 4 7 ] = [ −7 2 4 −1 ][ 11 3 6 11 ] = [ 5 1 −2 1 ]. R7.4. Considere T : R3 → R3 uma transformação linear, tal que T ([ 1 0 0 ]) = [ 0 1 0 ], T ([ 0 1 0 ]) = [ 1 0 −2 ] e T ([ 1 1 1 ]) = [ 0 0 1 ]. a) Mostre que β = {[ 1 0 1 ], [ 0 1 −2 ], [ 1 1 1 ]} é uma base do R3. b) Determine [v]β se v = [ 2 −1 0 ]. c) Determine T ([ 2 −1 0 ]). Solução: a) Vamos montar uma matriz A, por colocar os vetores da base β nas colunas e então det(A) = det ⎡ ⎢ ⎣ 1 0 1 0 1 1 1 −2 1 ⎤ ⎥ ⎦ = det ⎡ ⎢ ⎣ 1 0 1 0 1 1 0 −2 0 ⎤ ⎥ ⎦ = det ⎡ ⎢ ⎣ 1 0 1 0 1 1 0 2 0 ⎤ ⎥ ⎦ = 2 6= 0, E isso garante que estes vetores são linearmente independentes, uma vez que, se os vetores não fossem LI, então eles estariam em um plano, nesse caso o volume do paralelepípedo determinado por esses vetores seria 0, o que não ocorre. b) Se α é a base canônica de R3 precisamos encontrar a matriz [I]αβ , mas calcular a matriz [I]βα = A obtida acima, usando a adjunta podemos obter o inverso desta matriz que é B = [I]αβ = ⎡ ⎢ ⎣ 3/2 −1 −1/2 1/2 0 −1/2 −1/2 1 1/2 ⎤ ⎥ ⎦. Portanto, calcular [v]β = [I]αβ[v]α = ⎡ ⎢ ⎣ 3/2 −1 −1/2 1/2 0 −1/2 −1/2 1 1/2 ⎤ ⎥ ⎦ [ 2 −1 0 ] = [ 4 1 −2 ]. c) Observe que T ([ 2 −1 0 ] ) = T ([ 4 1 −1 1 ][ 0 1 0 ] + [ 1 1 −2 0 ][ 0 0 1 ] − 2 [ 1 1 1 1 ]) = [ 1 0 0 ] + [ 1 0 0 ] − 2 [ 0 0 1 ] = [ 4 1 −2 ]. Exercícios propostos P7.1. Considere as bases α = { [1 0 ], [ 0 1 ]}, β = { [1 3 ], [ 1 4 ]} e γ = [ [ 1 2 ], [ 3 7 ]} do R2. Encontre as matrizes de mudança de coordenadas nos seguintes casos: a) [I]γα; b) [I]γβ; c) [I]βα e d) [I]αγ. P7.2. Suponha que os eixos x e y do plano R2 tenham sido girados 30° no sentido anti-horário para formar novos eixos x′ e y′ do plano. Encontre: a) Os vetores unitários na direção dos novos eixos x′ e y′; b) A matriz P de mudança de coordenadas da base antiga para a base nova; c) As novas coordenadas dos pontos [ 1 3 ] e [ 2 3]; d) Por fim, verifique que PPt = I. Capítulo 7. Mudança de Base P7.3. a) Ache a expressão da transformação linear T : R³ → R² tal que T( [1 0 0] ) = [−2 1] , T( [0 1 0] ) = [−1 1] e T( [0 0 1] ) = [−2 0] ; b) Encontre v ∈ R³ tal que T(v) = [²3] . P7.4. Seja G um operador do R² e α a base a seguir: G( [x y] ) = [2x−7y4x−3y] e α = { [1 3] , [−2 5] } a) Encontre a matriz [G]α de G, com respeito à α. b) Verifique que [G]αα [w]α = [G(w)]α para o vetor w = [−4 2] . P7.5. Para cada um dos operadores lineares T do R² a seguir, encontre a matriz A, que representa T (em relação à base canônica do R²). a) T definida por T( [1 0] ) = [2 4] e T( [0 1] ) = [5 8] . b) T é a rotação no sentido anti-horário em torno da origem de π/2. c) T é a reflexão de R² em torno da reta y = −x. P7.6. Mostre que a relação de semelhança entre matrizes é uma relação de equivalência, isto é, a relação é a seguinte: Dizemos que as matrizes A e B são matrizes semelhantes (e escrevemos A ≅ B) se existe uma matriz P invertível, tal que B = P−¹AP. Mostre então que: a) A ≅ A; b) Se A ≅ B então B ≅ A e c) Se A ≅ B e B ≅ C então A ≅ C. 174 Jones Colombo e José Koiller (um texto preparatório) Q1 T ( x y ) = ( x+yx−y ) β = {(1 2), (1 1)} A1 T (1 2) = (1+22−1−2) = (3−1) = α(1 2) + β(1 1) { α+β = 32d+β =−1 -> α =−4 β = 7 -> [T(1 2)]_B = (−4 7) T (1 1) = (1+11−1−1) = (20) = γ(1 2) + θ(1 1) { γ+θ = 2 2θ+θ = 10 -> γ =−2 θ =4 -> [T(1 1)]_B = (−20 4) [T]_B^B = [-4 -2 7 4]