·

Cursos Gerais ·

Álgebra Linear

Send your question to AI and receive an answer instantly

Ask Question

Preview text

Dizemos que V é uma combinação linear dos vetores v1, v2,..., vn se existirem α1, α2,..., αn, números reais tais que: V = α1v1 + α2v2 +...+ αnvn Seja S c V, dizemos que S gera V se, para todo v e V, existirem v1, v2,...,vn e S e α1,..., αn e R tais que: v = α1v1 + α2v2 +...+ αnvn V = [S] Sejam u1, u2,..., um c V e seja: U = {α1u1 + α2u2 +...+ αmum} U é um subespaço vetorial de V se e g: U1 = {u1,..., um} O conjunto {v1, v2,..., vn} é linearmente independente (LI) se α1v1 + α2v2 +...+ αnvn = 0 implica que α1 = α2 =...= αn = 0. No caso em que exista algum αi ≠ 0 dizemos que {v1, v2,..., vn} é linearmente dependente (LD). I) Ø é um conjunto LI II) {Ø}? é LD III) Se {Ø}? c S e v ∈ todo S, Ø é um conjunto LD IV) Se S c V e / e A c S, então A e LI {v1, v2,..., vn} é LD se e somente se um deles é combinação linear dos outros Base de um Espaço Vetorial Dizemos que B c V é uma base de V se I) B gera V (V = [B]) II) B é LI B = {(1,0), (0,1)} é a base canônica de R². Sejam v1, v2,..., vn vetores não-nulos que geram um espaço vetorial V. Então de ditos vetores podemos extrair uma base de V. Seja V um espaço vetorial gerado por um conjunto finito de vetores {v1, v2,...,vn, vm} então qualquer conjunto com mais de n vetores é necessariamente LD; portanto, qualquer conjunto ld V tem no máximo n vetores. Qualquer base de um espaço vetorial tem sempre o mesmo nº de elementos. A dimensão de V é o nº de elementos de qualquer base de V dim R(nxm) = n dim M(mxn) = m x n Se dim V = n, qualquer conjunto de n vetores LI de V formam uma base de V. Se U e W são subespaços de um V de dimensão finita, então (dim U) ≤ dim V (dim U + W) = dim (U) + dim (W) - dim (U e W) Dado uma base B = {v1, v2,..., vn} de V, cada vetor de V é escrito de maneira única como combinação linear de v1, v2,..., vn. Seja: B = {v1, v2,..., vn} base ordenada de V; v e V em que v = α1v1 +...+ αnvn Chamamos os números α1,..., αn de coordenados de v em relação à base B e denotamos por: v = (α1,..., αn)² ou v = ( α1 ) ou [ v ]ₑ ( αn ) Ex1: v = (1, -2, 3), B = {(1,1,1), (0,1,1), (0,0,1)} v = α(1,1,1) + β(0,1,1) + ϟ(0,0,1) = (α, α + β, α + β + ϟ) α = 1 α + β = -1 β = -2 α + β + ϟ = -2 ϟ = 3 v = (1, -2, 3) Ex2: V = R² Bcanonica = {(1,0), (0,1)} {(1,0), (0,1)} [(a,b) B] → coordenados na base canônica [a b] Considere C = {(0,1), (1,0), (0,0)} ou (0,2) e A = (1 + -1)e α(0,1) + β(1,0) + ϟ(0,0)={[1,0] = [0·1] {[0·0]} [2,0] [1,2] {Β} α α = -1, β = 1 [28 52 ϟ] ϟ = 1/28 ϟ = 0 A = (-1/1, 1/0,0) Mudança de Base Sejam B₁ = {u₁, u₂,..., un} e B₂ = {w₁, w₂,.., wn} duas bases ordenadas de um mesmo espaço vetorial V. Dado um vetor v e V escrevemos V = a(x₁u₁ +...+ αₙun) [v]B₁ = α[x] [v]B₂ = β Já que {u₁, u₂,..., un} é base de V para níves escrevemos os vetores wi como combinações lineares dos uj, isto é, w₁ = a₁u₁ + a₁u₂ +...+ クマン◦\n令 \n wₙ = aₙu₁ + aₙu₂ +...+ クワン◦\n V = B₁(α(x₁+...+αₙun)³+w wi +...+ B ń\nv = u₁(αᵣβ +...+ αₙβ)\n Em forma matricial:\n\[\begin{bmatrix} a_{11} & a_{12} & ... & a_{1m} \\ a_{21} & a_{22} & ... & a_{2m} \\ ... & ... & \ldots & ... \\ a_{m1} & a_{m2} & ... & a_{mm} \end{bmatrix}\begin{bmatrix} \beta_1 \\ \beta_2 \\ \ldots \\ \beta_m \end{bmatrix} = \begin{bmatrix} \alpha_1 \\ \alpha_2 \\ \ldots \\ \alpha_m \end{bmatrix}\] .\n\n\[[V]_{B'} = [P]^T_{B'B} \cdot [V]_{B'} \].\n\nEx.: B_{F_{2}} = \{(2, -1) , (3,4)\} e B = \{(1,0), (0,1)\} \implies\n\( w_1 = (1,0) = a_{11}(2, -1) + a_{12}(3,4) = 2a_{11} + 3a_{12}, -a_{11} + 4a_{12} = (1,0) \)\n\( 2a_{11} + 3a_{12} = 1 \)\n\( -a_{11} + 4a_{12} = 0 \)\n\[a_{11} = \frac{1}{11}, a_{12} = \frac{4}{11} \] =\n2 = 11t_{02} , a_{12} = 3a_{12} = 1 - a_{12} + 4; a_{12} = 1\n\nObs.: \(([P]_{B'A_{B'B}})^T = [P]_{B'A}\)\n\nTransformações Lineares\nSejam V e W dois espaços vetoriais. Uma transformação linear é uma função \( T: V \rightarrow W \) que satisfaz as seguintes condições\nx) \( \forall u, v \in V \quad T(u + v) = T(u) + T(v) \)\ny) \( \forall \alpha \in \mathbb{R}, \forall v \in V \quad T(\alpha v) = \alpha T(v) \)\n\nSe \( T : V \rightarrow W \) é uma transformação linear, então\na) \( T(\overrightarrow{0} v) = \overrightarrow{0}_w \)\nb) \( T(-v) = -T(v) \)\nc) \( T(u - v) = T(u) - T(v) \)\nd) \( T(\alpha_{v+1} + ... + \alpha_n v_n) = \alpha_1 T(v_1) + ... + \alpha_n T(v_n) \) \( V \rightarrow T(v) = \overrightarrow{0} \) é chamado de transformação nula;\n\( V \rightarrow T(v) = V \) é chamado de transformação identidade.\n\nSejam V e W dois espaços vetoriais e \( S = \{v_1, ..., v_N\} \) a base de V\n\nSejam w_1, ..., w_n elementos arbitrários de W. Então existe uma única aplicação linear \( T:V \rightarrow W \) tal que\n\( T(v_1) = w_1 \), \( T(v_2) = w_2 \), \( T(w_n) = w_n \)\n\( T(v) = \begin{bmatrix} a_1 & ... & a_n \end{bmatrix} \cdot \begin{bmatrix} T(v_1) & ... & T(v_N) \end{bmatrix} \), ou\n\( T(v) = \begin{bmatrix} a_1(v) & ... & a_n(v) \end{bmatrix} \cdot \begin{bmatrix} a_1(v_1) + ... \end{bmatrix} \cdot \begin{bmatrix} a_N \cdot w_n \end{bmatrix} \).\n\nEx.: (analise de \( T: \mathbb{R}^2 \rightarrow \mathbb{R}^3 \) tal que \( T(1,0) = (2,1,0), T(0,1) = (0,0,1) \).\n\nV = (x_1, x_2) = x_1(1,0) + x_2(0,1) \).\n\( T(v) = T((x_1, x_2) )= (x_1 et_1 + x_2 e_2 + x_3 et_3) + x_1 (2et) + x_2 (1et) \)\n\n\( = x_2 (2,1,0) + 2x_1 - x_1 , x_3,a \)\nTheorem:\nSeja \( T: V \rightarrow W \) uma transformação linear. O núcleo de T (kernel of T)\n\( \text{Ker}(T) = \{\mathbf{y} \in V : T(v) = \mathbf{0} \}\)\n\nA imagem de \( T \) é o conjunto de todos os vetores w \( \in W \) tal que existe um vetor \( v \in V \) que satisfaz \( T(v) = w \), ou seja, \n\( \text{Im}(T) = \text{\{w \in W: }T(v) = w \text{ por algum } v \in V \\} \)\n\nNote que \( \text{Ker}(T) \subseteq \mathbb{V} \implies \text{Im}(T) \subseteq \mathbb{W} \).\n\n\( \text{dim } V = \text{dim Ker(T) + dim Im(T)} \)\n\nUma transformação linear T é\na) injetora \iff \; \forall v_a \ne v_b , \quad T(v_a) \ne T(v_b)\nb) sobrejetora \iff \text{Im}(T) = W\nc) bijetora \iff \text{inj} e \text{sobra} Uma bijeção é chamada de isomorfismo e dizemos que V e W são espaços isomorfos \( V \cong W \) ou \( V \sim W \).\n\nT:V -> W bijeção \( \iff \exists G:W->V \text{ tal que } \) G \circ T = V e \( T \circ G = W \) \( \left[ G = T^{-1} \right] \)\nSe T:V->W é um isomorfismo então \( G = T^{-1}:W\rightarrow V \) também é isomorfismo.\n\nT é injetora \( \iff \text{ Ker } (T) = \{ \mathbf{0} \} \)\n\nSeja T:V->W uma transformação linear. Se \text{ dim } V = \text{ dim } W, as seguintes afirmações serão equivalentes:\na) T é sobrejetora\nb) T é injetora\nc) T é bijetora\nd) T leva base de V em base de W\n\n\( V \cong W \iff \text{ dim } V = \text{ dim } W \)\n\nSejam T:V->W transformação linear, B = \{ v_1, ..., v_n \} base de V, C = \{ w_1, ..., w_n \} base de W\n[T(v)]_C = a_1 \cdot w_1 + ... + a_i \cdot w_n\n[T(v)]_C = a_m \cdot w_1 + ... + a_mn \cdot w_n.\n\nA transposta da matriz de coeficientes deste sistema, denotada por \([T]_{B,C}\), é chamada de matriz de T em relação as bases B e C.\n\([T]_{B,C} = \begin{bmatrix} a_{11} & a_{12} & ... & a_{1m} \\ ... & ... & \ldots & ... \\ a_{m1} & a_{m2} & ... & a_{mm} \end{bmatrix} \) -a ( n Sejam V e W espaços vetoriais, B base de V, C base do W. T : V→W uma transitoração linear. Então para toda v∈ V vale: [T(v)] = [T] · [v] , c B c B Quando V=W=e T=I (transformação identidade) o resultado e o mesmo do matriz mudança de base. Seja^ T : V→W uma aplicação lineral BC bases de V e W respetivamente. Então dim Im (T) = ponto de [T], B,C dim Ker (T) = no column [T] , ¿ W no ponto de de [T], Seja T| : V→W ë(W→W, & que D bases de W, U bases de V o W, é então T| o T| : V→U e o linear T Im W. Se T : V→W uma transformação linear inversa]- e B-terre em homogenico) e BC são barra de la W respectiveamente, e de onde T-T | W o V e' y uma tlona formporte linear [T-] =[T] U G,C,B B c 20 Obs : T: V→W é invertível , <=> da [T,BC] ≠0 Se T: V→W é uma transformação linear de W com B +B bases T V e C e C' bases de W podemos relacionamento [T] ,[T],' Base do seguinte modo: [T]“ = [I] o T o [T]“ [I] cong [T] Igea Bvc 22 b “,] Bc' B'S ivi v Υ ω Vi- T λ Ito -W ( motores missão de base ω,Υ Τ ω Ι Ι -Ιώ ,l*v o, T. ), ivo ge Se T : V→V cotransformação linear e B⇓B principalmente oitava de V, então [T] = [I] , B,B′ B, B Nesse caso dizear que on matriz [T] e [T] são semelhantes. Autovalores e Autovetores Dado . T : V→V queremos saber para quais vetores v e V tenho-se (T(r)= λ v isto é quais vetores são levados em um múltiplo de si mesmo pela transformação T. Chamaremos de operador linear (unica transformação linear O T : V→V (de um espaço nele mesmo) a. sup Seja T: V→V um operador linear. Se existirem v∈V, v≠0 e λ∈R tais que T(v)= λv, etão λ um autovalor de T e v é um autovetor de T associados ao λ. Ex1. T: R2 → R2, v=2v, v=(x,y) (xx) .(20) 0 (XX), 3x 2(x) ×xx yxx (x) Então 2 é um autovalor de T e qualquer (x,y)≠0 é um autovetor de T associado ao autovalor 2. Ex2: T: R2→R2 a (x,y) ↔ (x,-y) ( (x) ) (y) p Os valores da forma (y) pois que -1 0 0 0 -1 0 -1 0-1 ( y 1-0,y,-1 0 xxxxx, x ) são angulado de T como autoval-wirop -1. Além deles os vetores (x,0), são auto vetores de T associados ao autovalor 2=1 x≠0. 2 2 Ex: 3. A= 0 1 => A(v)= x 2x+2y Tα(x,y)= (3x+2y), γ y y v Para encontrarmos os autos de Tα, T(v)= 2v, temos: 2x { 2x+y = λx ax+y = ( ) (2x) { y = 2λ y y I) Se y≠0 λ=1, 2x=y, x+y = x y = x, II) Se y=0 x≠0, 2x=y, x = y, Assim, para λ=1 temos os autovetores ( x ) ≠0. Só, para λ=2 qualquer vetor não nulo (x,0) é autovetor T. y y Dando T : V→V AUTO v associavel λir qualquer vetoro W: αr, α≠0 também é autovetarca do T v = λ. O subespaço V(λ)={v∈V; Tv=λv, chamada de subespaço associado ao autovalor λ. Dada uma matriz quadrada A de ordem n, entendemos, por autovalor, autovetor de A, os autovetores do autos autovalores A. transformação linear TR: Rn ➔ Rn associada com matriz A com relação no base conómica i tal que (T(v) ) =A(v) . Assim, o autovalor λ ∈ R de A é um autovetor v∈ R os soluções do auto igual ao ví Ação AY = λV, v≠0. Os vetores da base económica de PR são autovetores para λ, e o autovetor e-i associado ao autovator λ= λ. se A for uma matriz diagonal. Dado uma T: V→V linear e fixado uma base B podemos traduzir o problema de encontrar autovalores minimamente. Não necessariamente as λᵢ são distintas. λᵢ aparece no diagonal principal tantas vezes quantas forem os autovetores ⓵ e os eles associados (multiplicidade da raiz do polinômio característico). Se D = { u₁, u₂, ..., uₘ: é uma base de V tal que [T]_D = ((a₁₁ 0 0 ...) (0 a₂₂ ...) (0 ... aₘₘ)) Temos T(ν₁)=a₁₁ν₁, T(ν₂)=a₂₂ν₂,...,T(νₘ)=aₘₘνₘ. Assim, ν₁, ...,νₘ são autovetores de T com autovalores a₁₁, a₂₂, ..., aₘₘ. Um operador T:V->V linear admite uma base C em relação à qual [T]_C é diagonal <=> a base C é formada por autovetores de T. Dizemos que T é um operador diagonalizável se existe uma base de V, cujos elementos são autovetores de T. Polinômio Minimal Seja p(x) = aₙxⁿ + aₙ₋₁xⁿ⁻¹ + ... + a₀, um polinômio e A uma matriz quadrada. Então p(A), é a matriz p(A) = aₙAⁿ + aₙ₋₁Aⁿ⁻¹ + ... + a₁A + a₀I Quando p(A) = 0, dizemos que o polinômio p(x) anula a matriz A. Seja A uma matriz quadrada. O polinômio minimal de A é um polinômio m(x) = xᵏ + aₖ₋₁xᵏ⁻¹ + ... + a₁x + a₀ I) m(A)=0, isto é, m(x) anula a matriz A; II) m(x) é o polinômio de menor grau que anula A. (Observe que aₖ=1.) para T. determinando autovalores para a matriz [T]_B. Seja A uma matriz de ordem n. Queremos descobrir quais são os autovalores e autovetores de A. Estes são aqueles que satisfazem a equação: (A-λI) v = 0 ((a₁₁-λ a₁₂ ... a₁ₙ) (a₂₁ a₂₂-λ ... a₂ₙ) ... (aₙ₁ aₙ₂ ... aₙₙ-λ)) ((x₁) (x₂) ... (xₙ)) = ((0) (0) ... (0)) Para evitar somente a solução trivial (v=0) do sistema homogêneo, devemos ter det(A-λI)=0. P(λ) = det(A-λI) é um polinômio em λ de grau n e é chamado polinômio característico da matriz A. Ex.: A=((-3 4) (-1 2)) A-λI=((-3-λ 4) (-1 2-λ)) P(λ)=((-3-λ)(2-λ) + 4) = -6+3λ+2λ-λ²+4 =>P(λ)=λ²-5λ+2 P(λ)=0 => λ₁=, λ₂= => 2=1 => ((-3 4) x) = ((x) (-1 2)) ((x) = 0 => -3x+4y=x ((x) => -x+2y = 0 ... 4y=x, -4x+4y=0 =>λ=1... [(x,y), x ≠ 0] => λ=2 -> A=((-3 4), -1 2)) ((x) -> ((-2x) ((-2y)) ((-rx)) = 0 3x+4y=-2x -> 3,-1x+4y=0 ...-x+4\y=0 x=4y y=1/4x=>-2 associadoseos aoautovalor v=(x, 1/4x) Obs.: Podemos estender esse conceito para qualquer operador linear T:V->V T(x)=λx <=> det ([T]_B - λI) = 0 Diagonalização de Operadores Queremos encontrar uma base do espaço vetorial na qual a matriz de um determinado operador linear seja o mais simples possível, preferencialmente uma matriz diagonal. Autovalores associados a autovalores distintos são LT. Se V é um espaço vetorial de dimensão n e T:V->V um operador linear com n autovalores distintos então V possui uma base cujos vetores são todos autovetores de T. Ex.: T:R²->R² definido por T(x,y) = (3x+4y, -x+2y) [T]_B = ((3 4) (-1 2)) C = {v₁,v₂} = {(1,1), (4,1)} T(v₁) = λ₁v₁ = v₁ T(v₂) = λ₂v₂ = 2v₂ logo λ₁=3, λ₂=2 [T]_C = ((3 0) (0 2)) Dado um operador linear T:V->V qualquer, se conseguirmos uma base C={v₁,...,vₙ} formada por autovetores de T, então a matriz [T]_C será uma matriz diagonal com os λ: [T]_C = ((λ₁ 0 ... 0) (0 λ₂ ... 0) (... ... λₙ)) Seja V um espaço vetorial com um produto interno < , >. Dizemos que dois vetores v e w são ortogonais (em relação a este produto) se <v, w> = 0. Usa-se a notação v ⊥ w. Propriedades: P1) 0 ⊥ v ∀ v ∈ V; P2) v ⊥ w ⇒ w ⊥ v; P3) Se v ⊥ w ∧ w ∈ V então v ≠ 0; P4) Se v ⊥ w e w = 0 então v + t w ⊥ w; P5) Se v ⊥ w e α ∉ R então α v ⊥ w. Seja {v1, ..., vn} um conjunto de vetores não-nulos ortogonais dois a dois, isto é, <vi, vj> = 0 ∀ i ≠ j. Então {v1, ..., vn} é linearmente independente (L. I.) Demonstração que uma base {v1, ..., vn} de V é base ortogonal se <vi, vj> = δij para i, j ∈ {1, ..., n}, isto é, os vetores da base são dois a dois ortogonais: <vi, vj> = {0 se i ≠ j; 1 se i = j}. (Ortogonal). Seja V um espaço vetorial com produto interno <,> e B = {v1, ..., vn} uma base ortogonal de V e w um vetor qualquer de V. Queremos calcular as coordenadas de w em relação a B: w = α1 v1 + ... + αn vn, determinar α1,..., αn. Fazemos o produto interno dos dois lados por vi: <w, vi> = α1 <v1, vi> + ... + αn <vn, vi> i = t + αn vn, <vn, vi> Como a base é ortogonal, <vi, vi> ≠ 0. L.T.: α1i = <w, vi> = <w, vi> <vi, z> α1... ... = <w, vj> / ||vj||^2 <w, vj> / ||vj ||^2 <w, vn> /||||^2. Esta coordenada α1i é chamada de coeficiente de Fourier de w em vi. w = (<w, v1> / ||v1||^2) · v1 + (<w, v2> / ||v2||^2) · v2 + ... + (<w, vn> / ||vn||^2) · vn. Agora, se tivermos B = {v1, ..., vn} uma base ortogonal de V, então os coeficientes de Fourier α1i do um vetor w ∈ V são dados por: α1i = <w, vi> < ||vi ||. w = α1i v1 + ... + αn vn são dados por: j = 1 para. αj = <w, vj> ≤ <w, vj>, ||wj||^2 ||wj||^2 <w, vi + ||wi||^2. <E1, E1, E2> = P₁ + P₂ αi = <w, vn>. B~ilha: (-1, 1) ... <2, 2>. vB1VE (1,1,1... 2) ∑α1 = 1, 0,..., -1. Ex: V = R^2, < , > o produto interno usual, B = {(1, 1), (-1, 1)} Calcule F(α1, 3/1). B é ortogonal, pois <B, <A+B> < 1 + 1 + 1 = 0 1(1), (1, 1) = 2 <(1, 2)-(1, 1)> = <(2), (2)<1+1) = <1+1 + 2> O processo de ortogonalização de Gram-Schmidt consiste em usar uma base {v1, v2,..., vn} de V para construir uma base ortogonal {w1,..., wn} de V como segue: w1 = v1 w2 = v2 - <v2, w1> / ||w1||^2 · w1 w3 = v3 - <v3, w2> / ||w2||², w4 = v4 - <v4, w2> / ||w2||^2 - ... - <v4, w(k) − 1> < w2w> = wk Consideramos um espaço vetorial V munido de um produto interno < , > e s um subconjunto não-vazio S de V (s não é necessariamente um subespaço). Consideramos então o subconjunto de V: S = {v ∈ V: v ⊥ w, ∀ w ∈ S}. Então, S⊥ é chamado de ortogonal de S. Subespaço de V de subespaço ortogonal de S. S⊥ é subespaço de V, é fato! V = S ⊕ S⊥ e S⊥ é chamado de complemento ortogonal de S. Lembrando que X é uma soma direta de U e W, se X = D + W : U ∩ W = ∅ [0}. Ao trabalharmos com uma base ortonormal de V, seu produto interno poderá ser expresso na forma conhecida: <v, w> = x1y1 + x2y2 + ... + xnyn. Introduziremos as matrizes que estarão envolvidas em operações. Sendo A uma matriz nxn e matr. A' sua transposta. a) Se A = A', A é uma matriz simétrica; b) Se A · A' = A · A' = I (ou seja, A' = A'), dizemos que A é uma matriz ortogonal, e det A = ±1. Uma matriz ortogonal ⟺ as colunas de suas linhas são ortonormais. T: V -> W, V esp. vetorial com produto interno w ∈ α, P exp. ortonormal de V, todo o matriz de mudança de base [T]_α e ortogonal. Seja V um espaço vetorial com produto interno, e ω uma base ortonormal de T: V -> V um operador linear. a) T é chamado de operador auto-adjunto se [T]_α é uma matriz simétrica; b) T é chamado de operador ortogonal se [T]_ω é uma matriz ortogonal. Todo auto-adjunto ⟹ <T v, w> = <v, Tw> Seja T: V -> V auto-adjunto e λ1, λ2 autovalores distintos de T e v1 e v2 prop. autovetores associados. Então v1 ⊥ v2. Seja T: V -> V um operador linear num V com < , >. Se T é ortogonal, a) T transforma bases ortonormais em bases ortonormais; b) T preserva o produto interno, isto é, <Tu, Tv> = <u, v>; c) T preserva o norma, isto é, ||Tv|| = ||v||. Seja V um espaço vetorial real. Uma forma linear é uma transformação linear φ: V -> R. Consideramos agora funções associadas a espaços vetoriais que se comportam como produtos internos, isto é, funções que a cada par de vetores associam um número de tal forma que uma vez fixado o primeiro vetor, a função seja uma forma linear em relação ao segundo vetor, e vice-versa. Uma forma bilinear é uma aplicação B: V x V -> R definida por (v, w) -> B(v, w) tal que: I) Para todo v fixado B(v, w) é uma forma linear em v: B(v1 + v2, w) = B(v1, w) + B(v2, w) B(av, w) = aB(v, w) II) Para todo w fixado B(v, w) é uma forma linear em w: B(v, w1 + w2) = B(v, w1) + B(v, w2) B(v, aw) = aB(v, w) Sejam V um espaço vetorial e B: V x V -> R uma forma bilinear. Dada uma base α = {v1, v2,...vn} de V, associamos a B a matriz M chamada matriz bilinear B na base α de modo que: v = x1v1 + ... + xnvn, w = y1v1 + ... + ynvn, de tal que: B(v, w) = B(x1v1 + ... + xnvn, y1v1 + ... + ynvn) = Σ x_i y_j B(v_i, v_j) A forma bilinear B: V x V -> R é simétrica se B(v_i, v_j) = B(v_j, v_i) para todo v_i, v_j ∈ V. Revisão - Álgebra Linear Sejam V e W espaços vetoriais. T: V -> W é uma transformação linear se ∀v, w ∈ V T(u+v) = Tu + Tv ly ∈ R(T(ay) = a(Tv)) Núcleo de A: N(A) = {v ∈ E | Av = 0} dim E = dim N(A) + dim Im(A) Dado uma transformação linear A: E -> F temos uma nova transformação linear A*: F -> E chamada adjunta de A. A*: E -> E adjunta quando A = A*, (A(w), y) = (w, A(y)) a) (A + B)* = A* + B* b) (AB)* = B* A* c) (αA)* = αA d) AB = (AB)* Seja A uma matriz quadrada e A uma matriz diagonal cujas entradas são os autovalores de A, 2m. Então: tr(A) = tr(Λ) = Σ λi det(A) = det(Λ) = Π λi Seja vni ∈ 二, 2 um autovalor de A, então o núcleo de r con junto de todos o autovetores da Λ é um subespaço de R^V conhecido como o autoespaço de Δ. Um conjunto finito de n vetores ∑ (vi, vk,...vn) sub espaço do espaço vetorial V é l. T <=> existe um conjunto de n escalares a1, a2,...an, a3 not todas nulas, tais que ∑ a_vi vi = 0