algebra linear. notas de aulas (icmc-usp s ao carlos)~ · algebra linear. notas de aulas (icmc-usp...

31
´ ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S ˜ AO CARLOS) 2 o semestre de 2015 1.Nota¸c˜ ao de aplica¸c˜ oes e conjuntos Sejam A e B dois conjuntos de natureza qualquer. Uma aplica¸ c˜ao f : A B de A para B ´ e uma lei pela qual a cada elemento a A est´ a associado um ´ unico elemento b B, denotado por b = f (a) e chamado a imagem de a. Escreve-se tamb´ em A f −→ B. Dizemos que A ´ eo dom´ ınio e B ´ e o contra-dom´ ınio de f . Note que, por defini¸c˜ ao, consideramos duas aplica¸c˜ oes f : A B e g : A C como diferentes se os contra-dom´ ınios s˜ao diferentes, isto ´ e, B ̸= C, mesmo se a lei parece a mesma. Por exemplo, denotando 1 R := {r | r ´ e um n´ umero real} e R + := {r R | r 0}, temos duas aplica¸c˜ oes f : R R, f : r 7r 2 ,e g : R R + , g : r 7r 2 , que s˜ao diferentes embora dadas atrav´ es da mesma lei r 7r 2 . (Escrevendo f : a 7b enfatizamos como f “age” sobre elementos; isto ´ e equivalente a escrever f (a)= b.) Utilizamos a seguinte nota¸c˜ ao de conjuntos. O s´ ımbolo denota o conjunto vazio, isto ´ e, sem elementos. ( ´ E razo´avel imaginar um conjunto como um saco de coisas. Neste caso, o vazio ´ e um saco vazio.) Quando A est´ a contido em B, ou seja, quando B cont´ em A, escrevemos A B ou B A. Para verificar que A B, precisa-se provar a implica¸c˜ ao a A = a B. Dois conjuntos A e B ao considerados como iguais se eles tˆ em os mesmos elementos. Em outras palavras, A = B ´ e equivalente a A B e A B. Por exemplo, p ̸= {p} para qualquer conjunto p. Em particular, o conjunto {} ao ´ e vazio. Sejam A e B conjuntos. Denotamos por A B a interse¸ c˜ao de A e B, isto ´ e, A B := {x | x A, x B}. Denotamos por A B := {x | x A ou x B} a uni˜ao de A e B. Denotamos por A × B := { (a, b) | a A, b B } o produto cartesiano de A e B. Este produto ´ e formado por todos os pares ordenados (a, b), onde a A e b B. N˜ao precisa saber o que ´ e um par ordenado. ´ E suficiente saber apenas a propriedade que caracteriza este conceito: (a, b)=(a ,b ) ⇐⇒ a = a e b = b . De modo an´ alogo, podemos definir o produto cartesiano A 1 × A 2 ×···× A n de conjuntos A 1 ,A 2 ,...,A n . Seja A um conjunto e sejam S, S A subconjuntos. Denotamos por S \ S := {s S | s/ S } o complemento de S em S. Seja f : A B umaaplica¸c˜ ao e sejam A A e B B. Ent˜ ao f (A ) := { f (a) | a A } ´ ea imagem de A por f e f 1 (B ) := { a A | f (a) B } ´ e a imagem inversa de B por f . Definimos a restri¸ c˜ao f | A : A B de f para A pela regra ´obvia f | A : a 7f (a ). A aplica¸c˜ ao de inclus˜ao i : A , A ´ e dada pela regra i : a 7a para todo a A . Sejam A f −→ B g −→ C duasaplica¸c˜ oes dos formatos indicados. Definimos a aplica¸c˜ ao composta ou a composi¸ c˜ao g f : A C pela regra (g f )(a) := g ( f (a) ) para todo a A. Essaopera¸c˜ ao ´ e associativa: ´ e f´acil verificar que (h g) f = h (g f ) para aplica¸c˜ oes A f −→ B g −→ C h −→ D. Podemos observar tamb´ em que a restri¸c˜ ao f | A daaplica¸c˜ ao f : A B para A A ´ e a composi¸c˜ ao f i, isto ´ e, f | A = f i, onde i : A , A ´ e a aplica¸c˜ ao de inclus˜ao. Para qualquer conjunto A, temos a aplica¸c˜ ao 1 Este ´ e nosso jeito de definir um conjunto. Seja dado um conjunto A e seja P (x) uma propriedade de elementos. Ent˜ ao o conjunto C = { a A | P (a) } ´ e formado por todos os elementos a A que satisfazem a propriedade P (a).

Upload: others

Post on 31-Jan-2021

3 views

Category:

Documents


0 download

TRANSCRIPT

  • ÁLGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SÃO CARLOS)

    2o semestre de 2015

    1. Notação de aplicações e conjuntos

    Sejam A e B dois conjuntos de natureza qualquer. Uma aplicação f : A → B de A para B éuma lei pela qual a cada elemento a ∈ A está associado um único elemento b ∈ B, denotado porb = f(a) e chamado a imagem de a. Escreve-se também A

    f−→ B. Dizemos que A é o domı́nio e B éo contra-domı́nio de f . Note que, por definição, consideramos duas aplicações f : A → B e g : A → Ccomo diferentes se os contra-domı́nios são diferentes, isto é, B ̸= C, mesmo se a lei parece a mesma.Por exemplo, denotando1 R := {r | r é um número real} e R+ := {r ∈ R | r ≥ 0}, temos duas aplicaçõesf : R→ R, f : r 7→ r2, e g : R→ R+, g : r 7→ r2, que são diferentes embora dadas através da mesma leir 7→ r2. (Escrevendo f : a 7→ b enfatizamos como f “age” sobre elementos; isto é equivalente a escreverf(a) = b.)

    Utilizamos a seguinte notação de conjuntos. O śımbolo ∅ denota o conjunto vazio, isto é, semelementos. (É razoável imaginar um conjunto como um saco de coisas. Neste caso, o vazio é um sacovazio.) Quando A está contido em B, ou seja, quando B contém A, escrevemos A ⊂ B ou B ⊃ A.Para verificar que A ⊂ B, precisa-se provar a implicação a ∈ A =⇒ a ∈ B. Dois conjuntos A e B sãoconsiderados como iguais se eles têm os mesmos elementos. Em outras palavras, A = B é equivalente aA ⊂ B e A ⊃ B. Por exemplo, p ̸= {p} para qualquer conjunto p. Em particular, o conjunto {∅} não évazio.

    Sejam A e B conjuntos. Denotamos por A ∩ B a interseção de A e B, isto é, A ∩ B := {x | x ∈ A,x ∈ B}. Denotamos por A ∪ B := {x | x ∈ A ou x ∈ B} a união de A e B. Denotamos porA× B :=

    {(a, b) | a ∈ A, b ∈ B

    }o produto cartesiano de A e B. Este produto é formado por todos os

    pares ordenados (a, b), onde a ∈ A e b ∈ B. Não precisa saber o que é um par ordenado. É suficientesaber apenas a propriedade que caracteriza este conceito: (a, b) = (a′, b′)⇐⇒ a = a′ e b = b′. De modoanálogo, podemos definir o produto cartesiano A1 ×A2 × · · · ×An de conjuntos A1, A2, . . . , An. Seja Aum conjunto e sejam S, S′ ⊂ A subconjuntos. Denotamos por S \ S′ := {s ∈ S | s /∈ S′} o complementode S′ em S.

    Seja f : A→ B uma aplicação e sejam A′ ⊂ A e B′ ⊂ B. Então f(A′) :={f(a) | a ∈ A′

    }é a imagem

    de A′ por f e f−1(B′) :={a ∈ A | f(a) ∈ B′

    }é a imagem inversa de B′ por f . Definimos a restrição

    f |A′ : A′ → B de f para A′ pela regra óbvia f |A′ : a′ 7→ f(a′). A aplicação de inclusão i : A′ ↪→ A édada pela regra i : a′ 7→ a′ para todo a′ ∈ A′.

    Sejam Af−→ B g−→ C duas aplicações dos formatos indicados. Definimos a aplicação composta

    ou a composição g ◦ f : A → C pela regra (g ◦ f)(a) := g(f(a)

    )para todo a ∈ A. Essa operação é

    associativa: é fácil verificar que (h ◦ g) ◦ f = h ◦ (g ◦ f) para aplicações A f−→ B g−→ C h−→ D. Podemosobservar também que a restrição f |A′ da aplicação f : A→ B para A′ ⊂ A é a composição f ◦ i, isto é,f |A′ = f ◦ i, onde i : A′ ↪→ A é a aplicação de inclusão. Para qualquer conjunto A, temos a aplicação

    1Este é nosso jeito de definir um conjunto. Seja dado um conjunto A e seja P (x) uma propriedade de elementos. Então

    o conjunto C ={a ∈ A | P (a)

    }é formado por todos os elementos a ∈ A que satisfazem a propriedade P (a).

  • 2 2o SEMESTRE DE 2015

    idêntica 1A : A → A dada pela regra 1A : a 7→ a. Essa aplicação satisfaz as identidades f ◦ 1A = f e1A ◦ g = g para quaisquer aplicações f : A→ B e g : C → A.

    Uma aplicação f : A → B é dita injetora ou uma injeção se f(a1) = f(a2) =⇒ a1 = a2 paratodos a1, a2 ∈ A. A aplicação de inclusão considerada acima é um exemplo de uma aplicação injetora.Uma aplicação f : A→ B é dita sobrejetora ou uma sobrejeção se todo elemento de B é a imagem porf de um elemento de A, isto é, se, para todo b ∈ B, existe um a ∈ A tal que f(a) = b. Uma aplicaçãof : A→ B simultâneamente injetora e sobrejetora é dita bijetora ou uma bijeção. Um jeito equivalentede definir bijeção: uma aplicação f : A → B se chama bijeção se ela possui uma inversa de doislados relativamente à composição; isto significa que existe uma aplicação (inversa) g : B → A tal quef ◦ g = 1B e g ◦ f = 1A.

    2. Escalares

    Necessitamos fixar um conjunto K de escalares. Normalmente, este será R ou C := {c | c é um númerocomplexo}. Mas quase tudo funcionará2 tomando-se K = Q, onde Q := {q | q é um número racional}.As propriedades que um conjunto numérico K deve ter para servir como conjunto de escalares são as

    seguintes:

    E1. 1 ∈ K.E2. k1, k2 ∈ K =⇒ −k1, k1 + k2, k1k2 ∈ K.E3. 0 ̸= k ∈ K =⇒ 1

    k∈ K.

    Em palavras: temos escalar 1 e podemos efetuar adição, subtração, multiplicação e divisão.3 Em par-ticular, 0 ∈ K pois 0 = 1− 1.

    3. Espaço vetorial

    Seja V um conjunto munido de duas operações: K × V ·→ V denotada (k, v) 7→ k · v e chamadamultiplicação por escalar, e V × V +→ V denotada (v1, v2) 7→ v1 + v2 e chamada adição. Dizemos que Vé um K-espaço vetorial se

    V1. v1 + v2 = v2 + v1 para todos v1, v2 ∈ V (comutatividade da adição).V2. (v1 + v2) + v3 = v1 + (v2 + v3) para todos v1, v2, v3 ∈ V (associatividade da adição).V3. Existe um n ∈ V tal que n + v = v para todo v ∈ V (existência do elemento neutro para a

    adição). Tal n é único: para elementos neutros n e n′ temos n′ = n+n′ = n′ +n = n. No que se segue,denotaremos este elemento por 0.

    V4. Para todo v ∈ V , existe um v′ ∈ V tal que v + v′ = 0. Para um dado v ∈ V , este v′ é único:se v + v′′ = 0, temos v′′ = 0+ v′′ = (v + v′) + v′′ = (v′ + v) + v′′ = v′ + (v + v′′) = v′ + 0 = 0 + v′ = v′.Em seguida, chamaremos v′ oposto a v e o denotaremos por (−v).

    V5. k · (v1 + v2) = (k · v1) + (k · v2) para todos v1, v2 ∈ V e k ∈ K (distributividade da multiplicaçãopor escalar relativamente à adição em V ).

    V6. (k1 + k2) · v = (k1 · v) + (k2 · v) para todos k1, k2 ∈ K e v ∈ V (distributividade da multiplicaçãopor escalar relativamente às adições).

    V7. (k1k2) · v = k1 · (k2 · v) para todos k1, k2 ∈ K e v ∈ V (associatividade da multiplicação porescalar).

    V8. 1 · v = v para todo v ∈ V .Dáı segue 0 · v = 0. Realmente, v = 1 · v = (1+ 0) · v = 1 · v+0 · v = v+0 · v. Agora 0 = (−v) + v =

    (−v) + (v + 0 · v) =((−v) + v

    )+ 0 · v = 0 + 0 · v = 0 · v. Também temos (−1) · v = −v. Com efeito,

    2Na computação usa-se uma escolha mais exótica de escalares, a de 16 elementos.3A última operação exige que o escalar pelo qual dividimos não seja nulo.

  • ÁLGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SÃO CARLOS) 3

    v+ (−1) · v = 1 · v+ (−1) · v =(1 + (−1)

    )· v = 0 · v = 0. Em seguida, vamos às vezes omitir · e utilizar

    a notação de subtração v1 − v2 := v1 + (−v2).3. Exemplos. 1. R-espaço vetorial de vetores no plano.3.2. R-espaço vetorial de vetores no espaço.3.3. Seja C um conjunto. Denotamos por Func(C,K) := {f : C → K} o conjunto de todas as

    funções (= aplicações) de C para K. Definimos operações. Para f, f1, f2 ∈ Func(C,K) e k ∈ K, façamos(f1 + f2)(c) := f1(c) + f2(c) e (k · f)(c) := kf(c) para qualquer c ∈ C. É fácil verificar que obtemosum K-espaço vetorial. Realmente, para provar que f1 + f2 = f2 + f1, precisamos apenas verificar que(f1+f2)(c) = (f2+f1)(c) para todo c ∈ C : pela definição, (f1+f2)(c) = f1(c)+f2(c) = f2(c)+f1(c) =(f2 + f1)(c). O elemento neutro para a adição é a função identicamente nula, dada por 0(c) := 0 paratodo c ∈ C. A função oposta a f é dada por (−f)(c) := −f(c) para todo c ∈ C. Os outros axiomas severificam de modo análogo.

    3.4. Os próprios escalares K munidos das óbvias operações constituem um K-espaço vetorial.3.5. Sejam V1, V2 K-espaços vetoriais. Em V1×V2, definimos operações (v1, v2)+ (v′1, v′2) := (v1+ v′1,

    v2 + v′2) e k · (v1, v2) := (k · v1, k · v2) para todos v1, v′1 ∈ V1, v2, v′2 ∈ V2 e k ∈ K. É fácil verificar que

    obtemos um K-espaço vetorial chamado soma direta de V1 e V2 e denotado por V1 ⊕ V2. Por exemplo,o elemento neutro para a adição é (0, 0) e o oposto a (v1, v2) é (−v1,−v2). De maneira semelhante,podemos definir a soma direta V1 ⊕ V2 ⊕ · · · ⊕ Vn de n K-espaços vetoriais V1, V2, . . . , Vn. DenotamosKn := K⊕K⊕ · · · ⊕K︸ ︷︷ ︸

    n vezes

    .

    3.6. C é um R-espaço vetorial. R e C são Q-espaços vetoriais.3.7. O conjunto K[x] := {knxn+kn−1xn−1+ · · ·+k1x+k0 | k0, k1, . . . , kn−1, kn ∈ K, n ≥ 0} de todos

    os polinômios em uma variável x com coeficientes em K munido das óbvias operações (aqu, é melhorinterpretar um polinômio como uma expressão formal, não como uma função) é um K-espaço vetorial.Fazendo K[x]

  • 4 2o SEMESTRE DE 2015

    Dáı, w + w′ = w1 + w′1 + w2 + w

    ′2 com w1 + w

    ′1 ∈ W1 e w2 + w′2 ∈ W2. Assim, W1 +W2 ≤ V . Note

    que W1 +W2 contém ambos W1 e W2. Realmente, todo w1 ∈ W1 pode ser escrito como w1 = w1 + 0com 0 ∈ W2. Logo, W1 ⊂ W1 + W2. De modo semelhante, obtemos W2 ⊂ W1 + W2. Ainda mais,o subespaço W1 + W2 é o menor (no sentido de inclusão de conjuntos) subespaço que contém ambosW1 e W2. Com efeito, seja W ≤ V um subespaço tal que W1,W2 ⊂ W . Então, para quaisquerw1 ∈ W1 e w2 ∈ W2, temos w1, w2 ∈ W . Dáı, w1 + w2 ∈ W . Assim vemos que qualquer elementode W1 +W2 pertence a W , ou seja, W1 +W2 ⊂ W . Da mesma maneira podemos definir o subespaçoW1 + W2 + · · · + Wn := {w1 + w2 + · · · + wn | w1 ∈ W1, w2 ∈ W2, . . . , wn ∈ Wn} para subespaçosW1,W2, . . . ,Wn ≤ V . Este subespaço é o menor que contém todos os W1,W2, . . . ,Wn. Como a adiçãoé associativa, não colocamos os parênteses em W1 +W2 + · · ·+Wn.

    4.1.2. Seja V um K-espaço vetorial e seja v ∈ V . Então é fácil ver que Kv := {k · v | k ∈ K} ≤ V .Obviamente, Kv é o menor subespaço que contém v. Caso v ̸= 0, todo w ∈ Kv admite a única formaw = k · v com k ∈ K.

    4.1.3. Seja V um K-espaço vetorial e sejam v1, . . . , vn ∈ V . Denotamos [v1, . . . , vn] := Kv1+· · ·+Kvn.Pelos Exemplos 4.1.1 e 4.1.2, [v1, . . . , vn] é o menor subespaço que contém todos os v1, . . . , vn. Dizemosque [v1, . . . , vn] é o subespaço gerado por v1, . . . , vn e chamamos os elementos v1, . . . , vn geradores deste

    subespaço. É imediato que todo v ∈ [v1, . . . , vn] tem uma forma v = k1 · v1 + · · · + kn · vn, ondek1, . . . , kn ∈ K. A expressão k1 · v1 + · · · + kn · vn se chama combinação linear de v1, . . . , vn comcoeficientes k1, . . . , kn ∈ K. Nestes termos, um subconjunto W ⊂ V não-vazio é um subespaço se,e só se, é fechado relativamente às combinações lineares de seus elementos com coeficientes arbitrários.

    4.1.4. Temos subespaços K[x]

  • ÁLGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SÃO CARLOS) 5

    dependência linear não-trivial, onde k1, k2, . . . , kn ∈ K. Assim, kj ̸= 0 para algum j. Então podemosexcluir o gerador vj da coleção de geradores v1, v2, . . . , vn não alterando o subespaço [v1, v2, . . . , vn],isto é, [v1, v2, . . . , vn] = [v1, v2, . . . , vj−1, vj+1, . . . , vn].

    Demonstração. Multiplicando a dependência por k−1j e isolando vj , obtemos vj =∑i ̸=j

    (−k−1j ki) ·vi.

    Logo, vj ∈ [v1, v2, . . . , vj−1, vj+1, . . . , vn]. É claro que [v1, v2, . . . , vj−1, vj+1, . . . , vn] ⊂ [v1, v2, . . . , vn].Lembrando que [v1, v2, . . . , vn] é o mı́nimo subespaço que contém todos os v1, v2, . . . , vn e observandoque vl ∈ [v1, v2, . . . , vj−1, vj+1, . . . , vn] para todo l, conclúımos que [v1, v2, . . . , vj−1, vj+1, . . . , vn] ⊃[v1, v2, . . . , vn] �

    4.4. Observação. Sejam v1, v2, . . . , vn ∈ V elementos LI de um K-espaço vetorial. Então todov ∈ [v1, v2, . . . , vn] admite uma única forma de combinação linear de v1, v2, . . . , vn.

    Demonstração. O fato que todo v ∈ [v1, v2, . . . , vn] admite a forma de uma combinação linear de

    v1, v2, . . . , vn foi observado no Exemplo 4.1.3. Para a unicidade, suponhamos quen∑

    i=1

    ki · vi =n∑

    i=1

    k′i · vi,

    onde k1, k2, . . . , kn, k′1, k

    ′2, . . . , k

    ′n ∈ K. Então

    n∑i=1

    (ki − k′i) · vi = 0. Sendo v1, v2, . . . , vn LI, conclúımos

    que ki − k′i = 0 para todo i = 1, 2, . . . , n, ou seja, ki = k′i �4.5. Observação. Qualquer parte de uma coleção LI em um espaço vetorial é LI �

    4.6. Lema. Sejam v1, v2, . . . , vn ∈ V elementos LI de um K-espaço vetorial. Então, para qualquerk ∈ K e quaisquer 1 ≤ i, j ≤ n tais que i ̸= j, os elementos v1, v2, . . . , vi−1, vi+k ·vj , vi+1, . . . , vn são LI.

    Demonstração. Seja ki · (vi + k · vj) +∑l ̸=i

    kl · vl = 0 uma dependência linear de elementos

    v1, v2, . . . , vi−1, vi + k · vj , vi+1, . . . , vn. Então ki · (vi + k · vj) + kj · vj +∑l ̸=i,j

    kl · vl = 0, ou seja,

    ki · vi +(kj + kik) · vj +∑l ̸=i,j

    kl · vl = 0. Sendo v1, v2, . . . , vn LI, obtemos kl = 0 para todo l ̸= i, j, ki = 0

    e kj + kik = 0. Dáı, kj = 0. Em outras palavras, todos os coeficientes da dependência linear acima sãonulos �

    4.7. Corolário. Sejam v1, v2, . . . , vn ∈ V elementos LI de um K-espaço vetorial. Fixemos um ı́ndice1 ≤ j ≤ n e tomemos quaisquer kl ∈ K para l ̸= j. Então os elementos

    v1 + k1 · vj , v2 + k2 · vj , . . . , vj−1 + kj−1 · vj , vj , vj+1 + kj+1 · vj , . . . , vn + kn · vjsão LI.

    Demonstração. Aplicando o Lema 4.6 com i = 1 e k = k1, obtemos uma nova coleção LI

    v1 + k1 · vj , v2, . . . , vj , . . . , vn.Aplicando o Lema 4.6 à nova coleção com i = 2 e k = k2, obtemos a coleção LI

    v1 + k1 · vj , v2 + k2 · vj , v3, . . . , vj , . . . , vn.Assim, chegamos à coleção LI

    v1 + k1 · vj , v2 + k2 · vj , . . . , vj−1 + kj−1 · vj , vj , vj+1, . . . , vn.Aplicando o Lema 4.6 a essa última coleção com i = j + 1 e k = kj+1, obtemos a coleção LI

    v1 + k1 · vj , v2 + k2 · vj , . . . , vj−1 + kj−1 · vj , vj , vj+1 + kj+1 · vj , vj+2, . . . , vn.Continuando a agir deste modo, chegamos ao resultado desejado �

  • 6 2o SEMESTRE DE 2015

    4.8. Teorema. Sejam v1, v2, . . . , vn ∈ V LI e seja V = [g1, g2, . . . , gm]. Então m ≥ n.

    Demonstração. Utilizamos a indução sobre m. Para m = 0, o fato é óbvio. Suponhamos quem > 0. Façamos W := [g1, g2, . . . , gm−1]. Se vi ∈ W para todo i, pela hipótese de indução, obtemosm − 1 ≥ n e, portanto, m ≥ n. Podemos supor que um dos vi’s não pertence a W . Sem perda degeneralidade, este é vn, vn /∈ W . Vamos provar que Kvn + W = V . Para alguns k1, k2, . . . , km ∈ K,

    temos vn =m∑j=1

    kj · gj com km ̸= 0 pois, caso contrário, vn ∈ [g1, g2, . . . , gm−1] = W . Isolando gm,

    obtemos gm = k−1m vn −

    m−1∑j=1

    (k−1m kj) · gj . Em outras palavras, gm ∈ Kvn + W . Assim, gj ∈ Kvn + W

    para todo j. Agora, V = [g1, g2, . . . , gm] implica Kvn + W = V . Portanto, para todo 1 ≤ i < n,existem ki ∈ K e wi ∈ W tais que vi = ki · vn + wi. Isto pode ser reescrito como wi = vi + (−ki) · vnpara todo i = 1, 2, . . . , n − 1. Pelo Corolário 4.7 aplicado aos vi’s, ao j = n e aos (−kl)’s, l ̸= n,e pela Observação 4.5, conclúımos que w1, w2, . . . , wn−1 são LI. Aplicando a hipótese de indução paraw1, w2, . . . , wn−1 ∈W = [g1, g2, . . . , gm−1], obtemos m− 1 ≥ n− 1. Portanto, m ≥ n �

    4.9. Definição. Uma coleção LI de geradores b1, b2, . . . , bn ∈ V se chama base linear do K-espaçovetorial V . Enfatizamos que a base é uma coleção ordenada.

    Do Lema 4.3 segue o

    4.10. Corolário. De qualquer coleção finita de geradores de um espaço vetorial, é posśıvel escolheruma base linear �

    4.11. Corolário. Seja V um K-espaço vetorial finitamente gerado. Então toda coleção finita LI deelementos de V pode ser completada a uma base linear de V .

    Demonstração. Seja V = [g1, g2, . . . , gm] e seja v1, v2, . . . , vn ∈ V uma coleção LI. Pelo Teorema 4.8,n ≤ m. Portanto, aumentando a coleção v1, v2, . . . , vn se necessário, podemos supor que ela é umacoleção máxima (no sentido de inclusão de conjuntos) LI. Vamos mostrar que ela é uma base linear. Bastaprovar que V = [v1, v2, . . . , vn]. Se V ̸= [v1, v2, . . . , vn], tomamos qualquer vn+1 ∈ V \ [v1, v2, . . . , vn] edemonstramos que v1, v2, . . . , vn, vn+1 são LI, assim chegando a uma contradição com a maximalidade

    de v1, v2, . . . , vn. Realmente, suponhamos quen+1∑i=1

    ki · vi = 0. Se kn+1 = 0, obtemos uma dependência

    linear dos v1, v2, . . . , vn, donde conclúımos que todos os ki’s são nulos. Se kn+1 ̸= 0, podemos expressar

    vn+1 na forma de combinação linear dos v1, v2, . . . , vn : vn+1 =n∑

    i=1

    (−k−1n+1ki) · vi. Isto contradiz

    vn+1 /∈ [v1, v2, . . . , vn] �Do Teorema 4.8 segue imediatamente o

    4.12. Corolário. Duas bases lineares de um espaço vetorial têm a mesma cardinalidade �

    4.13. Definição. A cardinalidade4 de uma base linear de um K-espaço vetorial V se chama dimensãode V sobre K e se denota por dimK V . Dos Lema 4.3 e Corolário 4.12 segue que a dimensão pode sercaracterizada como a cardinalidade de qualquer coleção mı́nima (no sentido de inclusão de conjuntos)de geradores. Pela demonstração do Corolário 4.11, a dimensão também pode ser caracterizada como acardinalidade de qualquer coleção máxima LI. Note que do Teorema 4.8 segue que qualquer subespaçode um espaço vetorial de dimensão finita tem dimensão finita.

    4Consideramos aqui somente os espaços vetoriais finitamente gerados, mas não é dif́ıcil generalizar as considerações

    para os espaços vetoriais de dimensão infinita.

  • ÁLGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SÃO CARLOS) 7

    4.14. Corolário. Seja W ≤ V um subespaço de um K-espaço vetorial V finitamente gerado. Entãoexiste um subespaço W ′ ≤ V tal que W ∩W ′ = 0 e W +W ′ = V .

    Demonstração. Tomamos uma base linear b1, b2, . . . , bn ∈ W de W e completâmo-la a uma baselinear b1, b2, . . . , bn, bn+1, . . . , bm ∈ V de V , m ≥ n. Façamos W ′ := [bn+1, . . . , bm]. Claramente,

    W+W ′ = V . Seja w ∈W∩W ′. Então w =n∑

    i=1

    ki ·bi =m∑

    j=n+1

    kj ·bj para k1, k2, . . . , kn, kn+1, . . . , km ∈ K

    apropriados. Dáı obtemos uma dependência linearn∑

    i=1

    ki · bi+m∑

    j=n+1

    (−kj) · bj = 0, implicando que todos

    os ki’s são nulos. Logo, w = 0 �

    4.15. Corolário. Sejam W1,W2 ≤ V subespaços de um K-espaço vetorial V finitamente gerado.Então dimK W1 + dimK W2 = dimK(W1 ∩W2) + dimK(W1 +W2).

    Demonstração. Escolhemos uma base linear b1, b2, . . . , bn ∈ W1 ∩W2 de W1 ∩W2. Pelo Corolá-rio 4.11, podemos completá-la a uma base linear b1, b2, . . . , bn, a1, a2, . . . , am ∈W1 de W1. Também com-pletâmo-la a uma base linear b1, b2, . . . , bn, c1, c2, . . . , cl ∈ W2 de W2. Basta mostrar que b1, b2, . . . , bn,a1, a2, . . . , am, c1, c2, . . . , cl ∈W1 +W2 é uma base linear de W1 +W2, pois, neste caso, dimK(W1 ∩W2)= n, dimK W1 = n+m, dimK W2 = n+ l e dimK(W1+W2) = n+m+ l, implicando a fórmula desejada.

    De W1 = [b1, b2, . . . , bn, a1, a2, . . . , am] e W2 = [b1, b2, . . . , bn, c1, c2, . . . , cl] segue que W1 + W2 =[b1, b2, . . . , bn, a1, a2, . . . , am, c1, c2, . . . , cl] (lembre-se que W1 + W2 é o menor subespaço que contémambos W1 e W2).

    Seja

    n∑i=1

    ki · bi +m∑j=1

    k′j · aj +l∑

    s=1

    k′′s · cs = 0 uma dependência linear entre os b1, b2, . . . , bn, a1, a2,

    . . . , am, c1, c2, . . . , cl. Então −l∑

    s=1

    k′′s · cs =n∑

    i=1

    ki · bi +m∑j=1

    k′j · aj ∈ W1 ∩W2, pois a parte direita da

    igualdade pertence a W1 e a parte esquerda da igualdade pertence a W2. Por outro lado, em termos da

    base b1, b2, . . . , bn, c1, c2, . . . , cl de W2, o elemento −l∑

    s=1

    k′′s · cs, sendo pertencente a W1 ∩W2, tem que

    ter coeficientes não-nulos somente na frente dos bi’s. Em outras palavras, todos os k′′s ’s são nulos. Agora

    temos

    n∑i=1

    ki · bi+m∑j=1

    k′j ·aj = 0. Lembrando que os b1, b2, . . . , bn, a1, a2, . . . , am são LI, vemos que todos

    os ki’s e k′j ’s são nulos �

    4.16. Dicionário. Seja β : b1, b2, . . . , bn uma base linear de um K-espaço vetorial V . Podemos

    associar a todo elemento v ∈ V uma coluna de escalares [v]β :=

    k1k2...kn

    que, pela Observação 4.4,é univocamente determinada pela igualdade v =

    n∑i=1

    ki · bi. Reciprocamente, qualquer coluna de n

    escalares

    k1k2...kn

    define um elemento v ∈ V dado pela mesma fórmula v := n∑i=1

    ki · bi. Assim, quando

    uma base linear em V é fixa, temos um dicionário perfeito que interpreta os elementos de V como as

  • 8 2o SEMESTRE DE 2015

    colunas de escalares. Note que bi corresponde à coluna cujo único coeficiente não-nulo é igual a 1 e estáno i-ésimo lugar.

    Mais ainda, este dicionário preserva a adição e a multiplicação por escalar. Com efeito, se [v]β =k1k2...kn

    e [v′]β =k′1k′2...k′n

    , então v = n∑i=1

    ki · bi e v′ =n∑

    i=1

    k′i · bi. Portanto, v+ v′ =n∑

    i=1

    (ki + k′i) · bi, ou seja,

    [v + v′]β =

    k1 + k

    ′1

    k2 + k′2

    ...kn + k

    ′n

    . Em outras palavras, [v + v′]β = [v]β + [v′]β . Para qualquer k ∈ K, temos

    k · v =n∑

    i=1

    (kki) · bi. Isto significa que [k · v]β =

    kk1kk2...

    kkn

    . Logo, [k · v]β = k[v]β .5. Aplicações (transformações) lineares. Matrizes

    Uma aplicação A : U → V entre K-espaços vetoriais é dita linear ou transformação linear seA1. A(u1 + u2) = Au1 +Au2 para todos u1, u2 ∈ U .A2. A(ku) = k(Au) para todos u ∈ U e k ∈ K.Em palavras: A preserva a adição e a multiplicação por escalar.

    5.1. Observação. Seja A : U → V uma aplicação linear entre K-espaços vetoriais, sejam u1, u2,

    . . . , un ∈ U e sejam k1, k2, . . . , kn ∈ K. Então A( n∑

    i=1

    kiui

    )=

    n∑i=1

    kiAui. Em outras palavras, toda

    aplicação linear preserva combinações lineares �

    5.2. Exemplos 1. Seja U ≤ V um subespaço de um K-espaço vetorial V . Então a aplicação deinclusão i : U ↪→ V é linear. Se uma aplicação linear é injetiva, ela se chama monomorfismo. Assim,i : U ↪→ V é um exemplo de monomorfismo.

    5.2.2. Seja U um K-espaço vetorial e seja k ∈ K. Então a multiplicação por k, dada pela regramk : u 7→ ku, é uma aplicação linear mk : U → U . Se uma aplicação linear é bijetora, ela se chamaisomorfismo. Quando dois espaços vetoriais são isomorfos, eles desfrutam as mesmas propriedadesalgébricas.5 É posśıvel ver que a aplicação inversa a um isomorfismo também é linear. Caso k ̸= 0,a aplicação mk : U → U é um exemplo de isomorfismo.

    5.2.3. Seja V um K-espaço vetorial e seja β uma base linear em V . Então o Dicionário 4.16 estabeleceuma aplicação linear dada pela regra v 7→ [v]β . Essa aplicação é um isomorfismo entre V e Kn, onden := dimK V .

    5.2.4. Sejam UA−→ V B−→ W aplicações lineares entre K-espaços vetoriais. Então a composta

    B ◦ A é uma aplicação linear. Realmente, para todos u1, u2 ∈ U , temos, pela definição da composta,(B ◦ A)(u1 + u2) = B

    (A(u1 + u2)

    )= B(Au1 + Au2) = B(Au1) + B(Au2) = (B ◦ A)u1 + (B ◦ A)u2,

    pois A e B são lineares. Para quaisquer k ∈ K e u ∈ U , temos (B ◦ A)(ku) = B(A(ku)

    )= B(kAu) =

    kB(Au) = k(B ◦A)u pelos mesmos motivos.

    5Portanto, podemos considerá-los como os “mesmos”. A única diferença entre tais espaços vetoriais é que os correspon-dentes conjuntos são diferentes, ou seja, as naturezas de elementos são diferentes. Mas, para os fins de nossos estudos, istonão importa. Qualquer que seja a “madeira” da qual é feito um espaço vetorial, o funcionamento do espaço não depende

    dessa particularidade.

  • ÁLGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SÃO CARLOS) 9

    5.2.5. Sejam U e V K-espaços vetoriais. No conjunto LinK(U, V ) := {A : U → V | A é linear}de todas as aplicações lineares de U para V , definimos uma estrutura de K-espaço vetorial. ParaA,A1, A2 ∈ LinK(U, V ) e k ∈ K, façamos (A1 + A2)u := A1u + A2u e (kA)u := kAu para todo u ∈ U .A aplicação 0 dada pela regra 0 : u 7→ 0 é obviamente linear e faz papel de um elemento neutro, pois(A+ 0)u = Au+ 0u = Au+ 0 = Au para todo u ∈ U . Seja A ∈ LinK(U, V ). Definimos (−A)u := −Aupara todo u ∈ U . A aplicação (−A) assim definida é linear, pois (−A)(u1 + u2) = −A(u1 + u2) =−(Au1 + Au2) = (−Au1) + (−Au2) = (−A)u1 + (−A)u2 e (−A)(ku) = −A(ku) = −kAu = k(−A)upara todos u, u1, u2 ∈ U e k ∈ K (nestes cálculos, utilizamos que A é linear). Agora

    (A + (−A)

    )u =

    Au + (−A)u = Au − Au = 0 = 0u, ou seja, A + (−A) = 0. Os outros axiomas se verificam de modoanálogo ou ainda mais fácil.

    5.2.6. Sejam U , V e W K-espaços vetoriais. Qualquer aplicação linear A : U → V define umaaplicação linear −◦A : LinK(V,W )→ LinK(U,W ) dada pela regra −◦A : B 7→ B◦A (pelo Exemplo 5.4.2,B ◦A ∈ LinK(U,W )). Realmente, sejam B,B1, B2 ∈ LinK(V,W ) e seja k ∈ K. Precisamos verificar que(B1 +B2) ◦A = B1 ◦A+B2 ◦A e que (kB) ◦A = k(B ◦A). As igualdades para verificar significam que((B1+B2)◦A

    )u =

    (B1 ◦A+B2 ◦A

    )u e

    ((kB)◦A

    )u =

    (k(B ◦A)

    )u para todo u ∈ U . Essas verificações

    constituem um cálculo automático:((B1 +B2) ◦A

    )u = (B1 +B2)(Au) = B1(Au) +B2(Au) = (B1 ◦A)u+ (B2 ◦A)u =

    (B1 ◦A+B2 ◦A

    )u,(

    (kB) ◦A)u = (kB)(Au) = kB(Au) = k

    ((B ◦A)u

    )=

    (k(B ◦A)

    )u.

    Em palavras: a composição com A (à direita) é uma aplicação linear. De modo análogo, qualqueraplicação linear B : V → W define uma aplicação linear B ◦ − : LinK(U, V ) → LinK(U,W ) dada pelaregra B◦− : A 7→ B◦A. Podemos resumir ambas propriedades afirmando que a composição ◦ é bilinear.Isto significa nada mais do que a linearidade da composição em cada um de seus argumentos quando ooutro está fixo.

    5.3. Lema. Sejam U e V K-espaços vetoriais, seja b1, b2, . . . , bn ∈ U uma base linear em U e sejamv1, v2, . . . , vn ∈ V . Então existe uma única aplicação linear A : U → V tal que Abj = vj para todoj = 1, 2, . . . , n.

    Demonstração. Todo u ∈ U admite uma única forma de combinação linear de elementos da base:

    u =

    n∑j=1

    kjbj para únicos k1, k2, . . . , kn ∈ K. Temos que definir a aplicação A pela regra Au :=n∑

    j=1

    kjvj ,

    pois Abj = vj e A( n∑

    j=1

    kjbj

    )=

    n∑j=1

    kjAbj pela Observação 5.1. Assim, já temos a unicidade. Se u′ =

    n∑j=1

    k′jbj com k′1, k

    ′2, . . . , k

    ′n ∈ K, então

    Au =n∑

    j=1

    kjvj , Au′ =

    n∑j=1

    k′jvj , A(u+ u′) = A

    ( n∑j=1

    (kj + k′j)bj

    )=

    n∑j=1

    (kj + k′j)vj

    pela regra acima. Conclúımos que A(u+ u′) = Au+Au′. Para qualquer k ∈ K, temos

    A(ku) = A( n∑

    j=1

    (kkj)bj

    )=

    n∑j=1

    kkjvj = kn∑

    j=1

    kjvj = kAu �

    5.4. Corolário. Duas aplicações lineares que coincidem em uma base linear são iguais �

    5.5. Exerćıcio. Seja A : U → V uma aplicação linear entre K-espaços vetoriais. Prove que A0 = 0e A(−u) = −Au para todo u ∈ U .

    Seja A : U → V uma aplicação linear entre K-espaços vetoriais. Chamamos A−10 = {u ∈ U | Au = 0}núcleo de A.

  • 10 2o SEMESTRE DE 2015

    5.6. Lema. Seja A : U → V uma aplicação linear entre K-espaços vetoriais e sejam U ′ ≤ U e V ′ ≤ Vsubespaços. Então a imagem AU ′ e a imagem inversa A−1V ′ são subespaços, AU ′ ≤ V e A−1V ′ ≤ U .Em particular, o núcleo de A é um subespaço de U .

    Demonstração. Todo elemento de AU ′ tem a forma Au′ para algum u′ ∈ U ′. Sejam Au′, Au′1, Au′2 ∈AU ′ quaisquer elementos de AU ′, onde u′, u′1, u

    ′2 ∈ U ′, e seja k ∈ K. Então Au′1 +Au′2 = A(u′1 + u′2) ∈

    AU ′ e kAu′ = A(ku′) ∈ AU ′ pois u′1 + u′2 ∈ U ′ e ku′ ∈ U ′. Pelo Exerćıcio 5.5, A0 = 0 ∈ AU ′.Sejam u, u1, u2 ∈ A−1V ′ e seja k ∈ K. Então Au,Au1, Au2 ∈ V ′. Agora A(u1+u2) = Au1+Au2 ∈ V ′

    e A(ku) = kAu ∈ V ′. Em outras palavras, u1 + u2 ∈ A−1V ′ e ku ∈ A−1V ′. Pelo Exerćıcio 5.5, A0 = 0.Isto implica que 0 ∈ A−1V ′ �

    O núcleo de uma aplicação linear é uma medida de até qual ponto a aplicação não é um monomorfismo:

    5.7. Lema. Seja A : U → V uma aplicação linear entre K-espaços vetoriais. Então A é ummonomorfismo se, e só se, o núcleo de A é nulo.

    Demonstração. Obviamente o núcleo de A é nulo se A é um monomorfismo. Suponhamos queA−10 = 0. Se Au1 = Au2, então 0 = Au1 + (−Au2) = Au1 + A(−u2) = A(u1 − u2) pelo Exerćıcio 5.5.Sendo o núcleo nulo, u1 − u2 = 0, ou seja, u1 = u2 �

    5.8. Definição. Seja W ≤ V um subespaço de um K-espaço vetorial V finitamente gerado. PeloCorolário 4.14, existe um subespaço W ′ ≤ V chamado complementar a W tal que W ∩ W ′ = 0 eW +W ′ = V . Neste caso, escrevemos W ⊕W ′ = V .

    De fato, obtemos a soma direta de espaços vetoriais definida de uma outra forma, a interna. Vamosver o porquê. Todo elemento v ∈ V admite uma única decomposição v = w + w′ com w ∈ W ew′ ∈ W ′. Realmente, para w1, w2 ∈ W e w′1, w′2 ∈ W ′, a igualdade w1 + w′1 = w2 + w′2 implicaw1 − w2 = w′2 − w′1 ∈W ∩W ′. De W ∩W ′ = 0 segue w1 = w2 e w′1 = w′2.

    Agora, para quaisquer v, v1, v2 ∈ V e k ∈ K, temos as decomposições v = w + w′, v1 = w1 + w′1 ev2 = w2 +w

    ′2 para únicos w,w1, w2 ∈W e w′, w′1, w′2 ∈W ′. Portanto, kv = kw+ kw′ é a decomposição

    de kv e v1 + v2 = (w1 + w2) + (w′1 + w

    ′2) é a decomposição de v1 + v2. Em outras palavras, a adição e

    a multiplicação por escalar fazem-se pelas componentes na decomposição, isto é, do mesmo jeito comona soma direta definida no Exemplo 3.5.

    Vemos também que as aplicações π : V → W e π′ : V → W ′ dadas pelas regras π : v 7→ w eπ′ : v 7→ w′, onde v = w + w′ é a decomposição de v com w ∈ W e w′ ∈ W ′, chamadas projeções(relacionadas à soma direta), são lineares.

    Juntando bases lineares de W e de W ′, é fácil ver que dimK W + dimK W′ = dimK V .

    5.9. Lema. Seja A : U → V uma aplicação linear entre K-espaços vetoriais com U finitamentegerado e seja W um subespaço complementar ao núcleo N := A−10 de A, isto é, U = N ⊕W . EntãoA|W : W → AU é um isomorfismo.

    Demonstração. De AN = 0 segue que AU = A(N +W ) = AW . Portanto, a aplicação A|W : W →AU é um epimorfismo (uma aplicação linear se chama epimorfismo se é sobrejetora). Se w ∈ W estáno núcleo de A|W : W → AU , então Aw = 0. Logo, w ∈ N . Assim obtemos w ∈ N ∩W = 0, ou seja,w = 0. Pelo Lema 5.7, A|W : W → AU é um monomorfismo �

    5.10. Corolário. Seja A : U → V uma aplicação linear entre K-espaços vetoriais com U finitamentegerado. Então dimK A

    −10 + dimK AU = dimK U �

    A dimensão da imagem de uma aplicação linear A : U → V é dita posto de A, que se denota por rkA,rkA := dimK AU .

    5.11. Dicionário. Sejam U e V K-espaços vetoriais, seja β : b1, b2, . . . , bn uma base linear de U eseja γ : c1, c2, . . . , cm uma base linear de V . Tomemos uma aplicação linear qualquer A : U → V . Então,

  • ÁLGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SÃO CARLOS) 11

    para todo j = 1, 2, . . . , n, temos Abj =m∑i=1

    aijci para únicos aij ∈ K (note o uso at́ıpico de ı́ndices).

    Associamos à aplicação linear A a (m×n)-matriz [A]βγ := [aij ] com coeficientes em K. Reciprocamente,seja [aij ] uma (m×n)-matriz arbitrária com coeficientes em K. Pelo Lema 5.3, existe uma única aplicação

    linear A : U → V tal que Abj =m∑i=1

    aijci para todo j = 1, 2, . . . , n. Assim, quando bases lineares em U

    e V são fixas, temos um dicionário perfeito que interpreta as aplicações lineares de LinK(U, V ) como as(m× n)-matrizes de escalares.

    Mais ainda, este dicionário estabelece um isomorfismo entre os K-espaços vetoriais LinK(U, V ) eMatrm×n K, onde Matrm×n K é formado por todas as (m × n)-matrizes sobre K. Realmente, sejam

    A,A′ ∈ LinK(U, V ) e seja k ∈ K. Para todo j = 1, 2, . . . , n, temos Abj =m∑i=1

    aijci e A′bj =

    m∑i=1

    a′ijci,

    onde aij , a′ij ∈ K. Então (A + A′)bj = Abj + A′bj =

    m∑i=1

    (aij + a′ij)ci e (kA)bj = kAbj =

    m∑i=1

    (kaij)ci

    para todo j = 1, 2, . . . , n. Traduzindo, obtemos [A]βγ = [aij ], [A′]βγ = [a

    ′ij ], [A + A

    ′]βγ = [aij + a′ij ] e

    [kA]βγ = [kaij ]. Em outras palavras, [A+A′]βγ = [A]

    βγ + [A

    ′]βγ e [kA]βγ = k[A]

    βγ .

    Este dicionário é compat́ıvel com o Dicionário 4.16, isto é, [Au]γ = [A]βγ [u]β para todos u ∈ U e

    A ∈ LinK(U, V ). Com efeito, os fatos que [u]β =

    k1k2...kn

    e [A]βγ = [aij ] se expressam pelas igualdadesu =

    n∑j=1

    kjbj e Abj =m∑i=1

    aijci para todo j = 1, 2, . . . , n. Então, pela Observação 5.1,

    Au =n∑

    j=1

    kjAbj =n∑

    j=1

    kj

    ( m∑i=1

    aijci

    )=

    m∑i=1

    ( n∑j=1

    aijkj

    )ci.

    Resta observar quen∑

    j=1

    aijkj é o i-ésimo coeficiente da coluna [aij ]

    k1k2...kn

    .5.12. Dicionário. Sejam U , V e W K-espaços vetoriais, seja β : b1, b2, . . . , bn uma base linear

    de U , seja γ : c1, c2, . . . , cm uma base linear de V e seja δ : d1, d2, . . . , dl uma base linear de W . Então

    [B ◦A]βδ = [B]γδ · [A]βγ para todos A ∈ LinK(U, V ) e B ∈ LinK(V,W ). Realmente, as matrizes [A]βγ = [aij ]

    e [B]γδ = [bsi] são dadas pelas igualdades Abj =m∑i=1

    aijci para todo j = 1, 2, . . . , n e Bci =l∑

    s=1

    bsids para

    todo i = 1, 2, . . . ,m. Então

    (B ◦A)bj = B(Abj) = B( m∑

    i=1

    aijci

    )=

    m∑i=1

    aijBci =m∑i=1

    aij

    ( l∑s=1

    bsids

    )=

    l∑s=1

    ( m∑i=1

    bsiaij

    )ds.

    Assim, o sj-ésimo coeficiente da matriz [B ◦ A]βδ é igual am∑i=1

    bsiaij , ou seja, [B ◦ A]βδ = [B]γδ · [A]βγ .

    Deste modo, o Dicionário 5.11 traduz a composta de aplicações lineares para o produto de matrizes.

    5.13. Definição. Seja V um K-espaço vetorial e sejam β e γ duas bases lineares de V . A matriz

  • 12 2o SEMESTRE DE 2015

    Mβγ := [1V ]βγ se chama matriz de mudança de base β para γ.

    5.14. Lema. Sejam U e V K-espaços vetoriais, sejam β, β′ bases lineares de U e sejam γ, γ′ baseslineares de V . Então, para qualquer aplicação linear A : U → V , temos [A]β

    γ′ = Mγγ′ · [A]βγ ·M

    β′

    β . Além

    disso, Mββ′ = (Mβ′

    β )−1.

    Demonstração. Pelos Definição 5.13 e Dicionário 5.12,

    Mγγ′ · [A]βγ ·Mβ′

    β = [1V ]γγ′ · [A]βγ · [1U ]

    β′

    β = [1V ◦A ◦ 1U ]β′

    γ′ = [A]β′

    γ′ .

    É fácil ver que [1U ]ββ = 1, onde 1 denota a matriz identidade. Portanto,

    Mβ′

    β ·Mββ′ = [1U ]

    β′

    β · [1U ]ββ′ = [1U ◦ 1U ]

    ββ = [1U ]

    ββ = 1,

    Mββ′ ·Mβ′

    β = [1U ]ββ′ · [1U ]

    β′

    β = [1U ◦ 1U ]β′

    β′ = [1U ]β′

    β′ = 1,

    ou seja, Mββ′ = (Mβ′

    β )−1 �

    5.15. Corolário. Seja V um K-espaço vetorial, sejam β e γ duas bases lineares de V , sejaM a matrizde mudança de base β para γ e seja A : V → V uma aplicação linear. Então [A]γγ = M · [A]

    ββ ·M−1 �

    6. Espaço dual. Naturalidade

    Seja V um K-espaço vetorial. Uma aplicação linear do formato f : V → K se chama funcional linear(lembre-se que, pelo Exemplo 3.4, K é um K-espaço vetorial). O espaço dual V ∗ é formado por todosos funcionais lineares, V ∗ := LinK(V,K).

    Seja A : U → V uma aplicação linear entre K-espaços vetoriais. Definimos a aplicação dual A∗ :V ∗ → U∗ pela regra A∗ : f 7→ f ◦A para todo funcional linear f : V → K, ou seja, A∗f := f ◦A. EntãoA∗ : V ∗ → U∗ é uma aplicação linear. Realmente, para todos f, f1, f2 ∈ V ∗ e k ∈ K, temosA∗(f1 + f2) = (f1 + f2) ◦A = f1 ◦A+ f2 ◦A = A∗f1 +A∗f2, A∗(kf) = (kf) ◦A = k(f ◦A) = kA∗fpelo Exemplo 5.2.6 (bilinearidade de ◦).

    Para aplicações lineares UA,A′−→ V B−→W entre K-espaços vetoriais e k ∈ K, temos

    (A+A′)∗ = A∗ +A′∗

    (kA)∗ = kA∗ (B ◦A)∗ = A∗ ◦B∗.Com efeito, para todo f ∈ V ∗, temos

    (A+A′)∗f = f ◦ (A+A′) = f ◦A+ f ◦A′ = A∗f +A′∗f = (A∗ +A′∗)f ,(kA)∗f = f ◦ (kA) = k(f ◦A) = kA∗f

    pelo Exemplo 5.2.6 (bilinearidade de ◦). Para todo g ∈W ∗, temos(B ◦A)∗g = g ◦ (B ◦A) = (g ◦B) ◦A = (B∗g) ◦A = A∗(B∗g) = (A∗ ◦B∗)g.

    Em palavras: passar à aplicação dual é uma aplicação linear.

    Temos uma aplicação linear natural IV : V → V ∗∗ definida pela regra IV : v 7→ (f 7→ fv) para todosv ∈ V e f ∈ V ∗, ou seja, (IV v)f := fv ∈ K. Em outras palavras, interpretamos qualquer v ∈ V comoum funcional linear sobre V ∗ que manda f ∈ V ∗ para fv ∈ K. Precisamos fazer algumas verificações.O fato que IV v definido acima é linear segue de

    (IV v)(f1 + f2) = (f1 + f2)v = f1v + f2v = (IV v)f1 + (IV v)f2, (IV v)(kf) = (kf)v = k(fv) = k((IV v)f

    ),

    onde f, f1f2 ∈ V ∗ e k ∈ K. O fato que a aplicação IV definida acima é linear reside no cálculo(IV (v1 + v2)

    )f = f(v1 + v2) = fv1 + fv2 = (IV v1)f + (IV v2)f =

    ((IV v1) + (IV v2)

    )f ,(

    IV (kv))f = f(kv) = k(fv) = k

    ((IV v)f

    )=

    (k(IV v)

    )f ,

    onde v, v1, v2 ∈ V , f ∈ V ∗ e k ∈ K.

  • ÁLGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SÃO CARLOS) 13

    UIU−−−−→ U∗∗

    A

    y A∗∗yV

    IV−−−−→ V ∗∗

    A naturalidade de IV em V significa o seguinte. Seja A : U → V uma aplicaçãolinear. Então temos o diagrama de aplicações lineares à esquerda. A naturalidade dizque este diagrama é comutativo, isto é, A∗∗ ◦ IU = IV ◦A. Verifiquemos este fato. Paratodos u ∈ U e f ∈ V ∗, temos

    ((IV ◦A)u

    )f =

    (IV (Au)

    )f = f(Au) = (f ◦A)u = (A∗f)u

    e((A∗∗ ◦ IU )u

    )f =

    ((A∗)∗(IUu)

    )f =

    ((IUu) ◦ A∗

    )f = (IUu)(A

    ∗f) = (A∗f)u. Istoimplica que (IV ◦A)u = (A∗∗◦IU )u para todo u ∈ U , ou seja, que IV ◦A = A∗∗◦IU . Intuitivamente, essanaturalidade expressa que, “deformando” ou “movendo” o espaço vetorial U através de A, temos umacorrespondente “deformação” (natural) do espaço vetorial U∗∗ tal que IU naturalmente acompanha esteprocesso. Um outro jeito de expressar a naturalidade de IV é dizer que a definição de IV não envolvenenhuma escolha arbitrária (tal como, por exemplo, uma escolha de base linear).

    6.1. Proposição. Sejam U, V,W K-espaços vetoriais e sejam V1, V2 ≤ V subespaços tais que V =V1 ⊕ V2. Então temos os isomorfismos naturais

    i : LinK(U, V )→ LinK(U, V1)⊕ LinK(U, V2), j : LinK(V,W )→ LinK(V1,W )⊕ LinK(V2,W )dados pelas regras i : A 7→ (π1 ◦ A, π2 ◦ A) e j : B 7→ (B ◦ j1, B ◦ j2), onde πl : V → Vl é a projeção ejl : Vl ↪→ V é a aplicação de inclusão, l = 1, 2.

    Demonstração. A linearidade de i e j segue da bilinearidade de ◦ (vide o Exemplo 5.2.6). Se iA = 0,então π1 ◦ A = 0 e π2 ◦ A = 0 implicando π1(Au) = 0 e π2(Au) = 0 para todo u ∈ U . Dái, Au = 0para todo u ∈ U . Logo, A = 0. Pelo Lema 5.7, i é um monomorfismo. Se jB = 0, temos B ◦ j1 = 0 eB ◦ j2 = 0 implicando BV1 = 0 e BV2 = 0. Dáı, BV = B(V1 + V2) = 0 e B = 0. Pelo Lema 5.7, j é ummonomorfismo.

    Sejam A1 : U → V1 e A2 : U → V2 aplicações lineares. Definimos A : U → V pela fórmulaA = j1 ◦A1 + j2 ◦A2. Então πl ◦A = Al para l = 1, 2, pois

    (6.2) π1 ◦ j1 = 1V1 , π1 ◦ j2 = 0, π2 ◦ j1 = 0, π2 ◦ j2 = 1V2 .

    Logo, iA = (A1, A2). Em outras palavras, i é um epimorfismo. Conclúımos que i é um isomorfismo.Sejam B1 : V1 → W e B2 : V2 → W aplicações lineares. Definimos B : V → W pela regra

    B : v1 + v2 7→ B1v1 + B2v2, ou seja, B(v1 + v2) := B1v1 + B2v2 para todos v1 ∈ V1 e v2 ∈ V2.Uma verificação imediata mostra que B é linear. É fácil ver que jB = (B1, B2). Em outras palavras,j é um epimorfismo. Conclúımos que j é um isomorfismo �

    A Proposição 6.1 afirma que aplicações lineares para ou de uma soma direta são de fato pares deaplicações. Além das relações (6.2) utilizadas na demonstração da Proposição 6.1, é fácil verificar arelação

    (6.3) j1 ◦ π1 + j2 ◦ π2 = 1V .

    Na verdade, IV : V → V ∗∗ é um monomorfismo. Verificamos este fato apenas para V finitamentegerado. Realmente, se IV v = 0 para algum v ∈ V , então fv = 0 para todo f ∈ V ∗. Pelo Corolário 4.14,podemos achar um subespaco W ≤ V complementar a Kv, V = Kv⊕W . Suponhamos que v ̸= 0. Entãov é uma base linear de Kv e, pelo Lema 5.3, podemos encontrar um funcional linear g : Kv → K tal quegv = 1. Pela Proposição 6.1, existe um funcional linear f : V → K tal que jf = (g, 0). Obviamente,fv = gv = 1 ̸= 0. Uma contradição. Logo, v = 0 e, pelo Lema 5.7, IV é um monomorfismo.

    Seja β : b1, b2, . . . , bn uma base linear de V . Para todo j = 1, 2, . . . , n, pelo Lema 5.3, existe umúnico funcional linear b∗j : V → K tal que b∗j bj = 1 e b∗j bi = 0 para i ̸= j. Então β∗ : b∗1, b∗2, . . . , b∗n

    é uma base linear de V ∗ chamada dual a β. Realmente, sen∑

    j=1

    kjb∗j = 0, então 0 =

    ( n∑j=1

    kjb∗j

    )bi =

  • 14 2o SEMESTRE DE 2015

    n∑j=1

    kjb∗j bi = ki para todo i. Em outras palavras, os b

    ∗1, b

    ∗2, . . . , b

    ∗n são LI. Seja f ∈ V ∗. Demonstramos

    que f =

    n∑j=1

    (fbj)b∗j . Pelo Corolário 5.4, basta verificar que fbi =

    ( n∑j=1

    (fbj)b∗j

    )bi para todo i. Isto é

    imediato:( n∑

    j=1

    (fbj)b∗j

    )bi =

    n∑j=1

    (fbj)(b∗j bi) = fbi. Em particular, dimK V = dimK V

    ∗ = dimK V∗∗ se V

    é finitamente gerado.

    Dáı conclúımos que IV : V → V ∗∗ é um isomorfismo natural para V finitamente gerado. Esteisomorfismo pode ser visto como uma identificação. Isto significa que podemos pensar que V = V ∗∗.Deste modo, a expressão fv para v ∈ V e f ∈ V ∗ pode ser lida de duas maneiras:

    1. O escalar fv é o valor de f em v. Neste caso, interpretamos f como um funcional linear sobre V .

    2. O escalar fv é o valor de v em f . Neste caso, interpretamos v como um funcional linear sobre V ∗.

    Seja A : U → V uma aplicação linear entre K-espaços vetoriais finitamente gerados. Então, con-siderando IU e IV como aplicações idênticas, temos A

    ∗∗ = A pela naturalidade de IV .

    6.4. Proposição. Seja A : U → V uma aplicação linear entre K-espaços vetoriais finitamentegerados. Então rkA = rkA∗.

    Demonstração. Denotamos por N := A−10 o núcleo de A e por W ′ := AU a imagem de A. SejaW ≤ U um subespaço complementar a N e seja N ′ ≤ V um subespaço complementar a W ′, isto é,U = N ⊕W e V = N ′ ⊕W ′. Denotamos também as correspondentes injeções e projeções:

    N ⊕Wj2←↩ W , N ′

    j′1↪→ N ′ ⊕W ′

    j′2←↩ W ′, N ′ π′1←− N ′ ⊕W ′ π

    ′2−→W ′.

    Note que a igualdade π′1◦A = 0 e a relação análoga à (6.3) implicam A = 1V ◦A = (j′1◦π′1+j′2◦π′2)◦A =j′2 ◦ π′2 ◦A. Pelo Lema 5.9, rkA = dimK W . Pela observação acima, dimK W = dimK W ∗.

    Basta mostrar que a aplicação φ : A∗V ∗ → W ∗ dada pela regra φ : g 7→ g ◦ j2 para g ∈ A∗V ∗ ≤ U∗é um isomorfismo. O fato que φ é linear segue da bilinearidade de ◦ (Exemplo 5.2.6).

    Suponhamos que φg = 0 para g ∈ A∗V ∗. Então g = A∗f para algum f ∈ V ∗. Um elemento arbitráriou ∈ U tem a forma u = n+ w com n ∈ N e w ∈W . Claramente, An = 0 e j2w = w. Logo,

    (A∗f)u = (f ◦A)(n+ w) = f(A(n+ w)

    )= f(An+Aw) = f(Aw) =

    = f(A(j2w)

    )= (f ◦A ◦ j2)w =

    ((A∗f) ◦ j2

    )w = (φg)w = 0.

    Conclúımos que g = A∗f = 0. Assim, φ é um monomorfismo.

    Para todo u ∈ U , temos Au ∈W ′. Portanto, (π′2 ◦A)u = π′2(Au) = Au ∈W ′ para todo u ∈ U . PeloLema 5.9, I := π′2 ◦ A ◦ j2 : W → W ′ é um isomorfismo (lembre-se que A|W = A ◦ j2). Denotamos porI ′ : W ′ →W o isomorfismo inverso a I.

    Seja h ∈W ∗ um funcional linear. Então h◦I ′ ∈ LinK(W ′,K). Pela Proposição 6.1, existe um funcionallinear f ∈ LinK(V,K) tal que jf = (0, h ◦ I ′). Isto implica (vide a definição de j na Proposição 6.1) quef ◦ j′2 = h ◦ I ′. De I ′ ◦ I = 1W segue f ◦ j′2 ◦ I = h, ou seja, h = f ◦ j′2 ◦ π′2 ◦A ◦ j2 = f ◦A ◦ j2 = φ(A∗f)pela relação j′2 ◦ π′2 ◦A = A demonstrada acima. Conclúımos que φ é um epimorfismo �

    6.5. Dicionário. Sejam U e V K-espaços vetoriais, seja β : b1, b2, . . . , bn uma base linear de U eseja γ : c1, c2, . . . , cm uma base linear de V . Então, para qualquer aplicação linear A : U → V , temos[A∗]γ

    β∗ =([A]βγ

    )t, onde M t denota a matriz M transposta. Realmente, [A]βγ = [aij ] com os coeficientes

    aij ∈ K determinados pelas igualdades Abj =m∑i=1

    aijci, j = 1, 2, . . . , n. Para desenvolver o elemento

  • ÁLGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SÃO CARLOS) 15

    A∗c∗s na forma de uma combinação linear dos b∗j ’s, utilizamos a fórmula g =

    n∑j=1

    (gbj)b∗j demonstrada

    acima para qualquer g ∈ U∗. Assim, temos

    A∗c∗s =n∑

    j=1

    ((A∗c∗s)bj

    )b∗j =

    n∑j=1

    ((c∗s ◦A)bj

    )b∗j =

    n∑j=1

    (c∗s(Abj)

    )b∗j =

    =n∑

    j=1

    (c∗s

    ( m∑i=1

    aijci

    ))b∗j =

    n∑j=1

    ( m∑i=1

    aijc∗sci

    )b∗j =

    n∑j=1

    asjb∗j .

    Isto significa que [A∗]γ∗

    β∗ = [asj ]t.

    6.6. Notação. Seja M ∈ Matrm×n K uma matriz. Denotamos por M1,M2, . . . ,Mm todas as msucessivas linhas de M e por M1,M2, . . . ,Mn todas as n sucessivas colunas de M . Os fatos que amatriz M está composta das suas próprias linhas e das suas próprias colunas podem ser agora escritoscomo

    M = [M1 M2 . . .Mn], M =

    M1M2...

    Mm

    .No mesmo estilo, para as matrizes A ∈ Matrm×n K e B ∈ Matrm×l K, denotamos por [A | B] a matriz

    [A1 A2 . . . An B1 B2 . . . Bl] ∈ Matrm×(n+l) K.

    Seja M ∈ Matrm×n K uma matriz. Consideramos o K-espaço vetorial Km como formado por colunas.A dimensão do subespaço de Km gerado por todas as colunas de M se chama posto de M e é denotadapor rkM .

    6.7. Dicionário. Seja A : U → V uma aplicação linear entre K-espaços vetoriais, seja β :b1, b2, . . . , bn uma base linear de U e seja γ : c1, c2, . . . , cm uma base linear de V . Denotamos M := [A]

    βγ .

    Como foi observado no Dicionário 4.16, o j-ésimo elemento bj da base linear β corresponde à colunacujo único coeficiente não-nulo é igual a 1 e está no j-ésimo lugar. Dáı, pela fórmula [A]βγ [v]β = [Av]γ ,

    obtemos M j = M [bj ]β = [Abj ]γ . Em palavras: a j-ésima coluna da matriz [A]βγ corresponde a Abj .

    Agora, pelo Dicionário 4.16, conclúımos que a imagem AU corresponde ao subespaço de Km geradopelas colunas de [A]βγ . Em particular, rk[A]

    βγ = rkA. É fácil ver que o núcleo de A corresponde ao

    subespaço de Kn formado por todas as soluções do sistema homogêneo MX = 0 (vide o Exemplo 4.1.7).

    6.8. Corolário. Seja M uma matriz. Então rkM = rkM t. Em palavras: o posto de uma matrizdefinido através de colunas e o definido através de linhas coincidem6 �

    Fazer algo natural normalmente é contrário a um ato da escolha violenta, tal como a de base linear oude coordenadas.7 Há pessoas, (a maioria dos autores de livros de álgebra linear) que consideram o espaçoKn como o principal objeto de estudo na álgebra linear. Essa visão parece a tentativa de arrumar umacama de Procrusto8 retangular de matrizes para as aplicações lineares, obscurecendo assim a verdadeiranatureza de tais aplicações. As matrizes naturalmente aparecem no estudo de aplicações lineares poistêm origem de somas diretas; mas mesmo a decomposição do espaço na soma direta dos unidimensionaisé um ato de violência pois não é natural nem única.

    Quando precisamos efetuar cálculos expĺıcitos para obter um resultado numérico que é necessárionuma aplicação prática, as matrizes podem ser realmente bem-vindas. Neste caso, sim, fazemos uma

    6Vide também a Observação 8.13.7Hermann Weyl (1885–1955): “The introduction of numbers as coordinates . . . is an act of violence . . . ”8Um bandido grego, dos antigos, famoso pela sua cama de ferro . . . vide http://en.wikipedia.org/wiki/Procrustes

  • 16 2o SEMESTRE DE 2015

    violência, mas essa pode ser comparada com a de um cirurgião e não tem nada a ver com a de umbandido. O dicionário serve para usar a ĺıngua mais adequada à situação. Não fale Alemão com Deus!9

    7. Sistemas de equações lineares. Matrizes elementares

    Um sistema de equações lineares tem a formaa11x1 + a12x2 + · · ·+ a1nxn = b1a21x1 + a22x2 + · · ·+ a2nxn = b2

    ......

    ...am1x1 + am2x2 + · · ·+ amnxn = bm

    e pode ser escrito na forma matricial AX = B, onde A := [aij ] ∈ Matrm×n K se chama matriz do

    sistema, X :=

    x1x2...xn

    é a coluna de variáveis e B :=b1b2...bm

    . A matriz [AB] se chama matriz aumentadado sistema. O sistema AX = 0 se chama sistema homogêneo associado ao sistema AX = B. Sabemos(vide Exemplo 4.1.7) que todas as soluções do sistema homogêneo formam um subespaço em Kn.

    7.1. Observação. Seja S0 uma solução particular do sistema AX = B. Então todas as soluções dosistema AX = B constituem o conjunto {S0 + S | AS = 0} �

    7.2. Lema. O sistema AX = B admite uma solução se, e só se, rkA = rk[AB].

    Demonstração. O sistema pode ser escrito na forma x1A1 + x2A

    2 + · · · + xnAn = B. Portanto,rkA = rk[AB] se existe uma solução. Suponhamos que rkA = rk[AB]. Então o subespaço gerado porA1, A2, . . . , An contém B. Logo, x1A

    1 + x2A2 + · · ·+ xnAn = B para alguns x1, x2, . . . , xn ∈ K �

    Recordemos o método de Gauss-Jordan de solução de um sistema de equações lineares. Fazendo asseguintes operações elementares com a matriz aumentada do sistema

    • Trocar a posição de duas linhas da matriz.• Multiplicar uma linha da matriz por um escalar diferente de zero.• Somar a uma linha da matriz um múltiplo escalar de outra linha.

    podemos conseguir a matriz escalonada reduzida que se caracteriza pelas propriedades

    • Todas as linhas nulas ocorrem abaixo das não-nulas.• O primeiro coeficiente não-nulo de cada linha não-nula, chamado pivô, é igual a 1.• O pivô da (i+ 1)-ésima linha não-nula está à direita do da i-ésima.• Na coluna de um pivô, todos os outros coeficientes são nulos.

    (Omitindo a segunda exigência, caracterizamos uma matriz escalonada semi-reduzida. Para conseguira escalonada semi-reduzida, as operações elementares do segundo tipo são desnecessárias.) Se o pivôde uma linha está na última coluna, o sistema não admite soluções. Caso contrário, chamamos livresas variáveis que não correspondem às colunas com pivôs. Essas servem como parâmetros da soluçãogeral do sistema. Ainda mais, a solução geral obtida deste modo já providencia uma solução parti-cular S0 e uma base linear de soluções do sistema homogêneo associado. Um exemplo numérico: Seja1 0 3 0 0 20 1 2 0 0 30 0 0 1 4 10 0 0 0 0 0

    a matriz aumentada do sistema. Ela já está escalonada reduzida. As variáveis9Imperador Carlos V (1500–1558) : “Eu falo Espanhol com Deus, Italiano com as mulheres, Francês com os homens e

    Alemão com meu cavalo”.

  • ÁLGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SÃO CARLOS) 17

    livres são x3 e x5. O sistema correspondente tem a forma

    x1 + 3x3 = 2x2 + 2x3 = 3x4 + 4x5 = 1

    . Considerando as variáveis

    livres como parâmetros, x3 := p1 e x5 := p2, obtemos a solução geral do sistemax1x2x3x4x5

    =23010

    + p1−3−2100

    + p2

    000−41

    := S0 + p1S1 + p2S2 p1, p2 ∈ K.Aqui S0 é uma solução particular do sistema e S1, S2 formam uma base linear de soluções do sistemahomogêneo associado.10

    7.3. Observação. Seja A ∈ Matrm×n K e seja B ∈ Matrm×l K. Se a matriz [A | B] é escalonadareduzida, então A é escalonada reduzida �

    7.4. Observação. Seja A ∈ Matrm×m K uma matriz quadrada escalonada reduzida. Então, ou A =1m×m, ou a última linha de A é nula, Am = 0.

    Demonstração. Suponhamos que Am ̸= 0. Então A não possui linhas nulas. Se o pivô da i-ésima linha fica na posição ii-ésima para todo i, temos A = 1m×m. Caso contrário, um dos pivôs ficaestritamente à direita da diagonal principal. Isto, lembrando-se que a matriz A é quadrada, não deixanenhum espaço para o pivô da m-ésima linha �

    Podemos descrever o processo de escalonamento e pivotização utilizando matrizes elementares. Fixa-mos m. Denotamos por eij a (m ×m)-matriz cujo único coeficiente não-nulo está na ij-ésima posiçãoe é igual a 1.

    Sejam 1 ≤ i, j ≤ m, i ̸= j, dois ı́ndices distintos. Denotamos por Eij a (m ×m)-matriz que difereda matriz identidade 1m×m somente nas posições ii, ij, ji e jj. Os correspondentes coeficientes de Eijsão 0, 1, 1 e 0. Podemos também definir Eij := 1m×m − eii + eij + eji − ejj . O leitor pode facilmenteverificar que, para qualquer (m×n)-matriz A, a matriz EijA é a matriz A com as linhas Ai e Aj trocadas.Em outras palavras, a primeira operação elementar se realiza através da multiplicação à esquerda poruma matriz do tipo Eij .

    Seja 1 ≤ i ≤ m e seja 0 ̸= k ∈ K. Denotamos por Ei(k) a (m × m)-matriz que difere da matrizidentidade 1m×m somente na posição ii e tal que o ii-ésimo coeficiente de Ei(k) é igual a k. Podemos

    também definir Ei(k) := 1m×m + (k − 1)eii. É fácil ver que a multiplicação à esquerda por uma matrizdo tipo Ei(k) realiza a segunda operação elementar.

    Sejam 1 ≤ i, j ≤ m, i ̸= j, dois ı́ndices distintos e seja k ∈ K. Denotamos Eij(k) := 1m×m + keij .Para qualquer (m×n)-matriz A, a matriz eijA é a (m×n)-matriz que possui uma única linha não-nula,a i-ésima, igual a Aj . Portanto, Eij(k)A é a matriz A com uma única mudança: sua i-ésima linha éigual a Ai + kAj . Em outras palavras, a terceira operação elementar realiza-se através da multiplicaçãoà esquerda por uma matriz do tipo Eij(k).

    As matrizes dos três tipos descritos acima chamam-se elementares. Assim, para fazer uma matrizA ∈ Matrm×n K escalonada reduzida, multiplicâmo-la à esquerda (sucessivamente) por algumas matrizeselementares E1, E2, . . . , El ∈ Matrm×m K de modo que a matriz El . . . E2E1A fique escalonada reduzida.Para conseguir uma matriz escalonada semi-reduzida precisamos apenas das matrizes elementares doprimeiro e do terceiro tipos.

    10O fato que S1, S2 são LI segue de uma óbvia observação, válida em geral: Seja xi uma variável livre. Então osi-ésimos coeficientes das colunas-soluções do sistema homogêneo são todos nulos, exceto aquele correspondendo à própria

    variável xi, que é igual a 1.

  • 18 2o SEMESTRE DE 2015

    Por um cálculo direto, obtemos a

    7.5. Observação. Sejam 1 ≤ i, j ≤ m, i ̸= j, e seja k ∈ K. EntãoEijEij = Eij(k)Eij(−k) = Eij(−k)Eij(k) = 1m×m.

    Se k ̸= 0, temos também Ei(k)Ei(k−1) = Ei(k−1)Ei(k) = 1m×m �Recordamos que uma matriz A ∈ Matrm×n K é dita inverśıvel se existe uma matriz B ∈ Matrn×m K,

    chamada inversa a A e denotada por A−1, tal que AB = 1m×m e BA = 1n×n. Note que tal inversa éúnica: se B′ é uma outra inversa, obtemos B′ = 1n×nB

    ′ = (BA)B′ = B(AB′) = B1m×m = B. Na ver-dade, pelos Dicionários 5.11 e 5.12, as matrizes inverśıveis correspondem aos isomorfismos. Logo, taismatrizes são necessariamente quadradas (espaços vetoriais isomorfos têm a mesma dimensão). A Ob-servação 7.5 diz que todas as matrizes elementares são inverśıveis.

    7.6. Observação. Sejam M1,M2, . . . ,Ml (m×m)-matrizes inverśıveis. Então a matriz M1M2 . . .Mlé inverśıvel e (M1M2 . . .Ml)

    −1 = M−1l . . .M−12 M

    −11 .

    Demonstração. Temos

    M1M2 . . .Ml−1MlM−1l M

    −1l−1 . . .M

    −12 M

    −11 = M1M2 . . .Ml−1M

    −1l−1 . . .M

    −12 M

    −11 =

    = · · · = M1M2M−12 M−11 = M1M

    −11 = 1.

    De modo semelhante,

    M−1l . . .M−12 M

    −11 M1M2 . . .Ml = M

    −1l . . .M

    −12 M2 . . .Ml = · · · = M

    −1l Ml = 1 �

    7.7. Observação. Sejam M ∈ Matrs×m K, A ∈ Matrm×n K e B ∈ Matrm×l K. Então M [A | B] =[MA |MB].

    Demonstração. Basta observar que M [A1 A2 . . . An] = [MA1 MA2 . . .MAn] �

    7.8. Teorema. Seja A ∈ Matrm×m K uma matriz quadrada. Seja M ∈ Matrm×m K o produto dematrizes elementares tal que M [A | 1m×m] é uma matriz escalonada reduzida. Então A é inverśıvel se,e só se, a matriz MA não possui linhas nulas. Neste caso, M = A−1.

    Demonstração. Pela Observação 7.7, M [A | 1m×m] = [MA | M ]. Pela Observação 7.3, a matrizMA é escalonada reduzida. Pelas Observações 7.5 e 7.6, a matriz M é inverśıvel. Aplicamos agoraa Observação 7.4 à matriz MA. Se MA = 1m×m, então, multiplicando essa igualdade à esquerdapor M−1, obtemos A = M−1. Portanto, A é inverśıvel e A−1 = M . Se a última linha de MA é nula,então [0 . . . 01]MA = 0. Neste caso, a matriz A não pode ser inverśıvel. Caso contrário, multiplicandoa última igualdade à direita pela inversa a MA, obtemos [0 . . . 01] = 0. Uma contradição �

    O leitor deve notar que o Lema 4.6 tem algo a ver com a terceira operação elementar.

    8. Determinante

    Seja A = [aij ] ∈ Matrn×n K uma matriz quadrada. Definimos o determinante de A pela fórmula

    detA =∑

    (j1j2...jn)

    (−1)I(j1j2...jn)a1j1a2j2 . . . anjn ,

    onde (j1j2 . . . jn) percorre todas as permutações de 1, 2, . . . , n e o śımbolo I(j1j2 . . . jn) denota o númerode inversões na permutação (j1j2 . . . jn). Dizemos que (j1j2 . . . jn) é uma permutação de 1, 2, . . . , nse {j1, j2, . . . , jn} = {1, 2, . . . , n}, ou seja, se a seqüência j1, j2, . . . , jn representa os mesmos números1, 2, . . . , n listados apenas em uma ordem (possivelmente) diferente. Uma inversão na permutação(j1j2 . . . jn) ocorre quando jα > jβ , mas α < β. Assim, I(j1j2 . . . jn) é o número de todas as ocorrênciasde pares dos jk’s na ordem decrescente. Por exemplo, I(12 . . . n) = 0. De fato, no cálculo do

  • ÁLGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SÃO CARLOS) 19

    determinante, precisamos somente da paridade do número I(j1j2 . . . jn). Em seguida, utilizaremos semdemonstração o seguinte

    8.1. Fato. Seja (j1j2 . . . jn) uma permutação de 1, 2, . . . , n. Então, para 1 ≤ α < β ≤ n, os númerosI(j1j2 . . . jα . . . jβ . . . jn) e I(j1j2 . . . jβ . . . jα . . . jn) têm paridades distintas.

    Este fato possibilita determinar a paridade de uma permutação (j1j2 . . . jn) fazendo transposições depares de ı́ndices (isto é, trocando como acima jα e jβ com α ̸= β) até obter a permutação (12 . . . n) comI(12 . . . n) = 0.

    Na definição de determinante, cada termo a1j1a2j2 . . . anjn no somatório tem exatamente um fator emcada linha da matriz A. Sendo (j1j2 . . . jn) uma permutação de 1, 2, . . . , n, neste mesmo termo temosexatamente um fator em cada coluna de A. Assim, podemos ver que os termos no somatório percorremexatamente tais produtos de n coeficientes de A que contêm um fator em cada linha de A e um fatorem cada coluna de A.

    Consideremos o termo a1j1a2j2 . . . anjn . Ele não se altera se fizermos uma transposição de doisfatores. Fazendo tais transposições, podemos finalmente ordenar os ı́ndices jα’s. Em cada etapa, temoso termo escrito em uma forma do tipo as1t1as2t2 . . . asntn . Quando fazemos a transposição dos fatoresasktk , asltl , onde 1 ≤ k < l ≤ n, efetuamos de fato as transposições simultâneas de sk, sl na permutação(s1s2 . . . sk . . . sl . . . sn) e de tk, tl na permutação (t1t2 . . . tk . . . tl . . . tn). Pelo Fato 8.1, isto implica que,quando chegamos ao produto ai11ai22 . . . ainn, os sinais (−1)I(i1i2...in) e (−1)I(j1j2...jn) são os mesmos,onde (j1j2 . . . jn) é a permutação relacionada à forma original a1j1a2j2 . . . anjn do termo em questão.Em outras palavras, provamos que∑

    (j1j2...jn)

    (−1)I(j1j2...jn)a1j1a2j2 . . . anjn =∑

    (i1i2...in)

    (−1)I(i1i2...in)ai11ai22 . . . ainn,

    ou seja, chegamos ao seguinte

    8.2. Corolário. Para toda matriz A ∈ Matrn×n K, temos detA = detAt �Seja A = [aij ] ∈ Matrn×n K, seja 1 ≤ l ≤ n e seja k ∈ K. Podemos escrever A como composta das

    suas linhas, A =

    [ ∗Al∗

    ]. Substitúımos a l-ésima linha Al pela linha Al + A

    ′l, onde A

    ′l = [a

    ′l1 a

    ′l2 . . . a

    ′ln].

    Temos

    det

    [ ∗Al+A

    ′l

    ]=

    ∑(j1j2...jl...jn)

    (−1)I(j1j2...jl...jn)a1j1a2j2 . . . (aljl + a′ljl) . . . anjn =

    ∑(j1j2...jl...jn)

    (−1)I(j1j2...jl...jn)a1j1a2j2 . . . aljl . . . anjn+∑

    (j1j2...jl...jn)

    (−1)I(j1j2...jl...jn)a1j1a2j2 . . . a′ljl . . . anjn

    = det

    [ ∗Al∗

    ]+ det

    [ ∗A′l∗

    ].

    Do mesmo modo,

    det

    [ ∗kAl∗

    ]=

    ∑(j1j2...jl...jn)

    (−1)I(j1j2...jl...jn)a1j1a2j2 . . . (kaljl) . . . anjn =

    = k∑

    (j1j2...jl...jn)

    (−1)I(j1j2...jl...jn)a1j1a2j2 . . . aljl . . . anjn = k det[ ∗Al∗

    ].

    Chegamos à

  • 20 2o SEMESTRE DE 2015

    8.3. Proposição. Para todo l, o determinante detA é linear na l-ésima linha de A (fixando todasas outras linhas de A) �

    Essa propriedade do determinante pode ser também assim expressa: o determinante é multi-linearnas linhas da matriz.

    Seja A = [aij ] ∈ Matrn×n K e sejam 1 ≤ p < q ≤ n. Trocando as linhas p-ésima e q-ésima de A, peloFato 8.1, obtemos

    det

    ∗Aq∗Ap∗

    = ∑(j1j2...jp...jq...jn)

    (−1)I(j1j2...jp...jq...jn)a1j1a2j2 . . . aqjp . . . apjq . . . anjn =

    =∑

    (j1j2...jp...jq...jn)

    (−1)I(j1j2...jp...jq...jn)a1j1a2j2 . . . apjq . . . aqjp . . . anjn =

    = −∑

    (j1j2...jp...jq...jn)

    (−1)I(j1j2...jq...jp...jn)a1j1a2j2 . . . apjq . . . aqjp . . . anjn = − det

    ∗Ap∗Aq∗

    .Chegamos ao

    8.4. Corolário. O determinante muda de sinal ao se trocar duas linhas da matriz �

    Essa propriedade do determinante se expressa dizendo-se que o determinante é anti-simétrico naslinhas da matriz. A anti-simetricidade do determinante claramente implica que o determinante de umamatriz com duas linhas iguais é nulo.

    Pelo Corolário 8.2, são válidas as afirmações envolvendo colunas no lugar de linhas, análogas àProposição 8.3 e ao Corolário 8.4.

    Sejam d1, d2, . . . , dn ∈ K. Denotamos por diag(d1, d2, . . . , dn) a correspondente (n×n)-matriz diago-nal, isto é, a matriz cujos únicos coeficientes não-nulos estão na diagonal principal e são respectivamenteiguais a d1, d2, . . . , dn.

    8.5. Observação. Sejam 1 ≤ i, j ≤ n, i ̸= j, sejam d1, d2, . . . , dn ∈ K, seja k ∈ K e sejaA ∈ Matrn×n K. Então det(EijA) = − detA, det

    (Eij(k)A

    )= detA e det

    (diag(d1, d2, . . . , dn)A

    )=

    d1d2 . . . dn detA. Em particular, detEij = −1, detEij(k) = 1 e det diag(d1, d2, . . . , dn) = d1d2 . . . dn.Assim, se k ̸= 0, temos detEi(k) = k.

    Demonstração. A igualdade det(EijA) = − detA segue do Corolário 8.4 e das considerações acimada Observação 7.5. Por mesmas considerações, pela Proposição 8.3 e pelo Corolário 8.4, temos

    det(Eij(k)A

    )= det

    ∗Ai+kAj∗Aj∗

    = det ∗Ai∗

    Aj∗

    + k det ∗Aj∗

    Aj∗

    = detA.A igualdade det

    (diag(d1, d2, . . . , dn)A

    )= d1d2 . . . dn detA segue imediatamente da multi-linearidade

    do determinante pois, multiplicando uma matriz A por uma matriz diagonal, multiplicamos de fato aslinhas de A por correspondentes coeficientes da matriz diagonal. Para o resto, basta tomar A = 1n×n �

    8.6. Exerćıcio. Uma matriz quadrada T chama-se triangular superior (respectivamente, inferior)se todos os coeficientes abaixo (respectivamente, acima) da diagonal principal de T são nulos. Paraqualquer matriz triangular T , prove que detT é o produto de todos os coeficientes da diagonal principalde T .

  • ÁLGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SÃO CARLOS) 21

    Pela Observação 8.5, podemos calcular o determinante de A simplesmente escalonando A. Devido aoExerćıcio 8.6, para os fins deste cálculo, basta conseguir no final uma matriz triangular.

    8.7. Observação. Seja A ∈ Matrn×n K. Então A é inverśıvel se, e só se, detA ̸= 0.

    Demonstração. Pela Observação 8.5, podemos supor que A é escalonada reduzida. Basta observarque detA = 0 caso a última linha de A seja nula e aplicar a Observação 7.4 (ou o Teorema 7.8) �

    8.8. Teorema. Sejam A,B ∈ Matrn×n K. Então det(AB) = (detA)(detB).

    Demonstração. Pela Observação 8.5, multiplicando as matrizes A e AB à esquerda por umamesma matriz elementar E temos as semelhantes mudanças dos determinantes detA e det(AB). Assim,podemos supor que A é escalonada reduzida. Se A = 1n×n, a igualdade det(AB) = (detA)(detB) éóbvia. Caso contrário, pela Observação 7.3, a última linha de A é nula e detA = 0. Temos [0 . . . 01]A = 0.Logo, [0 . . . 01]AB = 0 e AB não pode ser inverśıvel. Pela Observação 8.7, det(AB) = 0 �

    Para A ∈ Matrn×n K, denotamos por Aij a matriz A com as i-ésima linha e j-ésima coluna retiradas.Chamamos Aij o ij-ésimo menor de A. O número (−1)i+j detAij é dito o ij-ésimo cofator de A.A matriz transposta à matriz formada por todos os cofatores de A se chama matriz adjunta a A e é

    denotada por adjA :=[(−1)i+j detAij

    ]t.

    Seja (jj2j3 . . . jn) uma permutação de 1, 2, 3, . . . , n. Então (−1)I(jj2j3...jn) = (−1)j+1(−1)I(j2j3...jn).Realmente, fazendo transposições dos j2, j3, . . . , jn, podemos reduzir o problema ao caso da permutação(j 1 2 . . . (j − 1) (j + 1) . . . n

    )que tem j − 1 inversões. Essa observação implica que

    detA =∑

    (jj2j3...jn)

    (−1)I(jj2j3...jn)a1ja2j2a3j3 . . . anjn =

    =n∑

    j=1

    a1j(−1)j+1∑

    (j2j3...jn)

    (−1)I(j2j3...jn)a2j2a3j3 . . . anjn =n∑

    j=1

    a1j(−1)j+1 detA1j

    para qualquer matriz A = [aij ] ∈ Matrn×n K. Trocando as linhas, pelo Corolário 8.4, obtemos a fórmula

    semelhante detA =n∑

    j=1

    aij(−1)i+j detAij para qualquer i, chamada desenvolvimento de Laplace de

    determinante pela i-ésima linha. Pelo Corolário 8.2, obtemos a fórmula detA =

    n∑i=1

    aij(−1)i+j detAij

    para todo j, chamada desenvolvimento de Laplace de determinante pela j-ésima coluna.

    8.9. Proposição. Seja A ∈ Matrn×n K. Então A(adjA) = (adjA)A = (detA)1n×n.

    Demonstração. Já sabemos quen∑

    j=1

    aij(−1)i+j detAij = detA en∑

    j=1

    (−1)j+i detAjiaji = detA para

    todo i. Isto implica que todos os coeficientes das diagonais principais de A(adjA) e (adjA)A são iguais

    a detA. Resta mostrar quen∑

    j=1

    aij(−1)l+j detAlj = 0 para i ̸= l e quen∑

    i=1

    (−1)i+j detAijail = 0 para

    j ̸= l. Suponhamos que i ̸= l. Pelo desenvolvimento de Laplace pela l-ésima linha para a matriz

    ∗Ai∗Ai∗

    que é a matriz A com a l-ésima linha substitúıda por Ai, temos

    n∑j=1

    aij(−1)l+j detAlj = det

    ∗Ai∗Ai∗

    = 0.

  • 22 2o SEMESTRE DE 2015

    Suponhamos que j ̸= l. Pelo desenvolvimento de Laplace pela j-ésima coluna para a matriz A com a

    j-ésima coluna substitúıda por Al, obtemos 0 = det[∗Al ∗Al∗] =n∑

    i=1

    ail(−1)i+j detAij �

    Utilizando as Observação 8.7 e Proposição 8.9, obtemos a fórmula expĺıcita para a matriz inversa:

    8.10. Corolário. Seja A ∈ Matrn×n K com detA ̸= 0. Então A−1 =1

    detAadjA �

    Aplicando essa fórmula para sistemas de equações lineares, chegamos à regra de Cramer :

    8.11. Corolário. Seja AX = B um sistema de n equações lineares em n variáveis tal que detA ̸= 0.

    Então o sistema admite uma única solução dada pelas fórmulas xj =det[A1 A2 . . . Aj−1 BAj+1 . . . An]

    detA,

    j = 1, 2, . . . , n.

    Demonstração. Multiplicando a igualdade AX = B à esquerda pela inversa a A, obtemos a

    única solução X = A−1B. Pelo Corolário 8.10, temos xj =1

    detA

    n∑i=1

    (−1)i+jAijbi. Resta observar

    quen∑

    i=1

    bi(−1)i+jAij é o desenvolvimento de Laplace de det[A1 A2 . . . Aj−1 BAj+1 . . . An] pela j-ésima

    coluna �

    8.12. Observação. Sejam A,M ∈ Matrn×n K com M inverśıvel. Então det(M−1) = (detM)−1 edet(MAM−1) = detA.

    Demonstração. Pelo Teorema 8.8, 1 = det 1n×n = det(MM−1) = (detM)(detM−1). Portanto,

    det(M−1) = (detM)−1. Agora,

    det(MAM−1) = (detM)(detA)(detM−1) = (detM)(detA)(detM)−1 = detA

    pelo Teorema 8.8 �

    8.13. Observação. O posto de qualquer matriz A é igual ao tamanho máximo de uma submatrizquadrada Q de A com detQ ̸= 0.

    Demonstração. Retirando de A colunas que são LD das outras, obtemos uma submatriz B com omesmo posto. Retirando de B linhas que são LD das outras, não alteramos o posto e, pelo Corolário 6.8,chegamos a uma submatriz quadrada Q cujo posto coincide com seu tamanho. Logo, detQ ̸= 0.

    Reciprocamente, se Q é uma submatriz quadrada de A com detQ ̸= 0, então as colunas de Q são LI.Portanto, as correspondentes colunas de A são LI, implicando que o posto de A é maior ou igual aotamanho de Q �

    Seja A : V → V uma aplicação linear. Escolhendo qualquer base linear β de V , definimos detA :=det[A]ββ . Pelos Corolário 5.15 e Observação 8.12, esta definição é correta, ou seja, não depende da escolhade base linear. Parece que, durante toda essa seção, temos falado Alemão com Deus . . .

    9. Formas simétricas bilineares e 1.5-lineares

    Em seguida, lidamos somente com espaços vetoriais de dimensão finita. Para k ∈ K, o śımbolo k temduas variantes de leitura:

    1. k denota o número (complexo) k conjugado.

    2. k = k.

  • ÁLGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SÃO CARLOS) 23

    9.1. Definição. Seja V um K-espaço vetorial. Uma forma simétrica (hermitiana) é uma aplicação⟨−,−⟩ : V × V → K, (v1, v2) 7→ ⟨v1, v2⟩, linear em v1 e tal que ⟨v1, v2⟩ = ⟨v2, v1⟩ para todos v1, v2 ∈ V .Em outras palavras, a forma é bilinear (1.5-linear), pois ⟨kv1, v2⟩ = k⟨v1, v2⟩ e ⟨v1, kv2⟩ = k⟨v1, v2⟩ paratodo k ∈ K. Se W ≤ V é um subespaço, podemos restringir a forma ⟨−,−⟩ para W , obtendo o espaçovetorial W munido da forma induzida.

    9.2. Definição. Seja V um espaço vetorial munido de forma e seja W ≤ V . Define-se W ortogonalpor W⊥ :=

    {v ∈ V | ∀w ∈ W ⟨v, w⟩ = 0

    }. O núcleo da forma em V é V ⊥. Caso o núcleo seja nulo,

    dizemos que a forma é não-degenerada. Se a forma induzida no subespaço W ≤ V é não-degenerada,dizemos que W é não-degenerado. Para U,W ≤ V , o ortogonal de W relativo a U é dado por W⊥U :=W⊥ ∩ U .

    9.3. Lema. Seja V um espaço com forma e sejam W,W1,W2 ≤ V . Então W⊥ ≤ V , W ⊂ W⊥⊥

    e(W1 +W2)

    ⊥ = W⊥1 ∩W⊥2 .

    Demonstração. Podemos reescrever a definição de W⊥ como W⊥ :={v ∈ V | ⟨v,W ⟩ = 0

    }.

    Sejam v, v1, v2 ∈ W⊥ e k ∈ K. Então ⟨v,W ⟩ = ⟨v1,W ⟩ = ⟨v2,W ⟩ = 0. Portanto, ⟨v1 + v2,W ⟩ ⊂⟨v1,W ⟩+ ⟨v2,W ⟩ = 0 e ⟨kv,W ⟩ = k⟨v,W ⟩ = 0. Logo, W⊥ ≤ V .

    Claramente, ⟨W⊥,W ⟩ = 0. Aplicando , obtemos ⟨W,W⊥⟩ = 0. Isto implica W ⊂W⊥⊥.O fato que v ∈ W⊥1 ∩W⊥2 é equivalente a ⟨v,W1⟩ = ⟨v,W2⟩ = 0. Por outro lado, ⟨v,W1 + W2⟩ =

    ⟨v,W1⟩+ ⟨v,W2⟩. Dáı conclúımos que v ∈W⊥1 ∩W⊥2 é equivalente a v ∈ (W1 +W2)⊥ �

    9.4. Observação. Seja V um espaço com forma e seja W ≤ V o subespaço complementar aonúcleo V ⊥, i.e., V = V ⊥⊕W . Então W é não-degenerado e a forma sobre V é determinada pela formasobre W .

    Demonstração. O fato que a forma sobre V é determinada pela forma sobreW segue imediatamentede ⟨V ⊥, V ⟩ = 0. Se w ∈ W está no núcleo da forma sobre W , então ⟨w,W ⟩ = 0. Por outro lado,⟨w, V ⊥⟩ = 0. Logo, ⟨w, V ⟩ = ⟨w, V ⊥⟩ + ⟨w,W ⟩ = 0, ou seja, w ∈ V ⊥. Resta observar que w ∈V ⊥ ∩W = 0 �

    9.5. Lema. Seja V um espaço com forma e seja W ≤ V . Então dimK W + dimK W⊥ ≥ dimK V .

    Demonstração. Utilizamos indução sobre dimK W . Caso dimK W = 0, a desigualdade é óbvia.Suponhamos que dimK W ≥ 1. Então temos um elemento não-nulo 0 ̸= w ∈ W e podemos decomporW = Kw ⊕ W ′. Definimos um funcional linear f : W ′⊥ → K pela regra f : v 7→ ⟨v, w⟩. Então(Kw)⊥ ∩W ′⊥ é o núcleo de f , f−10 = (Kw)⊥ ∩W ′⊥. Realmente, v ∈W ′⊥ está no núcleo de f se, e sóse, ⟨v, w⟩ = 0. Isto é equivalente a ⟨v,Kw⟩ = 0.

    Pelo Corolário 5.10, dimK f−10 ≥ dimK W ′⊥−1. Pelo Lema 9.3, (Kw)⊥∩W ′⊥ = W⊥. Pela hipótese

    de indução, dimK W′ + dimK W

    ′⊥ ≥ dimK V . Portanto,

    dimK W + dimK W⊥ = 1 + dimK W

    ′ + dimK f−10 ≥

    ≥ 1 + dimK W ′ + dimK W ′⊥ − 1 = dimK W ′ + dimK W ′

    ⊥ ≥ dimK V �

    9.6. Corolário. Seja V um espaço com forma e seja W ≤ V . Então W ∩W⊥ é o núcleo da formainduzida sobre W . Caso W seja não-degenerado, temos V = W ⊕W⊥.

    Demonstração. Um elemento w ∈ W está no núcleo da forma sobre W se, e só se, ⟨w,W ⟩ = 0.Isto é equivalente a w ∈ W⊥, ou seja, a w ∈ W ∩ W⊥. Suponhamos que W ∩ W⊥ = 0. EntãodimK(W +W

    ⊥) = dimK W + dimK W⊥ ≥ dimK V pelo Lema 9.5 �

  • 24 2o SEMESTRE DE 2015

    9.7. Lema. Seja V um espaço com forma não-degenerado e seja W ≤ V um subespaço não-degenerado. Então W⊥ é não-degenerado e W⊥

    ⊥= W .

    Demonstração. Pelo Corolário 9.6, V = W ⊕W⊥. Basta mostrar que W⊥⊥ = W , pois isto implicaque o núcleo da forma induzida sobre W⊥ é nulo pelo Corolário 9.6.

    Seja w + w′ ∈ W⊥⊥, onde w ∈ W e w′ ∈ W⊥. Pelo Lema 9.3, W ⊂ W⊥⊥ . Logo, w′ ∈ W⊥⊥,ou seja, ⟨w′,W⊥⟩ = 0. De w′ ∈ W⊥ segue ⟨w′,W ⟩ = 0. Agora, ⟨w′, V ⟩ = ⟨w′,W +W⊥⟩ = ⟨w′,W ⟩ +⟨w′,W⊥⟩ = 0. Sendo V não-degenerado, w′ = 0 �

    Um elemento v ∈ V é dito isotrópico se ⟨v, v⟩ = 0.

    9.8. Lema. Seja V um espaço com forma não identicamente nula. Então V possui um elementonão-isotrópico.

    Demonstração. Suponhamos que ⟨v, v⟩ = 0 para todo v ∈ V . Então, para todos v1, v2 ∈ V , temos0 = ⟨v1 + v2, v1 + v2⟩ = ⟨v1, v2⟩ + ⟨v2, v1⟩ = ⟨v1, v2⟩ + ⟨v1, v2⟩. Se a operação é idêntica, conclúımosque a forma é identicamente nula em V . Caso contrário, temos Re⟨v1, v2⟩ = 0 para todos v1, v2 ∈ V .Substituindo v1 por iv1, obtemos Im⟨v1, v2⟩ = 0 para todos v1, v2 ∈ V �

    9.9. Lema. Seja V um espaço com forma não-degenerado e seja W � V um subespaço não-degenerado. Então existe um subespaço não-degenerado W ′ tal que W ≤W ′ e dimK W ′ = dimK W +1.

    Demonstração. Pelos Corolário 9.6, Lema 9.7 e Lema 9.8, existe um elemento não-isotrópicow′ ∈W⊥. Façamos W ′ := W +Kw′. Suponhamos que w+kw′ está no núcleo da forma sobre W ′, ondew ∈ W e k ∈ K. Então 0 = ⟨w + kw′,W ⟩ = ⟨w,W ⟩, pois w′ ∈ W⊥ implica ⟨w′,W ⟩ = 0. Sendo Wnão-degenerado, temos w = 0. Agora conclúımos, de ⟨w + kw′, w′⟩ = 0 e ⟨w′, w′⟩ ̸= 0, que k = 0 �

    9.10. Definição. Uma bandeira de subespaços é uma cadeia de subespaços V0 ≤ V1 ≤ · · · ≤ Vntal que Vn = V e dimVi = i para todo i. Caso V seja munido de uma forma, a bandeira é ditanão-degenerada se todos os Vi’s são não-degenerados.

    Pelos Lemas 9.8 e 9.9, qualquer espaço com forma não-degenerado possui uma bandeira não-degene-rada de subespaços.

    9.11. Definição. Seja V um espaço com forma. Uma base linear β : b1, b2, . . . , bn de V é ditaortonormal11 se ⟨bi, bi⟩ ∈ {−1, 0, 1} e ⟨bi, bj⟩ = 0 para todos i e j tais que i ̸= j. Denotemos porβ−, β0, β+ as quantidades de elementos da base β tais que ⟨bi, bi⟩ = −1, ⟨bi, bi⟩ = 0, ⟨bi, bi⟩ = 1,respectivamente. A tripla (β−, β0, β+) chama-se assinatura da base.

    9.12. Lema. Seja V um espaço com forma e seja β : b1, b2, . . . , bn uma base linear ortonormal de V .Então β0 = dimK V

    ⊥.

    Demonstração. É imediato que todo elemento isotrópico de β pertence a V ⊥. Sejam b1, b2, . . . , bm

    todos os elementos não-isotrópicos de β e seja v =m∑i=1

    kibi ∈ V ⊥, onde ki ∈ K. Então ⟨v, bj⟩ = 0 para

    todo j = 1, 2, . . . ,m. Logo, 0 =⟨ m∑

    i=1

    kibi, bj

    ⟩=

    m∑i=1

    ki⟨bi, bj⟩ = ±kj �

    9.13. Ortogonalização de Gram-Schmidt. Seja V0 ≤ V1 ≤ · · · ≤ Vn uma bandeira não-degenerada de subespaços de V . Então existe b1, b2, . . . , bn, uma base ortonormal de V , tal queb1, b2, . . . , bk é uma base de Vk para todo k.

    11Caso K = C e a operação seja idêntica, pedimos que ⟨bi, bi⟩ ∈ {0, 1}, inserindo em seguida as correspondentesmodificações.

  • ÁLGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SÃO CARLOS) 25

    Demonstração. Indução sobre n. Para n = 1, simplesmente tomamos 0 ̸= c1 ∈ V1 e o normalizamos:b1 =

    c1√∣∣⟨c1, c1⟩∣∣ . (Sendo V1 não-degenerado, ⟨c1, c1⟩ ≠ 0.) Suponhamos que, para k < n, já tenhamosencontrado uma base ortonormal b1, b2, . . . , bk de Vk tal que b1, b2, . . . , bi é uma base de Vi para todo

    i ≤ k. Tomemos ck+1 ∈ Vk+1 \ Vk e façamos c′k+1 := ck+1 −k∑

    i=1

    ⟨ck+1, bi⟩⟨bi, bi⟩

    bi. Sendo b1, b2, . . . , bk ∈ Vk,

    temos c′k+1 ∈ Vk+1 \ Vk. De dimK Vk+1 = dimK Vk + 1 segue que Vk+1 = Vk + Kc′k+1. Mostremos que⟨c′k+1, bj⟩ = 0 para todo j ≤ k. Com efeito,

    ⟨c′k+1, bj⟩ =⟨ck+1 −

    k∑i=1

    ⟨ck+1, bi⟩⟨bi, bi⟩

    bi, bj

    ⟩= ⟨ck+1, bj⟩ −

    k∑i=1

    ⟨ck+1, bi⟩⟨bi, bi⟩

    ⟨bi, bj⟩ =

    = ⟨ck+1, bj⟩ −⟨ck+1, bj⟩⟨bj , bj⟩

    ⟨bj , bj⟩ = 0.

    Sendo b1, b2, . . . , bk geradores de Vk, temos ⟨c′k+1, Vk⟩ = 0. Se c′k+1 fosse isotrópico, ele pertenceriaao núcleo da forma sobre Vk+1, pois Vk+1 = Vk + Kc′k+1. Portanto, c′k+1 não é isotrópico e podemosnormalizá-lo, obtendo o bk+1 desejado �

    9.14. Corolário. Qualquer espaço com forma admite uma base ortonormal.

    Demonstração. Pela Observação 9.4, podemos supor que V é não-degenerado. Portanto, V possuiuma bandeira não-degenerada de subespaços. Agora, o resultado segue de 9.13 �

    9.15. Definição. Seja V um espaço com forma e sejam v1, v2, . . . , vk ∈ V . Façamos gij := ⟨vi, vj⟩.A (k × k)-matriz G := G(v1, v2, . . . , vk) := [gij ] se chama matriz de Gram de v1, v2, . . . , vk. O fatoque a forma é simétrica implica que G

    t= G, onde M denota a matriz M com todos os coeficientes

    “conjugados” por . Em palavras: G é simétrica (hermitiana).

    9.16. Dicionário. Seja V um espaço com forma e seja β : b1, b2, . . . , bn uma base linear de V . Entãoa matriz de Gram Gββ := G(b1, b2, . . . , bn) de β determina a forma de V , pois ⟨v, v′⟩ = [v]tβGββ [v′]β

    para quaisquer v, v′ ∈ V . Realmente, se v =n∑

    i=1

    kibi e v′ =

    n∑j=1

    k′jbj , então ⟨v, v′⟩ =n∑

    i,j=1

    ki⟨bi, bj⟩k′j =

    n∑i,j=1

    kigijk′j , onde gij = ⟨bi, bj⟩.

    Qualquer matriz simétrica (hermitiana) aparece como matriz de Gram de uma base de um certo espaçovetorial munido de uma forma apropriada. Com efeito, seja G = [gij ] ∈ Matrn×n K uma matriz simétrica(hermitiana), ou seja, G = Gt. Seja V um K-espaço linear com uma base linear β : b1, b2, . . . , bn. Parav1, v2 ∈ V , definimos ⟨v1, v2⟩ := [v1]tβG[v2]β . É imediato que ⟨v1, v2⟩ é linear em v1. Resta observar que

    ⟨v2, v1⟩ = [v2]tβG[v1]β = [v2]t

    βG[v1]β = [v2]t

    βGt[v1]β =

    ([v1]

    tβG[v2]β

    )t= ⟨v1, v2⟩.

    Seja γ : c1, c2, . . . , cn uma outra base de V e seja Mβγ a matriz de mudança da base β para γ. Então

    Gββ = (Mβγ )tGγγMβγ . Realmente, temos Mβγ = [mij ], onde bj =

    n∑i=1

    mijci para todo j. Então

    gkl = ⟨bk, bl⟩ =⟨ n∑

    i=1

    mikci,n∑

    j=1

    mjlcj

    ⟩=

    n∑i,j=1

    mik⟨ci, cj⟩mjl =n∑

    i,j=1

    mikfijmjl,

  • 26 2o SEMESTRE DE 2015

    onde Gγγ = [fij ].

    9.17. Lema. Seja V um espaço com forma e seja β uma base linear de V . Então V é degenerado se,e só se, detGββ = 0. Exceto no caso em que K = C e a operação é idêntica, o determinante detGββé um número real cujo sinal não depende da escolha de base.

    Demonstração. Uma base linear γ de V é ortonormal se, e só se, sua matriz de Gram Gγγ é diagonalcom coeficientes −1, 0, 1. Pelo Lema 9.12, V é degenerado se, e só se, γ0 > 0, o que é equivalente adetGγγ = 0.

    Pelo Corolário 9.14, podemos mudar da base original β para uma ortonormal γ. Pelo Dicionário 9.16,

    temos Gββ = (Mβγ )tGγγMβγ , onde Mβγ é a matriz de mudança de β para γ. Pelo Teorema 8.8,

    detGββ = det(Mβγ )t detGγγ detMβγ = detM

    βγ detG

    γγdetMβγ = detMβγ detM

    βγ detG

    γγ ,

    pois a operação comuta com as adições e multiplicações (que participam na expressão de detMβγ ).

    Sabemos que detMβγ ̸= 0. Assim obtemos a primeira afirmação. Para a segunda, basta observar quedetMβγ detM

    βγ = | detMβγ |2 > 0 �

    No que se segue, desconsideraremos o caso em que K = C com a operação idêntica, pois este éabsolutamente trivial quanto aos aspectos que trataremos.

    9.18. Exemplo. Seja V um espaço com forma e sejam e, f ∈ V tais que ⟨e, e⟩ > 0 > ⟨f, f⟩. FaçamosW := Ke+Kf . Então dimK W = 2 e qualquer base ortonormal em W tem a assinatura (1, 0, 1). Alémdisso, W possui elementos não-isotrópicos (não-nulos).

    Realmente, podemos supor que W = V . Se 0 ̸= n ∈ V ⊥, então V = Kw + Kn para algum w ∈ Vpois dimK W ≤ 2. Caso ⟨w,w⟩ ≥ 0, conclúımos que ⟨v, v⟩ ≥ 0 para todo v ∈ V . Caso ⟨w,w⟩ ≤ 0,temos ⟨v, v⟩ ≤ 0 para todo v ∈ V . Nenhum destes casos é posśıvel pois V possui um elemento positivoe um negativo. Por motivo semelhante, dimK V = 2. Seja β uma base ortonormal de V . É fácil verque a assinatura de β é diferente de (2, 0, 0) (pois V possui um elemento positivo) e de (0, 0, 2) (pois Vpossui um elemento negativo). Pelo Lema 9.12, β0 = 0. Logo, a assinatura de β só pode ser (1, 0, 1).

    É imediato que a soma dos elementos de β é isotrópica.

    9.19. Teorema da Inércia de Sylvester. A assinatura não depende da escolha de base ortonormal.

    Demonstração. Utilizamos indução sobre dimK V . Sejam β : b1, b2, . . . , bn e β′ : b′1, b

    ′2, . . . , b

    ′n duas

    bases ortonormais de V . Pela demonstração do Lema 9.12, os elementos isotrópicos de β (mesmo comoos elementos isotrópicos de β′) geram o núcleo V ⊥. Os restantes elementos de β geram o subespaçoW complementar ao nu