Documente Academic
Documente Profesional
Documente Cultură
Cecı́lia Perdigão
Carlos Saiago
2006/2007
(Versão Provisória)
Índice
0 Preliminares 1
1 Matrizes 13
1.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
iii
3 Determinantes 73
iv
7.2 Produto externo e produto misto de vectores de R3 . . . . . . . . . . . . . . . 227
8 Geometria Analı́tica
(Resumo) 237
v
Capı́tulo 0
Preliminares
∀x x ∈ A =⇒ x ∈ B.
Caso contrário, escrevemos A 6⊆ B. Neste caso, dizemos que “A não está contido em B” ou
que “A não é subconjunto de B” o que equivale a afirmar que existe pelo menos um elemento
de A que não pertence ao conjunto B, isto é,
∃x x ∈ A ∧ x 6∈ B.
A ⊆ B ∧ A 6= B.
Tem-se
A = B se, e só se, A⊆B e B⊆A,
pelo que utilizaremos frequentemente uma das implicações anteriores para demonstrar que
dois conjuntos são iguais.
Alguns conjuntos podem ser obtidos a partir de outros através de operações sobre estes,
das quais as mais conhecidas são a união e a intersecção de conjuntos. A união (também
2
designada por reunião) dos conjuntos A e B, que se denota por A∪B, é o conjunto cujos
elementos são os que pertencem pelo menos a um dos conjuntos A e B, isto é,
A ∪ B = {x : x ∈ A ∨ x ∈ B}.
A intersecção dos conjuntos A e B, que se denota por A∩B, é o conjunto formado pelos
elementos comuns a A e a B, ou seja,
A ∩ B = {x : x ∈ A ∧ x ∈ B}.
A \ B = {x : x ∈ A ∧ x 6∈ B}.
Ao longo do texto utilizaremos alguns conjuntos, bem conhecidos, de números, que seguida-
mente referimos com a respectiva notação.
N = {1, 2, 3, . . .}.
W+ = {x ∈ W : x > 0}, W+
0 = {x ∈ W : x≥0},
W− = {x ∈ W : x < 0} e W−
0 = {x ∈ W : x≤0}.
Notemos que
N $ Z $ Q $ R.
3
√
Os números e, 2 e π são exemplos de números reais que não são racionais.
Podemos “visualizar” o conjunto R começando por pensar numa recta a que chamaremos
eixo real e por marcar nessa recta dois pontos que representem o número 0 e o número 1.
0 1
Obtemos facilmente uma correspondência biunı́voca entre cada número real e cada ponto
da recta, isto é, uma correspondência tal que a cada ponto da recta fica a corresponder
um e um só número real e reciprocamente, convencionando, por exemplo, que cada número
positivo (respectivamente, negativo) é representado por um ponto à direita (respectivamente,
à esquerda) do zero a uma distância deste igual ao seu valor absoluto ou módulo multiplicado
pela unidade de medida.
s s s
−2 − 32 −1 0 1
2 1 2
Recordemos um outro conjunto importante de números, conhecido por conjunto dos números
complexos e representado habitualmente por
C = {a + bi : a, b ∈ R}
i2 = −1.
4
N $ Z $ Q $ R $ C.
-
O a x
z = a − bi.
Como
zz = (a + bi)(a − bi) = a2 + b2 ,
tem-se
zz = |z|2 .
A medida do ângulo que a semi-recta que vai de O para z faz com a parte positiva do eixo
real designa-se argumento de z e é representado por arg(z). Cada número complexo não
nulo tem uma infinidade de argumentos, diferindo uns dos outros por múltiplos inteiros de
2π.
Sendo |z| = ρ e arg(z) = θ, como Re(z) = ρ cos θ e Im(z) = ρ sen θ, podemos escrever
Utilizando tal fórmula vejamos que todo o número w tem, em C, n raı́zes de ı́ndice n, ou
equivalentemente, que existem z1 , . . . , zn ∈ C tais que
zin = w.
Consideremos a equação, em z,
z n = w,
6
ρn cis(nθ) = β cis φ.
Assim
ρn = β e nθ − φ = 2kπ, k ∈ Z,
o que é equivalente a
1 φ + 2kπ
ρ = βn e θ= , k ∈ Z.
n
Então w pode tomar exactamente os seguintes valores, em número de n,
1 φ + 2kπ
β cis
n , k = 0, 1, . . . , n − 1.
n
(Escrevemos k = 0, 1, . . . , n − 1, porque se conclui que as raı́zes só têm n valores distintos e
que se obtêm para estes valores de k.)
“Qualquer equação de grau n, com n maior ou igual a 1, tem exactamente n raı́zes em C.”
Recordemos que em R está definida uma operação designada por “adição” e denotada por
“+”, que quaisquer que sejam os números reais a e b faz-lhe corresponder, um, e um só,
número real representado habitualmente por a + b e que se designa por soma de a com b.
Tal operação de adição tem as seguintes propriedades:
∀a,b∈R a + b = b + a.
∀a,b,c∈R (a + b) + c = a + (b + c).
∃u∈R ∀a∈R a + u = u + a = a.
(iv) Todo o elemento de R tem um oposto para a adição, também designado por oposto
aditivo ou simétrico, isto é,
∀a∈R ∃a0 ∈R a + a0 = a0 + a = 0.
Em R está também definida uma operação designada por “multiplicação” e denotada por
“×” ou por “ · ”, que quaisquer que sejam os números reais a e b faz-lhes corresponder um,
e um só, número real representado habitualmente por a×b, a·b ou simplesmente por ab, e
que se designa por produto de a por b. Tal operação de multiplicação tem as seguintes
propriedades:
∀a,b∈R ab = ba.
∃v∈R ∀a∈R av = va = a.
(iv) Todo o elemento não nulo de R tem um oposto para a multiplicação, também
designado por oposto multiplicativo ou inverso, isto é,
∀a,b,c∈R a(b + c) = ab + ac
8
Estas operações gozam das mesmas propriedades algébricas que as correspondentes no con-
junto dos números reais: comutatividade, associatividade e distributividade da multiplicação
relativamente à adição. Os números complexos 0 = 0 + 0i e 1 = 1 + 0i são os elementos
neutros para a adição e a multiplicação, respectivamente. O inverso do número complexo
a + bi 6= 0 é
1 a − bi a − bi a −b
= = 2 2
= 2 2
+ 2 i.
a + bi (a + bi)(a − bi) a +b a +b a + b2
Façamos ainda referência a uns conjuntos, e a algumas operações neles definidas, que se
revelarão muito importantes para o nosso estudo e que constituem, de facto, generalizações
do que referimos anteriormente nesta secção.
K2 = {(a, b) : a, b ∈ K}.
que, verificamos facilmente, ser comutativa, associativa, ter elemento neutro (o par ordenado
(0, 0)) e em que todo o elemento tem oposto, para essa adição (o oposto do par (a, b) é o par
(−a, −b)).
9
Consideremos agora uma outra operação, que associa a cada α ∈ K e a cada par (a, b) ∈ K2
um elemento de K2 , da seguinte forma
K3 = {(a1 , a2 , a3 ) : a1 , a2 , a3 ∈ K},
e
∀α∈K ∀(a1 ,...,an )∈Kn α(a1 , . . . , an ) = (αa1 , . . . , αan ).
Note que estamos a representar pelo mesmo sı́mbolo a operação de adição em K e a operação
de adição em Kn , uma vez que não há ambiguidade. O mesmo sucede à multiplicação por
escalar entre um escalar e um elemento de K e entre um escalar e um elemento de Kn .
Exercı́cio 0.1 Seja K ∈ {R, C}. Mostre que:
Seja A um conjunto não vazio. Dizemos que ∗ é uma operação binária em A se ∗ é uma
aplicação de A2 em A, isto é, a cada par (a, b) de elementos de A faz corresponder um, e um
só, elemento de A que é habitualmente denotado por a∗b.
e em R+
0 a adição usual é uma operação binária. A multiplicação usual não é uma operação
binária em Z− , mas é binária em Z+ +
0 e em R0 .
(a) A adição em Q.
(b) A multiplicação em Q.
(c) A multiplicação em Z+ .
(d) A multiplicação em Z−
0 .
(e) A adição usual de polinómios no conjunto dos polinómios de grau igual a 2,
na variável x, com coeficientes em R.
(f) A adição usual de polinómios no conjunto dos polinómios de grau
inferior ou igual a 2, na variável x, com coeficientes em R, denotado ha-
bitualmente por R2 [x].
(g) O que sucede se, em (f), substituirmos 2 por n ∈ N, arbitrário, e R por
K ∈ {R, C}?
Notemos que o elemento neutro, quando existe, é único. De facto, se u e u0 fossem ambos
elementos neutros para a operação ∗ (em A) ter-se-ia
e
u∗u0 = u, por u0 ser elemento neutro.
11
Logo
u = u0 .
Se ∗ é uma operação binária em A, com elemento neutro u, dizemos que a∈A tem oposto
(para a operação ∗) se existe a0 ∈A tal que a∗a0 = a0 ∗a = u.
a∗v = v∗a = u
e simultaneamente
a∗v 0 = v 0 ∗a = u
Exercı́cio 0.4 Indique quais das propriedades (i) a (iv) são satisfeitas pelas operações
binárias seguidamente referidas e nos conjuntos indicados:
(a) A adição, em R+
0 .
(b) A multiplicação, em Z \ {0}.
(c) A adição, em R2 [x], sendo R2 [x] o conjunto dos polinómios, na variável x,
com coeficientes em R, com grau inferior ou igual a 2.
(d) A multiplicação, em R \ {0}.
Capı́tulo 1
Matrizes
1.1 Generalidades
Como cada uma dessas aplicações fica perfeitamente determinada se conhecermos o ele-
mento, único, de K correspondente a cada par (i, j), com i = 1, . . . , m e j = 1, . . . , n, é usual
indicar tais imagens num quadro com m linhas e n colunas em que a imagem do par (i, j)
é o elemento de K que se encontra na linha i e coluna j. Assim, surge frequentemente, a
seguinte definição de matriz.
Notação 1.3 • O conjunto das matrizes do tipo m×n sobre K será representado por
Mm×n (K). Se m = n também se utiliza a notação Mn (K).
" #
1 i 2 + 3i
Exemplo 1.4 Seja A = . Tem-se A ∈ M2×3 (C), a linha 2 de A é
−1 0 3
(−1, 0, 3) e a coluna 3 de A é (2 + 3i, 3).
Definição 1.5 Dizemos que as matrizes A, B ∈ Mm×n (K) são iguais, e escrevemos
A = B, se Aij = Bij , para i = 1, . . . , m, j = 1, . . . , n.
Note que só podem ser iguais matrizes que sejam do mesmo tipo e serão iguais se, além
disso, os elementos que ocupam a mesma posição em ambas as matrizes, a que chamaremos
elementos homólogos, forem iguais.
2 3 2 3
1 0 a 1 0 3
6 7 6 7
Exemplo 1.6 As matrizes A = 6 i 7 6 2 i 7 ∈ M3×3 (C) são
4 2 −1 5, B = 4 −1 5
−i 1 0 b 1 0
iguais se, e só se, a = 3 e b = −i.
2 3
1 h i
6 7
Exemplo 1.8 A= 6 3 7 é uma matriz-coluna. B = 1 3 é uma matriz-linha. C =
4 5
2
" #
h i 2 3
2 é uma matriz-linha e uma matriz-coluna. D = é uma matriz (quadrada)
1 −1
de ordem 2.
Definição 1.9 Seja A uma matriz de ordem n, isto é, uma matriz da forma
2 3
A11 A12 ··· A1n
6 7
6 A A22 ··· A2n 7
6 21 7
A= 6 7.
6 .. .. .. .. 7
6 . . . . 7
4 5
An1 An2 ··· Ann
Aij = 0 para i 6= j,
ou equivalentemente,
Assim, dizer que A é uma matriz diagonal equivale a afirmar que A é simultaneamente
triangular superior e triangular inferior ou, ainda, que A tem a forma
2 3
A11 0 ··· 0
6 7
6 0 A22 ··· 0 7
6 7
6 7.
6 .. .. .. .. 7
6 . . . . 7
4 5
0 0 ··· Ann
Uma matriz diagonal em que todos os elementos diagonais são iguais diz-se uma
matriz escalar . Um matriz escalar é, pois, uma matriz da forma
2 3
α 0 ··· 0
6 7
6 0 α ··· 0 7
6 7
6 7.
6 .. .. .. .. 7
6 . . . . 7
4 5
0 0 ··· α
À matriz escalar de ordem n cujos elementos diagonais são todos iguais a 1 chamamos
matriz identidade de ordem n e representamos por In .
1, se i = j
Notemos que In = [δij ], sendo δij o sı́mbolo de Kronecker ( δij = ).
0, se i 6= j
2 3
3 0 1
6 7
Exemplo 1.10 A matriz A = 6 0 −2 1 7 é triangular superior e a diagonal principal
4 5
0 0 4
de A é (3, −2,"4). #
2 0
A matriz B = é uma matriz diagonal, mas não é uma matriz escalar. As matrizes
0 3
2 3
" # 1 0 0
2 0 6 7
C= e I3 = 6 0 1 0 7 são matrizes escalares.
4 5
0 2
0 0 1
17
Indique:
Comecemos pela operação de adição em Mm×n (K), que faz corresponder a cada par
de matrizes de Mm×n (K) uma, e uma só, matriz de Mm×n (K) definida como se segue.
Vejamos que a adição em Mm×n (K) tem propriedades idênticas às da adição em K ∈ {R, C}
que recordámos na Secção 0.2 do Capı́tulo 0.
Proposição 1.13 Mm×n (K), com a adição usual de matrizes, é um grupo comutativo, isto
é, verificam-se as propriedades:
18
2. ∀A,B,C∈Mm×n (K) (A + B) + C = A + (B + C)
(associatividade da adição em Mm×n (K)).
Demonstração:
Demonstra-se cada igualdade mostrando que a matriz do primeiro membro (mem-
bro da esquerda) e a matriz do segundo membro (membro da direita) da igualdade
são do mesmo tipo (isto é, têm o mesmo número de linhas e o mesmo número de
colunas) e os seus elementos homólogos são iguais.
e
A + (B + C) = A + (B + C)ij = Aij + (Bij + Cij ) .
ij
Como Aij , Bij e Cij são elementos de K e em K a adição é associativa, concluı́mos
que os elementos homólogos (A + B) + C ij e A + (B + C) ij são iguais, para
i = 1, . . . , m, j = 1, . . . , n. Logo (A + B) + C = A + (B + C).
(−A)ij = −Aij , i = 1, . . . , m, j = 1, . . . , n.
19
1. α(A + B) = αA + αB.
2. (α + β)A = αA + βA.
3. (αβ)A = α(βA).
4. 1A = A.
Demonstração:
Vamos demonstrar a propriedade 2. As restantes ficam como exercı́cio.
Sejam A ∈ Mm×n (K) e α, β ∈ K. Como αA ∈ Mm×n (K), βA ∈ Mm×n (K)
concluı́mos que (αA + βA) ∈ Mm×n (K) tal como a matriz (α+β)A. Verifiquemos
que os elementos homólogos das matrizes (α + β)A e αA + βA são iguais.
Tem-se
(α + β)A = (α + β)Aij
ij
(α + β)A = αA + βA.
α(−A) = −(αA)
αA + α(−A) = 0m×n .
Determine:
(a) (A + B) + C.
(b) 2A + (2C + 2B).
(c) A − B.
(d) 2A − 3(B + C).
Vejamos agora como se define a multiplicação de matrizes. A primeira ideia que prova-
velmente nos ocorre é considerar que só se pode multiplicar uma matriz A por uma matriz
B se ambas pertencem a Mm×n (K) e a matriz resultante será a matriz de Mm×n (K) que se
obtém multiplicando os elementos homólogos de A e de B. Tal multiplicação designa-se por
multiplicação de Hadamard e a matriz resultante, designada por produto de Hadamard
de A por B, é frequentemente
" #
denotada
"
por A ◦#B. Por exemplo, o produto
"
de Hadamard
#
1 2 0 3 5 1 3 10 0
das matrizes A = eB= é a matriz A ◦ B = . (Veja
−1 0 3 3 2 4 −3 0 12
as propriedades desta operação.)
A razão de ser de tal definição só será compreendida mais tarde, no capı́tulo das Aplicações
Lineares.
Definição 1.17 Sejam A ∈ Mm×n (K) e B ∈ Mn×p (K). Define-se produto da matriz
A pela matriz B, e representa-se por AB, a matriz de Mm×p (K) tal que
Assim,
n
X
(AB)ij = Aik Bkj .
k=1
Como se pode ver pela definição, o produto AB, isto é, o produto da matriz A pela
matriz B (por esta ordem), apenas está definido se o número de colunas de A é igual ao
número de linhas de B. Neste caso, o número de linhas de AB é igual ao número de linhas
de A e o número de colunas de AB é igual ao número de colunas de B. O elemento (i, j)
de AB obtém-se a partir dos elementos da linha i de A e dos elementos da coluna j de B,
conforme é indicado na definição. Esquematicamente, tem-se
2 3
2 3 ··· B1j ··· 2 3
6 7
··· ··· ··· ··· 6 7 ··· ··· ···
6 76 · · · B2j ··· 7 6 7
6 Ai1 Ain 56
7 7 = 6 ··· ··· 7
4 Ai2 ··· 6 .. .. .. 7 4 Ai1 B1j + Ai2 B2j + · · · + Ain Bnj 5.
6 . . . 7
··· ··· ··· ··· 4 5 ··· ··· ···
··· Bnj ···
2 3
" # 9 8 7
0 1 2 6 7
Exemplo 1.18 1. Sejam A = eB= 6 −8 6 7
4 −2 5. Então
3 0 5
−1 0 4
" #
0×9 + 1 × (−8) + 2 × (−1) 0×8 + 1 × (−2) + 2×0 0×7 + 1×6 + 2×4
AB =
3×9 + 0 × (−8) + 5 × (−1) 3×8 + 0 × (−2) + 5×0 3×7 + 0×6 + 5×4
" #
−10 −2 14
= .
22 24 41
Note que, neste caso, o produto BA não está definido, visto o número de colunas de B
ser diferente do número de linhas de A.
2 3
h i 9
6 7
2. Sejam A = 0 1 2 eB=6
4 −8 7
5. Então
−1
h i h i
AB = 0×9 + 1 × (−8) + 2 × (−1) = −10
e 2 3 2 3
9×0 9×1 9×2 0 9 18
6 7 6 7
BA = 6
4 −8×0 −8×1 −8×2 7
5 =6
4 0 −8 −16 7
5.
−1×0 −1×1 −1×2 0 −1 −2
22
(a) AB 6= BA;
(b) AB = 0 com A 6= 0 e B 6= 0;
(a) AB;
(b) BA;
(c) CD;
(d) DC.
Exercı́cio 1.7 Sejam A ∈ Mm×n (K) e B ∈ Mn×p (K). Justifique que, para calcular o
produto AB, é necessário efectuar mpn multiplicações e mp(n − 1) adições, envolvendo
elementos de K.
4 2
Exercı́cio 1.8 (a) Considere as matrizes A = , B =
2 1
−1 −1
∈ M2×2 (R). Determine AB e BA.
2 2
4 2 0 −3
(b) Considerando as matrizes A = , C = ∈ M2×2 (R),
2 1 3 0
determine CA.
(c) Utilizando as alı́neas anteriores conclua que existem matrizes A, B e C,
quadradas, da mesma ordem, tais que:
(i) AB 6= BA;
(ii) AB = 0 com A 6= 0 e B 6= 0;
(iii) BA = CA, com A 6= 0 e B 6= C.
23
Determine Ai Bi , i = 1, 2, 3, 4.
então A = 0m×n .
Exercı́cio 1.11 Sendo A = [Aij ] ∈ Mn×n (K) designa-se por traço de A, e representa-se
por tr A, o elemento de K definido por
X
n
tr A = Aii .
i=1
Justifique que:
AB − BA = In .
Proposição 1.19 Seja A ∈ Mm×n (K) e sejam B, C matrizes do tipo adequado de forma a
que as operações indicadas estejam definidas. Tem-se
1. (AB)C = A(BC)
(associatividade da multiplicação).
2. A(B + C) = AB + AC
(distributividade, à esquerda, da multiplicação em relação à adição),
(B + C)A = BA + CA
(distributividade, à direita, da multiplicação em relação à adição).
4. AIn = Im A = A.
6. AB = 0 6⇒ (A = 0 ou B = 0),
isto é, pode ter-se AB = 0 com A 6= 0 e B 6= 0.
7. (AB = AC e A 6= 0) 6⇒ B = C,
(BA = CA e A 6= 0) 6⇒ B = C.
Demonstração:
Inverteremos a ordem da demonstração por assim ser crescente a ordem de difi-
culdade da mesma. Comecemos por observar que as propriedades 5, 6 e 7 estão já
demonstradas (veja-se 3 do Exemplo 1.18 e (iii) do Exercı́cio 1.8).
AIn = A
Como A e AIn pertencem ambas a Mm×n (K) teremos apenas de demonstrar que
n
X
(AIn )ij = Aik δkj = Aij δjj = Aij 1 = Aij ,
k=1
3. Demonstremos a igualdade
α(AB) = (αA)B.
Por outro lado, pela definição de produto de matrizes e posteriormente pela de-
finição de produto de um escalar por uma matriz, tem-se
n
X n
X
(αA)B = (αA)ik Bkj = αAik Bkj .
ij
k=1 k=1
2. Sejam A ∈ Mm×n (K) e B, C ∈ Mn×p (K). Vejamos que A(B +C) = AB +AC.
n
X
A(B + C) = Aik (Bkj + Ckj ).
ij
k=1
1. Sejam A ∈ Mm×n (K), B ∈ Mn×p (K) e C ∈ Mp×q (K). Como AB ∈ Mm×p (K)
e BC ∈ Mn×q (K) então (AB)C e A(BC) são ambas matrizes de Mm×q (K). Da
definição de produto de matrizes sabemos ainda que o elemento (i, j) da matriz
Pp Pn
(AB)C, (AB)C , é k=1 (AB)ik Ckj . Como (AB)ik = s=1 Ais Bsk , con-
ij
cluı́mos que
p n
!
X X
(AB)C = Ais Bsk Ckj .
ij
k=1 s=1
26
De modo análogo,
p
n
!
X X
A(BC) = Ais Bsk Ckj .
ij
s=1 k=1
Exercı́cio 1.12 Justifique que Im e In são as únicas matrizes que verificam as igualdades
Im A = A = AIn , para toda a matriz A ∈ Mm×n (K).
[A, B] = AB − BA.
Mostre que:
Como vimos, em Mn×n (K), a multiplicação de matrizes não é comutativa. Tal significa
que existem A, B ∈ Mn×n (K) tal que AB 6= BA. Contudo, pode haver matrizes A, B ∈
Mn×n (K) tais que AB = BA. Neste caso, dizemos que A e B comutam. É o que sucede,
por exemplo, se considerarmos A ∈ Mn×n (K) arbitrária e tomarmos B = 0n×n ou B = In
ou B = A.
Seja A ∈ Mm×n (K). Pela forma como está definida a multiplicação de matrizes con-
cluı́mos que o produto de A por A, pode ser calculado se, e só se, n = m. Consideremos
então a seguinte definição.
1. Ak Al = Ak+l .
l
2. (Ak ) = Akl .
Demonstração:
Demonstramos a propriedade 1, ficando a propriedade 2 como exercı́cio.
Ak Al = Ak+l .
Como a multiplicação de matrizes não é comutativa, concluı́mos que podem existir ma-
trizes A, B ∈ Mn×n (K) tais que (AB)2 6= A2 B 2 . Por exemplo, para
" # " #
1 1 −1 2
A= e B= ,
0 1 1 0
tem-se
" # " # " # " # " #
1 2 3 −2 0 2 1 2 2 0
A2 = , B2 = , AB = e A2 B 2 = 6= = (AB)2 .
0 1 −1 2 1 0 −1 2 0 2
0 1 −1 −1
Exercı́cio 1.14 Mostre que para as matrizes A = ,B = ∈
0 1 0 0
M2×2 (R) se tem:
AB = BA.
Mostre que:
A2 = 0.
1 1
(In + N ) e (In − N )
2 2
são idempotentes e
(In + N ) (In − N ) = 0.
(c) Toda a matriz involutiva se pode escrever como diferença de duas matrizes
idempotentes, cujo produto é a matriz nula.
a∗a0 = a0 ∗a = u.
Em Mn×n (K) a multiplicação de matrizes é uma operação binária, com elemento neutro,
In . Tem-se, pois, a seguinte definição.
29
Definição 1.22 Seja A ∈ Mn×n (K). Dizemos que A é invertı́vel , ou que tem
inversa, se A tem oposto para a multiplicação de matrizes, isto é, se existir uma
matriz B ∈ Mn×n (K), tal que AB = BA = In .
Conforme observámos na Secção 0.3 do Capı́tulo 0, uma tal matriz, quando existe, é
única.
Teorema 1.23 Se A ∈ Mn×n (K) é uma matriz invertı́vel então existe uma, e uma só,
matriz B tal que AB = BA = In .
Definição 1.24 Se A ∈ Mn×n (K) é uma matriz invertı́vel, a única matriz B tal que
AB = BA = In designa-se por a inversa de A e é denotada por A−1 .
A 6= 0 6⇒ A invertı́vel.
" #
0 0
Por exemplo, a matriz A = ∈ M2×2 (R) não tem inversa porque, para qualquer
1 2
" #
a b
B= ∈ M2×2 (R), se tem
c d
e o mesmo se passa com qualquer matriz de Mn×n (K) que tenha uma linha ou uma coluna
nula.
" #
1 2
Exemplo 1.25 Suponhamos que pretendemos demonstrar que a matriz é in-
1 1
" #
−1 2
vertı́vel, sendo a sua inversa a matriz . Pela definição anterior teremos apenas
1 −1
de verificar que
" #" # " #" #
1 2 −1 2 −1 2 1 2
= I2 e = I2 .
1 1 1 −1 1 −1 1 1
30
Exercı́cio 1.19 Seja A ∈ Mn×n (K) tal que A2 = In . Mostre que A é invertı́vel e
indique a sua inversa.
Exercı́cio 1.20 Seja A ∈ Mn×n (K) tal que A2 +αA+βIn = 0, com α ∈ K e β ∈ K\{0}.
Mostre que A é invertı́vel e indique a sua inversa.
O resultado seguinte estabelece que se soubermos que A ∈ Mn×n (K) é uma matriz
invertı́vel então para demonstrar que a sua inversa é B basta verificar apenas que um dos
produtos AB ou BA é In .
Demonstração:
1. Como A é invertı́vel, A−1 existe (e é única). Da igualdade
AB = In
resulta,
−1
Teorema 1.27 1. Se A ∈ Mn×n (K) é invertı́vel então A−1 é invertı́vel e (A−1 ) = A.
Demonstração:
1. A demonstração é trivial se atendermos à definição de inversa e à sua unicidade.
2. Demonstremos que
Como
Exercı́cio 1.23 Justifique que o conjunto das matrizes invertı́veis de Mn×n (K), com a
multiplicação usual de matrizes, é um grupo.
Exercı́cio 1.24 Mostre que se A ∈ Mn×n (K) é tal que In + A é invertı́vel então as
matrizes (In + A)−1 e In − A comutam.
Sugestão: Comece por verificar que, para qualquer A ∈ Mn×n (K), as matrizes
(In + A) e (In − A) comutam.
32
B = P −1 AP.
Justifique que:
Adiante estudaremos processos para justificar que uma matriz quadrada é invertı́vel sem
apresentar a sua inversa.
>
1. A> = A.
3. (αA)> = αA> .
Demonstração:
A demonstração das propriedades 1, 2 e 3 não oferecem dificuldade, sendo deixadas
como exercı́cio.
>
4. Sejam A ∈ Mm×n (K) e B ∈ Mn×p (K). Então (AB) e B > A> pertencem
ambas a Mp×m (K). Vejamos que os elementos homólogos de (AB)> e B > A> são
iguais, isto é, que
>
= B > A>
(AB) ij
.
ij
Tem-se
n
X n
X
B > A> B> A>
ij
= ik kj
= (B)ki (A)jk
k=1 k=1
Xn
(A)jk (B)ki = (AB)ji = (AB)>
= ij
.
k=1
Logo
>
(AB) = B > A> .
Da definição resulta que só podem ser simétricas ou hemi–simétricas matrizes que sejam
quadradas.
34
2 3 2 3
1 2 3 0 i 2
6 7 6 7
Exemplo 1.31 A matriz 6 2 0 4 7 é simétrica. A matriz 6 −i 0 −3 7 é hemi–simétrica.
4 5 4 5
3 4 5 −2 3 0
2 3
1 i 2
6 7
A matriz 6 −i 0 −3 7 não é simétrica nem hemi–simétrica.
4 5
−2 3 0
Exercı́cio 1.28 Seja A ∈ Mn×n (K). Mostre que se A é simétrica então, para todo
k ∈ N, Ak é simétrica.
" # " #
1 9 − 2i 1 9 + 2i
Exemplo 1.33 A conjugada de A = é a matriz A = .
7 + 3i 8i 7 − 3i −8i
1. A = A.
2. A + B = A + B.
3. αA = αA.
4. AC = A C.
k
5. Ak = A .
−1
6. Se m = n e A for uma matriz invertı́vel então A = A−1 .
>
7. A = A> .
Demonstração:
Exercı́cio.
>
A matriz A designa-se por transconjugada da matriz A e representa-se habitual-
mente por A∗ .
Exercı́cio 1.34 Justifique que se A, B ∈ Mn×n (K) comutam (isto é, se AB = BA)
então o mesmo sucede a
Exercı́cio 1.35 O que pode afirmar sobre os elementos da diagonal principal de uma
matriz
(a) Hermı́tica?
(b) Hemi–hermı́tica?
Exercı́cio 1.36 Justifique que, para A ∈ Mm×n (C), as matrizes A∗ A e AA∗ são
hermı́ticas.
(a) A + B é hermı́tica.
(b) AB é hermı́tica se, e só se, AB = BA.
(c) Ak é hermı́tica, para todo k ∈ N.
(d) Se A é invertı́vel então A−1 é hermı́tica.
(e) Se α e β são números reais então αA + βB é hermı́tica.
(f) A − A∗ , iA e −iA são hemi–hermı́ticas.
(g) AB + BA é hermı́tica e AB − BA é hemi–hermı́tica.
I Troca entre si de duas linhas da matriz A (isto é, troca da linha i com a linha
j, com i 6= j, i, j ∈ {1, . . . , m});
III Substituição de uma linha da matriz A pela sua soma com outra linha de A
multiplicada por um escalar.
Exemplo 1.38
2 3 2 3 2 3 2 3
1 0 2 1 0 2 1 0 2 1 0 2
6 7−−−−−−−→6 7− → 6 7−−−−−−−→6 7−
A =6 4 3 2 0 75l 2 + (−3)l 1
6 0 2 −6 7 1 l2 6 0
4 52 4 1 −3 7
5l 3 + (−1)l 2
6 0
4 1 −3 7
5
→
0 1 0 0 1 0 0 1 0 0 0 3
2 3 2 3 2 3
1 0 2 1 0 2 1 0 0
−→6
1 6
7− −−−−→6 6 7− −−−−− − → 6 7
l
3 4 0
3 1 −3 7 7
5l2 + 3l3 4 0 1 0 5l1 + (−2)l3 4
6 0 1 0 7 5.
0 0 1 0 0 1 0 0 1
Definição 1.39 Chamamos matriz elementar de Mn×n (K), sobre linhas, de tipo I,
II ou III, a toda a matriz que se obtém de In por aplicação de uma única transformação
elementar nas suas linhas, de tipo I, II, ou III, respectivamente.
Exemplo 1.40 São matrizes elementares de M3×3 (R), sobre linhas, as matrizes:
2 3
0 1 0
6 7
1. E=6
4 1 0 0 7
5, pois I3 −−−−−→ E.
l ↔l1 2
0 0 1
2 3
1 0 0
6 7
2. E= 6 0 0 7
4 5 5, pois I3 −−5l−→ E.
2
0 0 1
2 3
1 7 0
6 7
3. E= 6 0 0 7
5, pois I3 −−l −+7l
4 1 −−−→ E.
1 2
0 0 1
1. Se
Im −−T→ E,
A −−T→ EA.
39
2. Se
0
In −−−→
0 E ,
T
0
A −−−→
0 AE .
T
Demonstração:
Fica como exercı́cio. (Considere separadamente os casos em que E é uma matriz
elementar de tipo I, II ou III, sobre linhas ou sobre colunas.)
Exercı́cio 1.39 Seja A ∈ M3×5 (K). Determine as matrizes elementares que, multipli-
cadas à esquerda de A, produzem em A cada uma das seguintes transformações:
Proposição 1.42 Toda a matriz elementar E ∈ Mn×n (K) é invertı́vel e tem-se, quaisquer
que sejam i, j ∈ {1, . . . , n}:
2. Se α ∈ K \ {0} e In −−−→ E
αl
então In −−1−l→ E −1 .
i α i
3. Se i 6= j, β ∈ K e In −−li−+βl
−−−→ E então In −−l−+(−β)l
−−−−−− → E −1 .
j i j
Demonstração:
Seja E ∈ Mn×n (K).
Logo, E é invertı́vel e E −1 = E.
Logo, E é invertı́vel e E 0 = E −1 .
Definição 1.43 Chamamos pivô de uma linha não nula de uma matriz ao elemento
não nulo mais à esquerda dessa linha.
Definição 1.44 Seja A ∈ Mm×n (K). Dizemos que A está em forma de escada
(abreviadamente, denotado por f.e.) se A = 0m×n ou se satisfaz as duas condições
seguintes:
Exemplo 1.45 Estão em forma de escada, por exemplo, matrizes com o seguinte aspecto:
2 3 2 3 2 3
0 • ∗ ∗ • ∗ ∗ •
6 7 6 7 6 7
6 0 • 7 6 0 ∗ 7 6 0 7,
4 0 0 5, 4 • 5 ou 4 5
0 0 0 0 0 0 • 0
41
em que, por •, se representam os pivôs e em que ∗ representa elementos que podem tomar
qualquer valor.
As matrizes
2 3
2 3 0 0 0 0 2 3
1 0 −1 6 7 0 0 0 7
6 7 6 0 −1 0 7 6 7
6 0 6 3 7
4 2 5 7
5, 6 7 e 6 0
4 −1 3 0 7
5
6 0 0 6 −4 7
0 3 0 4 5 0 0 6 −4
0 0 0 0
Dizemos, então, numa linguagem informal, que uma matriz está em forma de escada se,
quando tiver linhas nulas e não nulas, as nulas aparecem depois das não nulas e quanto às
linhas não nulas, se as houver, podemos constituir com os pivôs uma “escada” com degraus
de “altura” 1 e “largura” arbitrária.
Exercı́cio 1.40 Indique se estão em forma de escada cada uma das seguintes matrizes:
(a) In .
2 3
0 0 0
6 5 1 4 7
(b) 6
4 0 1 3 5.
7
0 0 2
(c) 0 5 0 0 .
2 3
0 1 0
(d) 4 0 0 1 5.
0 0 1
Proposição 1.46 Dada A ∈ Mm×n (K) é possı́vel obter a partir de A uma matriz em
forma de escada, efectuando um número finito k, com k≥0, de transformações elementa-
res sobre linhas. Abreviadamente
A −−−−−−−→ A0 (f.e.).
(linhas)
Embora não demonstremos esta afirmação, vamos apresentar um processo prático de,
a partir de uma matriz A ∈ Mm×n (K) e efectuando um número finito de transformações
elementares sobre linhas, obtermos uma matriz em forma de escada. Este processo é também
designado por condensação da matriz A.
Note que se A já está em forma de escada então o número de transformações elementares
para transformar A numa matriz em forma de escada pode ser tomado igual a zero.
Passo 1: Por troca de linhas (isto é, efectuando apenas transformações elementares do tipo I),
se necessário, obtemos uma matriz B cuja linha 1 tem, entre todas as linhas da matriz,
um pivô com ı́ndice de coluna mı́nimo. Seja tal elemento B1t . Obtemos uma matriz
da forma 2 3
0 ··· 0 B1t B1,t+1 ··· B1n
6 7
6 0 ··· 0 B2t B2,t+1 ··· B2n 7
6 7
B= 6 7,
6 .. .. .. .. .. 7
6 . . . . . 7
4 5
0 ··· 0 Bmt Bm,t+1 ··· Bmn
Passo 2: Para cada linha i de B, i = 2, . . . , m, substitui-se a linha i pela sua soma com o produto
Bit
de − B 1t
pela linha 1 (transformações elementares do tipo III). Obtemos uma matriz
da forma 2 3
0 ··· 0 B1t B1,t+1 ··· B1n
6 7
6 0 ··· 0 0 C2,t+1 ··· C2n 7
6 7
C= 6 7,
6 .. .. .. .. .. 7
6 . . . . . 7
4 5
0 ··· 0 0 Cm,t+1 ··· Cmn
onde B1t 6= 0.
Passo 3: Se a matriz C estiver em forma de escada, o processo termina e está encontrada uma
matriz em forma de escada.
2 3
0 0 0 0 0
6 7
6 0 −4 7
6 4 9 3 7
Exemplo 1.47 Seja A = 6
6 0
7 ∈ M4×5 (R). Utilizando o procedimento
4 2 1 5 −2 7
5
0 1 2 1 −1
anterior, determinemos uma matriz em forma de escada a partir da matriz A.
2 3 2 3 2 3
0 0 0 0 0 0 1 2 1 −1 0 1 2 1 −1
6 7 6 7 6 7
6 0 −4 7 6 −4 7− −−− −−−→ 6 0 −1 0 7
A =6 7−−−−−−→6 0 7 6 7
4 9 3 4 9 3 0 1
6 7l1 ←→ l4 6 7l2 + (−4)l1 6 7−
→
6 0 0 2 −2 3 7 6 0 0 2 −2 3 7 6 0 0 2 −2 3 7
4 5 4 5 4 5
0 1 2 1 −1 0 0 0 0 0 0 0 0 0 0
2 3
0 1 2 1 −1
6 7
−−−−−−−→6 0 6 −1 0 7
0 1 7
l3 + (−2)l2 6 7 (f.e.).
6 0 0 0 0 3 7
4 5
0 0 0 0 0
2 3
0 0 0 −2 6
6 7
Exemplo 1.48 Seja A = 6 1 0 2 1 0 7 ∈ M3×5 (R).
4 5
2 0 4 0 6
43
2 3 2 3 2 3
0 0 0 −2 6 2 0 4 0 6 2 0 4 0 6
6 7−−−−−−→6 7−−−−−−− −→6 7
A =6
4 1 0 2 1 0 7 6
5l1 ←→ l3 4 1 0 2 1 0 7 1 6
5l2 + (− 2 )l1 4 0 0 0 1 −3 7
5−
→
2 0 4 0 6 0 0 0 −2 6 0 0 0 −2 6
2 3
2 0 4 0 6
−−−−−→6 7
l3 + 2l2 6
4 0 0 0 1 −3 75 = C (f.e.).
0 0 0 0 0
Por outro lado, se multiplicarmos qualquer linha não nula de B ou C por um escalar
não nulo, obtemos ainda matrizes em forma de escada que resultaram de A através de
transformações elementares sobre linhas.
Constatamos assim, que a partir da mesma matriz A podemos obter, em geral, por
transformações elementares sobre linhas, diferentes matrizes em forma de escada.
Definição 1.49 Seja A ∈ Mm×n (K) uma matriz em forma de escada. Dizemos que
A está em forma de escada reduzida (abreviadamente, denotado por f.e.r.) se
A = 0m×n ou se todos os pivôs são iguais a 1 e todos os restantes elementos das
colunas dos pivôs são nulos.
44
Exemplo 1.50 A matriz identidade, de qualquer ordem, está em forma de escada redu-
zida.
2 3
0 1 5 3 0 5
6 7
A matriz 6 0 0 0 0 1 1 7 está em forma de escada reduzida.
4 5
0 0 0 0 0 0
Exercı́cio 1.42 Indique se estão em forma de escada reduzida cada uma das seguintes
matrizes:
(a) In .
2 3
0 1 2 0 5
(b) 4 0 0 1 0 0 5.
0 0 0 0 0
2 3
0 1 2 0 5
(c) 4 0 0 0 1 1 5.
0 0 0 0 0
(d) 0 1 0 0 .
2 3
1
(e) 4 0 5.
0
Proposição 1.51 Dada A ∈ Mm×n (K) é possı́vel obter a partir de A uma única matriz
em forma de escada reduzida, efectuando um número finito k, com k≥0, de transformações
elementares sobre linhas. Abreviadamente,
Embora não demonstremos a Proposição 1.51, vamos indicar um processo prático para
obter a forma de escada reduzida de A ∈ Mm×n (K), também designada por forma de
Hermite de A.
Passo 1: Seja Bsk o pivô com maior ı́ndice de linha. (Note que Bsk 6= 0 e, se existirem linhas
abaixo da linha s, essas linhas são todas nulas.)
1
Para garantir que o pivô passa a “1”, multiplica-se a linha s por Bsk (transformação
elementar do tipo II).
45
Obtemos uma nova matriz D que continua em forma de escada e em que as entradas
da coluna k são todas nulas à excepção do pivô Dsk que é igual a 1.
Passo 2: Se a matriz D estiver em forma de escada reduzida, o processo termina e está encon-
trada uma matriz em forma de escada reduzida.
2 3
0 0 0 0 0
6 7
6 0 −4 7
6 4 9 3 7
Exemplo 1.52 Consideremos a matriz A = 6
6 0
7 ∈ M4×5 (R) do Exem-
4 2 1 5 −2 7
5
0 1 2 1 −1
plo 1.47. Nesse exemplo, vimos que
2 3
0 1 2 1 −1
6 7
6 0 −1 0 7
−−−−−−−→ 6 7
0 1
A 6
(linhas) 6 0
7 = B (f.e.).
4 0 0 0 3 7
5
0 0 0 0 0
Proposição 1.53 Seja A ∈ Mm×n (K). Quaisquer matrizes em forma de escada que se
obtenham de A efectuando um número finito k, com k≥0, de transformações elementares
sobre linhas têm o mesmo número de linhas não nulas.
Definição 1.54 Seja A ∈ Mm×n (K). Ao número de linhas não nulas de qualquer
matriz em forma de escada obtida a partir de A efectuando um número finito de
transformações elementares sobre linhas chamamos caracterı́stica de A e denotamos
por r(A).
Demonstração:
Note que, efectuando um número finito k, com k≥0, de transformações elementares
sobre linhas, é possı́vel obter a partir de B uma matriz C em forma de escada
reduzida, isto é,
A −−−−−−−→ B −−−−−−−→ C (f.e.r.).
(linhas) (linhas)
r(A) = l = r(B).
r(A) ≤ m e r(A) ≤ n,
isto é,
r(A) ≤ min{m, n}.
47
Determine a caracterı́stica de Ai , i = 1, 2, 3, 4.
Exercı́cio 1.45 Sejam L = 1 ··· 1 ∈ M1×n (K) e Jn = L> L. Determine a
caracterı́stica de:
(a) Jn .
(b) (n − 2)In + Jn .
(a) K = R.
(b) K = C.
Na Secção 1.3 foi apresentada a definição de matriz invertı́vel. Utilizando apenas a definição
não é, em geral, imediato reconhecer, na prática, se uma dada matriz é ou não invertı́vel.
48
1. A é invertı́vel.
2. r(A) = n.
Demonstração:
Vamos demonstrar que
1 ⇒ 2 ⇒ 3 ⇒ 4 ⇒ 1.
1⇒2
Como toda a matriz elementar é invertı́vel, como A é invertı́vel e pelo Teorema 1.27
o produto de matrizes invertı́veis é invertı́vel, concluı́mos que B é invertı́vel.
Como observámos na Secção 1.3, se uma matriz tem alguma linha nula então não
é invertı́vel. Assim a matriz B não tem linhas nulas. Como B está em forma de
escada e tem n linhas não nulas concluı́mos que
r(A) = n.
2⇒3
49
e, portanto, todas as linhas de C são não nulas. Como C está na forma de escada
reduzida, todos os n pivôs de C são 1 e os restantes elementos dessas n colunas
são zeros. Como C tem, no total, n colunas, concluı́mos pois que
C = In .
3⇒4
In = (Es · · · E1 )A,
−1
(Es · · · E1 ) = A.
Tem-se então
A = E1 −1 · · · Es −1 .
Como, pela Proposição 1.42, a inversa de uma matriz elementar é, ainda, uma
matriz elementar, concluı́mos que a matriz A se pode escrever como produto de
matrizes elementares.
4⇒1
Tem-se, pois,
In = (Es · · · E1 )A
Temos
A−1 = Es · · · E1 = (Es · · · E1 ) In .
Assim, se A ∈ Mn×n (K) é uma matriz invertı́vel podemos calcular A−1 pelo processo
seguinte:
Efectuamos transformações elementares sobre linhas de modo a obter In a
partir de A (o que corresponde a transformar A na sua forma de escada
reduzida). Se, a partir de In , efectuarmos a mesma sequência de trans-
formações elementares sobre linhas, a matriz que, no final, obtemos é A−1 .
Notemos que estes dois “caminhos” podem ser percorridos simultaneamente. Abrevia-
damente,
[A | In ] −−−−−−−→ [In | A−1 ].
(linhas)
2 3
1 0 1
6 7
Exemplo 1.58 Seja A = 6
4 2 2 2 7
5 ∈ M3×3 (R).
−1 0 0
2 3 2 3
1 0 1 1 0 1
6 7−−−−−−→6 7
Temos A = 6 2 2 2 7
l2 +(−2)l1 6
0 7 (f.e.).
4 5 l3 +l1 4 0 2 5
−1 0 0 0 0 1
Determinemos A−1 .
2 3 2 3
1 0 1 1 0 0 1 0 1 1 0 0
6 7−−−−−−→6 7−
[A | I3 ] =6
4 2 2 2 0 1 0 7
l2 +(−2)l1 6
5 3 1 4
l +l 0 2 0 −2 1 0 7→
5
−1 0 0 0 0 1 0 0 1 1 0 1
2 3 2 3
1 0 1 1 0 0 1 0 0 0 0 −1
−→6
1 6
7−−−−−−−→6 7
l
2 24 0 1 0 −1 1
2
0 7 6
5l1 + (−1)l3 4 0 1 0 −1 2
1
0 7
5.
0 0 1 1 0 1 0 0 1 1 0 1
51
Logo 2 3
0 0 −1
6 7
A−1 = 6 −1
4
1
2
0 7
5.
1 0 1
(a) Uma condição necessária e suficiente para que uma matriz diagonal seja
invertı́vel.
(b) D−1 , sendo D ∈ Mn×n (K) uma matriz diagonal invertı́vel.
1 −1
Exercı́cio 1.50 Seja A = ∈ M2×2 (R).
2 0
Exercı́cio 1.51 Seja A ∈ Mm×n (K). Mostre que existe uma matriz invertı́vel
C ∈ Mm×m (K), tal que CA está em forma de escada reduzida.
Exercı́cio 1.52 Sejam A ∈ Mm×m (K) e B ∈ Mm×n (K). Mostre que se A é invertı́vel,
então r(AB) = r(B).
2 3
1 1+i −i
Exercı́cio 1.53 Mostre que a matriz M = 4 0 i 1 − 2i 5 ∈ M3×3 (C) é in-
1 1 i
vertı́vel e determine M −1 .
Exercı́cio 1.54 Calcule a inversa de cada uma das seguintes matrizes de Mn×n (K):
2 3
1 a a2 ··· an
6 0 1 a ··· a n−1
7
6 7
(a) A = 6 0 0 1 ··· an−2 7.
4 5
···
0 0 0 ··· 1
2 3
1 2 3 ··· n
6 0 1 2 ··· n−1 7
6 7
(b) B = 6 0 0 1 ··· n − 2 7.
4 ··· 5
0 0 0 ··· 1
52
Existem diversos algoritmos que permitem encontrar, caso existam, soluções dum sistema,
recorrendo eventualmente a métodos numéricos de aproximação.
com aij , bi ∈ K, i = 1, . . . , m, j = 1, . . . , n.
Dizemos que (S) é um sistema de m equações lineares, nas n incógnitas
x1 , . . . , xn , sobre K.
Se b1 = b2 = · · · = bm = 0 dizemos que (S) é um sistema homogéneo.
Dizemos que (β1 , . . . , βn ) ∈ Kn é uma solução do sistema (S) se substituindo em (S)
xi por βi , i = 1, . . . , n, se obtêm m proposições verdadeiras, isto é, se
O sistema (S) diz-se impossı́vel se não existe nenhuma solução de (S), ou equivalen-
temente, se o conjunto das soluções do sistema (S) é o conjunto vazio.
Caso contrário, isto é, se (S) admite pelo menos uma solução, diz-se que (S) é um
sistema possı́vel .
Um sistema possı́vel diz-se determinado se tem uma, e uma só, solução e indeter-
minado se tem mais do que uma solução.
Notemos que:
(i) Se representarmos por C o conjunto das soluções do sistema (S) anterior e por Ci ,
i = 1, . . . , m, o conjunto das soluções da i-ésima equação de (S) então
C = C1 ∩ C2 ∩ · · · ∩ Cm .
57
Exemplo 2.3 1. Além de (0, 0), também (−2, 1) é solução do sistema homogéneo nas
incógnitas x1 e x2 , sobre R,
x1 + 2x2 = 0
−2x1 − 4x2 = 0
pois
−2 + 2 × 1 = 0
.
−2 × (−2) − 4 × 1 = 0
C = {(α1 , α2 ) ∈ R2 : α1 = −2α2 }
= {(−2α2 , α2 ) : α2 ∈ R}.
O nosso objectivo neste capı́tulo é dar uma resposta completa aos problemas seguintes:
(P2 ) Dado um sistema de equações lineares, determinar o conjunto das suas soluções (que
será o conjunto vazio se o sistema for impossı́vel).
AX = B
onde 2 3 2 3 2 3
a11 ··· a1n x1 b1
6 7 6 7 6 7
6 .. 7 6 .. 7
A=6
4 ··· 7,
5 X= 6 . 7 e B= 6 . 7.
4 5 4 5
am1 ··· amn xn bm
(S) AX = B.
Dizemos que:
Chamaremos matriz ampliada do sistema (S) à matriz de Mm×(n+1) (K) cuja coluna
i, i = 1, . . . , n, é igual à coluna i de A e cuja coluna n + 1 é igual à coluna (única) de
B. Tal matriz será denotada por
[A | B].
(S) AX = B,
Demonstração: 2 3
b1
6 7
Sejam A = [aij ] ∈ Mm×n (K) e B = 6
6
..
.
7
7 ∈ Mm×1 (K).
4 5
bm
isto é, 2 3
β1
6 7
A6
6
..
.
7
7 = B.
4 5
βn
Definição 2.7 Sejam (S) e (S 0 ) sistemas de equações lineares sobre K. Dizemos que
(S) e (S 0 ) são equivalentes se têm o mesmo conjunto de soluções.
60
Proposição 2.8 Sejam A ∈ Mm×n (K) e B ∈ Mm×1 (K). Se P ∈ Mm×m (K) é uma matriz
invertı́vel então os sistemas
(S) AX = B
e
(S 0 ) (P A)X = P B
são equivalentes.
Demonstração:
Suponhamos que (α1 , . . . , αn ) ∈ Kn é solução de (S). Tem-se, então,
2 3
α1
6 7
A6
6
..
.
7
7 =B
4 5
αn
e, portanto, 2 3
α1
6
6 ..
7
7
P A6
4 . 7
5
= P B.
αn
Como a multiplicação de matrizes é associativa, obtemos
2 3
α1
6 7
(P A) 6
6
..
.
7
7 = P B.
4 5
αn
ou equivalentemente, 2 3
α1
6 7
A6
6
..
.
7
7 = B.
4 5
αn
Logo, (α1 , . . . , αn ) é solução do sistema (S).
61
[A | B] −−−−−−−→ [A0 | B 0 ]
(linhas)
então os sistemas
AX = B e A0 X = B 0
são equivalentes.
Demonstração:
Basta atender a que
[A0 | B 0 ] = Es · · · E1 [A | B]
Assim, como
[A0 | B 0 ] = P [A | B]
= [P A | P B],
A proposição anterior ser-nos-á muito útil para responder aos problemas anteriormente
referidos. Nomeadamente:
pelo que
r(A) ≤ r ([A | B]).
Demonstração:
Se A = 0 então r(A) = 0 ≤ r([0 | B]) = r(B) ≤ 1 pelo que o resultado é válido.
s = r(A) = r(A0 ).
Como A0 tem exactamente s linhas não nulas, a matriz [A0 | B 0 ], que está em
forma de escada, ou tem s ou tem s + 1 linhas não nulas (note que B 0 só tem uma
coluna).
a comparação dos inteiros r(A), r([A | B]) e n conduz-nos a um, e um só, dos seguintes três
casos:
Tem-se, ainda,
Demonstração:
Partindo da matriz ampliada [A | B] e efectuando transformações elementares
sobre linhas, obtenha-se uma matriz [A0 | B 0 ] em forma de escada, isto é,
Recordemos que
Seja
s = r(A).
2 3
a011 ∗ ··· ∗ b01
6 7
6 0 a022 ··· ∗ b027
6 7
6 7
6 .. .. .. .. ..7
6 . . . . .7
6 7
6 7
[A0 | B 0 ] = 6 0 0 ··· a0nn b0n 7,
6 7
6
6 0 0 ··· 0 0 77
6 7
6 .. .. .. .. .. 7
6 . . 7
4 . . . 5
0 0 ··· 0 0
Neste caso s = r(A) = r([A | B]) < n = número de incógnitas. Então [A0 | B 0 ]
tem a forma:
2 3
0 ··· 0 a01k1 ∗ ··· ∗ ∗ ∗ ··· ∗ ∗ ∗ ··· ∗ b01
6 7
6 0 ··· 0 0 0 ··· 0 a02k2 ∗ ··· ∗ ∗ ∗ ··· ∗ b02 7
6 7
6 7
6 ··· ··· 7
6 7
6 7
6 0 ··· 0 0 0 ··· 0 0 0 ··· 0 a0sks ∗ ··· ∗ b0s 7,
6 7
6 0 7
6 0 ··· 0 0 0 ··· 0 0 0 ··· 0 0 0 ··· 0 7
6 7
6 .. .. .. .. .. 7
6 . . . . . 7
4 5
0 ··· 0 0 0 ··· 0 0 0 ··· 0 0 0 ··· 0 0
65
com
2 3
0 ··· 0 1 ··· ∗ 0 ∗ ··· ∗ 0 ∗ ··· ∗ b00
1
6 7
6 0 ··· 0 0 ··· 0 1 ∗ ··· ∗ 0 ∗ ··· ∗ b00 7
6 2 7
6 7
6 ··· 7
6 7
6 7
00
[A | B ] =00 6 0 ··· 0 0 ··· 0 0 0 ··· 0 1 ∗ ··· ∗ b00
s 7
6 7.
6 0 7
6 0 ··· 0 0 ··· 0 0 0 ··· 0 0 0 ··· 0 7
6 7
6 .. .. .. 7
6 . . . 7
4 5
0 ··· 0 0 ··· 0 0 0 ··· 0 0 0 ··· 0 0
equações, X
xk1 = b001 − a001j xj
j∈L
···
X
b00s − a00sj xj
x
ks =
j∈L
.
0 = 0
···
0 = 0
Tomando
xi = 0, para todo i ∈ L,
obtemos a solução (α1 , . . . , αn ) do sistema com
xi = 1, para todo i ∈ L,
X
βi = 1 se i ∈ L e βki = b00i − a00ij se i ∈ {1, . . . , s}.
j∈L
Logo, o sistema é possı́vel indeterminado.
66
Como
r(A) = 3 = r([A | B]) < 4 = número de incógnitas,
67
2 3 2 3 2 3
1 2 1 −3 −5 1 2 1 −3 −5 1 2 1 0 −8
6 7−1−l→ 6 7−−−−−−→6 7
[A0 | B 0 ] =64 0 0 2 2 4 7 2 2 6
5− 2 l3 4
1 0 0 1 1 2 7
l2 +(−1)l3 6
5 l1 +3l3 4 0 0 1 0 3 7
5−
→
0 0 0 −2 2 0 0 0 1 −1 0 0 0 1 −1
2 3
1 2 0 0 −11
−−−−−−−→6 7 00
l1 + (−1)l2 6
4 0 0 1 0 3 75 = [A | B 00 ] em forma de escada reduzida.
0 0 0 1 −1
Façamos uma breve referência aos sistemas homogéneos, isto é, aos sistemas da forma
AX = 0.
Como vimos tais sistemas são sempre possı́veis, pois têm, pelo menos, a solução nula.
Também de acordo com a teoria anterior, como para qualquer matriz A ∈ Mm×n (K) se
verifica
r(A) = r([A | 0]),
Proposição 2.14 Uma matriz A ∈ Mn×n (K) é invertı́vel se, e só se, o sistema (homogéneo)
AX = 0 é determinado.
Demonstração:
Sendo A ∈ Mn×n (K), sabemos que o sistema AX = 0 é determinado se, e só se,
r(A) = r[A | 0] = n,
ou equivalentemente,
r(A) = n.
Exercı́cio 2.1 (a) Discuta cada um dos seguintes sistemas de equações lineares, nas
incógnitas x1 , x2 , x3 , sobre R:
8 8
< x1 + x2 + 2x3 = 1 < x1 + x2 − x3 = 0
(S1 ) 2x1 − x2 + x3 = 1 (S2 ) 2x1 + x2 = 1
: :
3x2 + 3x3 = 0 x1 − x3 = 1
8 8
< x1 + x2 − x3 = 0 < x1 + 2x2 = 1
(S3 ) 2x1 + x2 = 1 (S4 ) x1 + x2 = 1
: :
−x1 − x3 = −1 −x1 + x2 = −1
2x1 + x2 = 1 x1 + 2x2 + x3 = −1
(S5 ) (S6 )
−x1 + 3x2 + x3 = 2 2x1 + 4x2 + 2x3 = 3
8 8
> 2x1 − x2 + x3 = −1 > −5x1 − 2x2 + x3 = −1
>
> >
>
< x1 + 2x2 + x3 = 0 < 6x1 + 2x2 + x3 = 0
(S7 ) x1 − 3x2 = −1 (S8 ) −4x1 − 2x2 + 3x3 = −2
>
> >
>
>
: 4x1 − 2x2 + 2x3 = −2 >
: 2x1 + 4x3 = −2
−2x1 + x2 − x3 = 1 −6x1 − 3x2 + 2x3 = −1
8 8
>
> x1 + x2 + x3 = −1 >
> −x1 + 2x3 = 1
< <
2x1 + x2 = 0 x1 + 2x2 = −1
(S9 ) (S10 )
>
> x2 + x3 = 2 >
> 2x2 + 2x3 = 0
: :
x1 − x3 = −1 x1 − 2x3 = −1
2 3 2 3
0 1 2 2
Exercı́cio 2.2 Para A = 4 2 0 0 5 ∈ M3×3 (R) e B = 4 1 5 ∈ M3×1 (R)
−1 0 2 −1
considere o sistema (S) de equações lineares nas incógnitas x1 , x2 , x3 .
Indique a colecção de equações lineares que constituem o sistema (S) e que estão repre-
sentadas em AX = B.
2 3 2 3
1 1 2 −1 −1
Exercı́cio 2.3 Sejam A = 4 2 2 −2 2 5 ∈ M3×4 (R), B = 4 4 5 ∈
0 0 6 −4 −6
M3×1 (R) e (S) o sistema de equações lineares AX = B.
Exercı́cio 2.4 Sejam A ∈ Mm×n (K), B ∈ Mm×1 (K) e (S) o sistema de equações
lineares AX = B. Mostre que:
Exercı́cio 2.5 Para cada uma das alı́neas seguintes indique se existe ou não um sistema
(S) de equações lineares, sobre R, nas condições indicadas e, em caso afirmativo, dê um
exemplo.
Justifique que tal sistema é sempre possı́vel e determinado e indique a sua solução.
71
S.P.I. − Sistema Possı́vel Indeterminado (b) (iii) Solução do sistema: (x, y, z) = (5, 1, −3)
"
g.i. − grau de indeterminação Se a 6= 0 e a 6= 1, S.I.
2.9 (a)
Se a = 0 ou a = 1, S.P.D.
2.1 (a) (S1 ) é S.I. "
Se a 6= 2, S.P.I. com g.i. 1
(S2 ) é S.P.D. (b)
Se a = 2, S.I.
(S3 ) é S.P.I. com g.i. 1 2
Se a = 7, S.P.I. com g.i. 2
(S4 ) é S.P.I. com g.i. 1 6
(c) 6
4 Se a = 0, S.P.I. com g.i. 1
(S5 ) é S.P.I. com g.i. 1
Se a 6= 7 e a 6= 0, S.P.D.
(S6 ) é S.I.
2
(S7 ) é S.P.I. com g.i. 1 Se a 6= −1 e b ∈ R, S.P.I. com g.i. 1
6
(S8 ) é S.P.D. 2.10 (a) (i) 64 Se a = −1 e b = 1, S.P.I. com g.i. 2
Se a = −1 e b 6= 1, S.I.
(S9 ) é S.I. 2
(S10 ) é S.P.I. com g.i. 1 Se a 6= 3 e b ∈ R, S.P.I. com g.i. 1
6
(ii) 6
4 Se a = 3 e b 6= 3, S.I.
(b) Conjunto de soluções de (S2 ):
Se a = 3 e b = 3, S.P.I. com g.i. 2
{(1, −1, 0)} 2
Conjunto de soluções de (S3 ): Se b 6= 6 e a ∈ R, S.I.
6
(b) (i) 64 Se b = 6 e a = 1, S.P.I. com g.i. 1
{(1 − α, −1 + 2α, α) : α ∈ R}
Se b = 6 e a 6= 1, S.P.D.
Conjunto de soluções de (S4 ): 2
{(1, 0, α) : α ∈ R} Se b 6= 0 e a ∈ R, S.P.D.
6
(ii) 6
4 Se b = 0 e a = −1, S.P.I. com g.i. 1
Conjunto de soluções de (S5 ):
Se b = 0 e a 6= 1, S.I.
{( 71 + 1
7
α, 57 − 2
7
α, α) : α ∈ R}
Conjunto de soluções de (S7 ): 2.11 Conjunto de soluções: {(a, 2b, 3c)}
{(− 52 − 35 α, 1
5
− 51 α, α) : α ∈ R}
Conjunto de soluções de (S8 ):
{( 53 , − 57 , − 45 )}
Conjunto de soluções de (S10 ):
{(−1 + 2α, −α, α) : α ∈ R}
Determinantes
Conforme vimos no Capı́tulo 1, uma matriz quadrada pode ser ou não invertı́vel.
Neste capı́tulo veremos que podemos associar a cada matriz A ∈ Mn×n (K) um elemento
de K, dependente apenas dos elementos da matriz, e que tal como a caracterı́stica também
nos vai permitir decidir sobre a invertibilidade de A.
Para n = 1 tem-se
ou equivalentemente,
a11 6= 0.
Para n = 2, tem-se
" #
a11 a12
A= é invertı́vel se, e só se, r(A) = 2.
a21 a22
Se a21 6= 0 então
" # " #
0 a12 −−−−−−→ a21 a22
A= l1 ←→ l2
a21 a22 0 a12
está em forma de escada e, portanto, r(A) = 2 se, e só se, a12 6= 0. Observemos que,
neste caso, como a11 = 0 e a21 6= 0 se tem
não é invertı́vel, quaisquer que sejam a12 e a22 , pois A tem uma coluna nula.
Veremos que, para qualquer n ∈ N, podemos associar a cada matriz A ∈ Mn×n (K)
um elemento de K, a que chamaremos “determinante” de A, com a propriedade de A ser
invertı́vel se, e só se, esse escalar for não nulo.
Notação 3.1 • Seja A ∈ Mn×n (K), com n ≥ 2. Dados i, j ∈ {1, . . . , n}, representamos
por
A(i|j)
Exemplo 3.2 Se
2 3
1 2 3
6 7
A=6
4 4 5 6 7
5 ∈ M3×3 (R)
7 8 9
então
" # " # " #
4 6 2 3 5 6
A(1|2) = , A(2|1) = e A(1|1) = .
7 9 8 9 8 9
Se n > 1 então
resulta que
det A = a11 (−1)1+1 det A(1|1) + a12 (−1)1+2 det A(1|2) + a13 (−1)1+3 det A(1|3)
" # " # " #
a22 a23 a21 a23 a21 a22
= a11 det − a12 det + a13 det
a32 a33 a31 a33 a31 a32
= a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) + a13 (a21 a32 − a22 a31 )
= a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31
= (a11 a22 a33 + a12 a23 a31 + a13 a21 a32 ) − (a11 a23 a32 + a12 a21 a33 + a13 a22 a31 ).
Assim, para n = 3, a expressão de det A tem 6 parcelas que podem ser escritas como
uma diferença em que o aditivo tem 3 parcelas e o subtractivo outras 3 parcelas.
Para as escrever podemos recorrer a mnemónicas (isto é, regras práticas que nos ajudam a
fixar certas expressões) como a Regra de Sarrus. De acordo com esta mnemónica as 3 parcelas
do aditivo são dadas pelo produto dos elementos da diagonal principal e pelo produto dos
elementos abrangidos por cada um dos dois triângulos com base paralela à diagonal principal.
a11 a12a13
@
@
a a22@
21@ a23
@ @
a
31@a32@a33
Embora seja citada em muitos livros, a Regra de Sarrus, válida apenas para n = 3, é
perfeitamente dispensável.
tem-se
3
3+2 1
Â32 = (−1) = −(6 − 12) = 6,
4 6
independentemente do valor de a.
Podemos então afirmar que a definição de determinante de A ∈ Mn×n (K) nos diz que,
se n ≥ 2, o determinante de A é igual à soma dos produtos dos elementos da linha 1 pelos
respectivos complementos algébricos.
Na prática, quando queremos explicitar como foi aplicado o Teorema de Laplace, utili-
zamos a notação
Lapl. Lapl.
det A = ou det A =
cj
li
Assim, pelo resultado anterior, dada A ∈ Mn×n (K), podemos calcular det A por 2n pro-
cessos, aplicando o Teorema de Laplace a cada uma das n linhas de A ou a cada uma
das n colunas de A. Embora todos esses 2n processos nos conduzam ao mesmo escalar (o
determinante de A) uns podem ser mais expeditos do que outros.
Por razões óbvias, se a matriz tiver elementos nulos, temos vantagem em aplicar o Teo-
rema de Laplace a uma linha ou a uma coluna com um número máximo de zeros.
Exercı́cio 3.1 Calcule o determinante de cada uma das seguintes matrizes, de duas
formas diferentes.
2 3
1 1 0
(a) A = 4 2 1 1 5 ∈ M3×3 (R).
1 1 1
2 3
1 0 −1 0
6 −2 0 2 −1 7
(b) B = 6 4 1 1 −1
7 ∈ M4×4 (R).
1 5
3 3 −6 6
2 3
1 0 i
(c) C = 4 0 0 2 5 ∈ M3×3 (C).
−i 2 1
2 3
x a b 0 c
6 0 y 0 0 d 7
6 7
H=6 0 e z 0 f 7 ∈ M5×5 (R).
4 g h k u l 5
0 0 0 0 v
Calcule det H.
2 3
3−λ −3 2
Exercı́cio 3.3 Para cada λ ∈ R, considere Aλ =4 0 −2 − λ 2 5. Deter-
0 −3 3−λ
mine os valores de λ para os quais det Aλ = 0.
Demonstração:
A demonstração é feita por indução em n.
Para n = 1 tem-se
A = [A11 ] = A>
e, portanto,
det A = det A> .
Seja n ≥ 2.
1+k
Â1k = (−1) det A(1|k), k = 1, . . . , n.
Como
(A(1|k))> = B(k|1),
obtemos
k+1
Â1k = (−1) det B(k|1) = B̂k1 .
Assim
Proposição 3.8 Se A ∈ Mn×n (K) tem uma linha nula então det A = 0.
Proposição 3.9 Seja A ∈ Mn×n (K), com n ≥ 2. Se A tem a linha i igual à linha j, com
i 6= j, então
det A = 0.
Demonstração:
A demonstração é feita por indução em n.
e
det A = a11 a12 − a12 a11 = 0.
Seja n ≥ 3. Seja A = [aij ] ∈ Mn×n (K) uma matriz que tem a linha i igual à linha
j, com i 6= j.
k+l
Âkl = (−1) det A(k|l).
Uma vez que A(k|l) ∈ M(n−1)×(n−1) (K) e continua a ter duas linhas iguais, pela
hipótese de indução,
det A(k|l) = 0.
82
Assim
Âk1 = · · · = Âkn = 0
e, portanto,
det A = 0.
Um outro resultado que também é válido para qualquer ordem e que pode ser demons-
trado por indução na ordem da matriz é o que seguidamente estabelecemos.
Teorema 3.10 Se A ∈ Mn×n (K) é uma matriz triangular superior (respectivamente, infe-
rior) então o determinante de A é igual ao produto dos elementos da diagonal principal de
A.
Demonstração:
Para n = 1 o resultado verifica-se trivialmente pois A = [a11 ] e det A = a11 .
Tem-se 2 3
a11 a12 ··· a1n
6 7
6 0 a22 ··· a2n 7
6 7
A= 6 7, com n ≥ 2.
6 .. .. .. .. 7
6 . . . . 7
4 5
0 0 ··· ann
Logo
Então " #
1 4
det A = 0 , det B = 0 e det(A + B) = det = 5.
0 5
Demonstração:
Da esquerda para a direita, representem-se respectivamente, por A, B e C as
matrizes referidas no enunciado. Aplicando o Teorema de Laplace à linha i de A
obtemos
pelo que
Âil = B̂il = Ĉil .
Logo
bi1 Âi1 + · · · + bin Âin = bi1 B̂i1 + · · · + bin B̂in = det B
e
ci1 Âi1 + · · · + cin Âin = ci1 Ĉi1 + · · · + cin Ĉin = det C.
Vejamos agora o efeito que cada uma das transformações elementares sobre linhas tem
sobre o determinante de uma matriz.
1. Se i 6= j e A −−li−←→l
−−−−→ A0 então det A0 = − det A.
j
2. Se α 6= 0 e −−−→ A0
A −−−αl então det A0 = α det A.
i
3. Se i 6= j e −−−→ A0
A −−li−+βl então det A0 = det A.
j
Demonstração:
Demonstremos 1. Sabemos já que se uma matriz tem duas linhas iguais então o
seu determinante é nulo. Assim, sendo L1 , . . . , Ln , n-uplos, tem-se
2 3
L1
6 7
6 ··· 7
6 7
6 7
6 Li + Lj 7
6 7
det 6
6 ···
7
7 = 0.
6 7
6 7
6 Li + Lj 7
6 7
6 ··· 7
4 5
Ln
85
isto é, 2 3 2 3
L1 L1
6 7 6 7
6 ··· 7 6 ··· 7
6 7 6 7
6 7 6 7
6 Li 7 6 Lj 7
6 7 6 7
det 6
6
7
··· 7 = − det 6
6
7
· · · 7.
6 7 6 7
6
6 Lj 77
6
6 Li 7 7
6 7 6 7
6 ··· 7 6 ··· 7
4 5 4 5
Ln Ln
Â0 il = Âil .
Logo
det A0 = α ai1 Âi1 + · · · + ain Âin = α det A.
2 3 2 3
L1 L1
6 7 6 7
6 ··· 7 6 ··· 7
6 7 6 7
6 7 6 7
6 Li 7 6 Li + βLj 7
6 7 6 7
6 7 6 7
Finalmente, demonstremos 3. Sejam β ∈ K, A = 6 ··· 7 e A0 = 6 ··· 7,
6 7 6 7
6
6 Lj 77
6
6 Lj 7
7
6 7 6 7
6 ··· 7 6 ··· 7
4 5 4 5
Ln Ln
com L1 , . . . , Ln n-uplos. Tem-se
2 3 2 3 2 3
L1 L1 L1
6 7 6 7 6 7
6 ··· 7 6 ··· 7 6 ··· 7
6 7 6 7 6 7
6 7 6 7 6 7
6 Li + βLj 7 6 Li 7 6 βLj 7
6 7 6 7 6 7
6 7 6 7 6 7
det A0 = det 6 ··· 7 = det 6 ··· 7 + det 6 ··· 7
6 7 6 7 6 7
6 7 6 7 6
6 Lj 7 6 Lj 7 6 Lj 77
6 7 6 7 6 7
6 · · · 7 6 7
··· 5 6 ··· 7
4 5 4 4 5
Ln Ln Ln
2 3 2 3
L1 L1
6 7 6 7
6 ··· 7 6 ··· 7
6 7 6 7
6 7 6 7
6 Li 7 6 Lj 7
6 7 6 7
= det 6 · · · 7 + β det 6
6 7
6 ···
7
7 = det A + β×0 = det A.
6 7 6 7
6 7 6 7
6 Lj 7 6 Lj 7
6 7 6 7
6 ··· 7 6 ··· 7
4 5 4 5
Ln Ln
Corolário 3.14 Seja A ∈ Mn×n (K) e A0 uma matriz que se obtém de A efectuando um
número finito de transformações elementares sobre linhas, isto é,
A −−−−−−−→ A0 .
(linhas)
Tem-se
det A = 0 se, e só se, det A0 = 0.
87
Demonstração:
De acordo com o teorema anterior temos
r
det A0 = (−1) α1 · · · αs det A, com r, s ∈ N0 ,
2 3
a b c
Exercı́cio 3.7 Seja A = 4 d e f 5 ∈ M3×3 (R), tal que det A = γ. Indique, em
g h i
função de γ, o valor de cada um dos seguintes determinantes:
d e f
(a) g h i .
a b c
3a 3b 3c
(b) −d −e −f .
4g 4h 4i
a+g b+h c+i
(c) d e f .
g h i
−3a −3b −3c
(d) d e f .
g − 4d h − 4e i − 4f
b e h
(e) a d g .
c f i
bc a2 a2 bc ab ca
6 0, então b2
Exercı́cio 3.10 Verifique que, se abc = ca b2 = ab
ca bc .
c2 c2 ab ca bc ab
x−y−z 2x 2x
Exercı́cio 3.11 Mostre que 2y y−z−x 2y = (x + y + z)3 .
2z 2z z−x−y
Exercı́cio 3.12 Sejam A, B ∈ Mn×n (K) tais que Bij = (−1)i+j Aij . Justifique que A
e B têm o mesmo determinante.
Exercı́cio 3.14 Os números 20604, 53227, 25755, 20927 e 78421 são divisı́veis por 17.
Justifique que o mesmo sucede ao determinante
2 0 6 0 4
5 3 2 2 7
2 5 7 5 5 ,
2 0 9 2 7
7 8 4 2 1
Conforme vimos no Capı́tulo 1, toda a matriz A ∈ Mm×n (K) pode ser transformada
numa matriz em forma de escada, através de um número finito de transformações elementares
sobre linhas.
A −−−−−−−→ A0 (f.e.)
(linhas)
• Como det A0 é igual ao produto dos elementos da sua diagonal principal e é conhecida
a relação entre det A e det A0 , obtenha-se det A.
Exemplo 3.16
0 10 1 3 1 3 1 3
5 2 2 2
1 2 3 = − 0 5 10 = − 0 5 10 = −5 0 1 2
l1 ←→ l2 l3 + (−2)l1
2 6 8 2 6 8 0 2 2 0 2 2
3
1 2
= − 5 0 1 2 = (−5) × (1×1 × (−2)) = 10.
l3 + (−2)l2
0 0 −2
Sugestão: Comece por efectuar transformações elementares do tipo III de forma a que
l1 venha substituı́da por l1 + l2 + l3 + l4 , em que li representa a linha i,
i = 1, 2, 3, 4.
O resultado seguinte, muito importante, fornece-nos uma outra caracterização das ma-
trizes invertı́veis.
Demonstração:
Seja A0 uma matriz em forma de escada obtida de A através de um número finito
de transformações elementares sobre linhas, isto é,
Sabemos que
A é invertı́vel se, e só se, r(A) = n(= r(A0 )).
Tal equivale a afirmar que todos os elementos da diagonal principal de A0 são não
nulos, ou equivalentemente, que
det A0 6= 0.
2 3
1 t −1
Exercı́cio 3.19 Para cada t ∈ R, seja At = 4 2 4 −2 5 ∈ M3×3 (R). Deter-
−3 −7 t+3
mine os valores de t para os quais At é invertı́vel.
91
2 3
0 a a2
Exercı́cio 3.20 Seja A = 4 a−1 0 a 5 ∈ M3×3 (R), com a 6= 0. Determine os
a−2 a−1 0
valores de a para os quais A é invertı́vel.
Proposição 3.18 Sejam A, B ∈ Mn×n (K). Se pelo menos uma das matrizes A, B não é
invertı́vel então AB não é invertı́vel.
Demonstração:
Suponhamos primeiramente que B não é invertı́vel. Logo, de acordo com a Pro-
posição 2.14, o sistema homogéneo
BX = 0
ou equivalentemente, do sistema
(AB)X = 0,
Suponhamos agora que A não é invertı́vel. Neste caso tem-se det A = 0 e, como
det A = det A> , concluı́mos também que A> não é invertı́vel. Assim, podemos
afirmar que o sistema homogéneo
A> X = 0
este sistema é também indeterminado e, portanto, B > A> não é invertı́vel. Tem-se,
pois,
det(B > A> ) = 0.
> >
Dado que B > A> = (AB) e det (AB) = det(AB), podemos concluir que
det(AB) = 0
92
Conforme já tivemos oportunidade de referir, existem matrizes A, B ∈ Mn×n (K) tais
que
det(A + B) 6= det A + det B.
Demonstração:
Demonstremos 1.
A = E1 · · · E s ,
1.1) In −−li−←→l
−−−−→ E,
j
com i 6= j;
1.2) In −−−−αl−−
i
→ E,
− com α ∈ K \ {0};
1.3) +βlj E,
In −−l−i−−−−→ com β ∈ K e i 6= j.
Atendendo aos Teoremas 3.13 e 3.10 concluı́mos que no subcaso 1.1 se tem
Logo
det(EB) = − det B = det E det B.
e, portanto,
det(EB) = α det B = det E det B.
det E = det In = 1
pelo que
det(EB) = det B = det E det B.
Seja s ≥ 2.
Hipótese de Indução: Suponhamos que o resultado é válido para o produto de
quaisquer s−1 matrizes elementares de Mn×n (K) por qualquer matriz de Mn×n (K).
Como
det(E1 · · · Es B) = det (E1 · · · Es−1 )(Es B)
conforme pretendı́amos.
94
Neste caso, pela Proposição 3.18, podemos afirmar que AB não é invertı́vel, ou
equivalentemente, det(AB) = 0. Então
Suponhamos t ≥ 3.
Tem-se
det(A1 · · · At ) = det((A1 · · · At−1 )At ).
Exercı́cio 3.21 Sejam A, B, C ∈ Mn×n (R) tais que det A = 2, det B = −5 e det C = 4.
Recordemos que, pelo Teorema 1.26, se A ∈ Mn×n (K) é uma matriz invertı́vel e
B ∈ Mn×n (K) é tal que AB = In ou BA = In então B = A−1 .
AB = In ou BA = In
Demonstração:
De acordo com o teorema anterior, se B é tal que
AB = In
então
|AB| = |In |
isto é,
|A||B| = 1.
Logo,
|A| 6= 0
AB = In
e, portanto,
B = A−1 .
2 3
1 1
1 0 1
Exercı́cio 3.25 Sejam A = ∈ M2×3 (R) e B = 4 0 1 5 ∈ M3×2 (R).
0 1 0
0 −1
Mostre que:
Proposição 3.21 Seja A ∈ Mn×n (K) uma matriz invertı́vel, ou equivalentemente, uma
matriz tal que det A 6= 0. Tem-se
1
det A−1 = .
det A
96
Demonstração:
De AA−1 = In resulta
det(AA−1 ) = det In
ou, ainda,
det A det A−1 = 1.
Logo, det A 6= 0 e
1
det A−1 = .
det A
Na Secção 1.8 aprendemos a decidir sobre a invertibilidade de uma matriz A ∈ Mn×n (K)
através da sua caracterı́stica e apresentámos um processo para a determinação da inversa de
uma matriz invertı́vel. Esquematicamente, tı́nhamos
Exemplo 3.23 1. Se
" #
a11 a12
A=
a21 a22
então
" #> " #
a22 −a21 a22 −a12
adj A = = .
−a12 a11 −a21 a11
2. Se 2 3
1 0 3
6 7
A=6
4 0 2 0 7
5
4 0 5
então 2 3> 2 3
10 0 −8 10 0 −6
6 7 6 7
adj A = 6
4 0 −7 0 7
5 =6
4 0 −7 0 7
5.
−6 0 2 −8 0 2
O resultado seguinte estabelece uma relação entre cada matriz A ∈ Mn×n (K) e a sua
adjunta e permite relacionar, quando A é invertı́vel, A−1 com adj A.
1. 2 3
det A 0 ··· 0
6 7
6 .. .. 7
6 . 7
6 0 det A . 7
A adj A = 6
6 ..
7
7
= (det A)In .
.. ..
6 . . . 0 7
4 5
0 ··· 0 det A
2. Se A é invertı́vel então
1
A−1 = adj A.
det A
Demonstração:
1. Seja A = [aij ] e representemos por Âij o complemento algébrico do elemento
da posição (i, j) de A. Tem-se
2 32 3>
a11 ··· a1n Â11 ··· Â1n
6 76 7
A adj A = 6 ··· 76 ··· 7
4 54 5
an1 ··· ann Ân1 ··· Ânn
2 32 3
a11 ··· a1n Â11 ··· Ân1
6 76 7
= 6 ··· 76 ··· 7.
4 54 5
an1 ··· ann Â1n ··· Ânn
det A.
para i 6= j.
2. Se A é invertı́vel da igualdade
2 3
3 1 2
Exercı́cio 3.27 Seja A = 4 1 2 1 5 ∈ M3×3 (R).
2 2 2
2 3
1 0 1
Exercı́cio 3.28 Uma matriz A ∈ M3×3 (R) é tal que adj A = 4 −2 2 −2 5 e
0 1 2
|A| = 2. Determine, se possı́vel, a matriz A.
2 3
m 1 1
Exercı́cio 3.29 Seja M = 4 1 m 1 5 ∈ M3×3 (R).
1 1 m
Exercı́cio 3.30 Seja A ∈ Mn×n (K) uma matriz invertı́vel. Mostre que:
Por último, apliquemos esta matéria à resolução de sistemas de equações lineares em que
a matriz simples do sistema é quadrada e invertı́vel (designados por sistemas de Cramer ).
1
(det A1→n+1 , det A2→n+1 , . . . , det An→n+1 ) .
det A
Demonstração: 2 3
b1
6 7
Seja B = 6
6
..
.
7
7.
4 5
bn
Tem-se
1 1
A−1 B = adj A B = (adj A) B
det A det A
e o elemento da linha i da matriz (adj A)B ∈ Mn×1 (K) é
A Regra de Cramer pode utilizar-se para resolver sistemas AX = B em que A ∈ Mn×n (K)
é invertı́vel (sistemas de Cramer). Mesmo nestes casos, salvo para valores pequenos de n,
não tem interesse computacional, sendo preferı́vel utilizar o método referido no Capı́tulo 2.
2 3 2 3
1 2 3 14
Exercı́cio 3.32 Sejam A = 4 0 2 1 5 ∈ M3×3 (R), B = 4 7 5 ∈ M3×1 (R) e o
1 1 1 6
sistema de equações lineares
2 3
x1
(S) A4 x2 5 = B,
x3
(b) |B| = 3
(c) |C| = −4
3.3 λ ∈ {0, 1, 3}
3.7 (a) γ
(b) −12γ
(c) γ
(d) −3γ
(e) −γ
3.15 x ∈ {−3a, a}
3.17 k ∈ {−2, 1}
3.19 t ∈ R \ {0, 2}
3.20 a ∈ R \ {0}
" #
m2 −1 1−m 1−m
3.29 (a) adj M = 1−m m2 −1 1−m
1−m 1−m m2 −1
(b) m ∈ R \ {−2, 1}
" #
m2 −1 1−m 1−m
1
(c) M −1 = (m+2)(m−1)2
1−m m2 −1 1−m
1−m 1−m m2 −1
(b) (1, 2, 3)
Capı́tulo 4
Espaços Vectoriais
No Capı́tulo 1 definimos no conjunto Mm×n (K) uma operação binária, que designámos por
adição de matrizes e cujas propriedades dadas, na Proposição 1.13, são:
Definimos também uma operação de multiplicação de um escalar por uma matriz que a
cada α ∈ K e a cada matriz A ∈ Mm×n (K) associa uma matriz αA ∈ Mm×n (K). Vimos
que esta operação, que não é binária, goza das propriedades referidas na Proposição 1.16,
nomeadamente:
Definição 4.1 Seja E um conjunto não vazio e K ∈ {R, C}. Suponhamos definidas
duas operações:
• uma que designamos por adição em E que é uma operação binária, isto é, associa
a cada par (a, b) de elementos de E um, e um só, elemento de E que se representa
por a + b.
Dizemos que E, com estas duas operações, é um espaço vectorial sobre K ou que
(E, +, ·) é um espaço vectorial sobre K se
(M4 ) ∀u∈E 1K u = u,
sendo 1K o elemento neutro da multiplicação em K (representado também
simplesmente por 1).
Notamos que, na definição anterior, estamos a representar pelo sı́mbolo “+” quer a adição
em K quer a adição em E, tal como estamos a representar por “·” quer a multiplicação em
K (que é uma operação binária) quer a multiplicação externa (que, em geral, não é uma
operação binária).
105
No entanto, a distinção não é necessária uma vez que o contexto desfaz qualquer am-
biguidade: se a adição é entre elementos de K (respectivamente, de E) é a adição em K
(respectivamente, em E), se a multiplicação é entre elementos de K é a multiplicação em K,
se é a multiplicação de um elemento de K por um elemento de E então é a multiplicação
externa.
Definição 4.2 Seja (E, +, ·) um espaço vectorial sobre K. Aos elementos de E cha-
mamos vectores e aos elementos de K chamamos escalares. Se K = C dizemos
que E é um espaço vectorial complexo e se K = R dizemos que E é um espaço
vectorial real .
Assim
R é um espaço vectorial sobre R
e
C é um espaço vectorial sobre C.
Note que
C é um espaço vectorial sobre R
mas
R não é um espaço vectorial sobre C. (Porquê?)
2. Mm×n (K), com a operação de adição usual de matrizes e com a operação de multiplicação
de um elemento de K por uma matriz, definidas no Capı́tulo 1, é um espaço vectorial sobre
K.
106
(an xn +· · ·+a1 x+a0 )+(bn xn +· · ·+b1 x+b0 ) = (an +bn )xn +· · ·+(a1 +b1 )x+(a0 +b0 )
6. O último exemplo que apresentamos é motivado pela geometria elementar que historica-
mente está na base da teoria dos Espaços Vectoriais.
Seja A o conjunto dos pontos do plano (ou do espaço). Dados dois pontos A e B de
−−→
A, define-se vector AB como sendo o segmento orientado com origem no ponto A e
extremidade final no ponto B.
No conjunto VA dos vectores aplicados com origem no ponto A defina-se uma adição que
−−→ −→ −−→
aos vectores AB e AC associa o vector AD obtido pela conhecida regra do paralelogramo
107
C.....................D.
. .
..
1
.
. ..
-. .
A B
−−→
e defina-se uma multiplicação externa que a cada real α e a cada vector AB associa o
−−→ −−→ −−→
vector αAB cuja direcção é a do vector AB e o sentido é o de AB se α > 0 e é o contrário
−−→ − → −−→ −−→
se α < 0 (se α = 0 então AB = 0 ) e cujo comprimento é kαABk = |α| kABk.
Argumentos de natureza geométrica podem permitir-nos concluir que VA , com estas operações,
é um espaço vectorial sobre R (isto é, um espaço vectorial real).
u ⊕ v = uv (produto usual)
α u = uα (potência usual),
para quaisquer α ∈ R e u, v ∈ R+ .
Prove que, com estas operações, R+ é um espaço vectorial real.
para quaisquer α ∈ R e (a1 , a2 ), (b1 , b2 ) ∈ R2 . Mostre que (R2 , +, ·) não é espaço vectorial
sobre R.
e
α(x, x2 ) = (αx, (αx)2 )
2. Em E, o oposto de cada elemento (para a operação +), também designado por simétrico,
é único.
(O simétrico de u ∈ E é habitualmente representado por −u.)
Demonstração:
1. Suponhamos que, para todo u ∈ E, existiam a, a0 ∈ E verificando
a+u=u+a=u
e
a0 + u = u + a0 = u.
a + a0 = a0 .
a + a0 = a.
Logo
a = a0 .
u + u0 = u0 + u = 0E
e
u + u00 = u00 + u = 0E
109
então
3. Suponhamos que u, v, w ∈ E e
u + v = u + w.
Então
(−u) + (u + v) = (−u) + (u + w).
((−u) + u) + v = ((−u) + u) + w.
Assim
0E + v = 0E + w
e, portanto,
v = w.
4. Demonstração análoga à de 3.
Por vezes, para evidenciar que se aplicou a Lei do Corte, à esquerda, dada em 3., escreve-
mos 6 u + v =6 u + w.
Na Definição 4.1 a afirmação de que E é um conjunto não vazio é redundante pois E tem,
pelo menos, um elemento: 0E . Pode ser o único elemento de E. De facto, se considerarmos
E = {0E } e definirmos uma adição em E por
0E + 0E = 0E
∀α∈K α0E = 0E
1. α0E = 0E .
110
2. 0K u = 0E .
4. αu = 0E =⇒ α = 0K ∨ u = 0E .
Demonstração:
1. Notemos que
α0E = α(0E + 0E )
e, portanto,
α0E + 0E = α0E + α0E .
α0E = 0E .
2. Tem-se
0K u = (0K + 0K )u
e, portanto,
0E + 0K u = 0K u + 0K u.
0K u = 0E .
αu + (−α)u = 0E .
Tem-se
αu + (−α)u = (α + (−α))u = 0K u = 0E .
αu + α(−u) = 0E .
Tem-se
αu + α(−u) = α(u + (−u)) = α0E = 0E .
4. Suponhamos que
αu = 0E .
αu = 0E
111
resulta
Como última observação desta secção, notemos que na definição de espaço vectorial há
informação redundante além da de E ser um conjunto não vazio. A comutatividade da adição
também é uma propriedade que se pode deduzir das restantes. De facto, tem-se
= (u + u) + (v + v)
= u + u + v + v.
= (u + v) + (u + v)
= u + v + u + v.
6 u + u + v + v =6 u + v + u + v
u + v+ 6 v = v + u+ 6 v
u + v = v + u.
112
Teorema 4.7 Seja E um espaço vectorial sobre K. Tem-se que F é um subespaço de E se,
e só se, satisfizer as condições seguintes:
1. F ⊆ E
2. 0E ∈ F
3. ∀u,v∈F u+v ∈F
4. ∀α∈K ∀u∈F αu ∈ F
2’. F 6= ∅.
Demonstração:
Suponhamos que F é um subespaço de E. Logo, por definição de subespaço tem-se,
trivialmente, 1., 3. e 4..
0F = 0E .
u + 0E = u.
6 u + 0E =6 u + 0F
e, portanto,
0E = 0F ∈ F.
∀v∈F (−1)v ∈ F
concluı́mos, pela Proposição 4.5 (válida para todo o elemento v ∈ E), que
Assim
−v ∈ F
2’. F 6= ∅.
0K u ∈ F.
concluı́mos que
0E ∈ F.
114
F = (x, y) ∈ R2 : y = 0
= {(x, 0) : x ∈ R}
é um subespaço de R2 .
De facto tem-se
· F ⊆ R2 .
· 0R2 = (0, 0) ∈ F .
· Verifiquemos que
∀(x,y),(x0 ,y0 )∈F (x, y) + (x0 , y 0 ) ∈ F.
Assim
F = {(x, 0) : x ∈ R}
G = {(0, y) : y ∈ R} (eixo OY )
H = (x, y) ∈ R2 : x = y
(bissectriz dos quadrantes ı́mpares)
L = (x, y) ∈ R2 : x = −y
(bissectriz dos quadrantes pares)
Para cada m ∈ R,
Rm = (x, y) ∈ R2 : y = mx
(recta que passa na origem e tem declive m)
115
M = (x, y) ∈ R2 : x 6= y .
São exemplos de subespaços de Mn×n (K) o conjunto das matrizes de Mn×n (K):
Triangulares superiores.
Triangulares inferiores.
Diagonais.
Escalares.
Simétricas.
Hemi-simétricas.
Não são subespaços de Mn×n (K) o conjunto das matrizes de Mn×n (K):
Invertı́veis.
Exercı́cio 4.6 Seja A ∈ Mp×n (K). Mostre que o conjunto C das soluções do sistema
homogéneo AX = 0 é subespaço vectorial de Kn .
(a) Se u ∈ F então −u ∈ F ;
(b) Se u, v ∈ F então u − v ∈ F ;
(c) Se u + v ∈ F e u ∈ F então v ∈ F ;
(d) Se existe α ∈ K \ {0}, tal que αu ∈ F , então u ∈ F .
Notemos que todo o espaço vectorial admite pelo menos um subespaço vectorial.
Proposição 4.9 Se E é um espaço vectorial sobre K então E e {0E } são subespaços vecto-
riais de E.
Demonstração:
Exercı́cio.
Tais subespaços, que existem sempre, dizem-se os subespaços triviais de E, sendo iguais
se, e só se, E = {0E }.
Demonstração:
Demonstremos que se F e G são subespaços de E então o mesmo sucede a
F ∩ G = {u ∈ E : u ∈ F ∧ u ∈ G} .
Tem-se, trivialmente, F ∩ G ⊆ E.
Demonstre-se que
∀u,v∈(F ∩G) u + v ∈ (F ∩ G).
F ∪ G = (x, y) ∈ R2 : x = 0 ∨ y = 0 .
Note que
(2, 0) ∈ F ∪ G e (0, 3) ∈ F ∪ G
mas
(2, 0) + (0, 3) = (2, 3) 6∈ F ∪ G.
Há casos em que, trivialmente, a união de subespaços ainda é um subespaço. Por exemplo,
se F ⊆ G então F ∪ G = G pelo que F ∪ G é um subespaço de E.
De facto são os únicos casos em que a união de subespaços é um subespaço, pois tem-se:
Demonstração:
Conforme observámos antes se F ⊆ G ou G ⊆ F então F ∪ G é um subespaço de
E.
u ∈ F ∪ G.
Assim,
u+v ∈F ou u + v ∈ G.
(u + v) + (−v) = u ∈ G
Logo
u+v ∈F
(−u) + (u + v) = v ∈ F,
Vejamos agora uma outra forma de construir subespaços, que não tem correspondência
nos conjuntos, e em que intervém a operação binária de adição.
F + G = {u + v : u ∈ F ∧ v ∈ G} .
Demonstração:
Exercı́cio.
F ∪ G $ R2 .
Mas
F + G = R2 ,
pois
∀(x,y)∈R2 (x, y) = (x, 0) + (0, y)
(a) F é subespaço de F + G.
(b) G é subespaço de F + G.
(c) F + G é o “menor” subespaço de E que contém F ∪ G, isto é, se H é um
subespaço de E que contém F ∪ G então F + G ⊆ H.
v = α1 u1 + · · · + αr ur .
2. Qualquer vector de R3 é combinação linear dos vectores (1, 0, 0), (0, 1, 0), (0, 0, 1) ∈ R3
pois
∀(a,b,c)∈R3 (a, b, c) = a(1, 0, 0) + b(0, 1, 0) + c(0, 0, 1).
Note que, neste caso, os coeficientes da combinação linear são únicos, para cada (a, b, c) ∈ R3 .
e1 , . . . , en
4. Em R2 o vector (3, 3) é combinação linear dos vectores (1, 1), (2, 2). Os coeficientes da
combinação linear não são únicos pois de
resulta
(3, 3) = (α1 + 2α2 , α1 + 2α2 ).
α1 + 2α2 = 3
α1 = 3 ∧ α2 = 0,
α1 = 1 ∧ α2 = 1,
α1 = 7 ∧ α2 = −2,
obtém-se, respectivamente,
{α1 u1 + · · · + αr ur : α1 , . . . , αr ∈ K},
é um subespaço de E.
Demonstração:
Exercı́cio.
0E ∈ hu1 , . . . , ur i
4. Mm×n (K) = hE11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n , . . . , Em1 , Em2 , . . . , Emn i em que Eij é a
matriz de Mm×n (K) com todas as entradas nulas excepto a entrada (i, j) que é igual a
1, i = 1, . . . , m, j = 1, . . . , n.
5. Seja F = (a, b, c) ∈ R3 : a = 2b + c .
Tem-se
F = {(2b + c, b, c) : b, c ∈ R} .
Notemos que
(2b + c, b, c) = b(2, 1, 0) + c(1, 0, 1)
e, portanto,
F = h(2, 1, 0), (1, 0, 1)i.
7. Em R2 , considerem-se os vectores
Tem-se
(1, 0) = {(x, 0) : x ∈ R} $ R2 .
α1 α1 + α2
Exercı́cio 4.12 Seja G = : α1 , α 2 ∈ R .
−α2 0
(a) Mostre que G é subespaço vectorial de M2×2 (R) e determine uma sequência
geradora de G.
(b) Indique uma matriz invertı́vel que pertença a G. Justifique.
(c) Indique duas matrizes não invertı́veis que pertençam a G. Justifique.
E = hu1 , . . . , ur i.
Note que de todos os espaços vectoriais que temos referido até agora, o único que não é
de dimensão finita é K[x] (conjunto dos polinómios, na variável x, com coeficientes em K,
sem restrição ao grau).
De facto, se K[x] tivesse dimensão finita existiria r ∈ N e polinómios p1 (x), . . . , pr (x) ∈ K[x]
tais que qualquer polinómio de K[x] se poderia escrever como combinação linear de
p1 (x), . . . , pr (x), isto é, K[x] = hp1 (x), . . . , pr (x)i.
123
Seja k o máximo grau dos polinómios p1 (x), . . . , pr (x). Constatamos facilmente que
qualquer polinómio com grau superior a k não se pode escrever como combinação linear dos
polinómios p1 (x), . . . , pr (x) e, portanto,
O resultado seguinte dá-nos um processo para concluir quando duas sequências de vec-
tores de um espaço vectorial E geram o mesmo subespaço.
se, e só se, para todo i ∈ {1, . . . , r}, ui é combinação linear dos vectores v1 , . . . , vs e para
todo j ∈ {1, . . . , s}, vj é combinação linear dos vectores u1 , . . . , ur .
Demonstração:
Suponhamos que
hu1 , . . . , ur i = hv1 , . . . , vs i.
ui ∈ hu1 , . . . , ur i = hv1 , . . . , vs i
vj ∈ hv1 , . . . , vs i = hu1 , . . . , ur i
u1 ∈ hv1 , . . . , vs i
..
.
ur ∈ hv1 , . . . , vs i
e, portanto,
hu1 , . . . , ur i ⊆ hv1 , . . . , vs i.
v1 ∈ hu1 , . . . , ur i
..
.
vs ∈ hu1 , . . . , ur i
concluirı́amos que
hv1 , . . . , vs i ⊆ hu1 , . . . , ur i.
Tem-se, pois,
hu1 , . . . , ur i = hv1 , . . . , vs i.
Demonstração:
Exercı́cio.
Exercı́cio 4.13 Seja F = (a, b, c, d, e) ∈ R5 : b − c = 0 ∧ a = b + d .
Exercı́cio 4.15 Considere no espaço vectorial real R3 os três vectores u1 = (−1, 1, 1),
u2 = (0, 2, 0), u3 = (1, 1, −1) e o subespaço F = hu1 , u2 , u3 i.
Exercı́cio 4.16 (a) Sejam a, b, c ∈ R. Mostre que o sistema de equações lineares nas
incógnitas x, y, z sobre R 8
< x+y+z =a
x + 2y + 3z = b
:
x + 3y + 2z = c
é possı́vel.
(b) Deduza da alı́nea (a) que o espaço vectorial real M3×1 (R) é gerado pelos
vectores 2 3 2 3 2 3
1 1 1
4 1 5, 4 2 5 e 4 3 5.
1 3 2
Note que, em particular, se uma sequência de vectores de E inclui o vector 0E , tal vector
pode ser “eliminado” da sequência que o subespaço gerado por esses vectores não se altera.
Ainda como consequência da Proposição 4.21, podemos afirmar que existem “trans-
formações” que podemos efectuar nos vectores de uma sequência garantindo que não al-
teramos o subespaço gerado por esses vectores. Nomeadamente, tem-se
(III) Substituição do vector ui , i ∈ {1, . . . , r}, por ui + βuj , com j ∈ {1, . . . , r}, j 6= i e
β ∈ K.
Então
hu1 , . . . , ur i = hu01 , . . . , u0r i.
Demonstração:
Exercı́cio.
126
então o subespaço gerado pelas linhas da matriz A é igual ao subespaço gerado pelas linhas
da matriz A0 .
Mais tarde veremos como proceder de forma idêntica partindo de m vectores que não
sejam de Kn .
Dado um espaço vectorial E, um dos nossos objectivos nesta secção vai ser a determinação
de uma sequência de geradores de E com um número mı́nimo de elementos.
α1 u1 + · · · + αr ur = 0E =⇒ α1 = · · · = αr = 0.
127
Tal equivale a afirmar que os vectores u1 , . . . , ur são linearmente dependentes se, e só se,
existem α1 , . . . , αr ∈ K não todos nulos tais que
α1 u1 + · · · + αr ur = 0E .
Demonstração:
Suponhamos que u1 , . . . , ur são linearmente dependentes.
Como
α1 u1 + · · · + αr ur = 0E .
obtemos
ou ainda,
uj = (−βj −1 β1 )u1 +· · ·+(−βj −1 βj−1 )uj−1 +(−βj −1 βj+1 )uj+1 +· · ·+(−βj −1 βr )ur .
3. Em Mm×n (K), a sequência (E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n , . . . , Em1 , Em2 , . . . , Emn ) é
linearmente independente.
linearmente independente.
6. Em R2 ,
(1, 0), (0, 1), (−1, 3), (−3, 4) é uma sequência linearmente dependente.
(1, 0), (0, 1), (−1, 3) é uma sequência linearmente dependente.
(1, 0), (0, 1) é uma sequência linearmente independente.
(1, 0) é uma sequência linearmente independente.
Exercı́cio 4.19 No espaço vectorial real M3×1 (R) considere as sequências de vectores
02 3 2 31 02 3 2 3 2 31
1 1 1 1 2
S1 = @ 4 5
−1 , 4 1 5A e S2 = @ 4 5
−1 , 4 5
1 , 4 0 5A .
1 0 1 0 1
Exercı́cio 4.21 No espaço vectorial real M2×2 (R) considere as sequências de vectores
1 1 2 3 2 2 3 1
S1 = , , ,
1 1 1 2 1 1 2 1
e
1 0 1 1 0 3 2 3
S2 = , , , .
0 2 2 1 2 1 4 3
Demonstração:
Suponhamos que os vectores u1 , . . . , ur são linearmente independentes. Seja v ∈ E
tal que
v = α1 u1 + · · · + αr ur = β1 u1 + · · · + βr ur
com α1 , . . . , αr , β1 , . . . , βr ∈ K. Tem-se
α1 + (−β1 ) = · · · = αr + (−βr ) = 0.
Logo
α1 = β1 ∧ · · · ∧ αr = βr
130
Reciprocamente, suponhamos que, para todo o vector que se possa escrever como
combinação linear dos vectores u1 , . . . , ur , os coeficientes da combinação linear são
únicos. Demonstremos que
α1 u1 + · · · + αr ur = 0E =⇒ α1 = · · · = αr = 0.
De facto, tem-se
α1 u1 + · · · + αr ur = 0E = 0u1 + · · · + 0ur
α1 = 0 ∧ · · · ∧ αr = 0.
Tem-se, pois,
α1 = · · · = αr = 0
Na Proposição 4.23 vimos que existiam 3 tipos de “transformações” que podı́amos efec-
tuar nos vectores de uma sequência garantindo que não se alterava o subespaço gerado pelos
vectores da sequência.
O resultado seguinte garante que essas mesmas “transformações” não alteram a de-
pendência/independência linear dos vectores da sequência.
Demonstração:
Suponhamos que S = (u1 , . . . , ur ) é linearmente dependente, ou equivalentemente,
que existem α1 , . . . , αr ∈ K, não todos nulos, tais que
α1 u1 + · · · + αr ur = 0E .
é equivalente a
α1 u1 + · · · + αr ur = 0E
α1 u1 +· · ·+αi−1 ui−1 +αi (ui +βuj )+αi+1 ui+1 +· · ·+(αj −αi β)uj +· · ·+αr ur = 0E
Demonstremos que afirmar que os escalares α1 , . . . , αr não são todos nulos equivale
a afirmar que os escalares
α1 , . . . , αi , . . . , αj − αi β, . . . , αr
não são todos nulos. De facto, se existe k ∈ {1, . . . , r}, com k 6= j, tal que αk 6= 0
então o resultado é trivial.
Caso contrário, isto é, se αk = 0 para todo k ∈ {1, . . . , r}, com k 6= j, então αj 6= 0
e como αi = 0 concluı́mos que
132
(1, 0), (0, 1), (−1, 3) é uma sequência geradora de R2 mas não é linearmente indepen-
dente.
Assim, podem ocorrer todos os 4 casos resultantes de se verificarem ou não, para uma
dada sequência, as propriedades de gerar um espaço ou de ser linearmente independente.
Teorema 4.29 Num espaço vectorial E finitamente gerado qualquer sequência geradora de
E tem um número de vectores superior ou igual ao número de vectores de qualquer sequência
linearmente independente.
Demonstração:
Seja (u1 , . . . , ur ) uma sequência linearmente independente de vectores de E e
(v1 , . . . , vs ) uma sequência geradora de E. Pretendemos demonstrar que
s ≥ r.
Como
E = hv1 , . . . , vs i e u1 , . . . , ur ∈ E
u1 = a11 v1 + · · · + as1 vs
..
.
ur = a1r v1 + · · · + asr vs .
Seja 2 3
a11 ··· a1r
6 7
A= 6 ··· 7 ∈ Ms×r (K).
4 5
as1 ··· asr
133
AX = 0
é indeterminado. Seja (α1 , . . . , αr ) ∈ Kr uma solução não nula de tal sistema, isto
é,
2 32 3 2 3
a11 ··· a1r α1 0
6 76 7 6 7
6 76
6
. 7
7 = 6 .. 7
6 . 7,
4 ··· 54 .. 5 4 5
as1 ··· asr αr 0
ou equivalentemente,
a11 α1
+ ··· + a1r αr = 0
··· .
as1 α1 + ··· + asr αr = 0
Tem-se
“eliminar” não poderão ser ao acaso, porque teremos de garantir que os que permanecem na
sequência continuam a gerar E.
A Proposição 4.22 responde a esse problema, pois afirma que se eliminarmos apenas
vectores que sejam combinação linear dos restantes vamos obtendo sequências que são ainda
geradoras de E.
Notemos que, procedendo dessa forma, quando já não houver na sequência nenhum vector
que seja combinação linear dos restantes, podemos afirmar que a sequência, além de geradora
de E, é também linearmente independente e, portanto, é uma base de E.
Teorema 4.32 Se um espaço vectorial E admite uma base com n elementos então todas as
bases de E têm n elementos.
Demonstração:
Suponhamos que
B = (u1 , . . . , un ) e B 0 = (v1 , . . . , vp )
n ≥ p.
p ≥ n.
Logo
p = n.
135
Definição 4.33 Seja E um espaço vectorial. Se uma base de E (e, portanto todas)
tem n elementos dizemos que E tem dimensão n e escrevemos dim E = n.
Note que, como convencionámos que o conjunto vazio é base de E = {0E } então, neste
caso, dim E = 0.
3. dim Kn [x] = n + 1.
dim D = n.
dimC C = 1 e dimR C = 2.
Exercı́cio 4.22 No espaço vectorial real R3 considere o subespaço F = (2, 3, 3) . Indi-
que duas bases de F . Justifique a sua resposta.
Exercı́cio 4.23 Seja F = (a, b, c, d, e) ∈ R5 : b − c = 0 ∧ a = b + d um subespaço
5
vectorial de R . Determine uma base de F .
α1 α1 + α2
Exercı́cio 4.24 Seja G = : α1 , α 2 ∈ R um subespaço vectorial
−α2 0
de M2×2 (R). Determine uma base de G.
Vejamos agora como as matrizes nos podem ser muito úteis para determinar se uma
sequência de vectores de Kn é ou não linearmente independente e, no caso de não ser,
determinar uma sequência linearmente independente que gere o mesmo subespaço (de Kn )
que a sequência inicial.
Proposição 4.35 As linhas não nulas de uma matriz em forma de escada são linearmente
independentes.
136
Demonstração:
Seja A ∈ Mm×n (K) uma matriz em forma de escada e A0 uma matriz em forma
de escada reduzida, obtida de A efectuando um número finito de transformações
elementares sobre linhas.
De acordo com a Proposição 4.28 as linhas não nulas de A são linearmente inde-
pendentes se, e só se, as linhas não nulas de A0 são linearmente independentes.
Seja
2 3
0 ··· 0 a01k1 ∗ ··· ∗ 0 ∗ ··· ∗ 0 ∗ ··· ∗
6 7
6 0 ··· 0 0 0 ··· 0 a02k2 ∗ ··· ∗ 0 ∗ ··· ∗ 7
6 7
6 7
6 ··· 7
6 7
6 7
0
A = 6 0 ··· 0 0 0 ··· 0 0 0 ··· 0 a0sks ∗ ··· ∗ 7
6 7
6 0 7
6 0 ··· 0 0 0 ··· 0 0 0 ··· 0 0 0 ··· 7
6 7
6 .. .. 7
6 . . 7
4 5
0 ··· 0 0 0 ··· 0 0 0 ··· 0 0 0 ··· 0
Resumidamente, se
v1 , . . . , vs ∈ Kn
e
F = hv1 , . . . , vs i,
137
então considerando
A ∈ Ms×n (K) cuja linha i é vi , i = 1, . . . , s,
e
A −−−−−−−→ A0 em forma de escada
(linhas)
então dim F = r(A) e uma base de F é uma sequência que tenha como únicos elementos as
linhas não nulas de A0 (ou ∅ se A0 = 0).
Logo
D E
G = (1, −1, 0), (0, 1, 4), (2, −1, 4)
D E
= (1, −1, 0), (0, 1, 4), (0, 1, 4)
D E
= (1, −1, 0), (0, 1, 4), (0, 0, 0)
D E
= (1, −1, 0), (0, 1, 4) .
Como a sequência (1, −1, 0), (0, 1, 4) é geradora de G e é linearmente independente (note
que os elementos da sequência são as linhas não nulas de uma matriz em forma de escada)
então tal sequência é uma base de G, tendo-se dim G = 2.
Exercı́cio 4.25 Considere em R5 o vector u = (5, 1, −1, −2, −4) e, para cada k ∈ R, os
seguintes vectores vk = (1, 0, k, −1, 2k) e wk = (3, 1, −k, 0, 0). Determine os valores de k
para os quais a sequência (u, vk , wk ) é linearmente independente.
Recordando o Teorema 4.29 não poderá ser “eliminando” vectores da sequência. Even-
tualmente será “acrescentando” vectores à sequência (não acrescentando nenhum vector se
a sequência já for geradora).
138
Os vectores a “acrescentar” não poderão ser quaisquer, pois temos de garantir que a nova
sequência continuará linearmente independente. Sabemos que se tivermos vectores u1 , . . . , ur
linearmente independentes e “acrescentarmos” um vector v que seja combinação linear de
u1 , . . . , ur então, por definição, os vectores u1 , . . . , ur , v são linearmente dependentes. Mas,
tal não significa que se “acrescentarmos” um vector v que não seja combinação linear de
u1 , . . . , ur então u1 , . . . , ur , v sejam linearmente independentes.
e
hu1 , . . . , ur i $ hu1 , . . . , ur , vi.
Demonstração:
Dado que a última afirmação do enunciado é trivial, demonstremos apenas que
se v não é combinação linear dos vectores u1 , . . . , ur , linearmente independentes,
então u1 , . . . , ur , v são linearmente independentes.
Suponhamos que
α1 u1 + · · · + αr ur + αr+1 v = 0E .
Tem-se
αr+1 = 0 ou αr+1 6= 0.
Se αr+1 = 0 então
α1 u1 + · · · + αr ur = 0E
α1 = · · · = αr = 0.
139
Logo
α1 = · · · = αr = αr+1 = 0
Se αr+1 6= 0 então, de
α1 u1 + · · · + αr ur + αr+1 v = 0E ,
resulta
αr+1 v = (−α1 )u1 + · · · + (−αr )ur ,
ou ainda,
−1 −1
v = (−αr+1 α1 )u1 + · · · + (−αr+1 αr )ur ,
que é de novo uma contradição com a hipótese de v não ser combinação linear dos
vectores u1 , . . . , ur .
Tem-se o seguinte resultado, que não demonstraremos, conhecido por Teorema do Com-
plemento ou Teorema da Base Incompleta.
(u1 , . . . , ur , w1 , . . . , wn−r )
é uma base de E.
Os Teoremas 4.31 e 4.38 afirmam, pois, respectivamente que, se num espaço vectorial E de
dimensão n tivermos uma sequência S de vectores de E então:
Demonstração:
1. Sejam u1 , . . . , un ∈ E tais que
E = hu1 , . . . , un i.
Se E e E 0 são espaços vectoriais tais que E = E 0 então dim E = dim E 0 . Mas, existem
obviamente espaços vectoriais que têm a mesma dimensão e não são iguais. Por exemplo,
Demonstração:
1. Suponhamos que F é subespaço de E com r = dim F > dim E = n e cheguemos
a uma contradição.
Mas, como dim E = n, pelo Teorema 4.39, podemos afirmar que (v1 , . . . , vn ) é uma
base de E. Logo
E = hv1 , . . . , vn i.
Como
F = hv1 , . . . , vn i
concluı́mos que
F = E.
Exemplo 4.41 1. Vejamos um exemplo de, como a partir de uma sequência linearmente
independente de vectores de R4 podemos obter uma base de R4 .
Como
2 3 2 3 2 3
1 4 3 6 1 4 3 6 1 4 3 6
6 7−−−−−−−→6 7−−−−−−→6 7
6 0 2 7 6 2 7 6 −9 7 (f.e.)
4 0 0 5l3 + (−2)l1 4 0 0 0 5l2 ←→ l3 4 0 0 −5 5
2 8 1 3 0 0 −5 −9 0 0 0 2
e
r(B) = 4.
Como a sequência
(1, 4, 3, 6), (0, 0, 0, 2), (2, 8, 1, 3), (0, 1, 0, 0)
é linearmente independente e tem 4 = dim(R4 ) vectores, pelo Teorema 4.39, é uma base
de R4 .
2. Seja
D E
F = (1, 4, 3, 6), (0, 0, 0, 2), (2, 8, 1, 3) .
Como vimos em 1., a sequência (1, 4, 3, 6), (0, 0, 0, 2), (2, 8, 1, 3) é linearmente indepen-
dente e, portanto,
Base de F = (1, 4, 3, 6), (0, 0, 0, 2), (2, 8, 1, 3) .
Note que (1, 4, −2, −3) ∈ F se, só se, (1, 4, −2, −3) se pode escrever como combinação
linear dos vectores (1, 4, 3, 6), (0, 0, 0, 2), (2, 8, 1, 3) ou equivalentemente, se, e só se, as
matrizes 2 3
2 3 1 4 3 6
1 4 3 6 6 7
6 7 6 0 2 7
6 0 6 0 0 7
A= 4 0 0 2 7
5 e C= 6 7
6 2 8 1 3 7
2 8 1 3 4 5
1 4 −2 −3
Demonstração:
É uma consequência imediata da definição de base e da Proposição 4.27.
144
v = α1 u1 + · · · + αn un
(0, 1), (1, 0) é também uma base de R2 . Em relação a essa base, como
B = (−1, 1), (0, 1) é também uma base de R2 . Determinemos a sequência das coorde-
= (−α1 , α1 ) + (0, α2 )
= (−α1 , α1 + α2 ).
Logo
−α = a
1
.
α1 + α2 = b
Tem-se, pois, um sistema de equações lineares nas incógnitas α1 , α2 , cuja solução única é
(−a, a + b).
Assim a sequência das coordenadas do vector (a, b) na base B = (−1, 1), (0, 1) é
(−a, a + b).
7(−1, 2, 3) + (−1)(0, 3, 4) + 4(0, 0, 5) = (−7, 14, 21) + (0, −3, −4) + (0, 0, 20)
e a base canónica de R4
b. c.R4 = (1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1) .
e
1 0 0 1 0 0 0 0
B0 = , , , .
0 0 0 0 1 0 0 1
4 3
(a) Determine a sequência das coordenadas do vector em cada uma
2 1
das bases B e B0 .
(b) Determine
a sequência das coordenadas de um vector arbitrário
a b
∈ M2×2 (R) em cada uma das bases B e B0 .
c d
e
B0 = x3 , x2 , x, 1 .
Exercı́cio 4.32 (a) Mostre que (1, 0, 0), (0, i, −1), (1, 0, 1 − i) é base do espaço vecto-
3
rial complexo C .
Notemos que, para qualquer espaço vectorial E de dimensão n, se fixarmos em E uma base
B então a “correspondência”
f : E −→ Kn
que a cada vector u ∈ E associa a sequência das coordenadas de u na base B é uma aplicação
bijectiva.
De facto, a Proposição 4.42 garante que f é uma aplicação e é bijectiva porque, qualquer
que seja (β1 , . . . , βn ) ∈ Kn existe um, e um só, u ∈ E tal que
f (u) = (β1 , . . . , βn ).
Uma reflexão mais exaustiva sobre este tema permitir-nos-ia concluir que a resolução dos
quatro problemas anteriores envolvendo vectores de E = Kr [x] ou de E = Mm×n (K) pode
ser feita com vectores, respectivamente, de Kr+1 ou de Kmn utilizando as sequências das
coordenadas dos vectores em causa em relação a uma base fixa B de E.
O mesmo raciocı́nio pode ser seguido para qualquer espaço vectorial E de dimensão finita
e assim continuar a utilizar as matrizes para resolver os 4 problemas anteriores.
Assim,
S = x3 + 4x2 + 3x + 6, 2, 2x3 + 8x2 + x + 3
é linearmente independente e
é também linearmente independente. Como tem 4 = dim R3 [x] vectores é uma base de
R3 [x].
B = (e1 , e2 , e3 , e4 )
e1 + e2 + e4 é (1, 1, 0, 1),
2e1 + 2e2 + e3 + e4 é (2, 2, 1, 1).
148
Tem-se
" # " #
1 1 0 1 −−−−−−−→ 1 1 0 1
A= l2 + (−2)l1 (f.e.)
2 2 1 1 0 0 1 −1
com
r(A) = 2
Dado que
2 3 2 3 2 3
1 1 0 1 1 1 0 1 1 1 0 1
6 7 6 7 6 7
6 2 1 7− −−−−−−→ 6 0 −1 7 6 0 0 7
0 6 2 1 7 6 0 1 7−− −−−−→ 6 1 0 7
A = 6
6 0
7l2 + (−2)l1 6 7l2 ←→ l3 6 7 (f.e.)
4 1 0 0 7
5
6 0
4 1 0 0 7
5
6 0
4 0 1 −1 7
5
0 0 0 1 0 0 0 1 0 0 0 1
r(A0 ) = 4
F = hu1 , . . . , ur i e G = hv1 , . . . , vs i
então
F + G = hu1 , . . . , ur , v1 , . . . , vs i.
Demonstração:
Por hipótese, tem-se
e
∀v∈G ∃β1 ,...,βs ∈K v = β1 v1 + · · · + βs vs .
Seja z ∈ F + G. Então
z = u + v,
com u ∈ F e v ∈ G.
Logo
z = (α1 u1 + · · · + αr ur ) + (β1 v1 + · · · + βs vs )
= α1 u1 + · · · + αr ur + β1 v1 + · · · + βs vs
e, portanto,
z ∈ hu1 , . . . , ur , v1 , . . . , vs i.
F + G ⊆ hu1 , . . . , ur , v1 , . . . , vs i.
z = γ1 u1 + · · · + γr ur + γr+1 v1 + · · · + γr+s vs
= (γ1 u1 + · · · + γr ur ) + (γr+1 v1 + · · · + γr+s vs ).
150
Como
(γ1 u1 + · · · + γr ur ) ∈ F e (γr+1 v1 + · · · + γr+s vs ) ∈ G
concluı́mos que z ∈ F + G.
hu1 , . . . , ur , v1 , . . . , vs i ⊆ F + G,
Tem-se
F = (x, y, z) ∈ R3 : x = y + 2z
= {(y + 2z, y, z) : y, z ∈ R} .
concluı́mos que
D E
F = (1, 1, 0), (2, 0, 1) .
Dado que G = (1, 0, −1), (2, 0, 4), (0, 3, 1) concluı́mos que
D E
F + G = (1, 1, 0), (2, 0, 1), (1, 0, −1), (2, 0, 4), (0, 3, 1) .
Demonstração:
Como F ∩ G é um subespaço de F (e de G) tem-se
dim(F ∩ G) ≤ dim F
Como F e G têm, por hipótese, dimensão finita podemos afirmar que existem
u1 , . . . , ur ∈ F e v1 , . . . , vs ∈ G tais que
F = hu1 , . . . , ur i e G = hv1 , . . . , vs i,
com r, s ∈ N.
F + G = hu1 , . . . , ur , v1 , . . . , vs i.
Demonstremos que
Caso 1: F ⊆ G ou G ⊆ F .
Se F ⊆ G então F + G = G e F ∩ G = F . Logo
Se G ⊆ F a demonstração é análoga.
152
Caso 2: F 6⊆ G e G 6⊆ F e F ∩ G = {0E }.
Neste caso tem-se F 6= {0E }. Caso contrário, ter-se-ia F = {0E } ⊆ G.
De igual forma se conclui que G 6= {0E }.
Assim
{0E } = F ∩ G $ F 6= {0E }
e
{0E } = F ∩ G $ G 6= {0E }.
e
(v1 , . . . , vs ) é uma base de G.
Como
F + G = hu1 , . . . , ur , v1 , . . . , vs i,
α1 u1 + · · · + αr ur + β1 v1 + · · · + βs vs = 0E .
Logo
α1 u1 + · · · + αr ur = (−β1 )v1 + · · · + (−βs )vs .
Como
concluı́mos que
Dado que
F ∩ G = {0E }
tem-se
α1 u1 + · · · + αr ur = (−β1 )v1 + · · · + (−βs )vs = 0E .
α1 = · · · = αr = 0.
153
β1 = · · · = βs = 0.
α1 = · · · = αr = β1 = · · · = βs = 0
e, portanto,
(u1 , . . . , ur , v1 , . . . , vs )
F + G = hu1 , . . . , ur , v1 , . . . , vs i,
concluı́mos que
(u1 , . . . , ur , v1 , . . . , vs )
dim(F + G) = r + s
e, portanto,
dim(F + G) = r + s = r + s − 0
= dim F + dim G − dim(F ∩ G).
Caso 3: F 6⊆ G e G 6⊆ F e F ∩ G 6= {0E }.
Tem-se então
F 6= {0E } , G 6= {0E } , F ∩ G $ F e F ∩ G $ G.
Dado que
F = hw1 , . . . , wt , y1 , . . . , yr−t i
G = hw1 , . . . , wt , z1 , . . . , zs−t i
dim(F + G) = t + (r − t) + (s − t) = r + s − t
= dim F + dim G − dim(F ∩ G).
e D E
H = (1, 0, 0, 3), (2, 0, 0, 1) .
Determine:
e D E
G = (1, 1, −1, 1), (1, 0, 1, −1), (1, −1, −4, 4) .
(a) Determine:
(i) Uma base de F;
(ii) Uma base de R4 que inclua uma base de F ;
(iii) Uma base de G;
(iv) Uma base de F ∩ G;
(b) Mostre que F + G = R4 .
156
onde (S1 ) e (S2 ) são os seguintes sistemas de equações lineares nas incógnitas x1 , . . . , x5
sobre R:
8 8
< x1 − x2 + 2x3 + x5 = 0 < 2x1 + x2 + 2x3 + x4 = 0
(S1 ) −x1 + x2 − x3 + x4 − 2x5 = 0 e (S2 ) x1 − x2 + x3 − x4 + 3x5 = 0 .
: :
2x1 − 2x2 + 3x3 − x4 + 3x5 = 0 −x1 − 2x2 − x4 + x5 = 0
Determine:
(b) É
4.11 (a) Sim
(c) Não é
(d) k = −2
(d) Não é
1 1 0 1
4.12 (a) Por exemplo, G = 0 0 , −1 0
4.34 (a) Por exemplo,
4.13 (a) Por exemplo, (1, 1, 0, 0), (0, 0, 1, 0)
F = (1, 1, 1, 0, 0), (1, 0, 0, 1, 0), (0, 0, 0, 0, 1)
(b) 2
(b) Não
(c) Por exemplo,
4.18 (a) S1 é linearmente independente (1, 1, 1, 0)
S2 é linearmente dependente (d) Por exemplo,
(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0)
4.19 (a) S1 é linearmente independente
S2 é linearmente dependente (e) Por exemplo,
(1, 0, 0, 0)
4.20 (a) S1 é linearmente dependente
(f) Por exemplo,
S2 é linearmente independente
(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)
(g) 1
4.29 (a) (1, 1, 1, 1), na base B
(4, 3, 2, 1), na base b. c.R4 4.36 (a) Por exemplo,
x3 + x2 , x
(b) (a − b, b − c, c − d, d), na base B
(a, b, c, d), na base b. c.R4 (b) 2
158
(g) 1
Aplicações Lineares
Notemos que, quer em E quer em E 0 , a adição está a ser representada pelo mesmo sı́mbolo
+ e o mesmo se passa em relação à multiplicação externa. Se fizéssemos a distinção e consi-
derássemos os espaços vectoriais (E, +, ·) e (E 0 , ⊕, ) as propriedades anteriores tomariam
as seguintes formas:
No que vai seguir-se, e mesmo que tal não seja enunciado, E, E 0 e E 00 são espaços
vectoriais sobre K (todos sobre R ou todos sobre C).
160
f : E −→ E
tal que
∀w∈E f (w) = βw.
Tem-se
f : E −→ E
tal que
∀u∈E f (u) = 0E ,
f : E −→ E
tal que
∀u∈E f (u) = u,
designada por aplicação identidade de E e que representaremos por idE . Tem-se, pois,
idE : E −→ E
tal que
∀u∈E idE (u) = u.
2. A aplicação
f : E −→ E 0
tal que
∀u∈E f (u) = 0E 0
f : F −→ E
tal que
∀u∈F f (u) = u
4. Sejam m, b ∈ R. A aplicação
f : R −→ R
tal que
∀x∈R f (x) = mx + b
f (x + y) = m(x + y) + b
= mx + my + b
= mx + my + 2b.
mx + my + b = mx + my + 2b,
ou equivalentemente, se
b = 2b,
isto é, se
b = 0.
= α(m(x))
= αf (x).
5. A aplicação
D : Rn [x] −→ Rn [x]
definida por
∀an xn +an−1 xn−1 +···+a1 x+a0 ∈Rn [x]
6. A aplicação
f : R −→ R
tal que
∀x∈R f (x) = x2
7. A aplicação
f : R3 −→ R2
tal que
∀(x,y,z)∈R3 f (x, y, z) = (2x, y + z)
é uma aplicação linear porque para quaisquer (x, y, z), (x0 , y 0 , z 0 ) ∈ R3 e α ∈ R, se tem
f (x, y, z) + (x0 , y 0 , z 0 ) = f (x + x0 , y + y 0 , z + z 0 )
= 2(x + x0 ), (y + y 0 ) + (z + z 0 )
= 2x + 2x0 , (y + z) + (y 0 + z 0 )
= (2x, y + z) + (2x0 , y 0 + z 0 )
= f (x, y, z) + f (x0 , y 0 , z 0 )
e
f α(x, y, z) = f (αx, αy, αz)
= (2αx, αy + αz)
= α(2x), α(y + z)
= α(2x, y + z)
= αf (x, y, z).
163
8. A aplicação
f : M2×2 (R) −→ R2 [x]
tal que
" #
a b
f = (a + b)x2 + 2cx − d
c d
" #
a b
para toda a matriz ∈ M2×2 (R), é uma aplicação linear.
c d
" # " #
a b a0 b0
De facto, quaisquer que sejam α ∈ R e A = , A0 = ∈ M2×2 (R), tem-se
c d c0 d0
" # " #
0 a b a0 b0
f (A + A ) = f +
c d c0 d0
" #
a + a0 b + b0
=f
c+ c0 d + d0
= (a + a0 ) + (b + b0 ) x2 + 2 c + c0 x − d + d0
= (a + b) + (a0 + b0 ) x2 + 2c + 2c0 x − d + d0
" #
a b
f (αA) = f α
c d
" #
αa αb
=f
αc αd
= α (a + b)x2 + 2cx − d
" #
a b
= αf
c d
= αf (A).
ou, ainda, a
1. f (0E ) = 0E 0 .
Demonstração:
1. Tem-se, para todo u ∈ E,
u = u + 0E
e, portanto,
f (u) = f (u + 0E ) = f (u) + f (0E ).
f (u) + 0 E0
= f (u) + f (0E ).
Assim,
f (0E ) = 0E 0 .
f (−u) = −f (u)
f (u) + f (−u) = 0E 0 .
De facto, tem-se
165
f : R −→ R
tal que
∀x∈R f (x) = mx + b, com b 6= 0
e
g : R2 −→ R3
tal que
∀(a,b)∈R2 g(a, b) = (a − b, 2b, a + 1)
e
g(0, 0) = (0, 0, 1) 6= (0, 0, 0).
tal que
∀u ∈ E (f + g)(u) = f (u) + g(u).
αf : E −→ E 0
tal que
∀u∈E (αf )(u) = αf (u).
O resultado seguinte estabelece que a soma de aplicações lineares é, ainda, uma aplicação
linear e o mesmo sucede com o produto de um escalar por uma aplicação linear.
Demonstração:
Exercı́cio.
Exercı́cio 5.3 Seja L(E, E 0 ) o conjunto das aplicações lineares de E em E 0 . Mostre que
L(E, E 0 ) com as operações de adição de aplicações e de multiplicação de um escalar por
uma aplicação, consideradas na Definição 5.4, é um espaço vectorial sobre K.
• f é sobrejectiva se
∀b∈B ∃a∈A f (a) = b.
• f é injectiva se
∀a,a0 ∈A a 6= a0 =⇒ f (a) 6= f (a0 )
ou equivalentemente,
∀a,a0 ∈A f (a) = f (a0 ) =⇒ a = a0 .
Im f = {f (a) : a ∈ A} ⊆ B.
Nuc f = {u ∈ E : f (u) = 0E 0 } .
1. Nuc f é um subespaço de E.
2. Im f é um subespaço de E 0 .
Demonstração:
Exercı́cio.
f (W ) = {f (u) : u ∈ W }
f ← (W 0 ) = u ∈ E : f (u) ∈ W 0 .
= {u ∈ E : u = 0E }
= {0E } .
= {u ∈ E : 0E 0 = 0E 0 }
= {u ∈ E}
= E.
168
= {an xn + · · · + a1 x + a0 ∈ Rn [x] : an = 0 ∧ · · · ∧ a2 = 0 ∧ a1 = 0}
= {0xn + · · · + 0x + a0 ∈ Rn [x]}
= {a0 : a0 ∈ R} .
4. Determinemos o núcleo da aplicação f : M2×2 (R) −→ R2 [x], dada no Exemplo 5.2, por
" #
a b
f = (a + b)x2 + 2cx − d
c d
" #
a b
para toda a matriz ∈ M2×2 (R).
c d
" # " #
a b a b 2
Nuc f = ∈ M2×2 (R) : f = 0x + 0x + 0
c d c d
" #
a b 2 2
= ∈ M2×2 (R) : (a + b)x + 2cx − d = 0x + 0x + 0
c d
" #
a b
= ∈ M2×2 (R) : a + b = 0 ∧ 2c = 0 ∧ d = 0
c d
" #
a b
= ∈ M2×2 (R) : a = −b ∧ c = 0 ∧ d = 0
c d
" #
−b b
= : b∈R .
0 0
e
g : R4 −→ R3 , definida por g(a, b, c, d) = (ab, 0, 0).
(a) Mostre que a aplicação f : M2×2 (R) → R definida por f (A) = A11 + A22 ,
para todo A ∈ M2×2 (R), é linear.
(b) Diga, justificando, se F = {A ∈ M2×2 (R) : A11 + A22 = 0} é subespaço
vectorial de M2×2 (R).
(c) Determine uma base de Nuc f .
f (a, b, c, d, e) = (a − c + 3d − e, a + 2d − e, 2a − c + 5d − e, −c + d),
Exercı́cio 5.9 Seja (v1 , v2 , v3 , v4 , v5 ) uma base do espaço vectorial real R5 e seja
f : R5 → R5 a aplicação linear definida por
Tal como a imagem de uma aplicação nos permite saber se a aplicação é sobrejectiva, o
núcleo de uma aplicação linear permite-nos saber se a aplicação é injectiva.
Proposição 5.9 Seja f : E −→ E 0 uma aplicação linear. Tem-se f é injectiva se, e só se,
Nuc f = {0E }.
Demonstração:
Suponhamos que f é injectiva e demonstremos que Nuc f = {0E }.
f (u) = 0E 0 = f (0E ),
170
e, portanto,
u + (−v) ∈ Nuc f.
u + (−v) = 0E .
Logo
u = v.
1. Se v1 , . . . , vs ∈ E e E = hv1 , . . . , vs i então
Im f = hf (v1 ), . . . , f (vs )i .
Demonstração:
1. Seja u0 um vector arbitrário de Im f . Assim
∃u∈E f (u) = u0 .
∃α1 ,...,αs ∈K u = α1 v1 + · · · + αs vs .
Logo
u0 = f (u) = f (α1 v1 + · · · + αs vs )
= α1 f (v1 ) + · · · + αs f (vs )
hf (v1 ), . . . , f (vs )i ⊆ Im f.
Notemos que
α1 u1 + · · · + αr ur = 0E
172
α1 = · · · = αr = 0,
conforme pretendı́amos.
W = hu1 , . . . , ur i
então
f (W ) = hf (u1 ), . . . , f (ur )i
em que
f (W ) = {f (v) : v ∈ W } .
(Note que tomando W = E se obtém f (E) = Im f e, portanto, resulta a afirmação 1. do
teorema anterior.)
dim Im f ≤ n = dim E.
Notemos que, como Nuc f é um subespaço de E, se E tem dimensão finita então Nuc f
também tem dimensão finita e
dim Nuc f ≤ dim E.
Demonstração:
A justificação de que se E tem dimensão finita o mesmo sucede a Im f e a Nuc f
foi feita na discussão que precede este teorema.
Seja n = dim E.
Assim
dim Nuc f = 0 e dim Im f = n = dim E
pelo que
dim E = dim Nuc f + dim Im f.
Neste caso tem-se, dim Nuc f = dim E. Como Im f = {0E 0 }, concluı́mos que
dim Im f = 0 e, portanto,
(v1 , . . . , vp , w1 , . . . , wn−p )
é uma base de E.
174
Tem-se
A igualdade
α1 f (w1 ) + · · · + αn−p f (wn−p ) = 0E 0
pelo que
α1 w1 + · · · + αn−p wn−p ∈ Nuc f.
α1 w1 + · · · + αn−p wn−p = β1 v1 + · · · + βp vp .
Logo
(−β1 )v1 + · · · + (−βp )vp + α1 w1 + · · · + αn−p wn−p = 0E
Demonstração:
Suponhamos que f : E −→ E 0 é uma aplicação linear, com dim E = n = dim E 0 .
Afirmar que f é injectiva equivale a afirmar que Nuc f = {0E } ou, ainda, que
dim Nuc f = 0.
dim Nuc f = 0
é equivalente a
dim E = dim Im f.
Dado que dim E = dim E 0 , tem-se dim E = dim Im f se, e só se,
dim E 0 = dim Im f.
Im f = E 0 .
Finalizaremos esta secção com um resultado que, tal como os dois resultados anteriores,
é válido apenas quando E tem dimensão finita.
176
f (e1 ) = u01
..
.
f (en ) = u0n
ou equivalentemente,
f (ei ) = u0i , i = 1, . . . , n.
Demonstração:
Como B = (e1 , . . . , en ) é uma base de E, podemos afirmar que,
Demonstremos que
f (e1 ) = u01
..
.
f (en ) = u0n
conforme pretendı́amos.
177
∀α ∈ K ∀u∈E f (αu) = f α(α1 e1 + · · · + αn en )
= f (αα1 )e1 + · · · + (ααn )en
e, portanto, f é linear.
g(ei ) = u0i , i = 1, . . . , n,
então ter-se-ia g = f .
Tem-se
∀u∈E ∃α1 ,...,αn ∈K u = α1 e1 + · · · + αn en
e
∀a∈A idA (a) = a.
g ◦ f : A −→ C
e
∀a∈A (g ◦ f )(a) = g(f (a)).
f ◦ idA = f e idB ◦f = f.
(h ◦ g) ◦ f = h ◦ (g ◦ f ).
179
2. Se uma aplicação f : A −→ B é invertı́vel (isto é, bijectiva) então existe uma, e uma
só, aplicação g : B −→ A tal que
f ◦ g = idB e g ◦ f = idA .
Obviamente tem-se
−1
f ◦ f −1 = idB , f −1 ◦ f = idA e f −1 = f.
(g ◦ f )−1 = f −1 ◦ g −1 .
Tudo o que nesta secção foi já referido para aplicações arbitrárias é válido para aplicações
lineares. Pode, no entanto, colocar-se o problema de saber se uma aplicação obtida por
composição de duas aplicações lineares é, ainda, linear e se a inversa de uma aplicação linear
invertı́vel é, ainda, linear. Tem-se:
Proposição 5.15 1. A aplicação obtida por composição de duas aplicações lineares é,
ainda, uma aplicação linear.
2. A inversa de uma aplicação linear invertı́vel é, ainda, uma aplicação linear.
Demonstração:
1. Sejam E, E 0 e E 00 espaços vectoriais sobre K e sejam f : E −→ E 0 e
g : E 0 −→ E 00 aplicações lineares. Demonstremos que a aplicação
g ◦ f : E −→ E 00
tal que
∀u∈E (g ◦ f )(u) = g(f (u))
180
Tem-se
f (w) = f (z) =⇒ w = z.
f f −1 (αu0 + βv 0 ) = f αf −1 (u0 ) + βf −1 (v 0 ) .
∀α,β∈K ∀u0 ,v0 ∈E 0
Tem-se
f f −1 (αu0 + βv 0 ) = f ◦ f −1 (αu0 + βv 0 )
= idE 0 (αu0 + βv 0 )
= αu0 + βv 0
f αf −1 (u0 ) + βf −1 (v 0 ) = f αf −1 (u0 ) + f βf −1 (v 0 )
= αf f −1 (u0 ) + βf f −1 (v 0 )
= α f ◦ f −1 (u0 ) + β f ◦ f −1 (v 0 )
(a) E'E.
(b) Se E'E 0 então E 0 'E. (Dizemos então que E e E 0 são isomorfos.)
(c) Se E'E 0 e E 0 'E 00 então E'E 00 .
Demonstração:
Suponhamos que dim E = n e seja B = (e1 , . . . , en ) uma base de E.
Im f = hf (e1 ), . . . , f (en )i .
(f (e1 ), . . . , f (en ))
é uma base de Im f .
tal que
f (ei ) = e0i , i = 1, . . . , n.
Como
Im f = hf (e1 ), . . . , f (en )i
= he01 , . . . , e0n i = E 0
Dois espaços vectoriais de dimensão finita são isomorfos se, e só se, têm a mesma di-
mensão.
Exemplo 5.18 1. M2×3 (R) e R6 são isomorfos porque têm ambos dimensão finita e
tal que
Exercı́cio 5.19 Justifique que M2×2 (R) e R3 [x] são isomorfos e indique um isomorfismo
entre M2×2 (R) e R3 [x].
No que vai seguir-se suporemos que os espaços vectoriais E e E 0 são ambos de dimensão
finita, com dim E = n ≥ 1 e dim E 0 = m ≥ 1.
Pensemos que a sequência das coordenadas de f (ej ) são a coluna j de uma matriz. Tem-se
então
Exemplo 5.20 1. Considere a aplicação idE e seja B = (e1 , . . . , en ) uma base arbitrária de
E. Determinemos
M(idE ; B, B).
Tem-se
pelo que
2 3
1 0 ··· 0
6 7
6 0 1 ··· 0 7
6 7
M(idE ; B, B) = 6 7 = In , com n = dim E.
6 .. .. .. .. 7
6 . . . . 7
4 5
0 0 ··· 1
Sejam B = (1, 1, 2), (0, 2, 6), (0, 0, −4) e B 0 = (1, 0), (0, 2) bases de R3 e R2 , respec-
Tem-se
f (1, 1, 2) = (3, −2) = 3(1, 0) + (-1)(0, 2)
f (0, 2, 6) = (2, −6) = 2(1, 0) + (-3)(0, 2)
f (0, 0, −4) = (0, 4) = 0(1, 0) + 2(0, 2)
pelo que
" #
3 2 0
M(f ; B, B 0 ) = .
−1 −3 2
185
Demonstração:
Seja A = [aij ] ∈ Mm×n (K).
Sabemos que
f (ej ) = a1j e01 + · · · + amj e0m , j = 1, . . . , n.
u = α1 e1 + · · · + αn en .
Logo
f (u) = f (α1 e1 + · · · + αn en )
= α1 f (e1 ) + · · · + αn f (en )
= α1 (a11 e01 + · · · + am1 e0m ) + · · · + αn (a1n e01 + · · · + amn e0m )
= (α1 a11 + · · · + αn a1n )e01 + · · · + (α1 am1 + · · · + αn amn )e0m
= (a11 α1 + · · · + a1n αn )e01 + · · · + (am1 α1 + · · · + amn αn )e0m .
Como 2 32 3 2 3
a11 ··· a1n α1 a11 α1 + · · · + a1n αn
6 76
6
7
7
6 7
6
4 ··· 76 ..
54 . 7 =6
6
..
.
7
7
5 4 5
am1 ··· amn αn am1 α1 + · · · + amn αn
186
Sejam B = (1, 1, 2), (0, 2, 6), (0, 0, −4) uma base de R3 , B 0 = (1, 0), (0, 2)
Exemplo 5.22
uma base de R2 e considere-se a aplicação linear f : R3 −→ R2 tal que
" #
0 3 2 0
A = M(f ; B, B ) = .
−1 −3 2
Comecemos por determinar a sequência das coordenadas do vector u = (1, −3, −6) na
base B. Tem-se
com
α1 = 1
α1 + 2α2 = −3 .
2α1 + 6α2 − 4α3 = −6
Verificamos facilmente que a sequência das coordenadas do vector u na base B é (1, −2, −1),
isto é,
Assim, de acordo com a Proposição 5.21, a sequência das coordenadas de f (u), na base
B 0 , é (−1, 3) pois
2 3 2 3
1 " # 1 " #
6 7 3 2 0 6 7 −1
A6 7
4 −2 5 = 6 −2 7
4 5 = .
−1 −3 2 3
−1 −1
Se (−1, 3) é a sequência das coordenadas de f (u) na base B 0 = (1, 0), (0, 2) então
ter-se-á
= (−1, 6),
e as bases de R2
B10 = b. c.R2 , B20 = (1, 1), (1, 0)
E = E0 e f = idE
tem-se
Notemos que, de acordo com a proposição anterior, a matriz de mudança de base (B, B 0 )
nos permite relacionar as coordenadas de um vector, na base B, com as suas coordenadas,
na base B 0 .
(2, 1, −3).
(2, 3, −7).
Tem-se
pelo que 2 3
1 0 0
6 7
M(idE ; B 0 , B) = 6
4 1 1 0 7
5.
−1 1 2
(2, 3, −7).
Se
M(f ; B, B 0 ) = A e M(g; B, B 0 ) = B
então
M(f + g; B, B 0 ) = A + B e M(αf ; B, B 0 ) = αA.
Demonstração:
Exercı́cio.
Conforme referimos na altura, essa definição tem uma motivação que só agora estamos
em condições de compreender.
190
M(f ; B, B 0 ) = A e M(g; B 0 , B 00 ) = B
então
M(g ◦ f ; B, B 00 ) = BA,
isto é,
M(g; B 0 , B 00 )M(f ; B, B 0 ) = M(g ◦ f ; B, B 00 ).
Demonstração:
Sejam n = dim E, m = dim E 0 e p = dim E 00 . Consideremos
bases de E, E 0 e E 00 , respectivamente.
e
M(g ◦ f ; B, B 00 ) = C = [cij ] ∈ Mp×n (K).
cij = (BA)ij .
(g ◦ f )(ej ) = g (f (ej ))
= g(a1j e01 + · · · + amj e0m )
= a1j g(e01 ) + · · · + amj g(e0m )
= a1j (b11 e001 + · · · + bp1 e00p ) + · · · + amj (b1m e001 + · · · + bpm e00p )
tem-se
Assim
cij = (BA)ij ,
A = M(idE ; B, B 0 )
então
A−1 = M(idE ; B 0 , B).
Demonstração:
Basta atender a que, pelo teorema anterior, se tem
com n = dim E.
Justifique que:
Se
M(f ; B1 , B10 ) = A1 e M(f ; B2 , B20 ) = A2
192
então
A2 = P A1 Q
em que
P = M(idE 0 ; B10 , B20 ) e Q = M(idE ; B2 , B1 ),
isto é, P é a matriz de mudança de base (B10 , B20 ) e Q é a matriz de mudança de base (B2 , B1 ).
Demonstração:
Consideremos o seguinte diagrama
idE f idE 0
E - E - E0 - E0 .
B2 B1 B10 B20
idE 0 ◦f ◦ idE = f
de R3 e R2 , respectivamente.
Utilizando matrizes de mudança de base, determine:
(a) M (f ; B, b. c.R2 ).
(b) M (f ; b. c.R3 , B0 ).
(c) M (f ; B, B0 ).
Observações:
(2) O teorema anterior sugere a seguinte definição para matrizes que se relacionam de
forma idêntica à das matrizes A1 e A2 referidas anteriormente.
B = P AQ.
193
Se
A1 = M(f ; B1 , B1 ) e A2 = M(f ; B2 , B2 )
então
A2 = P A1 P −1
em que
P = M(idE ; B1 , B2 ) e M(idE ; B2 , B1 ) = P −1 .
B = P AP −1 .
(4) Sendo E e E 0 espaços vectoriais de dimensão finita, pode demonstrar-se (o que não
faremos), que dada uma aplicação linear f : E −→ E 0 , a dimensão de Im f é igual
à caracterı́stica de qualquer uma das matrizes que representa f em relação a bases
fixadas de E e E 0 , respectivamente.
Caso seja necessário, utilize esse resultado, para resolver os exercı́cios seguintes.
(a) Determine M(g; b. c., b. c.), onde “b. c.” significa “base canónica”.
(b) Determine os valores de k para os quais o vector (k, 2 + k, 1) ∈ Im g.
(c) Diga, justificando, se
(i) g é sobrejectiva;
(ii) g é injectiva.
(d) Determine uma base de Im g.
194
para quaisquer a, b, c ∈ R.
u1 = w1 + w2 + w3 , u2 = w1 + 2w2 + w3 e u3 = w 1 .
Exercı́cio 5.27 Sejam E um espaço vectorial real e (u1 , u2 , u3 ) uma sua base. Considere
a aplicação linear f : R5 → E definida por
para quaisquer a, b, c, d, e ∈ R.
(a) Im f = Nuc f ;
(b) A aplicação f é não nula, f ◦ f é a aplicação linear nula, n é par e
dim Im f = n 2
.
196
(e) 10 10 01
111
5.22 (a) 110
0 1 1
(b) 1 0 −1
110
(c) 001
Capı́tulo 6
Definição 6.1 Seja A ∈ Mn×n (K). Dizemos que X ∈ Mn×1 (K) é um vector
próprio de A se
(i) X 6= 0
(i) X 6= 0
e (ii) AX = βX.
AX = αX e AX = βX,
αX = βX
(α − β)X = 0.
Contudo, na definição de valor próprio de uma matriz A ∈ Mn×n (K), o vector X, que é
obviamente um vector próprio de A, não é único. Basta atender a que se
X 6= 0 e AX = βX
αX 6= 0 e A(αX) = α(AX)
= α(βX)
= (αβ)X
= (βα)X
= β(αX)
Tem-se:
Demonstração:
1. Mα ⊆ Mn×1 (K), pela própria definição de Mα .
Logo
A(Y + Z) = AY + AZ = αY + αZ = α(Y + Z)
e, portanto, Y + Z ∈ Mα .
1 ≤ mg(α) ≤ n.
O resultado seguinte vai ser muito útil para determinar, na prática, os valores próprios
de uma matriz.
200
Teorema 6.4 Seja A ∈ Mn×n (K). Tem-se, α é valor próprio de A se, e só se,
|A − αIn | = 0.
Demonstração:
Por definição, α é valor próprio de A se, e só se, existe X ∈ Mn×1 (K) tal que
X 6= 0 e AX = αX,
ou equivalentemente,
X 6= 0 e (A − αIn ) X = 0.
(A − αIn ) Y = 0
admite uma solução não nula se, e só se, é indeterminado. Tal equivale a afirmar
que
r (A − αIn ) < n
|A − xIn | .
Pode demonstrar-se que se A ∈ Mn×n (K) então o seu polinómio caracterı́stico tem grau
igual a n.
Proposição 6.6 Se A ∈ Mn×n (K) então α ∈ K é um valor próprio de A se, e só se, α é
um zero do polinómio caracterı́stico de A, isto é, se, e só se,
pA (α) = |A − αIn | = 0.
201
Observação:
|xIn − A| .
Notemos que
|xIn − A| = |− (A − xIn )| = (−1)n |A − xIn |
2 3
2 0 0
6 7
Exemplo 6.8 1. Seja A = 6
4 0 1 1 7
5 ∈ M3×3 (R). Como
0 0 1
2−x
0
0
p(x) = |A − xI3 | =
0 1−x 1
= (2 − x)(1 − x)2 ,
0 0 1−x
e
1 com ma(1) = 2.
202
Assim
2 3 2 3
a a
6 7 6 7
M2 = 6 b 7 ∈ M3×1 (R) : b = 0 ∧ c = 0 = 6 0 7 : a∈R
4 5 4 5
c 0
2 3 *2 3+
1 1
6 7 6 7
= a6 0 7: a∈R = 6 0 7 .
4 5 4 5
0 0
2 3 2 3 2 3
1 0 1
6 7 6 7 6 7
Como 6
4 0 7
5 6= 6
4 0 7
5 a sequência 6
4 0 7
5
é linearmente independente e, portanto, temos
0 0 0
2 3
1
6 7
Base de M2 = 6 7
4 0 5 .
0
p(x) = (1 − x)n .
ma(1) = n.
= {X ∈ Mn×1 (K) : 0X = 0}
= {X ∈ Mn×1 (K)}
= Mn×1 (K).
Logo
mg(1) = dim M1 = n.
Concluı́mos então que todo o vector X ∈ Mn×1 (K), com X 6= 0, é vector próprio de In
associado ao valor próprio 1.
É possı́vel indicar se uma matriz A ∈ Mn×n (K) é invertı́vel ou não conhecendo apenas
o seu polinómio caracterı́stico ou apenas os seus valores próprios, pois tem-se
Proposição 6.9 A ∈ Mn×n (K) é invertı́vel se, e só se, A não tem o valor próprio zero, ou
equivalentemente, se o termo constante do polinómio caracterı́stico de A é não nulo.
Demonstração:
Sabemos que A é invertı́vel se, e só se, |A| =
6 0.
e
p(0) = a0 .
204
|A| =
6 0, |A − 0In | =
6 0 e a0 6= 0,
P −1 AP = B.
Proposição 6.11 Se A, B ∈ Mn×n (K) são semelhantes então os seus polinómios carac-
terı́sticos são iguais.
Demonstração:
Como existe P ∈ Mn×n (K), invertı́vel, tal que
P −1 AP = B
tem-se
Exercı́cio 6.1 Sejam A, B ∈ Mn×n (K) tais que A é invertı́vel. Mostre que AB e BA
têm o mesmo polinómio caracterı́stico.
205
Definição 6.12 Seja A ∈ Mn×n (K). Dizemos que A é uma matriz diagonalizável
se A é semelhante a uma matriz diagonal, isto é, se existe uma matriz invertı́vel
P ∈ Mn×n (K) e uma matriz diagonal D ∈ Mn×n (K) tal que
P −1 AP = D.
Como os valores próprios de uma matriz diagonal são os elementos da sua diagonal
principal (porquê?) podemos concluir facilmente que
Proposição 6.13 Se A ∈ Mn×n (K) é uma matriz diagonalizável e D é uma matriz diagonal
semelhante a A então os valores próprios de A são os elementos da diagonal principal de D.
O resultado seguinte, é uma das caracterizações mais importantes das matrizes diagona-
lizáveis.
Teorema 6.14 Uma matriz A ∈ Mn×n (K) é diagonalizável se, e só se, A tem n vectores
próprios linearmente independentes.
Demonstração:
Suponhamos que A ∈ Mn×n (K) é diagonalizável e seja P ∈ Mn×n (K), invertı́vel,
tal que
2 3
d1 ··· 0
6 7
6 .. .. 7
P −1 AP = 6 .
..
. . 7 = D.
4 5
0 ··· dn
206
Assim
AP = P D
ou, ainda,
2 3
d1 ··· 0
6 7
A [X1 | · · · | Xn ] = [X1 | · · · | Xn ] 6
6
..
.
..
.
..
.
7
7
4 5
0 ··· dn
e, portanto,
AX1 = d1 X1
···
AXn = dn Xn .
r(P ) = n
r(P ) = n
tem-se |P | = P > 6= 0 e, portanto,
r P > = n.
P = [X1 | · · · | Xn ]
207
Seja A ∈ Mn×n (K) e sejam α1 , . . . , αr os valores próprios, dois a dois distintos, da matriz
A. Sabemos que o número máximo de vectores próprios de A linearmente independentes,
existentes em
Mαi , i = 1, . . . , r,
é
dim Mαi = mg(αi ).
Seja
B1 = (u11 , . . . , u1k1 ) uma base de Mα1
···
Tem-se pois
2 3
2 0 0
6 7
Exemplo 6.16 1. Consideremos a matriz A = 6 0 1 1 7 ∈ M3×3 (R) estudada no Exem-
4 5
0 0 1
plo 6.8. Como A tem os valores próprios
2 com mg(2) = 1
e
1 com mg(1) = 1
2 3
0 −1 0
6 7
2. Seja A = 6 1 0 0 7 ∈ M3×3 (K), cujo polinómio caracterı́stico é
4 5
0 0 3
−x 0
−1 −x
Lapl. −1
1 −x 0 = (3 − x) = (3 − x)(x2 + 1).
l3 1 −x
0 0 3−x
ma(3) = 1.
Então
2 3 2 3
a 0
6 7 6 7
M3 = 6 7
4 b 5 ∈ M3×1 (R) : a = 0 ∧ b = 0 = 6 0 7 : c∈R
4 5
c c
2 3 *2 3+
0 0
6 7 6 7
= c6 7
4 0 5: c∈R = 6 7
4 0 5 .
1 1
3, i e − i.
então 2 3
i 0 0
6 7
Q−1 AQ = 6
4 0 −i 0 7
5.
0 0 3
Exercı́cio 6.2 Seja A ∈ Mn×n (K). Mostre que se A tem n valores próprios, α1 , . . . , αn ,
então o produto desses n valores próprios é igual ao determinante de A.
Exercı́cio 6.4 Seja A ∈ Mn×n (K) e seja P ∈ Mn×n (K) uma matriz invertı́vel. Mostre
que:
Mostre que:
(a) A é diagonalizável.
(b) Existe uma matriz P ∈ M3×3 (R) invertı́vel, tal que
2 3
1+i 0 0
P −1 AP = 4 0 2 − 2i 0 5.
0 0 2
A1 = M(f ; B, B) e A2 = M(f ; B 0 , B 0 )
Como vimos que matrizes semelhantes têm o mesmo polinómio caracterı́stico, tem sentido
a seguinte definição.
M(f ; B, B).
(i) u 6= 0E
(i) u 6= 0E
Tem-se:
1. u é vector próprio de f se, e só se, a matriz X ∈ Mn×1 (K), cuja coluna é a sequência
das coordenadas de u na base B, é um vector próprio de A.
Demonstração:
Note que u 6= 0E se, e só se, X 6= 0 e que
f (u) = αu
AX = αX.
Pretendemos determinar se existe uma base B, de R3 , tal que M(f ; B, B) é uma matriz
diagonal e, em caso afirmativo, indicar uma base nessas condições.
e
*2 3+
0
6 7
M2 = 6 1 7 .
4 5
0
f (1, 0, 0) = 1(1, 0, 0), f (0, −1, 1) = 1(0, −1, 1) e f (0, 1, 0) = 2(0, 1, 0).
Assim, se tomarmos
B = (1, 0, 0), (0, −1, 1), (0, 1, 0)
concluı́mos que
2 3
1 0 0
6 7
M(f ; B, B) = 6
4 0 1 0 7
5.
0 0 2
determine:
Exercı́cio 6.11 Considere o subespaço F = (x, y, z) ∈ R3 : x + 2y + z = 0 do espaço
3 3 3
vectorial real R . Seja f : R → R uma aplicação linear, tal que (1, −1, 0) é vector próprio
de f associado ao valor próprio 2 e
h −1 0 0i
(c) M (f ; B, B) = 0 −1 0
0 0 1
(d) f é um isomorfismo
Capı́tulo 7
Recorde que:
→
−
1. kuk = 0 se, e só se, u = 0 .
α se α ≥ 0
2. Se α ∈ R então kαuk = |α| kuk, em que |α| = .
−α se α < 0
218
−→ −−→
Definição 7.2 Sejam u = OA e v = OB dois vectores não nulos. Designa-se por
ângulo formado pelos vectores u e v, e representa-se por ](u, v), o menor dos
ângulos definido pela semi-recta com origem em O que passa pelo ponto A e pela
semi-recta com origem em O que passa pelo ponto B.
→
− →
−
Se O = A ou O = B, isto é, se u = 0 ou v = 0 , convenciona-se que ](u, v) = 0.
Notemos que
0 ≤ ](u, v) = ](v, u) ≤ π.
θ
1. q v
u
θ=
q π -
2. v u
θ=
q 0 - -
3. v u
u | v = kukkvk cos θ.
u | v = 0.
1. u | v = 0.
219
2. kukkvk cos θ = 0.
4. kuk = 0 ∨ kvk = 0 ∨ θ = π2 .
5. kuk = 0 ∨ kvk = 0 ∨ u ⊥ v.
Tem-se pois:
2. u e v podem ser ortogonais e não serem perpendiculares (basta que um deles seja o
vector nulo).
3. Se u e v são ambos não nulos então u e v são ortogonais se, e só se, são perpendiculares.
Notemos que u | v pode tomar qualquer valor real. Se u e v são não nulos então
ou equivalentemente
π
0≤θ<
2
e
u|v<0 se, e só se, cos θ < 0
ou equivalentemente
π
< θ ≤ π.
2
u | u = kukkuk cos 0
= kuk2
ter-se-ia
p
kuk = u | u.
→
− −
→
Por outro lado, se u = 0 ou v = 0 então
θ = ](u, v) = 0.
220
Recorde que
θ cos θ sen θ
√
π 3 1
6 2 2 .
√ √
π 2 2
4 2 2
√
π 1 3
3 2 2
1. u | v = v | u.
2. α (u | v) = (αu) | v = u | (αv).
3. (u + v) | w = u | w + v | w e w | (u + v) = w | u + w | v.
Demonstração:
1. É trivial, pois
u | v = kuk kvk cos θ, θ = ](u, v)
e
v | u = kvk kuk cos γ, γ = ](v, u).
Caso 1: α = 0.
Caso 2: α > 0.
(αu) | v = kαukkvk cos θ = |α| kuk kvk cos θ = αkuk kvk cos θ,
e
u | (αv) = kuk kαvk cos θ = kuk (|α| kvk) cos θ = αkuk kvk cos θ
Caso 3: α < 0.
Analogamente,
(u + v) | w = u | w + v | w
v u + v
1
δ θ
w
HH γ HH γ -
uHHj uHHj
Notemos que
ku + vk cos θ = kuk cos γ + kvk cos δ
em que
θ = ](u + v, w), γ = ](u, w) e δ = ](v, w).
Logo
ku + vk kwk cos θ = kuk kwk cos γ + kvk kwk cos δ
e, portanto,
(u + v) | w = u | w + v | w.
w | (u + v) = (u + v) | w = u | w + v | w = w | u + w | v.
ui | uj = 0, i, j ∈ {1, . . . , k}, i 6= j.
Demonstração:
Sejam α1 , . . . , αk ∈ K tais que
→
−
α1 u1 + · · · + αk uk = 0
e demonstremos que α1 = · · · = αk = 0.
→
−
ui | (α1 u1 + · · · + αk uk ) = ui | 0
223
isto é,
ui | (α1 u1 ) + · · · + ui | (αk uk ) = 0
ou ainda
α1 (ui | u1 ) + · · · + αk (ui | uk ) = 0.
αi (ui | ui ) = 0.
Tem-se, pois,
2
αi kui k = 0
αi = 0.
2. B diz-se uma base ortonormada se for uma base ortogonal constituı́da por
vectores unitários.
Proposição 7.10 Seja (e1 , e2 , e3 ) uma base de R3 . Tem-se, (e1 , e2 , e3 ) é uma base ortonor-
mada se, e só se,
1 se i = j
ei | ej = , com i, j ∈ {1, 2, 3}.
0 se i 6= j
Demonstração:
Suponhamos que (e1 , e2 , e3 ) é uma base ortonormada de R3 . Então, por ser orto-
gonal, concluı́mos que
ei | ej = 0 se i 6= j.
2
Para i = j, com i, j ∈ {1, 2, 3}, tem-se ei | ej = ei | ei = kei k e, como kei k = 1,
concluı́mos que
ei | ej = 1 se i = j.
224
Dado que
ei | ei = 1
concluı́mos que
2
kei k = 1
e, portanto,
kei k = 1
u = α1 e1 + α2 e2 + α3 e3
e
v = β1 e1 + β2 e2 + β3 e3 .
Tem-se
3
X
u|v= αi βj (ei | ej )
i,j=1
u | v = α1 β1 + α2 β2 + α3 β3 .
225
Demonstração:
Utilizando as propriedades 2. e 3. referidas na Proposição 7.6, tem-se
u | v = (α1 e1 + α2 e2 + α3 e3 ) | (β1 e1 + β2 e2 + β3 e3 )
= (α1 e1 + α2 e2 + α3 e3 ) | (β1 e1 )+
(α1 e1 + α2 e2 + α3 e3 ) | (β2 e2 )+
(α1 e1 + α2 e2 + α3 e3 ) | (β3 e3 )
= (α1 e1 ) | (β1 e1 ) + (α2 e2 ) | (β1 e1 ) + (α3 e3 ) | (β1 e1 )+
(α1 e1 ) | (β2 e2 ) + (α2 e2 ) | (β2 e2 ) + (α3 e3 ) | (β2 e2 )+
(α1 e1 ) | (β3 e3 ) + (α2 e2 ) | (β3 e3 ) + (α3 e3 ) | (β3 e3 )
= α1 β1 (e1 | e1 ) + α2 β1 (e2 | e1 ) + α3 β1 (e3 | e1 ) +
α1 β2 (e1 | e2 ) + α2 β2 (e2 | e2 ) + α3 β2 (e3 | e2 ) +
α1 β3 (e1 | e3 ) + α2 β3 (e2 | e3 ) + α3 β3 (e3 | e3 ) .
Logo
3
X
u|v= αi βj (ei | ej ) .
i,j=1
u | v = α1 β1 + α2 β2 + α3 β3 .
u = α1 e1 + α2 e2 + α3 e3 e v = β1 e1 + β2 e2 + β3 e3
então
p q
kuk = u | u = α12 + α22 + α32 .
u|v α1 β1 + α2 β2 + α3 β3
θ = arccos = arccos p 2 p .
kuk kvk α1 + α22 + α32 β12 + β22 + β32
226
com α ∈ R.
Conforme referimos na observação 3. da página 219, como u e v são ambos não nulos, u
e v são perpendiculares se, e só se, u | v = 0.
Tem-se
u | v = α × 1 + 2 × (3α) + (−5) × 1 = 7α − 5.
7α − 5 = 0
ou equivalentemente,
5
α= .
7
Assim,
u|v 1 × 1 + 2 × 3 + (−5) × 1
](u, v) = arccos = arccos p √
kukkvk 1 + 22 + (−5)2 12 + 32 + 12
2
2 2
= arccos √ √ = arccos √ .
30 11 330
227
Definição 7.13 Seja (e1 , e2 , e3 ) uma base de R3 e b.c. a base canónica de R3 , isto é,
a base (1, 0, 0), (0, 1, 0), (0, 0, 1) . Seja
det P > 0.
det P = 1 > 0.
2. Seja B = (1, 1, 0), (0, −2, 0), (0, 0, 3) uma base de R3 e determinemos se B é uma base
Como
a base B é inversa.
Demonstra-se (o que não faremos) que existe um, e um só, vector de R3 que, no caso
de u e v serem linearmente independentes, satisfaz as condições dadas em 2. da definição
anterior. Ainda neste caso, note que u e v são não nulos e, qualquer que seja α ∈ R, se tem
u 6= αv. Assim
e, portanto,
→
−
u×v 6= 0 .
O A
e demonstremos que a sua área é igual a
−→ −−→
kOA×OBk.
h
θ
O A
229
sendo pois
−→
kOAkh
−→ −−→ −→ −−→
=kOAkkOBk sen θ, θ = ](OA, OB),
−→ −−→
=kOA×OBk.
(u×v) | w
O módulo do produto misto tem uma interpretação geométrica que seguidamente expli-
camos.
Sejam
−→ −−→ −−→
u = OA, v = OB e w = OC
-
O
B
A
O volume V desse paralelipı́pedo é o produto da área da sua base pela sua altura h.
Como a base é um paralelogramo, a sua área é
−→ −−→
kOA×OBk.
Notemos que consideramos |cos θ| porque pode suceder que se tenha cos θ ≤ 0. Por
−−→ −→
exemplo, se na figura acima considerarmos u = OB e v = OA o paralelipı́pedo seria o
mesmo mas ter-se-ia cos θ < 0.
Assim,
−→ −−→
V = kOA×OBk h
−→ −−→ −−→ −→ −−→ −−→
= kOA×OBkkOCk |cos θ| , θ = ](OA×OB, OC)
−→ −−→ −−→ −→ −−→ −−→
= kOA×OBkkOCk cos θ , θ = ](OA×OB, OC)
−→ −−→ −−→
= OA×OB | OC .
1. u×v = −v×u.
Demonstração:
1. Atendendo à definição de produto externo, se u e v são linearmente dependentes
então
→
− →
−
u×v = 0 e v×u = 0
logo
u×v = −v×u.
u×v = −v×u.
3. Não demonstraremos.
231
4. Consequência de 3. e 1. pois
(u×v) ×w 6= u× (v×w)
−
→ →
− →
−
u×v = u×αu = 0 e (u×v) ×w = 0 ×w = 0 .
Por outro lado, como v×w é perpendicular a v (e a w), concluı́mos que v×w é perpendicular
1
a αv = u. Logo u e v×w são linearmente independentes e, portanto,
→
−
u× (v×w) 6= 0 .
Vejamos agora como obter o produto externo ou o produto misto de vectores quando
conhecemos as suas coordenadas em relação a uma base ortonormada directa de R3 .
Logo w = e3 ou w = −e3 . Como (e1 , e2 , w) tem que ser uma base directa e (e1 , e2 , e3 ) é uma
base directa concluı́mos que
e1 ×e2 = e3 .
232
e2 ×e3 = e1 e e3 ×e1 = e2 .
Obviamente que
e3 ×e2 = −e1
e1 ×e3 = −e2
→
−
e1 ×e1 = 0
→
−
e2 ×e2 = 0
→
−
e3 ×e3 = 0 .
u = α1 e1 + α2 e2 + α3 e3 , v = β1 e1 + β2 e2 + β3 e3 e w = γ1 e1 + γ2 e2 + γ3 e3
α α3 α α3 α α2
1. u×v = 2
e1 − 1
e2 + 1
e3 .
β2 β3 β1 β3 β1 β2
α α3
α α α 1 α2
2 α3 1 α3 1 α2
2. (u×v) | w = γ1 − γ2 + γ3 = β1 β2 β3 .
β2 β1 β1
β3 β3 β2
γ1 γ2 γ3
233
Demonstração:
1.
que não tem significado matemático, mas que é utilizado como mnemónica para
fixar a expressão de u×v em base ortonormada directa uma vez que o seu desen-
volvimento, se pudéssemos utilizar o Teorema de Laplace aplicado à linha 1, daria
tal expressão.)
u = e1 + e2 − 2e3 , v = 3e1 − e3 e w = e2 + e3 .
234
α(u×v)
com
1
|α| = √ ,
35
ou equivalentemente,
1 1
α= √ ou α = −√ .
35 35
Logo, o vector
1 1
w = √ (u×v) = √ (−e1 − 5e2 − 3e3 )
35 35
é, ainda, perpendicular a u e a v e tem norma 1 tal como o vector
1 1
w0 = − √ (u×v) = − √ (−e1 − 5e2 − 3e3 ).
35 35
Se pretendermos um vector perpendicular a u e a v com norma 5, basta considerar o
vector
5
z = 5w = √ (−e1 − 5e2 − 3e3 )
35
ou
5
z 0 = 5w0 = − √ (−e1 − 5e2 − 3e3 ).
35
235
com k ∈ R.
(a) Determinemos o conjunto dos valores de k para os quais a área do triângulo de vértices
A, B e C é 1.
B
@
@
@
@
-
@
A C
Tem-se
−−→ −→
AB = B − A = (−1, −k, −1) e AC = C − A = (1, 0, 0).
A área do paralelogramo é
−−→ −→
kAB×ACk
e a área do triângulo é
−−→ −→
kAB×ACk
.
2
Tem-se
−−→ −→ −k −1 −1
−1 −1
−k
AB×AC = e1 − e2 + e3
0 0 1 0 1 0
= −e2 + ke3
e
−−→ −→
q p
kAB×ACk = 02 + (−1)2 + k 2 = 1 + k2 .
Logo
√ √
k ∈ {− 3, 3}.
Determinemos
−→ −−→ −−→
(OA×OB) | OC.
Tem-se
−→ −−→ −−→
OA = A−O = (0, k, −3), OB = B−O = (−1, 0, −4), OC = C−O = (1, k, −3)
e
−3 1 −3
−→ −−→ −−→ 0 k
k
(OA×OB) | OC = −1 0 −4 = − −1 0 −4
l1 ↔ l3
1 k −3 0 k −3
1 k −3 1 −3
k
= − 0 k −7 = − 0 k −7 = −4k.
l2 + l1 l3 + (−1)l2
0 k −3 0 0 4
|−4k| = 6
−4k = 6 ∨ −4k = −6
3 3
k=− ∨ k= .
2 2
Logo, o conjunto dos valores de k para os quais o volume do paralelipı́pedo é 6 é
3 3
− , .
2 2
(c) Determinemos o conjunto D dos valores de k para os quais os pontos O, A, B e C
estão todos num mesmo plano.
Observemos que tal equivale a afirmar que
−→ −−→ −−→
(OA×OB) | OC = 0
isto é,
−4k = 0
D = {0}.
Capı́tulo 8
Geometria Analı́tica
(Resumo)
O caso que começaremos por estudar, a que chamaremos o caso tipo, é o de uma recta
R em que conhecemos um ponto A = (a1 , a2 , a3 ) da recta e um vector u = (α1 , α2 , α3 ) com
a sua direcção, a que também chamamos vector director da recta.
Seja X = (x, y, z) um ponto arbitrário de R3 . Notemos que X = (x, y, z) ∈ R se, e só se,
existe λ ∈ R tal que (x, y, z) = (a1 , a2 , a3 ) + λ(α1 , α2 , α3 ).
À equação
Da equação anterior resulta que (x, y, z) ∈ R se, e só se, existe λ ∈ R tal que
x = a1 + α1 λ
y = a2 + α2 λ .
z = a3 + α3 λ
Ao “sistema de equações”
x = a1 + α1 λ
y = a2 + α2 λ , λ∈R
z = a3 + α3 λ
Caso 1: α1 6= 0 e α2 6= 0 e α3 6= 0.
Neste caso, tem-se (x, y, z) ∈ R se, e só se, existe λ ∈ R tal que
x−a1
λ= α1
y−a2
λ= α2
z−a3
λ=
α3
x − a1 y − a2 z − a3
= = .
α1 α2 α3
Caso 2:
Subcaso 2.1 α1 = 0 e α2 6= 0 e α3 6= 0.
Subcaso 2.2 α1 6= 0 e α2 = 0 e α3 6= 0.
Subcaso 2.3 α1 6= 0 e α2 6= 0 e α3 = 0.
Estudaremos apenas o Subcaso 2.1, dado que os restantes são inteiramente análogos.
Subcaso 2.1 α1 = 0 e α2 6= 0 e α3 6= 0.
239
Nestas condições podemos afirmar que (x, y, z) ∈ R se, e só se, existe λ ∈ R tal
que
x = a1
y−a2
λ= α2
z−a3
λ=
α3
y − a2 z − a3
x = a1 e =
α2 α3
Caso 3:
Subcaso 3.1 α1 = 0 e α2 = 0 e α3 6= 0.
Subcaso 3.2 α1 = 0 e α2 6= 0 e α3 = 0.
Subcaso 3.3 α1 6= 0 e α2 = 0 e α3 = 0.
Tal como anteriormente, estudaremos apenas um dos subcasos por os restantes serem
análogos.
Subcaso 3.1 α1 = 0 e α2 = 0 e α3 6= 0.
Nestas condições podemos afirmar que (x, y, z) ∈ R se, e só se, existe λ ∈ R tal
que
x = a1
y = a2
z−a3
λ=
α3
x = a1 e y = a2
Sejam A e B dois pontos de R3 , com A 6= B. Existe uma, e uma só, recta que passa
pelos pontos A e B. O caso da determinação das equações da recta que passa pelos pontos
A e B reduz-se facilmente ao caso tipo considerando como ponto da recta o ponto A (ou o
−−→
ponto B) e como vector director da recta o vector u = AB (ou qualquer outro com a mesma
−−→ −−→ −−→
direcção, isto é, da forma αAB, com α ∈ R \ {0}). Em particular, −AB = BA.
240
com
" #
a b c d
r = 2.
a0 b0 c0 d0
Vejamos agora como partindo de um sistema do tipo anterior, cujas soluções são as
coordenadas dos pontos de uma recta R, podemos obter uma equação vectorial da recta R.
Notemos que basta considerar duas soluções distintas do sistema anterior, isto é, dois
pontos distintos de R, para obtermos, conforme explicámos anteriormente, uma equação
vectorial de R.
Consideremos o plano P que passa pelo ponto A e é paralelo aos vectores u e v (este caso
será considerado o caso tipo).
À equação
Da equação anterior resulta que (x, y, z) ∈ P se, e só se, existem λ, µ ∈ R tais que
x = a1 + α1 λ + β1 µ
y = a2 + α2 λ + β2 µ .
z = a3 + α3 λ + β3 µ
241
Ao “sistema de equações”
x = a1 + α1 λ + β1 µ
y = a2 + α2 λ + β2 µ , λ, µ ∈ R
z = a3 + α3 λ + β3 µ
Consideremos ainda o plano P anterior que passa pelo ponto A = (a1 , a2 , a3 ) e é paralelo
aos vectores u = (α1 , α2 , α3 ) e v = (β1 , β2 , β3 ). Sendo X = (x, y, z) um ponto arbitrário de
R3 e recordando que u×v é um vector perpendicular a u e a v e, portanto, perpendicular ao
plano P, podemos também afirmar que X = (x, y, z) ∈ P se, e só se,
−−→
(u×v) | AX = 0
ou, equivalentemente,
α1 α2 α3
β1 β2 β3 = 0.
x − a1 y − a2 z − a3
ou, equivalentemente,
ax + by + cz + d = 0 (8.1)
em que
A qualquer equação do tipo (8.1), cujas soluções sejam as coordenadas dos pontos do
plano P, chamamos equação geral do plano P.
ax + by + cz + d = 0 e a0 x + b0 y + c0 z + d0 = 0
242
são equivalentes. Logo existe α ∈ R \ {0} tal que (a0 , b0 , c0 , d0 ) = α(a, b, c, d) e, portanto,
w0 = (a0 , b0 , c0 ) = αw
γ1 x + γ2 y + γ3 z + d = 0
com d determinado da forma a que o ponto A = (a1 , a2 , a3 ) pertença ao plano, isto é, ter-se-á
γ1 a1 + γ2 a2 + γ3 a3 + d = 0
e, portanto,
d = −(γ1 a1 + γ2 a2 + γ3 a3 ).
Sejam A, B e C três pontos de R3 não colineares, isto é, tais que não existe nenhuma
recta a que pertençam os três pontos simultaneamente.
Existe um, e só um, plano P que passe pelos pontos A, B e C. Podemos facilmente
escrever a equação vectorial do plano P tomando como ponto do plano um dos pontos A, B
ou C e para vectores u e v, por exemplo,
−−→ −→
u = AB e v = AC.
ax + by + cz + d = 0
Se pretendermos efectuar o “percurso inverso”, isto é, se a partir de uma equação geral
do plano P pretendermos obter uma equação vectorial do plano P basta considerarmos três
−−→ −→
soluções da equação anterior, A, B e C, tais que AB e AC sejam linearmente independentes
para escrevermos, conforme explicámos anteriormente, uma equação vectorial do plano P.
243
Nesta secção vamos estudar as possı́veis posições relativas entre duas rectas, entre dois planos
e entre uma recta e um plano bem como processos simples para decidir o caso em questão.
(a) R1 = R2 .
(a) P1 = P2 .
(a) R ⊂ P.
Vejamos como, de uma forma simples, podemos decidir qual o caso em questão.
Para decidir entre os casos (a) e (b) basta atender que no primeiro todo o ponto de uma
recta pertence à outra recta e no segundo nenhum ponto de uma das rectas pertence à
outra. Assim, basta tomar um ponto qualquer de uma das rectas e verificar se pertence
ou não à outra.
Para decidir entre os casos (c) e (d) basta atender a que no caso (c) se tem R1 ∩ R2 6= ∅
e no caso (d) se tem R1 ∩ R2 = ∅. Assim, se considerarmos um sistema de equações
lineares A0 X = B 0 constituı́do por quatro equações nas incógnitas x, y e z, em que
duas das equações são equações que definem a recta R1 e as outras duas equações são
equações que definem a recta R2 , podemos afirmar que se o sistema for possı́vel (isto
é, se r(A0 ) = r[A0 | B 0 ]) então estamos no caso (c), caso contrário estamos no caso (d).
Se w1 e w2 têm a mesma direcção, isto é, se existe β ∈ R tal que w1 = βw2 , então
estamos no caso (a) ou no caso (b). Caso contrário, estamos no caso (c).
Para decidir entre os casos (a) e (b) basta atender a que no primeiro todo o ponto de
um dos planos pertence ao outro plano e no segundo nenhum ponto de um dos planos
pertence ao outro plano. Assim, basta tomar um ponto qualquer de um dos planos e
verificar se pertence ou não ao outro plano.
Para decidir entre os casos (a) e (b) basta atender a que no primeiro todo o ponto da
recta R pertence ao plano P e no segundo nenhum ponto da recta R pertence ao plano
P. Assim, basta tomar um ponto qualquer da recta e verificar se pertence ou não ao
plano.
y−3 z
x=2 e =
2 4
Para obter u basta determinar dois pontos distintos da recta R, por exemplo,
−−→
u = DE = (0, −2, −4).
−−→ −→ −−→ −→
Consideremos, por exemplo, w = AB×AC. Como AB = (1, 2, 1) e AC = (0, 1, 2)
tem-se
−−→ −→
w = AB×AC = (3, −2, 1).
e e3
1 e2
Mnemónica: 1 2 1 = 3e1 − 2e2 + 1e3 .
0 1 2
Assim,
e, portanto, R é paralela a P.
Para determinarmos se R ⊂ P ou se R é estritamente paralela a P temos de considerar
um ponto qualquer de R e verificar se pertence ou não ao plano P.
Como (3, −2, 1) é um vector perpendicular a P e P passa no ponto A = (1, 0, −1),
uma equação geral do plano P será
3x − 2y + 1z + d = 0
246
com
d = −(3 × 1 − 2 × 0 + 1 × (−1)) = −2.
3x − 2y + z − 2 = 0
concluı́mos que o ponto da recta R, D = (2, 3, 0), não pertence ao plano P pois
3 × 2 − 2 × 3 + 0 − 2 6= 0.
Sejam A e B dois pontos de R3 . A distância entre A e B, que representaremos por d(A, B),
é, como sabemos,
−−→
d(A, B) = kABk.
Veremos seguidamente que todos os casos que possam surgir de distâncias entre F1 e F2
se reduzem a um dos três casos seguintes.
Pr
r - R
A u
Tem-se
P
*r
d(P, R)
r θ
- R
A u
−→ −→
d(P, R) = kAP k sen θ, θ = ](u, AP )
−→
−→ kAP ×uk
= kAP k −→
kAP kkuk
−→
kAP ×uk
= .
kuk
6
w
r P
A
Tem-se
P
r
*
θ
d(P, P)
6
w
r
P
A
−→ −→
d(P, P) = kAP k cos θ , com θ = ](AP , w).
π π
Note que, conforme o sentido do vector w, pode ter-se 0 ≤ θ ≤ 2 ou 2 ≤ θ ≤ π e neste
248
Sejam R1 e R2 duas rectas. O ângulo das rectas R1 e R2 é, por definição, o menor
dos ângulos formado por duas rectas complanares, uma delas com a direcção de R1 ,
seja R01 , e a outra com a direcção de R2 , que designamos por R02 .
0
XXX
XXX R2
XXX
XXX
XX θ = ](R1 , R2 ) = ](R01 , R02 )
9
v uXXzX
XXX
XXX
X R0
1
θ1 = ](u, v) e θ2 = π − θ1
pretendemos
θ = min {θ1 , θ2 } .
Assim,
|u | v|
θ = ](R1 , R2 ) = arccos .
kukkvk
2. Ângulo de dois planos
Sejam P1 e P2 dois planos. Define-se ângulo dos planos P1 e P2 como sendo o ângulo
formado por duas rectas R1 e R2 , sendo R1 perpendicular a P1 e R2 perpendicular a
P2 .
R
P
250
|u | w|
cos α = sen θ =
kukkwk
e, portanto,
|u | w|
θ = arcsen .
kukkwk