´ Solu¸co˜es comentadas do livro “Algebra Linear e suas Aplica¸co˜es - Petronio Pulino” Hugo Valad˜ao
[email protected]
Universidade Estadual de Campinas 11 de Novembro de 2018
1
Aten¸ c˜ ao: As resolu¸c˜ oes dos exerc´ıcios deste documento, mesmo tendo sido revisadas, podem conter alguns erros. Sendo assim, ´e importante lˆe-las com olhar cr´ıtico e com aten¸c˜ao aos erros (leves ou graves) que possam surgir. Caso perceba qualquer erro (inclusive erro de digita¸c˜ao), agradeceria que me notificasse por e-mail para poder corrigir e atualizar o arquivo. Ali´as, este ´e um documento em constante constru¸c˜ ao e atualiza¸c˜ao, acesse o link do Google Drive (https://goo.gl/UhPMLv) para ter acesso ` a vers˜ ao mais recente. Meus agradecimentos a Laryssa Abdala que revisou, corrigiu e sugeriu algumas das solu¸c˜oes deste pdf!
Hugo Valad˜ao
[email protected] 11 de Agosto de 2018
Conte´ udo 1 Estruturas Alg´ ebricas
6
1.0.1
Exerc´ıcio 1.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
1.0.2
Exerc´ıcio 1.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
1.0.3
Exerc´ıcio 1.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
1.0.4
Exerc´ıcio 1.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
1.0.5
Exerc´ıcio 1.7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
1.0.6
Exerc´ıcio 1.12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
1.0.7
Exerc´ıcio 1.17 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
1.0.8
Exerc´ıcio 1.20 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
1.0.9
Exerc´ıcio 1.21 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
2 Espa¸ cos Vetoriais
10
2.0.1
Exerc´ıcio 3.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
2.0.2
Exerc´ıcio 3.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
2.0.3
Exerc´ıcio 3.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
2.0.4
Exerc´ıcio 3.9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13
2.0.5
Exerc´ıcio 3.11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13
2.0.6
Exerc´ıcio 3.14 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13
2.0.7
Exerc´ıcio 3.16 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
2.0.8
Exerc´ıcio 3.17 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
2.0.9
Exerc´ıcio 3.20 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
2.0.10 Exerc´ıcio 3.21 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
2.0.11 Exerc´ıcio 3.23 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
2.0.12 Exerc´ıcio 3.24 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17
2.0.13 Exerc´ıcio 3.25 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
18
2.0.14 Exerc´ıcio 3.28 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
19
2.0.15 Exerc´ıcio 3.29 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
19
2.0.16 Exerc´ıcio 3.34 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
19
2.0.17 Exerc´ıcio 3.35 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
20
2.0.18 Exerc´ıcio 3.37 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
20
2.0.19 Exerc´ıcio 3.39 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
21
2
´ CONTEUDO
3
2.0.20 Exerc´ıcio 3.43 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
21
2.0.21 Exerc´ıcio 3.46 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
21
2.0.22 Exerc´ıcio 3.48 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
22
2.0.23 Exerc´ıcio 3.54 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
23
2.0.24 Exerc´ıcio 3.57 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
23
2.0.25 Exerc´ıcio 3.58 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24
2.0.26 Exerc´ıcio 3.60 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.0.27 Exerc´ıcio 3.62 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24 24
2.0.28 Exerc´ıcio 3.63 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
26
2.0.29 Exerc´ıcio 3.64 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
26
2.0.30 Exerc´ıcio 3.67 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
27
2.0.31 Exerc´ıcio 3.69 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
27
2.0.32 Exerc´ıcio 3.70 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
29
2.0.33 Exerc´ıcio 3.72 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
30
3 Transforma¸ c˜ oes Lineares
31
3.0.1
Exerc´ıcio 4.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
31
3.0.2
Exerc´ıcio 4.6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
31
3.0.3
Exerc´ıcio 4.9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
32
3.0.4
Exerc´ıcio 4.10 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
32
3.0.5
Exerc´ıcio 4.17 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
33
3.0.6
Exerc´ıcio 4.19 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
34
3.0.7
Exerc´ıcio 4.25 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
35
3.0.8
Exerc´ıcio 4.26 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
36
3.0.9
Exerc´ıcio 4.28 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
36
3.0.10 Exerc´ıcio 4.42 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.0.11 Exerc´ıcio 4.45 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
37 37
3.0.12 Exerc´ıcio 4.53 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
38
3.0.13 Exerc´ıcio 4.55 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
39
4 Produto Interno
40
4.0.1
Exerc´ıcio 5.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
40
4.0.2
Exerc´ıcio 5.7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
41
4.0.3
Exerc´ıcio 5.12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
41
4.0.4
Exerc´ıcio 5.14 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
42
4.0.5
Exerc´ıcio 5.18 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
42
4.0.6
Exerc´ıcio 5.29 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
43
4.0.7
Exerc´ıcio 5.31 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
43
4.0.8
Exerc´ıcio 5.41 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
43
4.0.9
Exerc´ıcio 5.53 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
44
4.0.10 Exerc´ıcio 5.55 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
44
4.0.11 Exerc´ıcio 5.57 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
45
´ CONTEUDO
4
4.0.12 Exerc´ıcio 5.58 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
46
4.0.13 Exerc´ıcio 5.59 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
46
4.0.14 Exerc´ıcio 5.60 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
46
4.0.15 Exerc´ıcio 5.62 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
48
4.0.16 Exerc´ıcio 5.64 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
48
4.0.17 Exerc´ıcio 5.66 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
49
4.0.18 Exerc´ıcio 5.67 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.0.19 Exerc´ıcio 5.71 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
49 50
5 Autovalores e Autovetores
51
5.0.1
Exerc´ıcio 6.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
51
5.0.2
Exerc´ıcio 6.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
51
5.0.3
Exerc´ıcio 6.6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
52
5.0.4
Exerc´ıcio 6.9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
52
5.0.5
Exerc´ıcio 6.11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
52
5.0.6
Exerc´ıcio 6.13 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
53
5.0.7
Exerc´ıcio 6.14 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
53
5.0.8
Exerc´ıcio 6.16 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
54
5.0.9
Exerc´ıcio 6.21 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
55
5.0.10 Exerc´ıcio 6.22 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
57
5.0.11 Exerc´ıcio 6.25 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
58
5.0.12 Exerc´ıcio 6.27 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
58
5.0.13 Exerc´ıcio 6.28 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
58
5.0.14 Exerc´ıcio 6.29 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
59
5.0.15 Exerc´ıcio 6.42 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
60
5.0.16 Exerc´ıcio 6.43 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
60
5.0.17 Exerc´ıcio 6.45 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
61
5.0.18 Exerc´ıcio 6.46 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.0.19 Exerc´ıcio 6.51 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
61 62
5.0.20 Exerc´ıcio 6.52 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
62
5.0.21 Exerc´ıcio 6.53 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
63
5.0.22 Exerc´ıcio 6.60 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
63
5.0.23 Exerc´ıcio 6.61 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
63
5.0.24 Exerc´ıcio 6.65 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
64
5.0.25 Exerc´ıcio 6.69 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
65
5.0.26 Exerc´ıcio 6.70 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
66
5.0.27 Exerc´ıcio 6.72 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
67
5.0.28 Exerc´ıcio 6.88 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
68
5.0.29 Exerc´ıcio 6.92 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
68
5.0.30 Exerc´ıcio 6.94 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
68
5.0.31 Exerc´ıcio 6.95 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
69
´ CONTEUDO
5
5.0.32 Exerc´ıcio 6.100 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
70
5.0.33 Exerc´ıcio 6.101 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
70
5.0.34 Exerc´ıcio 6.108 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
71
Cap´ıtulo 1
Estruturas Alg´ ebricas Sess˜ ao 1.1 1.0.1
Exerc´ıcio 1.1
(a) (E, ?) n˜ ao ´e grupo pois n˜ ao satisfaz a propriedade de que todo elemento x ∈ E ´e simetriz´ avel (al´em disso, note que satisfaz todas as outras). Previamente note que o elemento neutro da opera¸c˜ ao ? ´e e = 0. Agora tome, por exemplo, x = 1: ent˜ ao @x0 ∈ E tal que x ? x0 = e. De fato, pois por absurdo suponha que existe x0 ∈ E elemento sim´etrico de x = 1. Ent˜ao ter´ıamos que 0 = e = x ? x0 = x + x0
=⇒ x0 = −x = −1 6∈ E; Que ´e um absurdo pois assumimos previamente x0 ∈ E. Logo
1 ∈ E n˜ ao ´e simetriz´ avel e portanto E munido da opera¸c˜ao ? n˜ao tem uma estrutura de grupo (em particular n˜ ao tem estrutura de grupo abeliano). (b) (E, ?) ´e grupo abeliano e vou provar. i)Associatividade de ?: ∀x, y, z ∈ E vale que: (x ? y) ? z
= = = = =
(x + y − 1) + z − 1 x + (y − 1 + z − 1) x + (y + z − 1 − 1) x + (y + z − 1) − 1 x ? (y ? z)
pela assosiatividade da soma + de Z. pela comutatividade da soma + de Z. pela assosiatividade da soma + de Z. pela defini¸c˜ ao de ?.
ii)Existˆ encia do elemento neutro: Note que ∀x ∈ E vale que (x ? y = x ⇐⇒ x + y − 1 = x ⇐⇒ y = 1). e (y ? x = x ⇐⇒ y + x − 1 = x ⇐⇒ y = 1). Logo, como y = 1 ∈ E, provamos que x ? y = y ? x = x
∀x ∈ E, isto ´e, y ´e o elemento neutro de
E com rela¸c˜ ao ` a opera¸c˜ ao ? Aten¸ c˜ ao: as implica¸c˜ oes ⇐⇒ est˜ ao destacadas entre parˆenteses pois o que vale s˜ao somente as implica¸c˜ oes. N˜ ao podemos assumir (previamente) que x ? y = x para um certo y, mas podemos com certeza assumir que (x ? y = x ⇐⇒ x + y − 1 = x) para todo y. 6
´ CAP´ITULO 1. ESTRUTURAS ALGEBRICAS
7
iii)Existˆ encia dos sim´ etricos: Note que ∀x ∈ E vale que (x ? x0 = e ⇐⇒ x + x0 − 1 = 1 ⇐⇒ x0 = 2 − x), usando as propriedades da soma + de Z. E tamb´em (x0 ? x = e ⇐⇒ x0 + x − 1 = 1 ⇐⇒ x0 = 2 − x) Logo dado x ∈ E, x0 = 2 − x satisfaz a propriedade do elemento sim´etrico e como 2 − x sempre pertence a E, temos que x0 ∈ E e consequentemente todo elemento de E possui elemento sim´etrico em E. iv)Comutatividade de ?: ∀x, y ∈ E vale que: x ? y = x + y − 1 = y + x − 1 = y ? x, usando a comutatividade da soma + de Z. De i), ii), iii) e iv) est´ a provado que (E, ?) ´e um grupo abeliano. (c) (E, ?) ´e grupo abeliano (an´ alogo ` a letra (b)). (d) (E, ?) n˜ ao ´e grupo abeliano pois tomando x = 1 e y = 0 temos que 2 = x ? y 6= y ? x = 1. Logo n˜ ao satisfaz a propriedade da comutatividade. Pode-se verificar que tamb´em n˜ao satisfaz a associatividade nem a do elemento neutro (pois o elemento neutro deve ser u ´nico para todo x) e portanto tamb´em n˜ ao satisfaz a do elemento sim´etrico. (e) (E, ?) n˜ ao ´e grupo abeliano pois n˜ ao satisfaz a propriedade do elemento sim´etrico (o sim´etrico deve estar em E para que a propriedade seja satisfeita). Al´em disso, (E, ?) satisfaz todas as outras propriedades.
1.0.2
Exerc´ıcio 1.2
i)Associatividade: ∀x, y, z ∈ R vale que: ii)Existˆ encia do Elemento Neutro: ∀x ∈ R vale que: (x ? y = x ⇐⇒ x + y + 4 = x ⇐⇒ y = −4) e tamb´em (y ? x = x ⇐⇒ y + x + 4 = x ⇐⇒ y = −4). Como y = −4 ∈ R, tenho pela implica¸c˜ao que ele ´e o elementro neutro. iii)Existˆ encia dos sim´ etricos:∀x ∈ R vale que: (x ? x0 = e ⇐⇒ x + x0 + 4 = −4 ⇐⇒ x0 = −x − 8) e tamb´em (x0 ? x = e ⇐⇒ x0 + x + 4 = −4 ⇐⇒ x0 = −x − 8). Como −x − 8 sempre est´a em R tenho que este conjunto com esta opera¸c˜ ao satisfaz a propriedade da existˆencia dos sim´etricos. iv)Comutatividade: ∀x, y ∈ R vale que x ? y = x + y + 4 = y + x + 4 = y ? x, usando a comutatividade da soma + de R. Portanto, segue de i), ii), iii), iv) que (R, ?) possui estrutura de grupo comutativo.
1.0.3
Exerc´ıcio 1.3
(R, ?) n˜ ao possui estrutura de grupo comutativo. Ele n˜ao satisfaz nenhuma das 4 propriedades. Associatividade: observando a forma de (x ? y) ? z e de x ? (y ? z) chegamos ao contra-exemplo x = y = 0 e z = 1; Para a comutatividade x = 0 e y = 1 serve de contra-exemplo; A existˆencia
´ CAP´ITULO 1. ESTRUTURAS ALGEBRICAS
8
do elemento neutro falha na ”neutralidade pela esquerda”, i.e., n˜ao existe um u ´nico e tal que e ? x = x ∀x ∈ R, pois se existisse tal elemento ter´ıamos e ? x = e + 2x − 4 = x =⇒ e = 4 − x que varia com x (logo n˜ ao ´e u ´nico, absurdo). (R, ?) tamb´em n˜ao pode satisfazer a propriedade da existˆ encia dos sim´ etricos pois esta depende da existˆencia de um elemento neutro (que j´a vimos que falha). Por fim a comutatividade tamb´em n˜ao ´e uma propriedade que (R, ?) possui, contra-exemplo: x = 0 e y = 1.
1.0.4
Exerc´ıcio 1.5
Neste caso, (R, ?) possui estrutura de grupo comutativo! De fato: Associatividade: ∀x, y, z ∈ R vale que (x?y)?z = (x+y−6)?z = (x+y−6)+z−6 = x+y+z−12, pela comutatividade e assosiatividade da soma + de R. Por outro lado, x?(y?z) = x?(y+z−6) = x + (y + z − 6) − 6 = x + y + z − 12 = (x ? y) ? z. Comutatividade: ∀x, y ∈ R vale que x ? y = x + y − 6 = y + x − 6 = y ? x, pela comutatividade da soma + de R. Existˆ encia do Elemento Neutro: ∀x ∈ R vale que (x ? y = x ⇐⇒ x + y − 6 = x ⇐⇒ y = 6). Ent˜ao x ? 6 = x
∀x ∈ R e n˜ao precisamos verificar a
”neutralidade pela esquerda”pois j´ a sabemos que ? ´e comutativa (e portanto 6 ? x = x ? 6 = x). Existˆ encia dos Sim´ etricos: ∀x ∈ R vale que: (x ? x0 = e ⇐⇒ x + x0 − 6 = 6 ⇐⇒ x0 = 12 − x), e tamb´em (x0 ? x = e ⇐⇒ x0 + x − 6 = 6 ⇐⇒ x0 = 12 − x). Logo, dado x ∈ R seu sim´etrico ´e x0 = 12 − x que est´ a em R.
1.0.5
Exerc´ıcio 1.7
Note previamente que (Mn (R), ?) tem como elemento neutro a matriz identidade In . Como a opera¸c˜ ao ? ´e a multiplica¸c˜ ao usual de matrizes, ´e de se esperar que nem todo elemento de Mn (R) possua sim´etrico (pois nem toda matriz ´e invert´ıvel). Tome, por exemplo, a matriz nula 0. Suponha, por absurdo, que existe o sim´etrico A de 0. Neste caso, ter´ıamos In = A ? 0 = A · 0, mas isso implicaria det(In ) = det(A · 0) = det(A) · det(0) = det(A) · 0 = 0, absurdo pois det(In ) = 1. Portanto (Mn (R), ?) n˜ ao satisfaz a propriedade da existˆencia dos sim´etricos e portanto n˜ao ´e um grupo.
1.0.6
Exerc´ıcio 1.12 ? e
e e
a a
b b
c c
a
a
b
c
e
b
b
c
e
a
c
c
e
a
b
´ CAP´ITULO 1. ESTRUTURAS ALGEBRICAS
9
Sess˜ ao 1.7 1.0.7
Exerc´ıcio 1.17
Considere Re(z) = x e Im(z) = y. Temos ent˜ao: p
√ x2 + y 2 2 ≥ |x| + |y|
2(x2 + y 2 ) ≥ x2 + y 2 + 2|xy| x2 + y 2 ≥ 2|xy| x2 − 2|xy| + y 2 ≥ 0 (|x| − |y|)2 ≥ 0.
⇐⇒ ⇐⇒ ⇐⇒ ⇐⇒
Como vale que (|x| − |y|)2 ≥ 0
∀x, y, conseguimos provar o que quer´ıamos.
Aten¸ c˜ ao: essa demonstra¸c˜ ao s´ o ´e v´ alida pois as implica¸c˜oes s˜ao “ ⇐⇒ ”. As implica¸c˜oes =⇒ s˜ ao mais f´ aceis de verificar, por´em as
⇐=
devem ser verificadas a parte, e muitas vezes elas
n˜ ao ser˜ ao v´ alidas! Partir de uma afirma¸c˜ao A e chegar a uma afirma¸c˜ao verdadeira B, n˜ao quer dizer que A ´e necessariamente verdadeira!
1.0.8
Exerc´ıcio 1.20
Como i0 + i1 + i2 + i3 = 1 + i − 1 − i = i4 + i5 + i6 + i7 = · · · = 0, 100 X
ik = 0 + 0 + · · · + 0 + i100 = 1
k=0
Logo a = 1 e b = 0.
1.0.9
Exerc´ıcio 1.21 1+i 1+i z= = 2−i 2−i
2+i 2+i
=
2 + i + 2i − 1 1 3 = + i 4+1 5 5
Cap´ıtulo 2
Espa¸ cos Vetoriais Sess˜ ao 3.1 2.0.1
Exerc´ıcio 3.2
A1) Comutatividade ∀A, B ∈ Mn (R) vale que: A + B = [aij + bij ] = [bij + aij ] = B + A, usando a comutatividade da soma + dos n´ umeros reais. A2) Associatividade: ∀A, B, C ∈ Mn (R) vale que: (A + B) + C = [(aij + bij ) + cij ] = [aij + (bij + cij )] = A + (B + C), usando a associatividade da soma + dos n´ umeros reais. A3) Elemento Neutro: Sei que para toda matriz A vale que: (A + N = A ⇐⇒ [aij + nij ] = [aij ] ⇐⇒ aij + nij = aij
∀i, j ⇐⇒ nij = 0 ∀i, j ⇐⇒ N = 0).
ao N ´e o elemento neutro do espa¸co vetorial (note que 0 ∈ Portanto se N ´e a matriz nula 0 ent˜ Mn (R)). A4) Elemento Sim´ etrico: dada matriz A ∈ Mn (R) vale que: (A + A0 = 0 ⇐⇒ [aij + a0ij ] = 0 ⇐⇒ aij + a0ij = 0 ∀i, j ⇐⇒ a0ij = −aij ⇐⇒ A0 = −A). Portanto dada A seu sim´etrico aditivo ´e −A. M1)Associatividade: ∀α, β ∈ R e ∀A ∈ Mn (R) vale que: (αβ) · A = αβ · [aij ] = [(αβ)aij ] = [α(βaij )] = α · [βaij ] = α · (βA), onde usamos a associatividade dos n´ umeros reais. M2) Distributividade para Adi¸ c˜ ao de Elementos: ∀α ∈ R e ∀A, B ∈ Mn (R) vale que: α · (A + B) = α · [aij + bij ] = [α(aij + bij )] = [αaij + αbij ] = [αaij ] + [αbij ] = α · A + α · B. M3) Distributividade para a Multiplica¸ c˜ ao por Escalar: ∀α, β ∈ R e ∀A ∈ Mn (R) vale que: (α + β) · A = (α + β) · [aij ] = [(α + β)aij ] = [αaij + βaij ] = [αaij ] + [βaij ] = α · A + β · A. M4) Elemento Identidade: ∀A ∈ Mn (R) vale que: (e · A = A ⇐⇒ e · [aij ] = [aij ]) ⇐⇒ [eaij ] = [aij ] ⇐⇒ eaij = aij
10
∀i, j)
CAP´ITULO 2. ESPAC ¸ OS VETORIAIS
Se supusermos e = 1 ent˜ ao temos eaij = aij
11
∀i, j e consequentemente (pela implica¸c˜oes ⇐= )
temos que e · A = A. Portanto, provamos que (Mn (R), +, ·) ´e um espa¸co vetorial.
2.0.2
Exerc´ıcio 3.4
(V, ⊕, ) ´e um espa¸co vetorial e vou provar. De fato, as propriedades seguem: A1)Comutatividade: ∀x, y ∈ V vale que: x ⊕ y = xy = yx = y ⊕ x, onde usamos a comutatividade do produto dos reais. A2) Associatividade: ∀x, y, z ∈ V vale que: (x ⊕ y) ⊕ z
= = = = =
(xy) ⊕ z (xy)z x(yz) x(y ⊕ z) x ⊕ (y ⊕ z)
pela defini¸c˜ ao pela defini¸c˜ ao pela associatividade do produto dos pela defini¸c˜ ao pela defini¸c˜ ao
de ⊕ de ⊕ reais de ⊕ de ⊕
A3) Elemento Neutro: Sei que para todo x ∈ V vale que: (x ⊕ e = x ⇐⇒ xe = x ⇐⇒ e = 1) Portanto se e = 1 ent˜ ao e ´e o elemento neutro do espa¸co vetorial. Note que a segunda → s´o ´e v´ alida pois 0 6∈ V . A4) Elemento Sim´ etrico: dado x ∈ V vale que: (x ⊕ x0 = e ⇐⇒ xx0 = 1 ⇐⇒ x0 = x1 ) Portanto dado x ∈ V seu sim´etrico aditivo ´e x1 . Novamente a segunda → s´o ´e v´alida pois 0 6∈ V . M1)Associatividade: ∀α, β ∈ R e ∀x ∈ V vale que: (αβ) x = xαβ = (xβ )α = α (xβ ) = α (β x) M2)Distributividade para Adi¸ c˜ ao de Elementos: ∀α ∈ R e ∀x, y ∈ V vale que: α (x ⊕ y) = α (xy) = (xy)α = xα y α = (α x) ⊕ (α y) M3) Distributividade para a Multiplica¸ c˜ ao por Escalar: ∀α, β ∈ R e ∀x ∈ V vale que: (α + β) x = xα+β = xα xβ = (α x)(β x) = (α x) ⊕ (β x) M4) Elemento Identidade: ∀x ∈ V vale que: (n x = x ⇐⇒ xn = x) Note que a u ´ltima senten¸ca vale para todo x positivo se n = 1. Logo n = 1 ∈ V ´e o elementro identidade da a¸c˜ ao de multiplica¸c˜ ao por escalar. Portanto como s˜ ao v´ alidas as propriedades A1-A4,M1-M4 est´a provado que (V, ⊕, ) ´e um espa¸co vetorial.
2.0.3
Exerc´ıcio 3.5
A1) Comutatividade: ∀x, y ∈ Z vale que: A2) Associatividade: ∀x, y, z ∈ Z vale que:
CAP´ITULO 2. ESPAC ¸ OS VETORIAIS x+y
= = = = = =
(x + y) + z
(v1 , w1 ) + (v2 , w2 ) (v1 + v2 , w1 + w2 ) (v2 + v1 , w1 + w2 ) (v2 + v1 , w2 + w1 ) (v2 , w2 ) + (v1 , w1 ) y+x = = = = =
pela defini¸c˜ ao pois V pois W pela defini¸c˜ ao
12
da soma + em Z ´e espa¸co vetorial ´e espa¸co vetorial da soma + em Z
((v1 + v2 , w1 + w2 )) + (v3 , w3 ) ((v1 + v2 ) + v3 , (w1 + w2 ) + w3 ) (v1 + (v2 + v3 ), w1 + (w2 + w3 )) (v1 , w1 ) + (v2 + v3 , w2 + w3 ) x + (y + z)
pela defini¸c˜ ao da soma + em Z pois V e W s˜ ao espa¸cos vetoriais pela defini¸c˜ ao de + em Z pela defini¸c˜ ao de + em Z
A3) Elemento Neutro: Sei que para todo x ∈ Z vale que: x + e = x ⇐⇒ (v1 , w 1 ) + (e1 , e2 ) = (v1 , w1 ) ⇐⇒ (v1 + e1 , w1 + e2 ) = (v1 , w1 ) ⇐⇒ v + e = v e = elemento neutro da soma de V 1 1 1 1 ⇐⇒ w + e = w e = elemento neutro da soma de W 1 2 1 2 Sendo assim, ao tomarmos (e1 , e2 ) ∈ Z que ´e o par odenado formado pelo neutro de V e pelo neutro de W , temos o elemento neutro de Z. A4) Elemento Sim´ etrico: dado x = (v1 , w1 ) elemento gen´erico de Z, vale que: 0 0 0 0 0 x + x = (e1 , e2 ) ⇐⇒ (v 1 , w1 ) + (v1 , w1 ) = (e1 , e2 ) ⇐⇒ (v1 + v1 , w1 + w1 ) = (e1 , e2 ) ⇐⇒ v + v 0 = e v 0 ´e o sim´etrico de v em V 1 1 1 1 1 ⇐⇒ w + w 0 = e w0 ´e o sim´etrico de w em W 1 2 1 1 1
Ent˜ ao, dado x = (v1 , w1 ) seu sim´etrico em Z ´e (v10 , w10 ) como descrito acima. OBS.: n˜ ao ´e necess´ ario mostrar v10 como e1 − v1 , pois A4 diz somente sobre a existˆencia dos sim´etricos, fato que ´e garantido por V, W serem espa¸cos vetoriais. M1) Associatividade: ∀α, β ∈ R e ∀x ∈ Z vale que: (αβ)x = (αβ)(v1 , w1 ) = ((αβ)v1 , (αβ)w1 ) = (α(βv1 ), α(βw1 )), onde usamos que V, W possuem multiplica¸c˜ ao por escalar associativa. M2) Distributividade para Adi¸ c˜ ao de Elementos: ∀α ∈ R e ∀x, y ∈ Z vale que: α(x + y) = α(v1 + v2 , w1 + w2 ) = (α(v1 + v2 ), α(w1 + w2 )) = (αv1 + αv2 , αw1 + αw2 ) = (αv1 , αw1 ) + (αv2 , αw2 ) = α(v1 , w1 ) + α(v2 , w2 ) = αx + αy, onde usamos o fato de que V e W s˜ao espa¸cos vetoriais. M3) Distributividade para a Multiplica¸ c˜ ao por Escalar: ∀α, β ∈ R e ∀x ∈ Z vale que: (α + β)x = (α + β)(v1 , w1 ) = ((α + β)v1 , (α + β)w1 ) = (αv1 + βv1 , αw1 + βw1 ) = (αv1 , αw1 ) + (βv1 , βw1 ) = αx + βx, onde usamos novamente o fato de que V e W s˜ao ambos espa¸cos vetoriais. M4) Elemento Identidade: ∀x ∈ Z vale que: nv = v 1 1 nx = x ⇐⇒ (nv1 , nw1 ) = (v1 , w1 ) ⇐⇒ nw = w 1 1
CAP´ITULO 2. ESPAC ¸ OS VETORIAIS
13
Agora como ambos V e W s˜ ao espa¸cos vetoriais sobre o corpo F, temos que n = 1F satisfaz as duas equa¸c˜ oes e, consequentemente, ´e tamb´em o elemento identidade da multiplica¸c˜ao por escalar do espa¸co Z.
Sess˜ ao 3.2 2.0.4
Exerc´ıcio 3.9
Preciso provar que i)H 6= ∅; ii) H ´e fechado pela soma e iii) H ´e fechado pela multiplica¸c˜ao por escalar. i): Note que (0, · · · , 0) ∈ H, pois c1 · 0 + · · · + cn · 0 = 0 =⇒ (0, · · · , 0) ∈ H =⇒ H 6= ∅. ii): Dados (x1 , · · · , xn ), (y1 , · · · , yn ) ∈ H quero mostrar que (x1 , · · · , xn ) + (y1 , · · · , yn ) ∈ H. De fato, (x1 , · · · , xn )+(y1 , · · · , yn ) = (x1 +y1 , · · · , xn +yn ) e vale que c1 ·(x1 +y1 )+· · ·+cn ·(xn + yn ) = (c1 ·x1 +· · ·+cn ·xn )+(c1 ·y1 +· · ·+cn ·yn ) = 0+0 = 0 =⇒ (x1 , · · · , xn )+(y1 , · · · , yn ) ∈ H. iii): Analogamente, dado (x1 , · · · , xn ) ∈ H e dado λ ∈ R quero mostrar que λ · (x1 , · · · , xn ) ∈ H. De fato λ · (x1 , · · · , xn ) = (λ · x1 , · · · , λ · xn ) e vale que c1 · (λx1 ) + · · · + cn · (λxn ) = λ · (c1 x1 + · · · + cn xn ) = λ · 0 = 0 =⇒ λ · (x1 , · · · , xn ) ∈ H. Portanto, de i), ii) e iii), est´ a provado. OBS.: Note que ´e essencial provarmos que H 6= ∅, pois o conjunto vazio satisfaz ii) e iii) mas n˜ ao ´e um espa¸co vetorial!
2.0.5
Exerc´ıcio 3.11
i) S 6= ∅: Note que f = 0C([0,1]) ∈ S, pois
R1
0 dx = 0. Logo 0C([0,1]) ∈ S e S 6= ∅. R1 R1 ii) S ´ e fechado pela soma: Dados f, g ∈ S, temos que 0 (f (x) + g(x))dx = 0 f (x)dx + R1 g(x)dx = 0 + 0 = 0, pois ambas pertencem a S. 0 R1 iii) S ´ e fechado pela multiplica¸ c˜ ao por escalar: Dada f ∈ S e dado λ ∈ R, 0 λf (x)dx = R1 λ 0 f (x)dx = λ · 0 = 0, pois f ∈ S. 0
Portanto, de i), ii), e iii) est´ a provado que S ´e subespa¸co vetorial de C([0, 1]).
2.0.6
Exerc´ıcio 3.14 t
Note que a matriz nula 0 satisfaz 0 = 0 = −0, logo 0 ∈ U, W e portanto U, W 6= ∅. i)U ´ e fechado pela soma: ∀A, B ∈ U vale que (A + B)t = At + B t = (A + B), pois A e B est˜ao em U . Portanto A + B ∈ U . ii)U ´ e fechado pela multiplica¸ c˜ ao por escalar: Dado A ∈ U e λ ∈ R temos que (λA)t = λAt = λA, portanto λA ∈ U . E segue que U ´e um subespa¸co vetorial de Mn (R). An´ alogo para W .
CAP´ITULO 2. ESPAC ¸ OS VETORIAIS
2.0.7
14
Exerc´ıcio 3.16
S n˜ ao ´e um subespa¸co vetorial de R2 pois n˜ao possui elementro neutro da adi¸c˜ao. De fato, suponha por absurdo que ∃e ∈ S tal que v + e = e + v = v ∀v ∈ S. Como v ´e um elemento gen´erico de S, pode ser escrito da seguinte forma: v = α(1, 2)+(3, 2) = (α, 2α)+(3, 2) = (α + 3, 2α + 2). Logo temos que v + e = (α + 3, 2α + 2) + (e1 , e2 ) = (α + 3 + e1 , 2α + 2 + e2 ) = v, e α + 3 + e = α + 3 1 isto acontece se e somente se . O que nos leva a e1 = 0 = e2 , e portanto 2α + 2 + e = 2α + 2 2 e = (0, 0). Absurdo, pois supomos e ∈ S mas (0, 0) 6∈ S. OBS.: Note que sempre vale que se S ⊆ V ´e um subespa¸co vetorial de V e que se e ∈ V ´e o elemento neutro de V , ent˜ ao necessariamente o elemento neutro de S tamb´em ´e e. Pela unicidade deste elemento em V pode-se provar que se e ∈ V n˜ao est´a em S ent˜ao S n˜ao pode ser um subespa¸co vetorial.
Sess˜ ao 3.3 2.0.8
Exerc´ıcio 3.17 "
x
y
z
t
#
matriz gen´erica 2 × 2. Ent˜ao A ∈ U ⇐⇒ x − y − z = 0 ⇐⇒ x = y + z, logo " # y+z y todos elementos de U s˜ ao da forma A = . Ent˜ao temos 3 graus de liberdade para z t formar o subespa¸co U (isso significa exatamente que a dimens˜ao de U ´e 3). Agora, para achar o
Seja A =
sistema U " de geradores # de " y+z y A= =y· z t |
basta #fatorar Isto ´e: " A pelas # vari´a"veis restantes. # 1 1 1 0 0 0 +z · +t · 0 0 1 0 0 1 {z } | {z } | {z } A1
A2
A3
Logo todo elemento de U ´e combina¸c˜ ao linear de A1 , A2 , A3 e portanto S = {A1 , A2 , A3 } ´e um sistema de geradores para o subespa¸co vetorial U . OBS.: Para provar a igualdade de conjuntos U = [S] temos que provar que todo elemento de U est´ a em [S] "e que todo elemento de [S] est´a em U . E afirmar que “todos elementos de U s˜ ao da # y+z y forma A = ” ´e dizer apenas que todo elemento de U est´a em [S]. Mas a rec´ıproca z t dessa afirma¸c˜ ao (que completa o que queremos provar) est´a implicitamente" provada pois # sabey+z y mos que A ∈ U ⇐⇒ x = y + z, logo se uma matriz ´e da forma A = ent˜ao z t automaticamente essa matriz est´ a em U (usando a implica¸c˜ao ⇐= ), o que prova que todo elemento de [S] est´ a em U .
CAP´ITULO 2. ESPAC ¸ OS VETORIAIS
2.0.9
15
Exerc´ıcio 3.20
1
6
Aqui usamos o abuso de nota¸c˜ ao de que u = 2 e que v = −3. −2 −8 Denote o espa¸co gerado pelas colunas da matriz A por U = [A1 , A2 ] 2 4 onde A1 = 1 e A2 = 5. 2
0 Agora, sabemos que:
u ∈ [A1 , A2 ] ⇐⇒ Existem escalares c1 , c2 tais que u= c1 A1 + c2 A2 4c + 2c2 = 1 4c1 + 2c2 2c2 4c1 1 1 ⇐⇒ 2 = c1 + 5c2 = c1 + 5c2 ⇐⇒ c1 + 5c2 = 2 2c2 2c = −8 2c2 0 −8 2 Ent˜ ao para verificar se u est´ a no subespa¸co, basta verificar se o sistema de equa¸c˜oes possui solu¸c˜ao para c1 e c2 . E ao tentar resolver o sistema notamos que ele ´e um sistema imposs´ıvel, portanto u 6∈ U . Analogamente para v sabemos que 6 4c1 + 2c2 v ∈ [A1 , A2 ] ⇐⇒ −3 = c1 + 5c2 ⇐⇒ −2
2c2
4c + 2c2 = 6 1 c1 + 5c2 = −3 2c = −2 2
E como c1 = 2 e c2 = −1 resolve o sistema, conclu´ımos que v ∈ U .
2.0.10
Exerc´ıcio 3.21
Tenho que mostrar que W = [A1 , A2 , A3 ]. ! x y Considere uma matriz gen´erica A = . Sabemos que: z t ! ! x=x x y x z t A ∈ W ⇐⇒ A = A ⇐⇒ = ⇐⇒ y = z z t y t t = t ! ! ! x y 1 0 0 0 0 =x +t +y Portanto A ∈ W ⇐⇒ A = y t 0 0 0 1 1 ⇐⇒ A = xA1 + tA2 + yA3 ⇐⇒ A ∈ [A1 , A2 , A3 ] E consequentemente W = [A1 , A2 , A3 ].
! 1 0
CAP´ITULO 2. ESPAC ¸ OS VETORIAIS
16
Sess˜ ao 3.4 2.0.11
Exerc´ıcio 3.23
Para facilitar nosso trabalho, vamos determinar separadamente um sistema de geradores para U e um sistema de geradores para W . Geradores de U : Dado v = (x, y, z, t) elemento gen´erico de R4 , ent˜ao v ∈ U ⇐⇒ x + y = 0 e z − t = 0 ⇐⇒ x = −y e z = t ⇐⇒ v = (−y, y, t, t) Logo v = y(−1, 1, 0, 0) + t(0, 0, 1, 1) e U = [(−1, 1, 0, 0), (0, 0, 1, 1)]. | {z } | {z } u1
u2
Geradores de W : Dado v = (x, y, z, t) elemento gen´erico de R4 , ent˜ao v ∈ W ⇐⇒ x − y − z + t = 0 ⇐⇒ x = y + z − t ⇐⇒ v = (y + z − t, y, z, t) Logo v = y(1, 1, 0, 0) + z(1, 0, 1, 0) + t(−1, 0, 0, 1) e W = [(1, 1, 0, 0), (1, 0, 1, 0), (−1, 0, 0, 1)]. | {z } | {z } | {z } w1
w2
w3
4
(a) Dado v = (x, y, z, t) elemento gen´erico de R , ent˜ao v ∈ U ∩ W ⇐⇒ v ∈ U e v ∈ W . Portanto existem escalares a1 , a2 , b1 , b2 , b3 tais que: v = a1 (−1, 1, 0, 0) + a2 (0, 0, 1, 1), pois v ∈ U ; e v = b1 (1, 1, 0, 0) + b2 (1, 0, 1, 0) + b3 (−1, 0, 0, 1), pois v ∈ W . Da´ı, a1 u1 + a2 u2 = b1 w1 + b2 w2 + b3 w3 , ou seja: (−a1 , a1 , a2 , a2 ) = (b1 + b2 − b3 , b1 , b2 , b3 ) −a1 = b1 + b2 − b3 a = b 1 1 Logo temos o sistema a2 = b2 a = b 2 3 escolhido resolvˆe-lo para b1 , b2 , b3 ).
, e vamos resolvˆe-lo para a1 , a2 (poder´ıamos ter
Note que a1 = 0 e a2 = b2 ´e uma solu¸c˜ao para o sistema pois satisfaz todas as equa¸c˜oes (se escolhermos as vari´ aves ai , as constanstes bi podem ser qualquer valor fixo). Substituindo os valores de a1 , a2 que resolvem o sistema (i.e, os valores de a1 , a2 para os quais v al´em de estar em U tamb´em est´ a em W ), obtemos: v = b2 (0, 0, 1, 1) E consequentemente U ∩ W = [(0, 0, 1, 1)]. (b) Dado v = (x, y, z, t) elemento gen´erico de R4 , ent˜ao v ∈ U + W ⇐⇒ v = u + w para algum u ∈ U e w ∈ W.
CAP´ITULO 2. ESPAC ¸ OS VETORIAIS
17
Logo, v ∈ U + W se (e somente se) existem escalares a1 , a2 , b1 , b2 , b3 tais que v = a1 u1 + a2 u2 + b1 w1 + b2 w2 + b3 w3 | {z } | {z } u
w
E isso ´e a mesma coisa que dizer U + W = [u1 , u2 , w1 , w2 , w3 ]. (c) U + W ´e soma direta se U ∩ W = {0R4 }. Mas como vimos na letra (a), U + W = [(0, 0, 1, 1)] 6= {0R4 }. Portanto n˜ ao ´e uma soma direta.
2.0.12
Exerc´ıcio 3.24
R3 = U ⊕ W se: i)U ∩ W = {0R3 } e ii) R3 = U + W . i) Como U = [(1, 0, 0)] e W = [(1, 1, 0), (0, 1, 1)], ent˜ao v ∈ U ∩ W
⇐⇒ existem escalares
a1 , b1 , b2 tais que v = a1 (1, 0, 0) e v = b1 (1, 1, 0) + b2 (0, 1, 1) Logo a 1 (1, 0, 0) = b1 (1, 1, 0) + b2 (0, 1, 1) =⇒ (a1 , 0, 0) = (b1 , b1 + b2 , b2 ). a = b1 1 ´nica solu¸c˜ao a1 = 0. Ent˜ ao 0 = b1 + b2 , e resolvendo para a1 obtemos a u 0 = b 2
Consequentemente v = 0(1, 0, 0) = (0, 0, 0) e U ∩ W = {(0, 0, 0)}. OBS.: obtemos que (0, 0, 0) ∈ U ∩ W pois a1 = 0 ´e solu¸c˜ao do sistema e obtemos que na verdade esse ´e o u ´nico elemento do subespa¸co pois a solu¸c˜ao do sistema ´e u ´nica. ii) Por constru¸c˜ ao equivalente ao exerc´ıcio 3.23b temos que U + W = [(1, 0, 0), (1, 1, 0), (0, 1, 1)]. Agora, para provar que R3 = U + W devemos provar que U + W ⊆ R3 e que R3 ⊆ U + W . A primeira inclus˜ ao se deve ao fato de que R3 ´e um espa¸co vetorial e, portanto, combina¸c˜oes lineares de seus elementos ainda pertencem ao espa¸co vetorial. Para mostrar que a segunda inclus˜ ao ´e v´alida devemos mostrar que todo elemento de R3 est´a em U + W . Isto ´e, dado v = (x, y, z) ∈ R3 preciso encontrar escalares a1 , b1 , b2 que satisfazem v = a1 u1 + b1 w1 + b2 w2 .
x = a1 + b1 Ent˜ ao temos, (x, y, z) = (a1 + b1 , b1 + b2 , b2 ) ⇐⇒ y = b1 + b2 z = b 2
E preciso resolver o sistema para as vari´aveis a1 , b1 , b2 , pois caso eu mostre que existe uma solu¸c˜ao para essas vari´ aveis ent˜ ao existem escalares satisfazendo o que foi pedido. b2 = z Resolvendo o sistema, obtemos a solu¸c˜ ao b1 = y − z a = x − y + z 1
E portanto mostramos que (x, y, z) = (x − y + z)(1, 0, 0) + (y − z)(1, 1, 0) + z(0, 1, 1), logo v = (x, y, z) est´ a em U + W .
CAP´ITULO 2. ESPAC ¸ OS VETORIAIS
2.0.13
18
Exerc´ıcio 3.25
Preciso mostrar que: i) U ∩ W = {0Mn (R) } e ii) U + W = Mn (R). i) Dada matriz gen´erica A = [aij ], ent˜ ao A ∈ U ∩ W ⇐⇒ A ∈ U e A ∈ W . E temos que: A ∈ U ⇐⇒ At = A ⇐⇒ aji = aij
∀i, j; e
t
A ∈ W ⇐⇒ A = −A ⇐⇒ aji = −aij
∀i, j.
a = a ij ji Portanto se A = [aij ] est´ a na interse¸c˜ ao devemos ter a = −a ij ji Mas isso s´ o acontece se aij = 0 ∀i, j, e portanto A = 0Mn (R) . Ent˜ ao conclu´ımos que U ∩ W = {0Mn (R) }. ii) Dada matriz gen´erica A = [aij ], tenho que mostrar que existe uma matriz sim´etrica e uma matriz antissim´etrica tais que A ´e a soma das duas. Agora definimos (a partir da matriz dada A) duas matrizes B e C da seguinte maneira: B = [bij ], com bij :=
aij + aji 2
∀i, j
C = [cij ], com cij :=
aij − aji 2
∀i, j
Note que bij = bji e cij = −cji A=B+C
∀i, j; e al´em disso aij = bij + cij , o que implica que
OBS.: Na parte ii) poder´ıamos ter tentado exibir os geradores de U e de W e prosseguido de forma similar ` a parte ii) do exerc´ıcio 3.24. Por´em, por n˜ao sabermos o valor de n, fica dif´ıcil exibir “concretamente” os geradores de U e W . Segue outra solu¸c˜ao poss´ıvel nesse sentido: 1, se m = i e n = j Definimos uma matriz Eij = [emn ] com emn := . 0, caso contr´ario Agora considere a matriz Bij := Eij + Eji . Observe que Bij ´e sim´etrica ∀i, j e que, al´em disso, SU = {Bij |i ≤ j} ´e um conjunto de geradores de U . Analogamente definimos Cij := Eij − Eji e obtemos que SW = {Cij |i < j} ´e um conjunto de geradores de W . Logo U + W = [SU ∪ SW ] e podemos (exaustivamente) terminar a prova por esse caminho observando que Eij =
1 2
· (Bij + Cij ) e portanto A pode ser (exaustivamente) escrita como combina¸c˜ao
linear de elementos de SU ∪ SW .
CAP´ITULO 2. ESPAC ¸ OS VETORIAIS
2.0.14
19
Exerc´ıcio 3.28
U ∪ W n˜ ao ´e um subespa¸co vetorial de R2 e vou provar. De fato, ao considerarmos u = (1, 3) ∈ U e w = (1, −2) ∈ W temos que u+w 6∈ U ∪W (desenhe!), pois u + w = (2, 1) e 1 6= 3 · 2 (portanto n˜ao est´a em U ) e tamb´em 1 6= −2 · 2 (portanto n˜ao est´a em W ). Logo u + w 6∈ U ∪ W , e portanto U ∪ W n˜ao ´e fechado pela soma, logo n˜ao ´e subespa¸co vetorial. OBS.: Note que U ∪ W ´e fechado pela multiplica¸c˜ao por escalar.
2.0.15
Exerc´ıcio 3.29
O sistema possui como conjunto solu¸c˜ ao S = {(x, y, z) ∈ R3 |x = − 27 z e y = 32 z}. Note que: i) S 6= ∅ pois (0, 0, 0) ∈ S ii) Dados v1 = (x1 , y1 , z1 ) e v2 = (x2 , y2 , z2 ) elementos de S, v1 + v2 = (x1 + x2 , y1 + y2 , z1 + z2 ) ´e x + x = −7/2z − 7/2z = − 7 (z + z ) 1 2 1 2 2 2 1 tal que . y + y = 3/2z + 3/2z = 3 (z + z ) 1 2 1 2 2 2 1 Logo v1 + v2 ∈ S. αx = α(−7/2z ) = − 7 (αz ) 1 1 1 2 . iii) Dados α ∈ R e v1 ∈ S, αv1 = (αx1 , αy1 , αz1 ) satisfaz αy = α(3/2z ) = 3 (αz ) 1
1
2
1
Logo αv1 ∈ S. De i), ii) e iii) provamos que S ´e um subespa¸co vetorial. Agora vamos determinar um sistema de geradores para S ∩ U . Note primeiro que S = [(−7/2, 3/2, 1)] = [(−7, 3, 2)] e que U = [(1, 1, 0), (−1, 0, 1)]. Agora temos que v ∈ S ∩ U ⇐⇒ v ∈ S e v ∈ U . Isso acontece se (e somente se) ∃s1 , u1 , u2 ∈ R tais que s1 (−7, 3, 2) = u1 (1, 1, 0) + u2 (−1, 0, 1). −7s1 = u1 − u2 ⇐⇒ s1 = 0. Ent˜ ao temos 3s1 = u1 2s = u 1
2
E consequentemente S ∩ U = {(0, 0, 0)}.
Sess˜ ao 3.5 2.0.16
Exerc´ıcio 3.34
(a) O conjunto n˜ ao ´e L.I. pois x2 + 2x + 1 = 1 · (x2 ) + 2 · (x − 1) + 3 · (1) (b) O conjunto n˜ ao ´e L.I. pois 2x3 − x2 = 2 · (x3 ) − 1 · (x2 − x) − 1 · (x)
CAP´ITULO 2. ESPAC ¸ OS VETORIAIS
2.0.17
20
Exerc´ıcio 3.35
Suponha que existem escalares c1 , c2 , c3 , c4 tais que c1 (1, 0, 0, −1) + c2 (0, 1, 0, 1) + c3 (0, 0, 1, 1) + c4 (1, 0, 0, 1) = 0R4 . Ent˜ aotemos que (c1 + c4 , c2 , c3 , −c1 + c2 + c3 + c4 ) = (0, 0, 0, 0). c1 + c4 = 0 c = 0 2 Logo c3 = 0 −c + c + c + c = 0 1 2 3 4 que possui somente a solu¸c˜ ao trivial c1 = c2 = c3 = c4 = 0. Portanto, provamos que o conjunto {(1, 0, 0, −1), (0, 1, 0, 1), (0, 0, 1, 1), (1, 0, 0, 1)} ´e L.I.
2.0.18
Exerc´ıcio 3.37
Primeiro vamos mostrar que S = {f, g} ´e L.D. em i)C([−1, 0]) e em ii)C([0, 1]). i): Suponha que existem escalares c1 , c2 tais que c1 f + c2 g = 0C([−1,0]) Como temos uma igualdade de fun¸c˜ oes isso implica que o lado esquerdo se anula em todo x ∈ [−1, 0]. E observe que neste intervalo g(x) = |x| = −x e portanto: 0 = c1 f (x) + c2 g(x) = c1 x − c2 x = (c1 − c2 )x ∀x ∈ [−1, 0] E como temos uma igualdade de polinˆ omio, isso implica que c1 − c2 = 0 =⇒ c1 = c2 . Portanto n˜ ao conseguimos concluir que c1 = c2 = 0. Por exemplo, c1 = c2 = 1 s˜ao tais que c1 f + c2 g = 0C([−1,0]) e logo S = {f, g} ´e L.D. neste espa¸co vetorial. ii)Analogamente conclu´ımos que c1 = 1 e c2 = −1 s˜ao tais que c1 f + c2 g = 0C([0,1]) O que implica que S = {f, g} ´e L.D. em C([0, 1]). Agora, provemos que S = {f, g} ´e L.I. em C([−1, 1]). Suponha que existem escalares c1 , c2 tais que c1 f + c2 g = 0C([−1,1]) Issso implica que 0 = c1 f (x) + c2 g(x) = c1 x + c2 |x|
∀x ∈ [−1, 1].
Agora, se restringirmos a igualdade para o intervalo [−1, 0] temos que 0 = c1 x + c2 |x| = c1 x − c2 x = (c1 − c2 )x =⇒ c1 − c2 = 0 =⇒ c1 = c2
(F)
CAP´ITULO 2. ESPAC ¸ OS VETORIAIS
21
E se restringirmos a igualdade para o intervalo [0, 1] temos 0 = c1 x + c2 |x| = c1 x + c2 x = (c1 + c2 )x =⇒ c1 + c2 = 0 =⇒ c1 = −c2
(♥)
De ♥ e F conclu´ımos que c1 = c2 = 0, e consequentemente S = {f, g} ´e L.I. em C([−1, 1]).
2.0.19
Exerc´ıcio 3.39
Se S = {v1 , v2 } ´e L.D. ent˜ ao existem escalares n˜ao todos nulos c1 , c2 tais que c1 v1 + c2 v2 = 0. Como pelo menos um dos escalares ´e n˜ ao nulo, digamos c1 6= 0, temos que v1 =
−c2 c 1 v2 .
Sess˜ ao 3.6 2.0.20
Exerc´ıcio 3.43
Primeiro acharemos os geradores de W . a11 Uma matriz gen´erica de W ⊆ M3 (R) ´e da forma A = a12
a12
a13
a22
a23 . Logo temos:
a13
a23
a33
1 A = a11 0 0 |
0 0 +a12 1
0
0
0
0 0 {z }
A1
1 0 0 0 0 0 0 0 0 0 0 0 +a13 0 0 0 +a22 0 1 0 +a23 0 0 1 +a33 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 1 | {z } | {z } | {z } | {z } | {z } 1
0
A2
0
0
A3
A4
A5
E consequentemente S = {A1 , A2 , A3 , A4 , A5 , A6 } ´e um conjunto de geradores para W . Agora, para saber se S ´e uma base de W precisamos apenas verificar se S ´e L.I., o que de fato acontece pois: Supondo escalares c1 , c2 , c3 , c4 , c5 , c6 tais que c1 A1 + c2 A2 + c3 A3 + c4 A4 + c5 A5 + c6 A6 = 0 chegamos num sistema de equa¸c˜ oes com u ´nica solu¸c˜ao c1 = c2 = c3 = c4 = c5 = c6 = 0. E portanto S ´e L.I. E como provamos que S ´e um conjunto de geradores L.I., encontramos a base S para o subespa¸co W.
2.0.21
Exerc´ıcio 3.46 "
x
y
z
t
#
matriz gen´erica 2 × 2. Ent˜ao A ∈ U ⇐⇒ x − y − z = 0 ⇐⇒ x = y + z, logo " # y+z y todos elementos de U s˜ ao da forma A = . Agora, para achar o sistema de geradores z t de U basta fatorar A pelas vari´ aveis restantes. Isto ´e: Seja A =
A6
CAP´ITULO 2. ESPAC ¸ OS VETORIAIS " A=
y+z
y
z
t
#
" =y· |
1
1
0
0 {z
A1
#
" +z ·
}
22
1
0
1
0
|
{z
A2
#
" +t ·
}
0
0
0 |
#
1 {z
}
A3
Logo todo elemento de U ´e combina¸c˜ ao linear de A1 , A2 , A3 e portanto U = [A1 , A2 , A3 ]. E tamb´em podemos verificar que S = {A1 , A2 , A3 } ´e um conjunto L.I., pois: c1 + c2 = 0 " # " # " # c = 0 1 1 1 0 0 0 1 c1 · +c2 · +c3 · = 0M2 (R) =⇒ =⇒ c1 = c2 = c3 = 0. 0 0 1 0 0 1 c2 = 0 c = 0 3
Portanto, como S gera U e ´e L.I., temos que S ´e uma base de U .
2.0.22
Exerc´ıcio 3.48
Encontremos primeiro os geradores de U . omio gen´erico de P2 (R). Ent˜ao p(x) ∈ U Seja p(x) = a + bx + cx2 polinˆ ⇐⇒ a − 2c = 0 ⇐⇒ a = 2c. Ent˜ ao a forma gen´erica de um elemento de U ´e p(x) = 2c + bx + cx2 = c(2 + x2 ) + b(x) e, consequentemente, temos U = [2 + x2 , x]. Agora, como W = [1 − x, x − x2 ], podemos concluir que S = {2 + x2 , x, 1 − x, x − x2 } ´e um conjunto de geradores de U + W . Mas S n˜ao ´e uma base de U + W pois, como veremos a seguir, ´e um conjunto L.D.. De fato, supondo escalares k1 , k2 , k3 , k4 tais que k1 (2 + x2 ) + k2 (x) + k3 (1 − x) + k4 (x − x2 ) = 0P2 (R) ,
obtemos (2k1 + k3 ) + (k2 − k3 + k4 )x + (k1 − k4 )x2 = 0P2 (R)
2k + k3 = 0 1 e portanto k2 − k3 + k4 = 0 k − k = 0 1
(?).
4
Que possui como solu¸c˜ ao geral k1 = k4 , k2 = −3k4 e k3 = −2k4 . Isso significa que ao tomarmos k4 = 1 obtemos: (2 + x2 ) − 3x − 2(1 − x) + (x − x2 ) = 0 =⇒ (x − x2 ) = (−1) · (2 + x2 ) + 3 · x + 2 · (1 − x) Logo x − x2 pode ser expresso como combina¸c˜ao linear dos outros 3 elementos. E ent˜ ao S 0 = {2 + x2 , x, 1 − x} tamb´em gera U + W . Agora, verificamos que S’ ´e L.I.. Supondo escalares k1 , k2 , k3 tais que 0 = k1 (2+x2 )+k2 x+k3 (1−x) = (2k1 +k3 )+(k2 −k3 )x+k1 x2 , obtemos apenas a solu¸c˜ ao trivial k1 = k2 = k3 = 0. Portanto S 0 ´e uma base de U + W . OBS.: O fato do sistema (?) ter solu¸c˜ ao geral com apenas 1 grau de liberdade est´a intimamente ligado com o fato do conjunto S ter apenas 1 elemento que ´e combina¸c˜ao linear dos outros. Isto ´e, podemos escolher qual dos elementos na equa¸c˜ao vamos expressar como combina¸c˜ao linear dos
CAP´ITULO 2. ESPAC ¸ OS VETORIAIS
23
outros, por´em ao retir´ a-lo de S n˜ ao encontraremos outro elemento que seja combina¸c˜ao linear dos restantes.
2.0.23
Exerc´ıcio 3.54
Dizemos que um conjunto ϕ de condi¸co˜es s˜ao condi¸c˜oes necess´arias e suficientes para que dim(U ∩ W ) = dim(W ) quando temos “ϕ ⇐⇒ dim(U ∩ W ) = dim(W )”. Agora, sabemos que se W ⊆ U ent˜ ao temos U ∩ W = W e portanto conclu´ımos que W ⊆ U =⇒ dim(U ∩ W ) = dim(W ). Caso a volta ⇐= seja v´ alida, encontramos o que quer´ıamos. E de fato a rec´ıproca ´e v´ alida. Supondo dim(U ∩ W ) = dim(W ) vamos provar W ⊆ U . Por absurdo, se fosse W 6⊆ U ent˜ ao existiria um elemento n˜ao-nulo w ∈ W tal que w 6∈ U . Por´em isso implicaria que para todo escalar λ 6= 0, λw 6∈ U (pois U ´e espa¸co vetorial). Com isso ter´ıamos que dim(U ∩ W ) < dim(W ), absurdo! Logo dim(U ∩ W ) = dim(W ) =⇒ W ⊆ U .
2.0.24
Exerc´ıcio 3.57
Seja S = {p1 (x), p2 (x), p3 (x), p4 (x)}. Precisamos mostrar que i) P3 (R) = [S] e que ii) S ´e L.I.. i) Seja p(x) = a + bx + cx2 + dx3 polinˆomio gen´erico de P3 (R). Preciso mostrar que existem escalares k1 , k2 , k3 , k4 tais que p(x) = k1 p1 (x) + k2 p2 (x)k3 p3 (x) + k4 p4 (x). E isso acontece se, e somente se: a + bx + cx2 + dx3 = (k1 + k2 + k3 + k4 ) + (k2 − k4 )x + (−k3 − k4 )x2 − k4 x3
Que ´e equivalente a dizer que
k1 + k2 + k3 + k4 = a k − k = b 2
4
.
−k3 − k4 = c −k = d 4 k1 = a − b + c + d k = b − d 2 Note que ´e uma solu¸c˜ao do sistema e portanto temos os coeficientes da k = d − c 3 k = −d 4 combina¸c˜ ao linear desejada. Logo P3 (R) = [S]. ii) Supondo escalares k1 , k2 , k3 , k4 tais que k1 p1 (x) +k2 p2 (x)k3 p3 (x) + k4 p4 (x) = 0P3 (R) e igua k1 + k2 + k3 + k4 = 0 k − k = 0 2 4 lando coeficiente a coeficiente chegamos no sistema . −k3 − k4 = 0 −k = 0 4 Que possui somente a solu¸c˜ ao trivial k1 = k2 = k4 = 0. Portanto S ´e L.I..
CAP´ITULO 2. ESPAC ¸ OS VETORIAIS
24
Como provamos que S gera P3 (R) e que ´e L.I., provamos que S ´e uma base de P3 (R).
2.0.25
Exerc´ıcio 3.58
Precisamos mostrar que: i) V ∩ W = {0R3 } e ii) R3 = V + W . i) Como V 6⊆ W , existe um elemento v ∈ V que n˜ao pertence a W . Com isso temos que todo m´ ultiplo λv n˜ ao-nulo de v tamb´em n˜ ao est´a em W , pois caso contr´ario ter´ıamos que v =
1 λ λv
∈
W (pois W ´e subespa¸co vetorial). Mas como dim(V ) = 1 isso implica que todo elemento n˜ao-nulo de V n˜ao pertence a W . E como 0R3 ∈ W , segue que V ∩ W = {0R3 }. ii) Seja A = {w1 , w2 } uma base de W e B = {v1 } uma base de V . Ent˜ ao temos que A ∪ B = {w1 , w2 , v1 } ´e L.I.. De fato, supondo escalares c1 , c2 , c3 tais que: c1 w1 + c2 w2 + c3 v1 = 0 Temos que c3 v1 = −c1 w1 − c2 w2 . Agora, se c3 6= 0 ter´ıamos que v1 ´e combina¸c˜ao linear de w1 e w2 (que sabemos que n˜ ao ´e verdade); logo c3 = 0. Mas isso implica que c1 w1 + c2 w2 = 0, e como sabemos que A = {w1 , w2 } ´e L.I. (pois ´e base) temos que c1 = c2 = 0 = c3 . E portanto dim(U + W ) = dim([A ∪ B]) = 3. Mas como dim(R3 ) = 3 e U + W ⊆ R3 segue que U + W = R3 .
2.0.26
Exerc´ıcio 3.60
Note que (−1, 1, 0, 1) = −2(1, 2, 1, 0) + (1, 5, 2, 1) e disso chegamos a dim(U ∩ W ) = 2. Ent˜ ao, como diz o Teorema 3.6.5: dim(U + W ) = dim(U ) + dim(W ) − dim(U ∩ W ) = 3 + 3 − 2 = 4
Uma segunda maneira de resolver esse exerc´ıcio ´e a seguinte: Como U ⊆ U + W ⊆ R4 , segue que 3 ≤ dim(U + W ) ≤ 4. Finalmente, dim(U + W ) tamb´em n˜ ao pode ser igual a 3; pois caso contr´ario ter´ıamos 3 = dim(U + W ) = dim(U ) = dim(W ) um absurdo pois dim(U ∩ W ) = 2.
=⇒
U = U +W = W
Portanto s´ o podemos ter dim(U + W ) = 4.
2.0.27
Exerc´ıcio 3.62
Note que: u
z }|2 { U = [(0, 1, 0), (0, 0, 1)] | {z } u1
=⇒
U ∩ W = U , que ´e
CAP´ITULO 2. ESPAC ¸ OS VETORIAIS
25 v
z }|2 { V = [(1, 0, 0), (0, 1, 2)] | {z } v1
w
z }|2 { W = [(1, 1, 0), (0, 0, 2)] | {z } w1
i) Ent˜ ao V +W = [v1 , v2 , w1 , w2 ]. Agora precisamos achar um subconjunto L.I. de {v1 , v2 , w1 , w2 }. Supondo escalares c1 , c2 , c3 , c4 tais que c1 v1 + c2 v2 + c3 w1 + c4 w2 = 0 chegamos ao sistema: c + c3 = 0 1 c2 + c3 = 0 2c + 2c = 0 2
4
Que possui solu¸c˜ ao geral c1 = −c3 , c2 = −c3 e c4 = c3 . Voltando na combina¸c˜ ao linear descobrimos que (colocando c3 = 1) w2 = v1 +v2 −w1 . E podemos verificar que {v1 , v2 , w1 } ´e L.I. e, portanto, uma base de V + W . ii) Agora, temos que U + V + W = [u1 , u2 , v1 , v2 , w1 , w2 ]. Analogamente supondo escalares c1 , c2 , c3 , c4 , c5 , c6 tais que c1 u1 + c2 u2 + c3 v1 + c4 v2 c5 w1 + c6 w2 = 0 chegamos ao sistema: c + c5 = 0 3 c1 + c4 + c5 = 0 c + 2c + 2c = 0 2
4
6
Que possui solu¸c˜ ao geral c1 = −c4 − c5 , c2 = −2c4 − 2c6 e c3 = −c5 . Substituindo na combina¸c˜ ao linear • c4 = 0 e c5 = c6 = 1 • c5 = 0 e c4 = c6 = 1 • c6 = 0 e c4 = c5 = 1 obtemos, respectivamente: • w1 = u1 + 2u2 + v1 − w2 • w2 = u1 + 4u2 − v2 • v2 = 2u2 + 2u2 + v1 − w1 E portanto U + V + W = [u1 , u2 , v1 ]. Podemos verificar que {u1 , u2 , v1 } ´e L.I. e portanto uma base de U + V + W . iii): Seja v = (x, y, z) elemento gen´erico de R3 . Ent˜ao v ∈ U ∩ V existem escalares c1 , c2 , d1 , d2 tais que c1 u1 + c2 u2 = d1 v1 + d2 v2
⇐⇒ v ∈ U e v ∈ V . Logo
CAP´ITULO 2. ESPAC ¸ OS VETORIAIS
26
Isso equivale a (0, c1 , c2 ) = (d1 , d2 , 2d2 ). Como d1 = 0, d2 = c1 resolve o sistema de 3 equa¸c˜oes que obtemos da linha de cima, segue que v = c1 (0, 1, 2) e portanto U ∩ V = [(0, 1, 2)]. Logo {(0, 1, 2)} ´e uma base para U ∩ V .
Sess˜ ao 3.7 2.0.28
Exerc´ıcio 3.63
c1 h i c2 Temos que p = c onde c1 , c2 , c3 , c4 s˜ao os escalares que satisfazem γ 3 c4 p(x) = c1 · (1) + c2 · (1 − x) + c3 · (1 − x)2 + c4 · (1 − x)3 Ent˜ ao, vamos encontrar tais escalares (existem pois γ ´e uma base). Temos: p(x) = 3 − 2x − x2 = c1 + c2 − c2 x + c3 − 2c3 x + c3 x2 + c4 − 3c4 x + 3c4 x2 − c4 x3 = (c1 + c2 + c3 + c4 ) + (−c2 − 2c3 − 3c4 )x + (c3 + 3c4 )x2 − c4 x3 Como possu´ımos uma igualdade de polinˆ omios temos que seus coeficientes devem coincidir. Isto ´e: c1 + c2 + c3 + c4 = 3 −c − 2c − 3c = −2 2
3
4
c3 + 3c4 = −1 −c = 0 4
0
=⇒ c1 = c4 = 0, c2 = 4 e c3 = −1.
h i 4 Portanto p = −1. γ 0
2.0.29
Exerc´ıcio 3.64
3 h i 2 Temos que p = 1 , e pela defini¸c˜ao de matriz de coordenadas isso nos leva a : β −1 3 p(x) = x + x2 = · (2) + 1 · (a + x) − 1 · (1 + bx2 ) 2 0 = 2 + a 2 2 2 Logo temos que x + x = 3 + a + x − 1 − bx = (2 + a) + x − bx , da´ı 1 = 1 , que acontece 1 = −b somente se a = −2 e b = −1.
CAP´ITULO 2. ESPAC ¸ OS VETORIAIS
2.0.30
27
Exerc´ıcio 3.67
(a) Precisamos mostrar que: i) V = [β] e ii)β ´e L.I.. i) Dado v elemento gen´erico de V , quero encontrar escalares c1 , c2 , c3 tais que v = c1 v1 + c2 (v1 + v2 ) + c3 (−v1 + v2 + v3 ). Por´em, j´ a sabemos que γ = {v1 , v2 , v3 } ´e uma base de V . Portanto sei que existem escalares a1 , a2 , a3 tais que v = a1 v1 + a2 v2 + a3 v3 . Agora temos que: v = c1 v1 + c2 (v1 + v2 ) + c3 (−v1 + v2 + v3 ) ⇐⇒ a1 v1 + a2 v2 + a3 v3 = c1 v1 + c2 (v1 + v2 ) + c3 (−v1 + v2 + v3 ) = (c1 + c2 − c3 )v1 + (c2 + c3 )v2 + c3 v3 . c + c2 − c3 = a1 1 Agora verificaremos se conseguimos resolver o sistema c2 + c3 = a2 c = a 3
, pois ent˜ao vamos
3
ter exibido os coeficientes que mostram v como combina¸c˜ao linear dos elementos de β. E de fato conseguimos resolver o sistema, obtendo c3 = a3 , c2 = a2 − a3 e c1 = a1 − a2 + 2a3 como solu¸c˜ ao. Portanto conclu´ımos que todo elemento de V pode ser escrito como combina¸c˜ao linear dos elementos de β. Isto ´e, V = [β]. ii) Suponha escalares c1 , c2 , c3 tais que c1 v1 + c2 (v1 + v2 ) + c3 (−v1 + v2 + v3 ) = 0V Ent˜ ao temos que (c1 + c2 − c3 )v1 + (c2 +c3 )v2 + c3 v3 = 0, e como γ = {v1 , v2 , v3 } ´e L.I. isso c + c2 − c3 = 0 1 . implica que necessariamente devemos ter c2 + c3 = 0 c = 0 3
O que implica que c1 = c2 = c3 = 0. E portanto β ´e L.I.. De i) e ii) provamos que β ´e uma base de V . 2 h i (b) v = −1 =⇒ v = 2v1 − v2 + v3 . γ
1 Usando os valores encontrados para os coeficientes da combina¸c˜ao linear dos elementos de β que resulta em v, obtemos c3 = 1, c2 = −1 − 1 = −2 e c1 = 2 − (−1) + 2 · 1 = 5. 5 h i Logo v = −2. β
1
Sess˜ ao 3.8 2.0.31
Exerc´ıcio 3.69
Seja γ = {A1 , A2 , A3 } e β = {B1 , B2 , B3 }.
CAP´ITULO 2. ESPAC ¸ OS VETORIAIS
28
Por defini¸c˜ ao, a matriz de mudan¸ca de base de γ para β ´e:
h iγ h i I = A1 β β
h
A2
i
h i A3 β
β
Calculemos ent˜ ao cada coluna separadamente. Por defini¸c˜ ao, c1 h i A1 = c2 β
c3 Onde os ci ’s s˜ ao os coeficientes da combina¸c˜ao linear que expressa A1 na base β. Isto ´e, os coeficientes tais que A1 = c1 B1 + c2 B2 + c3 B3 . Substituindo as matrizes que j´a conhecemos obtemos: " 1
0
1
0
# = c1
" 1
1
0
0
#
c1 + c2 = 1 c = 0 1 Que nos leva ao sistema c2 = 1 c = 0 3 0 h i Portanto A1 = 1.
" + c2
1
# 0
1
0
" + c3
0
# 0
0
1
" =
c1 + c2
c1
c2
c3
#
, que possui solu¸c˜ao c1 = c3 = 0 e c2 = 1.
β
0 h i h i Analogamente calculamos A2 e A3 . β β c1 + c2 = 0 c = −1 1 A2 = c1 B1 + c2 B2 + c3 B3 ⇐⇒ c2 = 1 c = 0 3 c1 + c2 = 0 c = 0 1 A3 = c1 B1 + c2 B2 + c3 B3 ⇐⇒ c2 = 0 c = 1 3
−2 0 h i h i Portanto A2 = 1 e A3 = 0. β β 0 1
⇐⇒ c1 = −2, c2 = 1 e c3 = 0.
⇐⇒ c1 = c2 = 0 e c3 = 1.
CAP´ITULO 2. ESPAC ¸ OS VETORIAIS 0 h iγ E ent˜ ao I = −2 β
0
2.0.32
1
0 0.
0
1
1
29
Exerc´ıcio 3.70
···
h i h iβ h i · · · vn Por defini¸c˜ ao, I = v1 . γ γ γ ··· Calculemos, por exemplo, a primeira coluna. k1 h i . . ao os coeficientes da combina¸c˜ao linear de γ que expressa v1 . v1 = . , onde os ki ’s s˜ γ kn Agora, para achar os ci ’s vamos representar primeiro v1 na base α e depois representar cada elemento da base α na base γ. Isto ´e, v1
= =
a11 u1 + · · · + an1 un a11 (c11 w1 + · · · + cn1 wn ) + · · · + an1 (c1n w1 + · · · + cnn wn )
Onde cij ´e a i-´esima coordenada de vj na base γ. Observe que agora j´ a temos v1 como combina¸c˜ao linear de elementos de γ, basta fazer o trabalho manual de exibir os coeficientes. Ent˜ ao temos: v1
= =
a11 (c11 w1 + · · · + cn1 wn ) + · · · + an1 (c1n w1 + · · · + cnn wn ) (a11 c11 + · · · + an1 c1n )w1 + · · · + (a11 cn1 + · · · + an1 cnn )wn
Fazendo o mesmo processo para todo vj ’s obtemos: vj
= =
a1j (c11 w1 + · · · + cn1 wn ) + · · · + anj (c1n w1 + · · · + cnn wn ) (a1j c11 + · · · + anj c1n )w1 + · · · + (a1j cn1 + · · · + anj cnn )wn
h iβ Agora temos explicitamente os valores das entradas de I . γ
Por exemplo, a entrada m11 da matriz de mudan¸ca de base de β para γ ser´a a primeira coordenada de v1 na base γ. n P Isto ´e, m11 = ak1 c1k k=1
Por exemplo, a entrada m1j da matriz de mudan¸ca de base de β para γ ser´a a primeira coordenada de vj na base γ. n P Isto ´e, m1j = akj c1k k=1
Por exemplo, a entrada mij da matriz de mudan¸ca de base de β para γ ser´a a i-´esima coordenada de vj na base γ.
CAP´ITULO 2. ESPAC ¸ OS VETORIAIS
Isto ´e, mij =
n P
akj cik =
n P
cik akj . Que ´e exatamente a defini¸c˜ao do elemento origin´ario do
k=1
k=1
produto das matrizes Q · P . h iβ h iα h iβ Isto ´e, I = Q · P = I I γ
30
γ
α
Agora na segunda parte do exerc´ıcio, queremos provar que uma matriz de mudan¸ca de base h iA gen´erica I ´e invert´ıvel. B h iB Por defini¸c˜ ao I = In . B h iB h iA h iB h iA Por outro lado In = I = I ´e invert´ıvel com I . E portanto segue que I B B A B h iB h iA ( I )−1 = I . A
B
OBS.: A resolu¸c˜ ao da primeira parte deste exerc´ıcio ´e muito “conteira” e pesada de nota¸c˜oes; por´em possui pouco conte´ udo pragmaticamente relevante, embora seja importante para o desenvolvimento te´ orico. Sendo assim, fica a seu crit´erio a importˆancia de tˆe-la compreendido “completamente”.
2.0.33
Exerc´ıcio 3.72
Considere α = {v1 , v2 }. h iγ h i Pela defini¸c˜ ao de matriz de mudan¸ca de base temos: I = u1 α α Sendo assim, " # obtemos: " # h i h i 1 0 e u2 = u1 = α α 4 −2 Logo u1 = v1 + 4v2 e u2 = −2v2 . E portanto v2 = − 12 u2 = (1, −1) e v1 = u1 − 4v2 = (−3, 5). " # h i 1 Agora, se u = ent˜ ao u = v1 + 2v2 = (−1, 3). α 2
h
u2
i . α
Cap´ıtulo 3
Transforma¸ c˜ oes Lineares Sess˜ ao 4.2 3.0.1
Exerc´ıcio 4.4
Base para W : Seja v = (x, y) elemento gen´erico de R2 . Ent˜ao temos: v ∈ W
2x − y = 3x ⇐⇒ T (x, y) = 3(x, y) ⇐⇒ (2x − y, −x + 2y) = 3(x, y) ⇐⇒ −x + 2y = 3y
⇐⇒ x = −y Logo v = (x, y) est´ a em W se, e somente se, v = (−y, y) = y(−1, 1). Portanto W = [(−1, 1)] e α = {(−1, 1)} ´e uma base para W . Base para U : Seja v = (x, y) elemento gen´erico de R2 . Ent˜ao temos:
2x − y = x v ∈ U ⇐⇒ T (x, y) = (x, y) ⇐⇒ (2x − y, −x + 2y) = (x, y) ⇐⇒ −x + 2y = y
⇐⇒ x = y
Logo v = (x, y) est´ a em U se, e somente se, v = (y, y) = y(1, 1). Portanto U = [(1, 1)] e β = {(1, 1)} ´e uma base para U .
3.0.2
Exerc´ıcio 4.6
O exerc´ıcio de determinar uma transforma¸c˜ao linear satisfazendo certas condi¸c˜oes ´e bastante t´ıpico e ir´ a nos acompanhar at´e alguns cap´ıtulos a frente. A frase da teoria que fundamenta a solu¸c˜ao deste tipo de exerc´ıcio ´e a seguinte (Teorema 4.2.1): “Uma transforma¸c˜ ao linear fica completamente determinada pelos seus valores numa base” Sendo assim, nossa tarefa de criar uma transforma¸c˜ao linear que satisfa¸ca certas propriedades ser´ a sempre executada dizendo o que acontece com tal transforma¸c˜ao nos elementos de uma base. 31
˜ CAP´ITULO 3. TRANSFORMAC ¸ OES LINEARES
32
A solu¸c˜ ao desse exerc´ıcio ´e, em particular, mais direta. Como α = {(1, 1), (1, −1)} ´e uma base de R2 , existe somente uma transforma¸c˜ao linear T satisfazendo as duas condi¸c˜ oes. Ent˜ ao econtremos sua f´ormula. Dado v = (v1 , v2 ) elemento gen´erico de R2 , vamos encontrar primeiro suas coordenadas na base α. (v1 , v2 ) = a(1, 1) + b(1, −1) = (a + b, a − b) =⇒ Portanto (v1 , v2 ) =
v1 +v2 2 (1, 1)
T (v1 , v2 ) = T (
+
v1 −v2 2 (1, −1),
a + b = v
1
a − b = v
2
=⇒ a =
v1 +v2 2
eb=
v1 −v2 2 .
e aplicando T dos dois lados obtemos:
v1 + v2 v1 − v2 v1 + v2 v1 − v2 (1, 1) + (1, −1)) = T (1, 1) + T (1, −1) 2 2 2 2
pois T ´e linear. Agora para T satisfazer as duas condi¸co˜es devemos ter T (v1 , v2 ) = e consequentemente: T (v1 , v2 ) = −v2 + (
v1 +v2 2 2 (x
− 1) +
v1 −v2 3 2 (x
+ 1)
v1 − v2 3 v1 + v2 2 )x + ( )x 2 2
Sess˜ ao 4.3 3.0.3
Exerc´ıcio 4.9
Base para Ker(T ): Dado v = (x, y, z) elemento gen´e rico de R3 . Ent˜ao v ∈ Ker(T ) ⇐⇒ T (v) = 0R2 ⇐⇒ x − y − z = 0 (x − y − z, 2z − x) = (0, 0) ⇐⇒ ⇐⇒ x = 2z e y = z. 2z − x = 0 Portanto v ∈ Ker(T ) ⇐⇒ v = (2z, z, z) = z(2, 1, 1). Logo Ker(T ) = [(2, 1, 1)], e α = {(2, 1, 1)} ´e uma base para Ker(T ). Base para Im(T ): Dado u = (x1 , x2 ) elemento gen´erico de R2 . Ent˜ ao u ∈ Im(T ) ⇐⇒ ∃v = (x, y, z) ∈ R3 ; u = T (v). Sendo assim, a forma gen´erica de um elemento em Im(T ) ´e u = T (v) = (x − y − z, 2z − x) = x(1, −1) + y(−1, 0) + z(−1, 2). Logo Im(T ) = [(1, −1), (−1, 0), (−1, 2)] e β = {(1, −1), (−1, 0)} ´e uma base para Im(T ).
3.0.4
Exerc´ıcio 4.10
Base para Ker(T ): Dado p(x) = a + bx + cx2 elemento gen´erico de P2 (R). Ent˜ao p(x) a − b + 2c 0 0 0 0 0 0U ⇐⇒ 0 2a + b 0 = 0 0 0 ⇐⇒ 0
0
−a − 2b + 2c
0
0
0
∈Ker(T ) ⇐⇒ T (p(x)) = a − b + 2c = 0 ⇐⇒ 2a + b = 0 −a − 2b + 2c = 0
˜ CAP´ITULO 3. TRANSFORMAC ¸ OES LINEARES b = −2a c = − 3 a
33
.
2
Portanto p(x) ∈ Ker(T ) ⇐⇒ p(x) = a − 2ax − 23 ax2 = a(1 − 2x − 32 x2 ). Logo Ker(T ) = [1 − 2x − 23 x2 ] = [2 − 4x − 3x2 ] e α = {2 − 4x − 3x2 } ´e uma base para Ker(T ). Base para Im(T ): Dada A ∈ U . Ent˜ ao A ∈ Im(T ) ⇐⇒ ∃p(x) ∈ P2 (R); A = T (p(x)). Sendo assim, a forma gen´erica de um elemento em Im(T ) ´e 1 0 0 a − b + 2c 0 0 −1 0 0 2 0 0 A = T (p(x)) = 0 2a + b 0 = a 0 2 0 +b 0 1 0 +c 0 0 0 0 0 −1 0 0 −a − 2b + 2c 0 0 −2 0 0 2 | | | {z } {z } {z } A1
A2
A3
Portanto Im(T ) = [A1 , A2 , A3 ] e β = {A1 , A2 , A3 } ´e uma base para Im(T ) pois ´e L.I..
Sess˜ ao 4.4 3.0.5
Exerc´ıcio 4.17 u
u
w
w
z }|1 { z }|2 { z }|1 { z }|2 { Primeiramente note que U = [(−1, 1, 0), (−1, 0, 1)] e que W = [(1, 0, 1), (0, −1, 1)]. Determinemos ent˜ ao U ∩ W . Dado v = (x, y, z) elemento gen´erico de R3 , sei que v ∈ U ∩ W ⇐⇒ v ∈ U e v ∈ W ⇐⇒ ∃a1 , a2 , b1 , b2 ; a = b 1 2 ⇐⇒ a1 = −b2 a = b + b 2
1
a1 u2 + a2 u2 = b1 w1 + b2 w2 ⇐⇒ (−a1 − a2 , a1 , a2 ) = (b1 , −b2 , b1 + b2 ) a = 0 1 ⇐⇒ . a = b 2
1
2
Portanto v ∈ U ∩ W ⇐⇒ v = b1 (−1, 0, 1). Logo U ∩ W = [(−1, 0, 1)]. Agora recordamos que “Uma transforma¸c˜ ao linear fica completamente determinada pelos seus valores numa base” e que devemos satisfazer: i)Im(T ) = [(−1, 1, 0), (−1, 0, 1)] e ii)Ker(T ) = [(−1, 0, 1)]. Escolhemos • T (−1, 0, 1) = 0R3 para satisfazer ii). E tamb´em • T (0, 1, 0) = (−1, 1, 0) • T (0, 0, 1) = (−1, 0, 1) para satisfazer i). Note que com essas 3 informa¸c˜ oes, T fica completamente determinada pois α = {(−1, 0, 1), (0, 1, 0), (0, 0, 1)} 3 ´e uma base de R (Prove!).
˜ CAP´ITULO 3. TRANSFORMAC ¸ OES LINEARES
34
Agora nos resta achar explicitamente a f´ormula de T (x, y, z), que ´e an´alogo ao Exerc´ıcio 4.6. Primeiro, precisamos achar as coordenadas de um vetor v = (x, y, z) gen´erico de R3 na base α na qual sabemos como T se comporta. Isto ´e, precisamos achar os escalares a1 , a2 , a3 tais que (x, y, z) = a1 (−1, 0, 1) + a2 (0, 1, 0) + a3 (0, 0, 1) −a = x 1 Da´ı, temos que (x, y, z) = (−a1 , a2 , a1 + a3 ) que nos leva ao sistema a2 = y a + a = z 1 3 a = −x 1 solu¸c˜ ao a2 = y . a = z + x
, que possui
3
Portanto (x, y, z) = −x(−1, 0, 1) + y(0, 1, 0) + (z + x)(0, 0, 1). Aplicando T nos dois lados da igualdade e usando a linearidade de T temos que: T (x, y, z) = −xT (−1, 0, 1)+yT (0, 1, 0)+(z+x)T (0, 0, 1) = −x(0, 0, 0)+y(−1, 1, 0)+(z+x)(−1, 0, 1) E finalmente conclu´ımos que T (x, y, z) = (−x − y − z, y, x + z) ´e a (´ unica) transforma¸c˜ao linear que satisfaz ` as condi¸c˜ oes citadas. ´ de bom costume, ap´ OBS.: E os exibir a f´ormula de T , provar rapidamente as propriedades citadas (e tamb´em para verificar se n˜ ao houve nenhum erro de conta no processo!).
3.0.6
Exerc´ıcio 4.19
(a) Falso! Suponha, por absurdo, que existe uma transforma¸c˜ao linear injetora T : R4
=⇒
R3 . Isso
implicaria que Ker(T ) = {0R3 } e consequentemente dim(Ker(T )) = 0. Da´ı, pelo teorema do n´ ucleo e da imagem ter´ıamos: dim(R4 ) = dim(Ker(T )) + dim(Im(T )) O que nos leva a 4 = 0 + dim(Im(T )) e dim(Im(T )) = 4, por´em Im(T ) ⊆ R3 e dim(R3 ) = 3; absurdo!.
OBS.: Similarmente, sempre que dim(V ) ≥ dim(W ) podemos provar que n˜ao existe uma transforma¸c˜ ao linear T : V → W injetora. (b) Verdadeiro! Seja α = {(1, 0, 0, 0), (0, 1, 0, 0)(0, 0, 1, 0), (0, 0, 0, 1)} base canˆonica de R4 e β = {1, x, x2 } base canˆ onica de P2 (R). Constru´ımos a transforma¸c˜ao linear T considerando que: • T (1, 0, 0, 0) = 1
˜ CAP´ITULO 3. TRANSFORMAC ¸ OES LINEARES
35
• T (0, 1, 0, 0) = x • T (0, 0, 1, 0) = x2 • T (0, 0, 0, 1) = 0 Podemos verificar que Im(T ) = P2 (R) e consequentemente T ´e sobrejetora.
OBS.: Similarmente, sempre que dim(V ) ≥ dim(W ) podemos provar que existe uma transforma¸c˜ ao linear sobrejetora T : V → W . (c) Falso! Sabemos que T ´e bijetora ⇐⇒ T ´e injetora e sobrejetora. Existem transforma¸c˜ oes lineares injetoras de R2 em P2 (R). Por´em, n˜ao existem transforma¸c˜oes lineares sobrejetoras T : R2 → P2 (R). De fato, suponha que ∃T : R2 → P2 (R) linear e sobrejetora. Ent˜ao ter´ıamos que Im(T ) = P2 (R) e consequentemente dim(Im(T )) = dim(P2 (R)) = 3. Mas, pelo Teorema do N´ ucleo e da Imagem, isso implicaria que: dim(R2 ) = dim(Ker(T )) + dim(Im(T )) Da´ı, 2 = dim(Ker(T )) + 3 e dim(Ker(T )) = −1; absurdo! pois a dimens˜ao de um espa¸co vetorial deve ser sempre n˜ ao-negativa.
3.0.7
Exerc´ıcio 4.25
(a) Se T e P s˜ ao transforma¸c˜ oes lineares injetoras, ent˜ao Ker(T ) = {0V } e Ker(P ) = {0W }. Pelo Teorema do N´ ucleo e da Imagem temos: dim(U ) = dim(Ker(T )) + dim(Im(T )) dim(V ) = dim(Ker(P )) + dim(Im(P )) Portanto dim(U ) = dim(Im(T )) e dim(V ) = dim(Im(P )). Mas dim(Im(T )) ≤ dim(V ), pois Im(T ) ⊆ V . Da´ı, dim(U ) ≤ dim(V )
F
.
Similarmente, como dim(Im(P )) ≤ dim(W ), pois Im(P ) ⊆ W ; temos que dim(V ) ≤ dim(W )
♥
.
De F e ♥ conclu´ımos que dim(U ) ≤ dim(V ) ≤ dim(W ). (b) Se T e P s˜ ao transforma¸c˜ oes lineares sobrejetoras, ent˜ao Im(T ) = V e Im(P ) = W . Logo dim(Im(T )) = dim(V ) e dim(Im(P )) = dim(W ). Pelo Teorema do N´ ucleo e da Imagem devemos ter: dim(U ) = dim(Ker(T )) + dim(Im(T )) dim(V ) = dim(Ker(P )) + dim(Im(P )) Portanto dim(U ) = dim(Ker(T )) + dim(V ) e dim(V ) = dim(Ker(P )) + dim(W ). ucleo ´e sempre Logo temos que dim(U ) ≥ dim(V )F e dim(V ) ≥ dim(W )♥ ; pois a dimens˜ao do n´ n˜ ao-negativa.
˜ CAP´ITULO 3. TRANSFORMAC ¸ OES LINEARES
36
De F e ♥ conclu´ımos que dim(U ) ≥ dim(V ) ≥ dim(W ).
Sess˜ ao 4.5 3.0.8
Exerc´ıcio 4.26
Uma fun¸ca˜o T : R3 → R3 ´e um isomorfismo de espa¸cos vetoriais se, e somente se, T ´e linear e bijetora. Como j´ a nos foi informado que T ´e linear, basta provar que T ´e bijetora. T ´e injetora: Calculemos Ker(T ). 3 Seja v = (x, y, z) elemento gen´erico de R , ent˜ao v ∈ Ker(T ) ⇐⇒ T (v) = (0, 0, 0) ⇐⇒ x − 2y = 0 (x − 2y, z, x + y) = (0, 0, 0) ⇐⇒ z = 0 ⇐⇒ x = y = z = 0. x + y = 0
Portanto Ker(T ) = {0R3 } e consequentemente T ´e injetora. T ´e sobrejetora: Provemos que Im(T ) = R3 . De fato, seja u ∈ R3 . Ent˜ ao u ∈ Im(T ) ⇐⇒ ∃v = (x, y, z) ∈ R3 tal que u = T (v) Sendo assim, a forma gen´erica de um elemento em Im(T ) ´e u = T (v) = (x − 2y, z, x + y) = x(1, 0, 1) + y(−2, 0, 1) + z(0, 1, 0). Logo Im(T ) = [(1, 0, 1), (−2, 0, 1), (0, 1, 0)] e podemos verificar que {(1, 0, 1), (−2, 0, 1), (0, 1, 0)} ´e L.I. e portanto uma base de Im(T ). Logo dim(Im(T )) = 3 = dim(R3 ) e como Im(T ) ⊆ R3 segue que Im(T ) = R3 e consequentemente T ´e sobrejetora.
3.0.9
Exerc´ıcio 4.28
Note que S = [(1, 1, 0), (−2, 0, 1)]. Agora, consideremos a base α = {(1, 0), (0, 1)} canˆonica de R2 . Ent˜ao considere T : R2 → S a transforma¸c˜ ao linear determinada por: • T (1, 0) = (1, 1, 0) • T (0, 1) = (−2, 0, 1) Agora vamos exibir a f´ ormula de T . Primeiro achamos as coordenadas de um elemento gen´erico (x, y) ∈ R2 na base α. Isto ´e, acharemos a1 , a2 tais que (x, y) = a1 (1, 0) + a2 (0, 1). Isso acontece somente se (x, y) = (a1 , a2 ) e logo a1 = x e a2 = y. Ent˜ao T (x, y) = xT (1, 0) + yT (0, 1) = (x − 2y, x, y)
˜ CAP´ITULO 3. TRANSFORMAC ¸ OES LINEARES
´e o isomorfismo procurado (Prove que T ´e uma bije¸c˜ao!).
37
Sess˜ ao 4.8 3.0.10
Exerc´ıcio 4.42
Seja α = {a1 , a2 }, β = {b1 , b2 } e γ = {c1 , c2 } bases de R2 . i h i h iβ h . Agora T (b1 ) = T (1, 0) = (1, 2) = 1·(1, 0)+2·(0, 1) T (b ) T (b ) Por defini¸c˜ ao T = 1 2 β β β " # h iβ 1 2 e T (b2 ) = T (0, 1) = (2, 4) = 2 · (1, 0) + 4 · (0, 1). Portanto T = . β 2 4 h i h i h iβ . Agora preciso descobrir as constantes k1 , k2 tais Por defini¸c˜ ao T = T (b1 ) T (b2 ) α α α k = 1 1 que T (b2 ) = (1, 2) = k1 (1, −1) + k2 (0, 1). Da´ı, (1, 2) = (k1 , −k1 + k2 ) =⇒ −k + k = 2 1
2
k1 = 1 e k2 = 3. Agora preciso descobrir as constantes k10 , k20 tais que T (b2 ) = (2, 4) = k 0 = 2 1 k10 (1, −1) + k20 (0, 1). Da´ı, (2, 4) = (k10 , −k10 + k20 ) =⇒ =⇒ k10 = 2 e k20 = 6. −k 0 + k 0 = 4 1 2 " # h iβ 1 2 Portanto T = . α 3 6 i h i h iα h . T (a ) T (a ) Por defini¸c˜ ao, T = 1 2 β β β =⇒
Agora T (a1 ) = T (1, −1) = (−1, −2) "= −1 ·#(1, 0) − 2 · (0, 1) e T (a2 ) = T (0, 1) = (2, 4) = h iα −1 2 2 · (1, 0) + 4 · (0, 1). Portanto T = . β −2 4 i h i h iγ h . Agora T (c1 ) = T (1, −1) = (−1, −2) = −1 · Por defini¸c˜ ao, T = T (c ) T (c ) 1 2 α α α # " h iγ −1 3 (−1, −2) + 1 · (0, 1) e T (c2 ) = T (1, 1) = (3, 6) = 3 · (1, −1) + 9 · (0, 1). Portanto T = . α 1 9
3.0.11
Exerc´ıcio 4.45
i h i h iβ h (a) Sabemos que T (p(x)) = T · p(x) . γ
γ
β
˜ CAP´ITULO 3. TRANSFORMAC ¸ OES LINEARES " # c + c2 = 3 1 1 c 1 =⇒ 1 2c1 + c2 = 5 c2 2 c + 2c = 4 1 2 " # h i 2 Portanto p(x) = . β 1
1 3 Disso, 5 = 2 1 4
, que possui solu¸c˜ao c1 = 2 e c2 = 1.
(b) Observe que 1 1 1 " # i h iβ h 1 = 2 x − x2 + x3 = 2 1 T (x − x2 + x3 ) = T γ β γ 0 1 1 2 2 3 2 Ent˜ ao T (x − x + x ) = 1 − 2x + 3x = 1(x + 2) + 2p1 (x) + p2 (x) F .
h
i
E tamb´em temos 1 i h i h iβ h 2 2 = 2 1+x+x T (1 + x + x ) = T
1 1 " # 0 = 1 1 γ β γ 1 2 1 2 Ent˜ ao T (1 + x + x2 ) = 2 + 3x = 1(x + 2) + p1 (x) + 2p2 (x) ♥ . Somando as equa¸c˜ oes F e ♥ temos que: 3 + x + 3x2 = 2(x + 2) + 3p1 (x) + 3p2 (x) E consequentemente 3p1 (x) + 3p2 (x) = −1 − x + 3x2 .
3.0.12
Exerc´ıcio 4.53
h i h i h iβ T (1, 0) T (0, 1) (a) Por defini¸c˜ ao T = . γ γ γ −1 1 h i h i Logo T (1, 0) = 0 e T (0, 1) = 1 . γ γ −2 3 Disso temos que T (1, 0) = 1 · (1, 0, 1) + 0 · (−1, 0, 1) − 2 · (0, 1, 0) = (1, −2, 1) e T (0, 1) = −1 · (1, 0, 1) + 1 · (−1, 0, 1) + 3 · (0, 1, 0) = (−2, 3, 0). (b) Dado (x, y) elemento gen´erico de R2 , temos que T (x, y) = T (x(1, 0) + y(0, 1)) = xT (1, 0) + yT (0, 1) = x(1, −2, 1) + y(−2, 3, 0) Portanto Im(T ) = [(1, −2, 1), (−2, 3, 0)] e α = {(1, −2, 1), (−2, 3, 0)} ´e uma base de Im(T ). (c) Calculemos Ker(T ). Pelo T.N.I.: dim(R2 ) = dim(Ker(T )) + dim(Im(T )) Logo 2 = dim(Ker(T )) + 2 e dim(Ker(T )) = 0.
38
˜ CAP´ITULO 3. TRANSFORMAC ¸ OES LINEARES
39
Portanto Ker(T ) = {0R3 } e T ´e uma transforma¸c˜ao linear injetora.
3.0.13
Exerc´ıcio 4.55
i h iγ h (a) Pela defini¸c˜ ao, T = T (v1 ) γ γ Agora, como
h
T (v2 )
i γ
h i T (v3 ) γ
h
i T (v4 ) . γ
• T (v1 ) = v1 ; • T (v2 ) = v2 ; • T (v3 ) = v3 ; • T (v4 ) = v1 + v3 . 1 h iγ 0 Segue que T = 0 γ 0
0
0
1
1
0
0
1
0
0
0 . 1 0
h i h iβ h i (b) Sabemos que T (e1 ) = T e1 . γ γ β 1 0 h iβ h iγ h iβ 0 1 E temos que T = T I = 0 0 γ γ γ 0 0 1 0 1 h i 0 0 0 Consequentemente T (e1 ) = 1 1 0 γ 0 0 0
0 0 1 0 0 0 0 0 1 1 0 1 0 0 0 1 0 0 0 1 1 1 0 = 0. 0 0 1 0 0 0 0
1
1 1 0 = 0 1 0 0 0
0
1
0
0
0
1
0
0
0
1 . 0 0
Cap´ıtulo 4
Produto Interno Sess˜ ao 5.2 4.0.1
Exerc´ıcio 5.2
Considere A = [aij ] a matriz do produto interno de V na base β. n P Observe que se escrevermos o elemento u na base β como u = αj vj , ent˜ao j=1 n n n X X X hu, v1 i = h αj vj , v1 i = αj hvj , v1 i = αj a1j j=1
j=1
j=1
n n n X X X hu, v2 i = h αj vj , v2 i = αj hvj , v2 i = αj a2j j=1
j=1
j=1
.. . n n n X X X hu, vi i = h αj vj , vi i = αj hvj , vi i = αj aij j=1
j=1
(F)
j=1
Ent˜ ao dados escalares c1 , · · · , cn vamos provar que existe um u ´nico u ∈ V que satisfaz hu, vi i = ci ∀i = 1, · · · , n. De fato,
a11 . . hu, vi i = ci ⇐⇒ . an1 (F)
a12 .. . an2
··· .. . ···
α1 c1 c1 a1n α2 c2 c2 .. . .. = .. ⇐⇒ A[u]β = .. . . . ann αn cn cn
Observe que como a matriz A e as constantes ci est˜ao fixadas, temos um sistema de equa¸c˜oes nas vari´ aveis α1 , · · · , αn . E na verdade, como a matriz do produto interno A ´e sempre invert´ıvelF ,
40
CAP´ITULO 4. PRODUTO INTERNO
41
o sistema c1 α2 c2 A .. = .. . .
α1
cn
αn
c1 α1 c2 α2 −1 ´nico elemento u = α1 v1 + · · · + αn vn possui solu¸ca ˜o u ´nica .. = A .. . Ou seja, existe um u . .
cn αn que satisfaz a propriedade desejada. OBS.F : Todas as matrizes n × n positivas definidas s˜ao invert´ıveis. De fato, se A fosse n˜ao invert´ıvel ent˜ ao existiria um vetor (matriz coluna) X 6= 0 tal que AX = 0 (pois caso contr´ario Ker(A) = {0} =⇒ dim(Im(A)) = n =⇒ A invert´ıvel ). Ent˜ao para tal X 6= 0 temos X t AX = 0 e logo A n˜ ao pode ser positiva definida.
4.0.2
Exerc´ıcio 5.7
Precisamos provar que: i) hA, Bi = hB, Ai ii) hA, Ai ≥ 0
∀A, B ∈ Mn (R);
∀A ∈ Mn (R) com hA, Ai = 0 ⇐⇒ A = 0Mn (R) ;
iii) hA + C, Bi = hA, Bi + hC, Bi
∀A, B, C ∈ Mn (R);
iv) hλA, Bi = λhA, Bi ∀A, B ∈ Mn (R) ∀λ ∈ R. m P n m P n P P i) hA, Bi = aij bij = bij aij = hB, Ai. i=1 j=1
ii) hA, Ai =
i=1 j=1
m P n P
aij aij =
i=1 j=1 m P
Agora hA, Ai =
i=1 j=1 n P
i=1 j=1
iii) hA + C, Bi =
m P n P
a2ij ≥ 0
∀A = [aij ]
a2ij = 0 ⇐⇒ aij = 0 para todo i, j, i.e. A = 0Mn (R) .
m P n P
(aij + cij )bij =
i=1 j=1
m P n P
aij bij + cij bij =
i=1 j=1
m P n P
aij bij +
i=1 j=1
m P n P
cij bij =
i=1 j=1
hA, Bi + hC, Bi. m P n m P n P P iv) hλA, Bi = λaij bij = λ aij bij = λhA, Bi. i=1 j=1
4.0.3
i=1 j=1
Exerc´ıcio 5.12
a) A matriz A = [aij ] deste produto interno na base canˆonica ´e, por defini¸c˜ao, determinada por aij = hpj , pi i. Ent˜ ao temos: a11 = hp1 , p1 i = p1 (−1)2 + p1 (0)2 + p1 (1)2 = 12 + 12 + 12 = 3 a22 = hp2 , p2 i = p2 (−1)2 + p2 (0)2 + p2 (1)2 = (−1)2 + 02 + 12 = 2 a33 = hp3 , p3 i = p3 (−1)2 + p3 (0)2 + p3 (1)2 = ( (−1)2 )2 + (02 )2 + (12 )2 = 2
CAP´ITULO 4. PRODUTO INTERNO
42
a21 = a12 = hp2 , p1 i = p2 (−1)p1 (−1) + p2 (0)p1 (0) + p2 (1)p1 (1) = (−1) · 1 + 0 · 1+1·1=0 a31 = a13 = hp3 , p1 i = p3 (−1)p1 (−1) + p3 (0)p1 (0) + p3 (1)p1 (1) = (−1)2 · 1 + 02 · 1 + 12 · 1 = 2 a32 = a23 = hp3 , p2 i = p3 (−1)p2 (−1) + p3 (0)p2 (0) + p3 (1)p2 (1) = (−1)2 · (−1) + 02 · 0 + 12 · 1 = 0 3 E consequentemente, A = 0
0 2
2 0.
2
0
2
i 3 −1 0 2
0
b) h
hp, qi = Y t AX = 4
2
2 0
2 −1 h 0 3 = 10 2 1
i −1 6 3 = −10 + 12 + 6 = 8 1
4
c) Considere X como a matriz de coordenadas do polinˆomio p(x) = −1 + 3x + 1x2 na base canˆ onica e Y a matriz de coordenadas de q(x) = d + ex + f x2 na base canˆonica. Ent˜ao: −1 h i −1 h i 3 0 2 hp, qi = 0 ⇐⇒ Y t AX = 0 ⇐⇒ d e f 0 2 0 3 = 3d + 2f 2e 2d + 2f 3 = 2 0 0 ⇐⇒ −3d − 2f + 6e + 2d + 2f = 0 ⇐⇒ d = 6e
2
1
1
Portanto os polinˆ omios q tais que hp, qi = 0 s˜ao da forma q(x) = 6e + ex + f x2 = e(6 + x) + f x2 .
Sess˜ ao 5.5 4.0.4
Exerc´ıcio 5.14
Considere o espa¸co vetorial real Rn munido do produto interno usual e os vetores u = (a1 , · · · , an ) e v = ( n1 , · · · , n1 ). Pela desigualdade de Cauchy-Schwarz hu, vi2 ≤ hu, ui · hv, vi Substituindo os valores de u e v obtemos
4.0.5
a1 + · · · + an n
2 ≤
(a1 + · · · + an )2 n
Exerc´ıcio 5.18
Considere R4 um espa¸co vetorial real munido do produto interno usual. Ent˜ ao os vetores u = (1, 2, α, 3) e v = (α, 2, α, −2) s˜ao ortogonais ⇐⇒ 2
2
α + 4 + α − 6 = 0 ⇐⇒ α + α − 2 = 0 ⇐⇒ α = 1 ou α = −2.
hu, vi = 0
⇐⇒
CAP´ITULO 4. PRODUTO INTERNO
4.0.6
43
Exerc´ıcio 5.29
Devemos provar que para cada par de vetores n˜ao-nulos u, v ∈ V existe um θ ∈ [0, π/2] tal que cos(θ) =
|hu, vi| kuk2 kvk2
Al´em disso, devemos provar que tal θ ´e u ´nico. Provando essas duas coisas vamos ter provado que tal ˆ angulo pode ser definido “sem ambiguidade”. De fato, pela desigualdade de Cauchy-Schwarz sempre ´e o caso que 0 ≤ hu, vi2 ≤ hu, uihv, vi =⇒ p p |hu,vi| |hu, vi| ≤ hu, ui hv, vi = kuk2 kvk2 . E portanto 0 ≤ kuk ≤ 1. 2 kvk2 Agora, observe que a fun¸c˜ ao cosseno restrita ao intervalo [0, π/2] e com contra-dom´ınio [0, 1] ´e bijetora! Disso, certamente existe um θ ∈ [0, π/2] satisfazendo tal propriedade (sobrejetora) e certamente esse θ ser´ au ´nico (injetora).
4.0.7
Exerc´ıcio 5.31
O produto interno usual do espa¸co vetorial real C([0, 1]) ´e definido por: Z hf, gi =
1
f (x)g(x) dx 0
Sendo assim, para f (x) = ax + b e g(x) = x2 , f e g s˜ao ortogonais se, e somente se, 1 R1 R1 R1 0 = hf, gi = 0 f (x)g(x) dx = 0 (ax + b)x2 dx = 0 ax3 + bx2 dx = a4 x4 + 3b x3 0 =
a 4
+ 3b .
Como o exerc´ıcio nos pede apenas uma fun¸c˜ao deste tipo, escolhemos a = 4 e conclu´ımos que a fun¸c˜ ao f (x) = 4x − 3 ´e ortogonal ` a fun¸c˜ao g(x) = x2 segundo o produto interno usual do espa¸co.
Sess˜ ao 5.7 Sess˜ ao 5.9 4.0.8
Exerc´ıcio 5.41
Ker(T ) v = (x, y, z) ∈ Ker(T ) ⇐⇒ T (x, y, z) = (0, 0) ⇐⇒ (x − y − z, 2z − x) = (0, 0) ⇐⇒ x − y − z = 0 ⇐⇒ x = 2z e y = z. Logo Ker(T ) = [(2, 1, 1)]. 2z − x = 0 (Ker(T ))⊥ v = (x, y, z) ∈ Ker(T )⊥ ⇐⇒ hv, (2, 1, 1)i = 0 ⇐⇒ 2x + y + z = 0 ⇐⇒ y = −2x − z. Logo os elementos de Ker(T )⊥ s˜ ao da forma v = (x, −2x − z, z) = x(1, −2, 0) + z(0, −1, 1) e Ker(T )⊥ = [(1, −2, 0), (0, −1, 1)]. Base ortogonal de Ker(T )⊥
CAP´ITULO 4. PRODUTO INTERNO
44
Vamos ortogonalizar a base β = {(1, −2, 0), (0, −1, 1)} de Ker(T )⊥ utilizando o processo de | {z } | {z } v1
v2
Gram-Schmidt. O processo nos retorna a base ortogonal α = {q1 , q2 } com q1 = v1 = (1, −2, 0); 2 2 1 2 ,q1 i q2 = v2 − hv hq1 ,q1 i q1 = (0, −1, 1) − 5 (1, −2, 0) = (− 5 , − 5 , 1).
Sess˜ ao 5.14 4.0.9
Exerc´ıcio 5.53
Preciso mostrar que Ker(T ) ⊆ (Im(T ))⊥ e que (Im(T ))⊥ ⊆ Ker(T ). Ker(T ) ⊆ (Im(T ))⊥ Vamos supor um elemento em Ker(T ) e ent˜ao concluir que este elemento ´e perpendicular a todo elemento de Im(T ). Supondo v ∈ Ker(T ) temos que para todo elemento gen´erico da imagem do operador, T (u) ∈ Im(T ), vale que hv, T (u)i
T
sim´ etrico
=
hT (v), ui
v∈Ker(T )
=
h0, ui
def. p.i.
=
0
E portanto v ∈ (Im(T ))⊥ . Disso conclu´ımos a primeira inclus˜ ao. (Im(T ))⊥ ⊆ Ker(T ) Similarmente, vamos considerar um elemento em (Im(T ))⊥ e ent˜ao concluir que este elemento est´ a tamb´em no n´ ucleo do operador. Suponha v ∈ (Im(T ))⊥ . Ent˜ ao para todo elemento u ∈ V , v ´e perpendicular a T (u). Isto ´e, hv, T (u)i = 0 ∀u ∈ V . Mas como T ´e um operador linear sim´etrico vale que: hv, T (u)i = 0 ∀u ∈ V =⇒ hT (v), ui = 0 ∀u ∈ V e disso podemos concluir que T (v) = 0 pois, pela defini¸c˜ao do produto interno, o u ´nico elemento que ´e ortogonal a todo u ∈ V ´e o vetor nulo. Portanto conclu´ımos a segunda inclus˜ ao e segue a igualdade.
4.0.10
Exerc´ıcio 5.55
Seja α uma base ortonormal de V . α Ent˜ ao considere as matrizes A1 = [T1 ]α ao operadores lineares herα e A2 = [T2 ]α . Como T1 e T2 s˜
mitianos e α ´e base ortonormal, segue que A1 e A2 s˜ao matrizes hermitianas. Agora, provemos a dupla implica¸c˜ ao.
CAP´ITULO 4. PRODUTO INTERNO
45
=⇒ Assumimos que T1 ◦ T2 ´e um operador hermitiano. Observe que [T1 ◦ T2 ]α ao: α = A1 A2 . Ent˜ A2 A1
= A∗2 A∗1 =
(A1 A2 )
A2 e A1 hermitianas ∗
= A1 A2
A1 A2 ´e hermitiana
Portanto A2 A1 = A1 A2 e pela defini¸c˜ ao dessas matrizes conclu´ımos que T2 ◦ T1 = T1 ◦ T2 . ⇐= Agora assumimos que T2 ◦ T1 = T1 ◦ T2 . Ent˜ ao: (A1 A2 )∗
= A∗2 A∗1 = A2 A1
A2 e A1 hermitianas
= A1 A2
T2 ◦ T1 = T1 ◦ T2
Portanto A1 A2 ´e uma matriz hermitiana, e pela defini¸c˜ao dessas matrizes isso implica que T1 ◦ T2 ´e um operador linear hermitiano.
4.0.11
Exerc´ıcio 5.57
Precisamos provar que i) (a) e (b) =⇒ (c); ii) (a) e (c) =⇒ (b); iii) (b) e (c) =⇒ (a). i) Seja α uma base ortonormal de V . e sim´etrica (At = A), Assumindo que T ´e um operador sim´etrico temos que a matriz A := [T ]α α ´ assumindo que o operador linear T ´e uma isometria conclu´ımos, pela Proposi¸c˜ao 5.14.3, que T ´e ortogonal e portanto A ´e ortogonal (At = A−1 ). Disso, A2 = AA = AAt = AA−1 = In onde usamos que A ´e sim´etrica e ortogonal, respectivamente. Como A2 = [T 2 ]α ımos que T 2 = I. α conclu´ ii) Supondo que T ´e sim´etrico e T 2 = I obtemos que para todo v ∈ V vale que hT (v), T (v)i = hv, T (T (v))i = hv, vi onde usamos que T ´e sim´etrico e T 2 = I, respectivamente. Consequentemente, T ´e uma isometria. iii) Seja α uma base ortonormal de V . 2 Ent˜ ao se A := [T ]α e isometria linear obtemos A2 = In e At = A−1 , α , assumindo que T = I e T ´
respectivamente. Disso, In = A2 = AA =⇒ A = A−1 = At
CAP´ITULO 4. PRODUTO INTERNO
46
e portanto A ´e uma matriz sim´etrica. Como escolhemos uma base ortonormal α segue que T ´e sim´etrico.
4.0.12
Exerc´ıcio 5.58
A matriz Q ´e ortogonal sse Qt = Q−1 . Agora observe que " t
QQ =
#" cos(θ) − sin(θ) cos(θ) sin(θ)
cos(θ)
− sin(θ)
sin(θ)
#
cos(θ)
" =
#
cos2 (θ) + sin2 (θ)
0
0
sin2 (θ) + cos2 (θ)
" =
1
# 0
0
1
Disso, conclu´ımos que Qt = Q−1 e portanto Q ´e uma matriz ortogonal.
4.0.13
Exerc´ıcio 5.59
Vamos construir a matriz de T na base canˆonica de R3 , que ´e uma base ortonormal, e ent˜ao mostrar que esta matriz ´e ortogonal. Seja α = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}, ent˜ao • T (1, 0, 0) = (cos(θ), sin(θ), 0) • T (0, 1, 0) = (− sin(θ), cos(θ), 0) • T (0, 0, 1) = (0, 0, 1) cos(θ) − sin(θ) α E portanto A := [T ]α = sin(θ) cos(θ)
0 0.
0 0 1 Similarmente ao exerc´ıcio 5.58 podemos ver que AAt = I3 e portanto A ´e uma matriz ortogonal e, como a base utilizada na constru¸c˜ ao de A ´e uma base ortonormal, segue que T ´e um operador ortogonal.
4.0.14
Exerc´ıcio 5.60
(a) Sejam u, v elementos gen´ericos de V . Ent˜ao existem u ´nicos u1 , v1 ∈ W e u2 , v2 ∈ W ⊥ tais que u = u1 + u2 v = v1 + v2 Disso temos que, hT (u), vi = hu1 − u2 , v1 + v2 i = hu1 , v1 i + hu1 , v2 i − hu2 , v1 i − hu2 , v2 i = hu1 , v1 i − hu2 , v2 i Por outro lado, hu, T (v)i = hu1 + u2 , v1 − v2 i = hu1 , v1 i − hu2 , v2 i. Portanto hT (u), vi = hu, T (v)i ∀u, v ∈ V . Ou seja, T ´e sim´etrico. Analogamente podemos ver que:
= I2
CAP´ITULO 4. PRODUTO INTERNO
47
hT (u), T (v)i = hu1 , v1 i + hu2 , v2 i = hu, vi ∀u, v ∈ V e portanto T tamb´em ´e ortogonal. (b) Calculemos W ⊥ . Como W = [(1, 1, 1)], temos que v = (x, y, z) ∈ W ⊥ ⇐⇒ h(x, y, z), (1, 1, 1)i = 0 ⇐⇒ x = −y − z e portanto W ⊥ = [(−1, 1, 0), (−1, 0, 1)] Agora, se α ´e a base canˆ onica de R3 e β ´e a base da decomposi¸c˜ao ortogonal a partir de W , i.e. β = {(1, 1, 1), (−1, 1, 0)(−1, 0, 1)}, ent˜ ao β β α [T ]α α = [I]α [T ]β [I]β
Sabemos que • T (1, 1, 1) = (1, 1, 1) − (0, 0, 0); • T (−1, 1, 0) = (0, 0, 0) − (−1, 1, 0); • T (−1, 0, 1) = (0, 0, 0) − (−1, 0, 1) 1 0 0 E portanto [T ]ββ = 0 −1 0 . 0 0 −1 Agora, resta-nos calcular as matrizes de mudan¸ca de base. 1 −1 −1 Pela defini¸c˜ ao [I]βα = 1 1 0 . Agora, vamos achar os coeficientes ci tais que 1
0
1
(1, 0, 0) = c1 (1, 1, 1) + c2 (−1, 1, 0) + c3 (−1, 0, 1) (0, 1, 0) = c4 (1, 1, 1) + c5 (−1, 1, 0) + c6 (−1, 0, 1) (0, 0, 1) = c7 (1, 1, 1) + c8 (−1, 1, 0) + c9 (−1, 0, 1) c1 c4 c7 pois ent˜ ao teremos que [I]α β = c2 c5 c8 . c3
c6
c9 1/3 α Fazendo as contas, obtemos que [I]β = −1/3 −1/3
1/3 2/3 −1/3
1/3
−1/3. 2/3
E consequentemente 1 α [T ]α = 1 1
1
1 0 0
0
1
−1
−1
0
0 −1 0
0
1/3
0 −1/3 −1 −1/3
1/3 2/3 −1/3
−1 1 −1/3 = 2 3 2/3 2 1/3
2 −1 2
2
2 −1
CAP´ITULO 4. PRODUTO INTERNO
4.0.15
48
Exerc´ıcio 5.62
Lembremos da defini¸c˜ ao de cosseno do ˆangulo entre dois vetores n˜ao-nulos de um espa¸co vetorial com produto interno e da defini¸c˜ ao de isometria. • Dados u, v ∈ V n˜ ao-nulos o cosseno entre o ˆangulo θ formado por esses dois vetores ´e definido como cos(θ) :=
hu,vi kuk2 kvk2
• Um operador T ´e uma isometria ⇐⇒ kT (v)k2 = kvk2 ∀v ∈ V Agora queremos provar que se T ´e uma isometria ent˜ao cos(θ0 ) = cos(θ1 ), onde θ0 ´e o ˆangulo formado pelos vetores gen´ericos u, v ∈ V e θ1 ´e o ˆangulo formado pelos vetores T (u), T (v) ∈ V . De fato, cos(θ0 )
4.0.16
=
hu,vi kuk2 kvk2
=
hu,vi kT (u)k2 kT (v)k2
T ´e isometria
=
hT (u),T (v)i kT (u)k2 kT (v)k2
T ´e ortogonal (T linear e isometria =⇒ T ortogonal )
=
cos(θ1 )
Exerc´ıcio 5.64
⇐= Assumimos que a matriz Q ´e ortogonal. Agora, hTQ (X), TQ (X)i = hQX, QXi = tr((QX)t QX) = tr(X t Qt QX) = tr(X t X)
, pois Qt = Q−1
= hX, Xi E portanto TQ ´e uma isometria. =⇒ Se TQ ´e uma isometria (linear) ent˜ ao TQ ´e um operador ortogonal. Disso temos que para quaisquer matrizes X e Y vale hTQ (X), TQ (Y )i = hX, Y i, que pela defini¸c˜ ao do produto interno ´e a mesma coisa que tr((QY )t QX) = tr(Y t X). Em particular, para Y = In temos que tr(Qt QX) = tr(X). E como tr(A + B) = tr(A) + tr(B) ∀A, B, isso implica que: 0 = tr(Qt QX − X) = tr( (Qt Q − In )X ) = hX, QQt − In i .
CAP´ITULO 4. PRODUTO INTERNO
49
Logo temos que hX, QQt − In i = 0 para toda matriz X. E isso s´ o acontece (pela defini¸c˜ ao gen´erica de produto interno) se QQt − In = 0Mn (R) e portanto QQt = In , que ´e o mesmo que Qt = Q−1 .
Sess˜ ao 5.15 4.0.17
Exerc´ıcio 5.66 q
z }|1 { Note que α = {(1, 1, 1)} ´e uma base ortogonal para S. Ent˜ ao seja v = (x, y, z) um elemento gen´erico de R3 . O operador de proje¸c˜ao ortogonal sobre S fica determinado por P (x, y, z) =
1 X h(x, y, z), qi i i=1
hqi , qi i
qi
Fazendo as contas obtemos P (x, y, z) =
4.0.18
h(x,y,z),(1,1,1)i (1, 1, 1) 3
= 13 (x + y + z)(1, 1, 1) = ( x+y+z , x+y+z , x+y+z ). 3 3 3
Exerc´ıcio 5.67
(a) Note que o plano determinado por 3x + 2y + z = 0 ´e o subespa¸co vetorial W = {(x, y, z) ∈ R3 : 3x + 2y + z = 0} = [(1, 0, −3), (0, 1, −2)] O caminho que acha uma base ortogonal para W e ent˜ao usa a f´ormula para encontrar o operador de proje¸c˜ ao ortogonal sobre W a partir dessa base ortogonal ´e extremamente longo (experimente). Sendo assim vamos calcular o operador de proje¸c˜ao sobre o espa¸co W ⊥ e depois utilizaremos o fato de que, para todo vetor v, v = PW (v) + PW ⊥ (v) para encontrar o operador PW . Sendo assim, note que W ⊥ = [(3, 2, 1)]. E que o operador de proje¸c˜ ao ortogonal sobre W ⊥ fica determinado por PW ⊥ (x, y, z) =
3x + 2y + z h(x, y, z), (3, 2, 1)i · (3, 2, 1) = (3, 2, 1) h(3, 2, 1), (3, 2, 1)i 14
E disso, como (x, y, z) = PW (x, y, z) + PW ⊥ (x, y, z) conclu´ımos que PW (x, y, z) = (x, y, z) −
3x + 2y + z (3, 2, 1) 14
CAP´ITULO 4. PRODUTO INTERNO
50
(b) Pela defini¸c˜ ao, Im(PW ) = {PW (v) : v ∈ R3 }. Agora sabemos que PW (w) = w
∀w ∈ W
PW (w0 ) = 0 ∀w0 ∈ W ⊥ E tamb´em temos que R3 = W ⊕ W ⊥ . Logo dado v ∈ R3 , existem w, w0 elementos de W e W ⊥ , respectivamente, tais que v = w + w0 . Disso, temos que PW (v) = PW (w) + PW (w0 ) = w + 0 = w. Consequentemente, Im(PW ) = {PW (v) : v ∈ R3 } = {w : w ∈ W } = W
(c) Sabemos que (para todo subespa¸co W ) vale que R3 = W ⊕ W ⊥ . E tamb´em que (Corol´ario 5.15.1) R3 = Im(PW ) ⊕ Ker(PW ). Agora como Im(PW ) = W s´ o pode ser o caso que Ker(Pw ) = W ⊥ = [(3, 2, 1)].
Sess˜ ao 5.16 4.0.19
Exerc´ıcio 5.71
(a) Como R(v) = 2P (v) − v para todo vetor v. Segue pelo Exerc´ıcio 5.67(a) que R(x, y, z) = 2((x, y, z) −
3x + 2y + z 3x + 2y + z (3, 2, 1)) − (x, y, z) = (x, y, z) − 2 · (3, 2, 1) 14 14
(b) Considere um elemento gen´erico v = (x, y, z) de R3 . Ent˜ao v = u + u0 para algum u ∈ W e u0 ∈ W ⊥ . Agora v ∈ Ker(R) ⇐⇒ 0 = R(v) = R(u) + R(u0 ) = u − u0 ⇐⇒ u = u0 . Logo u ´e um elemento de W que tamb´em est´a em W ⊥ . Mas como W ∩ W ⊥ = {0R3 }, segue que u = u0 = 0. Consequentemente v = 0 e Ker(R) = {0}. (c) Pelo T.N.I., dim(Im(R)) = dim(R3 ) − dim(Ker(R)) = 3 − 0 = 3. E como Im(R) ⊆ R3 segue que Im(R) = R3 .
Cap´ıtulo 5
Autovalores e Autovetores Sess˜ ao 6.1 5.0.1
Exerc´ıcio 6.2
=⇒ Supondo que λ = 0 ´e um autovalor de T vou provar que T n˜ao ´e um operador injetor. De fato, se ∃v 6= 0 tal que T (v) = λv = 0 ent˜ao temos que v ∈ Ker(T ). E como v ´e n˜ao-nulo segue que Ker(T ) 6= {0}, logo T n˜ ao ´e injetor. ⇐= Supomos que T n˜ ao ´e injetor. Disso temos que Ker(T ) 6= {0}. Logo existe v 6= 0 tal que v ∈ Ker(T ). O que implica que T (v) = 0 = 0 · v e portanto λ = 0 ´e autovalor de T.
5.0.2
Exerc´ıcio 6.3
Supondo que exista um autovalor λ de T , vou provar que devemos ter necessariamente λ = 0 ou λ = 1. De fato, se T (v) = λv para algum v n˜ ao-nulo, ent˜ao temos: T (T (v)) = T (v) =⇒ =⇒
T (λv) λT (v)
= λv = λv
=⇒ λ2 v = λv Agora se λ = 0 ent˜ ao j´ a temos o que quer´ıamos (λ = 0 ou λ = 1). Mas se λ 6= 0 podemos dividir os dois lados da u ´ltima equa¸c˜ ao por λ. O que nos leva a: λv = v =⇒ (λ − 1)v = 0 E como v 6= 0 isso implica que λ = 1. Portanto vale que λ = 0 ou λ = 1.
51
CAP´ITULO 5. AUTOVALORES E AUTOVETORES
52
OBS.: Note que n˜ ao necessariamente um operador idempotente possui simultaneamente os autovalores 1 e 0. Por exemplo, o operador identidade do epsa¸co vetorial V , IV (v) = v, possui somente um autovalor: λ = 1.
5.0.3
Exerc´ıcio 6.6
Aqui novamente recordamos a frase “toda transforma¸ca ˜o linear fica completamente determinada pelo seus valores numa base”. Ou seja, para criar tal operador T iremos escolher uma base e seus valores nessa base. Para satisfazer (a) devemos ter T (1, −1) = 1 · (1, −1) (note que isso implica que T (y, −y) = yT (1, −1) = (y, −y)). Para satisfazer (b) devemos ter T (0, 1) = 3 · (0, 1) = (0, 3) (analogamente isso implica T (0, y) = 3(0, y)). E note que as duas informa¸c˜ oes que j´ a temos ´e suficiente para determinar T pois {(1, −1), (0, 1)} ´e uma base de R2 . Ent˜ ao determinemos T . Seja v = (x, y) elemento gen´erico de R2 vamos encontrar primeiro suas coordenadas na base {(1, −1), (0, 1)} na qual sabemos como T se comporta. c = x 1 Isto ´e, encontremos c1 , c2 tais que (x, y) = c1 (1, −1)+c2 (0, 1). Disso temos o sistema −c + c = y 1 2 que possui solu¸c˜ ao c1 = x e c2 = x + y. Logo (x, y) = x(1, −1) + (x + y)(0, 1) =⇒ T (x, y) = xT (1, −1) + (x + y)T (0, 1) = x(1, −1) + (x + y)(0, 3), ou seja, T (x, y) = (x, 2x + 3y) ´e a transforam¸c˜ao procurada.
5.0.4
Exerc´ıcio 6.9
Vamos provar que se existir um autovalor λ de T ent˜ao λ = 0. De fato, suponha que λ ´e um autovalor do operador nilpotente T . Ent˜ ao existe algum w 6= 0V tal que T (w) = λw, mas como existe um natural n tal que T n (v) = 0V ∀v, temos que em particular T n (w) = 0V . Por outro lado, como nos sugere T (w) = λw, T 2 (w) = T ( T (w) ) = T (λw) = λT (w) = λ2 w, · · · podemos ver (indutivamente) que T n (w) = λn w ∀n ∈ N. Portanto λn w = T n (w) = 0V e como w 6= 0V devemos ter λn = 0 =⇒ λ = 0
5.0.5
Exerc´ıcio 6.11
Vamos supor um autovalor qualquer λ de T e provar que necessariamente devemos ter λ = λ1 ou λ = λ2 . De fato, seja λ um autovalor de T tal que T (A) = λA para alguma matriz A n˜ao nula. Ent˜ ao temos:
CAP´ITULO 5. AUTOVALORES E AUTOVETORES
T (A)
=
At
=⇒
λA
=
At
=⇒
T (λA)
=
T (At )
=⇒
λT (A)
=
(At )t
53
=⇒ λ2 A = A E se nomearmos as entradas de A como aij , isso implica que λ2 aij = aij ∀i, j e como A n˜ao ´e a matriz nula, algum aij ´e diferente de zero e podemos concluir λ2 = 1. Segue ent˜ ao que λ = 1 ou λ = −1. Os subespa¸cos associados a λ1 = 1 e λ2 = −1 s˜ao: o subespa¸co das matrizes sim´etricas e o subespa¸co das matrizes antissim´etricas, respectivamente (ver Exerc´ıco 3.25).
5.0.6
Exerc´ıcio 6.13
Lembre-se que um automorfismo ´e um operador linear bijetor. Ent˜ ao, primeiramente, provemos que T ´e injetor e sobrejetor (pois j´a foi dito que ´e um operador linear). Para verificar se T ´e injetor, vamos calcular Ker(T ). Considere um elemento gen´erico v ∈ V . Logo se v ∈ Ker(T ) ent˜ao T (v) = 0V e portanto −v = T (T (v)) = T (0v ) = 0V
=⇒ v = 0V
=⇒ Ker(T ) ⊆ {0V }, e como 0V ∈ Ker(T ) segue
que Ker(T ) = {0V }. E consequentemente T ´e injetor. Pelo Teorema do N´ ucleo e da Imagem, temos: dim(V ) = dim(Ker(T )) + dim(Im(T )) Da parte anterior temos que dim(Ker(T )) = 0 e portanto dim(Im(T )) = dim(V ) e como Im(T ) ⊆ V segue que Im(T ) = V . E portanto T ´e sobrejetor. Agora, vamos supor que λ ´e um autovalor de T e iremos concluir que devemos ter necessariamente λ = i ou λ = −i. De fato, se ∃v 6= 0 tal que T (v) = λv ent˜ao temos que: T (v) = λv =⇒ T (T (v)) =⇒
−v
= λT (v) =
λ2 v
=⇒ 0 = (λ2 + 1)v E como v 6= 0V segue que λ2 + 1 = 0. Consequentemente devemos ter λ = i ou λ = −i.
5.0.7
Exerc´ıcio 6.14
Temos que T (x, y, z, t) = (−y, x, −t, z) =⇒ T (T (x, y, z, t)) = T (−y, x, −t, z) = (−x, −y, −z, −t). Agora, seja β = {b1 , b2 , b3 , b4 } = {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} a base canˆonica de R4 .
CAP´ITULO 5. AUTOVALORES E AUTOVETORES
54
i h i h i h i h iβ h T (b2 ) T (b3 ) T (b4 ) . Por defini¸c˜ ao T = T (b1 ) β β β β β T (1, 0, 0, 0) = (0, 1, 0, 0) 0 −1 0 0 T (0, 1, 0, 0) = (−1, 0, 0, 0) h iβ 1 0 0 0 . E como segue que T = β 0 0 0 1 T (0, 0, 1, 0) = (0, 0, 0, 1) 0 0 1 0 T (0, 0, 0, 1) = (0, 0, −1, 0) Vamos ver agora que T n˜ ao possui autovalores. Supondo que existe um autovalor λ de T ent˜ao ter´ıamos que, para algum v n˜ao nulo: T (v) = λv =⇒
T (T (v))
= T (λv)
=⇒ −v = λT (v) = λ2 v 2 E portanto λ v + v = 0 =⇒ (λ2 + 1)v = 0 e como v 6= 0V isso implica λ2 = −1. Mas como foi dito, V ´e um espa¸co vetorial real e, portanto, n˜ao existe λ ∈ R que satisfa¸ca tal propriedade (ser autovalor de T ).
Sess˜ ao 6.2 5.0.8
Exerc´ıcio 6.16
Vamos calcular a matriz de T na base canˆonica do espa¸co (pois ´e a base mais f´acil de se trabalhar) e ent˜ ao calcular os autovalores e autovetores da matriz via polinˆomio caracter´ıstico. Seja β = {1, x, x2 } a base canˆ onica de P2 (R). Ent˜ao T (1) = 1, T (x) = x + (x + 1) = 1 + 2x e 1 1 0 h iβ T (x2 ) = x2 + (x + 1)2x = 2x + 3x2 e portanto A := T = 0 2 2. β
0 0 3 1−λ 1 0 Agora p(λ) = Ker(A − λI3 ) = det 0 2−λ 2 = (1 − λ)(2 − λ)(3 − λ). 0 0 3−λ Portanto as ra´ızes do polinˆ omio caracter´ıstico, i.e. os autovalores de T , s˜ao λ1 = 1, λ2 = 2 e λ3 = 3. Agora vamos calcular os autoespa¸cos de cada autovalor. Autovetores de λ1 Seja p(x) = a + bx + cx2 , ent˜ ao p(x) ∈ Vλ1 ⇐⇒ T (p(x)) = λ1 p(x) = p(x) ⇐⇒ p(x) + (x + 1)p0 (x) = p(x) ⇐⇒(x + 1)p0 (x) = 0 ⇐⇒ (x + 1)(b + 2cx) = 0 b=0 ⇐⇒ b + (2c + b)x + 2cx2 = 0 ⇐⇒ 2c + b = 0 ⇐⇒ a=a, b = 0 e c = 0. 2c = 0 Portanto os autovetores associados a λ1 s˜ao da forma p1 (x) = a · 1. Consequentemente Vλ1 = [1].
CAP´ITULO 5. AUTOVALORES E AUTOVETORES
55
Autovetores de λ2 Seja p(x) = a + bx + cx2 , ent˜ ao p(x) ∈ Vλ2 ⇐⇒ T (p(x)) = 2p(x) 2 ⇐⇒ p(x) + (x + 1)p0 (x) = 2p(x) ⇐⇒ −a + −bx + −cx + (x + 1)(b + 2cx) = 0 −a + b = 0 2 ⇐⇒ (−a + b) + 2cx + cx = 0 2c = 0 ⇐⇒ a = b e c = 0. c = 0 Portanto os autovetores associados a λ2 s˜ao da forma p2 (x) = a + ax = a(1 + x).
Consequentemente Vλ2 = [1 + x]. Autovetores de λ3 Seja p(x) = a + bx + cx2 , ent˜ ao p(x) ∈ Vλ3 ⇐⇒ T (p(x)) = 3p(x) ⇐⇒ p(x) + (x + 1)p0 (x) = 3p(x) ⇐⇒ −2a − 2bx − 2cx2 + (x + 1)(b + 2cx) = 0 ⇐⇒ (−2a + b) + (−b + 2c)x = 0 ⇐⇒ −2a + b = 0 ⇐⇒ b = 2a e c = a −b + 2c = 0 Portanto os autovetores associados a λ3 s˜ao da forma p3 (x) = a + 2ax + ax2 = a(1 + 2x + x2 ). Consequentemente Vλ3 = [1 + 2x + x2 ].
5.0.9
Exerc´ıcio 6.21
T (1, 0, 0) = (1, 1, 2) Temos que T (0, 1, 0) = (1, −1, 1) T (0, 0, 1) = (0, 2, −1) 1 1 0 h iβ A := T = 1 −1 2 .
, e portanto a matriz de T na base β canˆonica de R3 ´e
β
2 1 −1 Calculamos agora o polinˆ omio caracter´ıstico 1−λ p(λ) = det(A−λI3 ) = det 1 2
1 −1 − λ 1
0
2 = (1−λ)(−1−λ) +4−( 2(1−λ)+(−1−λ) ) −1 − λ 2
Logo p(λ) = −λ3 − λ2 + 4λ + 4, por inspe¸c˜ao vemos que λ = −1 ´e uma raiz do polinˆomio e logo, p(λ) = (λ + 1)(−λ2 + 4). Portanto as ra´ızes do polinˆomio caracter´ıstico, i.e. os autovalores de T , s˜ ao λ1 = −1, λ2 = 2 e λ3 = −2. Agora calculemos os autoespa¸cos. Autovetores de λ1 Seja v = (x, y, z). Ent˜ ao v ∈ Vλ1
x −x ⇐⇒ T (v) = −v ⇐⇒ A y = −y z −z
CAP´ITULO 5. AUTOVALORES E AUTOVETORES x + y = −x ⇐⇒ x − y + 2z = −y 2x + y − z = −z
56
⇐⇒ x = −2z e y = 4z.
Portanto os elementos de Vλ1 s˜ ao da forma v = (−2z, 4z, z) = z(−2, 4, 1). Consequentemente Vλ1 = [(−2, 4, 1)] Autovetores de λ2
Seja v = (x, y, z). Ent˜ ao v ∈ Vλ2
x + y = 2x 2x x ⇐⇒ T (v) = 2v ⇐⇒ A y = 2y ⇐⇒ x − y + 2z = 2y 2z z 2x + y − z = 2z
⇐⇒ x = z = y. Portanto os elementos de Vλ2 s˜ ao da forma v = (y, y, y) = y(1, 1, 1). Consequentemente Vλ2 = [(1, 1, 1)]. Autovetores de λ3 Seja v = (x, y, z). Ent˜ ao v ∈ Vλ3 x + y = −2x ⇐⇒ x − y + 2z = −2y 2x + y − z = −2z
x −2x ⇐⇒ T (v) = −2v ⇐⇒ A y = −2y z −2x
⇐⇒ x = z e y = −3z.
Portanto os elementos de Vλ3 s˜ ao da forma v = (z, −3z, z) = z(1, −3, 1). Consequentemente Vλ3 = [(1, −3, 1)]
Talvez uma das OBS. mais importantes deste pdf
OBS.: Para calcular os autovetores no Exerc´ıcio 3.16 utilizamos diretamente a f´ormula da transforma¸c˜ ao T para achar os vetores p(x) tais que T (p(x)) = λp(x). J´a neste Exerc´ıcio 3.21, por quest˜ ao de praticidade, utilizamos a forma matricial de T para calcular os vetores v = (x, y, z) tais que x h iβ x T y = λ y
F
β
z
z
Caso, por algum motivo, queiramos utilizar uma base α = {a1 , a2 , a3 } diferente da canˆonica para expressar essa equa¸c˜ ao n˜ ao podemos dizer que os autovetores v = (x, y, z) de T ser˜ao tais que x x h iα T y = λ y . Por quˆe?! α
z
z
h iβ h i h i Porque observe que a equa¸c˜ ao F ´e equivalente a T v = λ v . E se mudarmos a base da β
β
β
matriz de T devemos tamb´em mudar a base da matriz de coordenadas do vetor!
CAP´ITULO 5. AUTOVALORES E AUTOVETORES
57
c1 h iα c1 A corre¸ca ˜o que deveria ser feita ´e a seguinte : achar c1 , c2 , c3 tais que T c2 = λ c2 e α
c3 ent˜ ao concluir que os autovetores s˜ ao da forma v = (x, y, z) = c1 a1 + c2 a2 + c3 a3 .
5.0.10
c3
Exerc´ıcio 6.22 B
B
B
B
z }|4 #{ z }|1 #{ z" }|2 #{ z" }|3 #{ " " 1 0 0 1 0 0 0 0 , , , }. Encontremos a matriz de T na base canˆonica de Mn (R) β = { 0 0 0 0 1 0 0 1 " # " # 2 0 1 2 Temos que T (B1 ) = = 2B1 , T (B2 ) = = B1 + B2 , 0 0 0 0 " # " # 0 0 0 0 T (B3 ) = = 2B3 e T (B4 ) = = 3B4 2 0 0 3 2 1 0 0 h iβ 0 2 0 0 Portanto A := T = β 0 0 2 0 0 0 0 3 Agora podemos calcular o polinˆ omio caracter´ıstico 2−λ 0 p(λ) = det(A − λI4 ) = det 0 0
1
0
2−λ
0
0
2−λ
0
0
0
0 = (2 − λ)3 (3 − λ) 0 3−λ
Ent˜ ao as ra´ızes do polinˆ omio caracter´ıstico, i.e. os autovalores de T , s˜ao λ1 = 2 e λ2 = 3. Calculmeos os autoespa¸cos. Autovetores " a Seja A = c 2 1 0 2 ⇐⇒ 0 0 0 0
de λ1 # b matriz gen´erica de Mn (R). Ent˜ao A ∈ Vλ1 ⇐⇒ T (A) = 2A d 2a + b = 2a 0 0 a 2a 2b = 2b 0 0 b = 2b ⇐⇒ ⇐⇒ b = d = 0 2 0 c 2c 2c = 2c 0 3 d 2d 3d = 2d " # a 0 Portanto os elementos de Vλ1 s˜ ao da forma A = = aB1 + cB3 . c 0 Consequentemente Vλ1 = [B1 , B3 ].
Autovetores de λ2 " # a b Seja A = matriz gen´erica de Mn (R). Ent˜ao A ∈ Vλ2 ⇐⇒ T (A) = 3A c d
CAP´ITULO 5. AUTOVALORES E AUTOVETORES
58
2a + b = 3a 3a a 1 0 0 2b = 3b 2 0 0 b = 3b ⇐⇒ ⇐⇒ a = b = c = 0 0 2 0 c 3c 2c = 3c 3d d 0 0 3 3d = 3d " # 0 0 Portanto os elementos de Vλ2 s˜ ao da forma A = = dB4 . 0 d Consequentemente Vλ2 = [B4 ]. 2 0 ⇐⇒ 0 0
5.0.11
Exerc´ıcio 6.25
Vamos provar que o polinˆ omio caracter´ıstico de A e o de At s˜ao o mesmo polinˆomio. De fato: pA (x) = det(A − xIn ) = det( (A − xIn )t ) = det(At − xInt ) = det(At − xIn ) = pAt (x) Sendo assim, as ra´ızes de pA e de pAt , i.e. os autovalores de A e de At , coincidem!
5.0.12
Exerc´ıcio 6.27
Seja λ um autovalor da matriz invert´ıvel A com autovetor associado v (na forma de matriz coluna). Ent˜ ao: In v
= v
=⇒
A−1 Av
= v
=⇒
−1
(λv)
= v
−1
= v
A
=⇒
λA
F
=⇒ Ent˜ ao
v
−1
1 λ
A v = λ1 v ´e um autovalor da matriz A−1 .
OBS.: A implica¸c˜ ao F s´ o ´e v´ alida se λ 6= 0. E na verdade podemos provar que se A ´e invert´ıvel ent˜ ao 0 n˜ ao ´e um de seus autovalores (basta ver que caso 0 fosse autovalor ent˜ao Ker(A) 6= {0}).
5.0.13
Exerc´ıcio 6.28
Calculemos as ra´ızes de pA (t). Temos que: −t 1 pA (t) = det(A − tI3 ) = det 0 −t 1 E suas ra´ızes, i.e. os autovalores de A, s˜ao 1, −1+i 2
√
3
0 e
0
1 = −t3 + 1 −t
√ −1−i 3 . 2
CAP´ITULO 5. AUTOVALORES E AUTOVETORES
5.0.14
59
Exerc´ıcio 6.29
i h iγ h Pela defini¸c˜ ao, T = T (v1 ) γ γ Agora, como
h
T (v2 )
i γ
h i T (v3 ) . γ
• T (v1 ) = v1 ; • T (v2 ) = v1 + 2v2 + 3v3 ; • T (v3 ) = v3 ; 1 1 0 h iγ segue que A := T = 0 2 0. γ 0 3 1 Agora podemos calcular o polinˆ omio caracter´ıstico: 1−t pT (t) = det(A − tI3 ) = det 0 0
1 2−t 3
0
0 = (1 − t)2 (2 − t) 1−t
que possui as ra´ızes (autovalores de T ) λ1 = 1 e λ2 = 2. Calculemos agora os autoespa¸cos. Autovetores de λ1 Seja v = (x, y, z) ∈ R3 . Ent˜ ao v ∈ Vλ1
x x ⇐⇒ T (v) = λ1 v ⇐⇒ A y = y z z
x+y =x x 1 0 x ⇐⇒ y = 0 2 0 y = y ⇐⇒ 2y = y 3y + z = z 0 3 1 z z Portanto os elementos de Vλ1 s˜ ao da forma v = (x, 0, z) = x(1, 0, 0) + z(0, 0, 1). 1 ⇐⇒ 0
Consequentemente Vλ1 = [(1, 0, 0), (0, 0, 1)]. Autovetores de λ2 x 2x Seja v = (x, y, z) ∈ R3 . Ent˜ ao v ∈ Vλ2 ⇐⇒ T (v) = λ2 v ⇐⇒ A y = 2y 2z z x + y = 2x 1 1 0 x 2x ⇐⇒ 0 2 0 y = 2y ⇐⇒ 2y = 2y ⇐⇒ x = y e z = 3y 0 3 1 z 2z 3y + z = 2z Portanto os elementos de Vλ2 s˜ ao da forma v = (y, y, 3y) = y(1, 1, 3). Consequentemente Vλ2 = [(1, 1, 3)].
CAP´ITULO 5. AUTOVALORES E AUTOVETORES
60
Sess˜ ao 6.3 5.0.15
Exerc´ıcio 6.42
Calculemos os autovalores e autovetores de A. Temos que: 1−t pA (t) = det(A − tI3 ) = det 0 0
1 2−t 0
1
1 = (1 − t)2 (2 − t) 1−t
que possui como ra´ızes λ1 = 1 com ma (λ1 ) = 2 e λ2 = 2 com ma (λ2 ) = 1. Autovetores de λ1 x x x ao v ∈ Vλ1 ⇐⇒ A y = y Seja v = y . Ent˜ z z x+y+z =x x 1 1 x ⇐⇒ y = −z 2 1 y = y ⇐⇒ 2y + z = y z = z z z 0 0 1 Portanto os elementos de Vλ1 s˜ ao da forma v = (x, −z, z) = x(1, 0, 0) + z(0, −1, 1). z
1 ⇐⇒ 0
Consequentemente Vλ1 = [(1, 0, 0), (0, −1, 1)]. E segue que mg (λ1 ) = dim(Vλ1 ) = 2. Autovetores de λ2 x x 2x Seja v = y . Ent˜ ao v ∈ Vλ2 ⇐⇒ A y = 2y z z 2z x + y + z = 2x 2x 1 1 1 x ⇐⇒ 0 2 1 y = 2y ⇐⇒ 2y + z = 2y z = 2z 2z 0 0 1 z
⇐⇒ z = 0 e x = y
Portanto os elementos de Vλ2 s˜ ao da forma v = (y, y, 0) = y(1, 1, 0). Consequentemente Vλ2 = [(1, 1, 0)]. E segue que mg (λ2 ) = dim(Vλ2 ) = 1.
5.0.16
Exerc´ıcio 6.43
Os autovalores de matrizes similares s˜ ao os mesmos! Vamos provar que se A e B s˜ao matrizes similares ent˜ ao vale que pA (t) = pB (t). De fato,
CAP´ITULO 5. AUTOVALORES E AUTOVETORES
pA (t)
=
det(A − tIn )
=
det(P −1 BP − tIn )
=
det( P −1 (B − tIn )P )
1
=
det(P −1 ) · det(B − tIn ) · det(P )
2
det(B − tIn )
=
= pB (t) Onde nas igualdades det(A
−1
)=
5.0.17
1 det(A) ,
1
e
2
61
usamos as propriedades dos determinantes det(AB) = det(A) det(B) e
respectivamente.
Exerc´ıcio 6.45
(a) Vamos provar que AB e BA possuem o mesmo polinˆomio caracter´ıstico. De fato, pAB (t)
=
det(AB − λIn )
=
det( (AB − λIn )AA−1 )
=
det(ABAA−1 − λAA−1 )
=
det(A(BA − λIn )A−1 )
=
det(A) det(A−1 ) det(BA − λIn )
=
det(BA − λIn )
= pBA (t) Portanto AB e BA possuem os mesmos autovalores (ra´ızes do polinˆomio caracter´ıstico).
5.0.18
Exerc´ıcio 6.46
No Exerc´ıcio 6.43 vimos que se A e B s˜ao matrizes similares ent˜ao elas possuem o mesmo polinˆ omio caracter´ıstico. Logo n˜ ao s´ o os autovalores dessas matrizes coincidem mas tamb´em suas respectivas multiplicidades alg´ebricas. Resta-nos ver se a multiplicidade geom´etrica tamb´em ´e mantida. Agora, dizer que A e B s˜ ao matrizes similares ´e dizer que A = P −1 BP para alguma matriz invert´ıvel P . Fixado um autovalor λ de A queremos provar que dim(Vλ ) = dim(Vλ0 ) onde Vλ ´e o autoespa¸co de λ como autovalor de A e Vλ0 ´e o autoespa¸co de λ como autovalor de B. Seja ent˜ ao β = {v1 , · · · , vk } uma base para Vλ . Para cada autovetor vi vale que: P −1 BP vi = Avi = λvi E al´em disso, λ(P vi ) = P (λvi ) = P (Avi ) = P (P −1 BP vi ) = B(P vi )
CAP´ITULO 5. AUTOVALORES E AUTOVETORES
com P vi 6= 0, pois vi 6= 0 e P ´e invert´ıvel
F
62
.
Portanto P vi (i = 1, · · · , k) s˜ ao autovetores de B associados ao mesmo autovalor λ. Agora se provarmos que β 0 = {P v1 , · · · , P vk } ´e L.I. estar´a provado que dim(Vλ ) ≤ dim(Vλ0 ). E de fato isso acontece: supondo escalares c1 , · · · , ck tais que c1 (P v1 ) + · · · + ck (P vk ) = 0 temos que 0 = c1 (P v1 ) + · · · + ck (P vk ) = P (c1 v1 + · · · + ck vk ) e como P ´e invert´ıvel isso implica que c1 v1 + · · · + ck vk = 0, disso c1 = c2 = · · · = ck = 0 pois {v1 , · · · , vk } = β ´e uma base. Logo β 0 ´e realmente L.I.. Agora preciso provar que dim(Vλ0 ) ≤ dim(Vλ ). Para isso, suponha que α0 = {w1 , · · · , wm } seja uma base de Vλ0 . Temos que B = P AP −1 e analogamente ao caso anterior podemos provar que α = {P −1 w1 , · · · , P −1 wm } ser´ a um conjunto L.I. de autovetores de A associados a λ, o que implica que dim(Vλ0 ) ≤ dim(Vλ ). De dim(Vλ ) ≤ dim(Vλ0 ) e dim(Vλ0 ) ≤ dim(Vλ ) conclu´ımos finalmente que dim(Vλ ) = dim(Vλ0 ) e consequentemente a transforma¸c˜ ao de similaridade tamb´em conserva a multiplicidade geom´etrica dos autovalores! OBS.F : Se v 6= 0 e P ´e uma matriz invert´ıvel ent˜ao P v 6= 0. De fato, (pela contrapositiva) suponha P v = 0, logo P −1 P v = P −1 · 0 =⇒ v = 0. Outra maneira hde ienxergar essa afirma¸c˜ao ´e olhar P como uma matriz de uma tranforma¸c˜ao liγ near, i.e. P = T para alguma base γ. Ent˜ao ser invert´ıvel ´e equivalente a T ser bijetora, o γ
que implica que Ker(T ) = {0} e logo vale a implica¸c˜ao v 6= 0 =⇒ P v 6= 0.
Sess˜ ao 6.4 5.0.19
Exerc´ıcio 6.51
Note que para todo vetor (matriz coluna) v vale que (Qv)t Qv = v t Qt Qv = v t v pois Qt = Q−1 . Agora se considerarmos v um autovetor de Q com autovalor associado λ ∈ R temos que: (Qv)t Qv = (λv)t λv = λ2 v t v E portanto λ2 v t v = v t v. Como v 6= 0 disso temos λ2 = 1 =⇒ |λ| = 1 =⇒ λ = 1 ou λ = −1.
5.0.20
Exerc´ıcio 6.52
O polinˆ omio caracter´ıstico de uma matriz Q ∈ Mn (R) ´e um polinˆomio com coeficientes reais. ¯ Sendo assim se λ ∈ C ´e uma raiz desse polinˆomio, i.e. λ ´e um autovalor complexo, ent˜ao λ
CAP´ITULO 5. AUTOVALORES E AUTOVETORES
63
tamb´em ´e raiz do polinˆ omio! OBS.: Note que Q n˜ ao precisa ser ortogonal para satisfazer isso.
5.0.21
Exerc´ıcio 6.53
Se A ∈ Mn (R) ent˜ ao o grau do polinˆ omio caracter´ıstico pA (t) = det(A − tIn ) ´e n. Sendo assim, temos um polinˆ omio com coeficientes reais de grau n. ¯ tamb´em ´e autovalor. Como vimos no Exerc´ıcio 6.52, se existe um autovalor complexo λ ent˜ao λ Agora note que se todos os autovalores n˜ao fossem n´ umeros reais, ter´ıamos para cada λ outro ¯ o que nos levaria a um n´ autovalor diferente λ umero par de autovalores. Sendo assim, se n ´e ´ımpar obrigatoriamente devemos ter um autovalor real.
5.0.22
Exerc´ıcio 6.60
(∗ )Neste exerc´ıcio, podemos entender melhor os passos usando o fato de que toda matriz A ∈ Mn (R) pode ser vista como matriz de um operador linear numa base A = [T ]α α . Agora observe que “A ´e invert´ıvel ⇐⇒ T ´e bijetora ”. Sendo assim, considere A uma matriz positiva-definida (xt Ax > 0 ∀x 6= 0). Suponha, por absurdo, que A pode ser n˜ao-invert´ıvel. Sendo assim, existe um vetor n˜ao-nulo v ∈ Ker(A), pois caso contr´ ario (∗ ) nos diria que T ´e bije¸c˜ao. Disso temos que Av = 0 =⇒ v t Av = 0 e v 6= 0, que ´e uma contradi¸c˜ao pois assumimos que A ´e positiva-definida. Portanto A positiva-definida =⇒ A invert´ıvel. Agora, sabemos que “A sim´etrica ´e positiva-definida ⇐⇒ todos seus autovalores s˜ao positivos (Teorema 6.4.5)”. Agora, sabemos que os autovalores de A−1 s˜ao todos da forma
1 λ,
onde λ ´e um
autovalor de A (Exerc´ıcio 6.27). Disso ´e imediato que se todos os autovalores de A s˜ao positivos ent˜ao todos os autovalores de A−1 tamb´em s˜ ao positivos, i.e. A positiva-definida =⇒ A−1 positiva-definida.
5.0.23
Exerc´ıcio 6.61
Vamos provar que se uma matriz sim´etrica A ´e semipositiva-definida e, al´em disso, n˜ ao ´e positivadefinida, ent˜ ao det(A) = 0 e λ = 0 ´e um autovalor de A. Se tiv´essemos Ker(A) 6= {0} ent˜ ao Av 6= 0 ∀v 6= 0 =⇒ v t Av 6= 0 ∀v 6= 0 o que n˜ao acontece por hip´ otese. Logo existe um vetor n˜ ao-nulo v tal que Av = 0 = 0 · v e portanto λ = 0 ´e um autovalor de A. Al´em disso, A ∈ Mn (R) n˜ ao pode ser invert´ıvel pois se consideramos A := [T ]α ao Ker(A) 6= α ent˜ {0} implica que T n˜ ao ´e injetora e logo T n˜ao ´e bijetora, que ´e equivalente a dizer que A n˜ao ´e invert´ıvel (i.e. det(A) = 0).
CAP´ITULO 5. AUTOVALORES E AUTOVETORES
64
Sess˜ ao 6.6 Nesta sess˜ ao utilizaremos exaustivamente o Teorema 6.6.6 que afirma resumidamente que: “T ´e diagonaliz´ avel ⇐⇒ existe uma base de autovetores de T ”.
5.0.24
Exerc´ıcio 6.65
Calculemos primeiramente os autovalores e autovetores do operador linear T . Encontremos a matriz de T na base canˆonica de R3 , β = {(1, 0, 0), (0, 0, 1), (0, 0, 1)}. Temos que T (1, 0, 0) = (−3, 2, 0) T (0, 1, 0) = (−4, 3, 0) T (0, 0, 1) = (0, 0, −1) −3 h iβ Portanto A := T = 2 β
0
−4 3 0
0
0 −1
−3 − λ Agora podemos calcular o polinˆ omio caracter´ıstico p(λ) = det(A−λI3 ) = det 2
−4 3−λ
0 0 (−3 − λ)(3 − λ)(−1 − λ) + 8(−1 − λ) = (−1 − λ)[(3 − λ)(−3 − λ) + 8] = (−1 − λ)(λ2 − 1) Ent˜ ao as ra´ızes do polinˆ omio caracter´ıstico, i.e. os autovalores de T , s˜ao λ1 = 1 e λ2 = −1. Do polinˆ omio caracter´ıstico conclu´ımos que ma (λ1 ) = 1 e ma (λ2 ) = 2. Calculmeos agora os autoespa¸cos. Autovetores de λ1 Seja v = (x, y, z) vetor gen´erico de R3 . Ent˜ao v ∈ Vλ1 ⇐⇒ T (x, y, z) = (x, y, z) ⇐⇒ Av = v (escrevendo o vetor como matriz coluna). Disso temos que: v ∈ Vλ1 −3x − 4y = x −3 −4 0 x x ⇐⇒ z = 0; x = −y 3 0 y = y ⇐⇒ 2 2x + 3y = y −z = z 0 0 −1 z z
⇐⇒
Portanto os elementos de Vλ1 s˜ ao da forma v = (−y, y, 0) = y(−1, 1, 0). Consequentemente Vλ1 = [(−1, 1, 0)] e observe que disso conclu´ımos que mg (λ1 ) = dim(Vλ1 ) = 1. Autovetores de λ2 Seja v = (x, y, z) vetor gen´erico de R3 . Ent˜ao v ∈ Vλ2 ⇐⇒ T (x, y, z) = −1 · (x, y, z) ⇐⇒ Av = −v (escrevendo o vetor como matriz coluna). Disso temos que: −3x − 4y = −x −3 −4 0 x −x ⇐⇒ x = −2y v ∈ Vλ2 ⇐⇒ 2 3 0 y = −y ⇐⇒ 2x + 3y = −y 0 0 −1 z −z −z = −z Portanto os elementos de Vλ2 s˜ ao da forma v = (−2y, y, z) = y(−2, 1, 0) + z(0, 0, 1). Consequentemente Vλ2 = [(−2, 1, 0), (0, 0, 1)] e observe que disso conclu´ımos que mg (λ2 ) =
0
= −1 − λ 0
CAP´ITULO 5. AUTOVALORES E AUTOVETORES
65
dim(Vλ2 ) = 2. Finalmente como dim(Vλ1 ) + dim(Vλ2 ) = dim(R3 ) conseguimos encontrar uma base para R3 formada por autovetores de T . De fato, o conjunto de autovetores β = {(−1, 1, 0), (−2, 1, 0), (0, 0, 1)} ´e L.I. (e portanto base); Podemos verificar manualmente que β ´e L.I. ou usar o fato de que autovetores associados a autovalores distintos s˜ ao L.I. entre si (e os autovetores com mesmo autovalor associado s˜ao L.I. entre si pois s˜ ao integrantes da base do autoespa¸co). Tendo feito isso provamos que β ´e uma base de R3 formada por autovetores e, como diz o Teorema 6.6.6, fica provado que T ´e um operador linear diagonaliz´avel.
5.0.25
Exerc´ıcio 6.69
Calculemos primeiramente os autovalores e autovetores do operador linear T . Encontremos a matriz de T na base canˆonica de P2 (R), β = {1, x, x2 }. Temos que T (1) = 0 T (x) = 2 + 2x T (x2 ) = 1 − x + 2x2 0 h iβ Portanto A := T = 0
2
1
−1 0 0 2 Agora podemos calcular o polinˆ omio caracter´ıstico β
2
−λ p(λ) = det(A − λI3 ) = det 0 0
2 2−λ 0
1
−1 = (−λ)(2 − λ)2 2−λ
Ent˜ ao as ra´ızes do polinˆ omio caracter´ıstico, i.e. os autovalores de T , s˜ao λ1 = 0 e λ2 = 2. Do polinˆ omio caracter´ıstico conclu´ımos que ma (λ1 ) = 1 e ma (λ2 ) = 2. Calculmeos agora os autoespa¸cos. Autovetores de λ1 Para economizar esfor¸co, podemos usar um m´etodo diferente do Exerc´ıcio 6.65. Sei que λ1 = 0 ´e autovalor de T . Ent˜ ao existe um p1 (x) 6= 0 tal que p1 (x) ´e autovetor associado a λ1 . E como ma (λ1 ) = 1 e 1 ≤ mg (λ1 ) ≤ ma (λ1 ) = 1, segue que dim(Vλ1 ) = mg (λ1 ) = 1. E veremos que saber a dimens˜ ao dos autoespa¸cos ´e suficiente para determinar se um operador ´e diagonaliz´ avel ou n˜ ao! Pois “a soma da dimens˜ao dos autoespa¸cos ´e igual a dimens˜ao do espa¸co todo ⇐⇒ o operador ´e diagonaliz´ avel” (essa afirma¸c˜ao ´e equivalente a dizer que um operador ´e diagonaliz´ avel ⇐⇒ existe uma base de autovetores). Autovetores de λ2 Neste caso, n˜ ao conseguimos um argumento similar ao anterior pois ma (λ2 ) > 1. Isto ´e, n˜ao
CAP´ITULO 5. AUTOVALORES E AUTOVETORES
66
conseguimos de maneira r´ apida concluir a existˆencia de um conjunto L.I. de autovetores sem calcular os autovetores explicitamente. Ent˜ao calculemos eles. Seja p(x) = a + bx + cx2 vetor gen´erico de P2 (R). Ent˜ao p(x) ∈ Vλ2 ⇐⇒ T (p(x)) = 2 · p(x) ⇐⇒ (2b + c) + (2b − c)x + 2cx2 = 2a + 2bx + 2cx2 ⇐⇒ (2b + c − 2a) + (2b − c − 2b)x + (2c − 2c)x2 = 0P2 (R) . Disso temos que: 2b + c − 2a = 0 p(x) ∈ Vλ2 ⇐⇒ −c = 0 0 = 0
, que possui solu¸c˜ao c = 0 e b = a.
Portanto os elementos de Vλ2 s˜ ao da forma p(x) = a + ax = a(1 + x). Consequentemente Vλ2 = [1 + x] e observe que disso conclu´ımos que mg (λ2 ) = dim(Vλ2 ) = 1. Sendo assim, n˜ ao ´e poss´ıvel encontrar uma base de autovetores, pois conseguimos apenas um conjunto L.I. de no m´ aximo dois autovetores {p1 (x), 1 + x} e dim(P2 (R)) = 3. Logo n˜ao existe base de autovetores e portanto T n˜ ao ´e um operador diagonaliz´avel.
OBS.: Em geral, quando encontrarmos que mg (λ) < ma (λ) para algum autovalor λ isso j´a ser´a suficiente para concluirmos que o operador em quest˜ao n˜ao ´e diagonaliz´avel (Por quˆe? ).
5.0.26
Exerc´ıcio 6.70
A base ordenada que o exerc´ıcio nos pede ´e simplesmente uma base de autovetores (Por quˆe? ). Ent˜ ao vamos calcular os autovetores de T . Do Exerc´ıcio 6.11 temos que os autovalores de T s˜ao λ1 = 1 e λ2 = −1. Autovetores de λ1 a b c Seja A = d e f uma matriz gen´erica g h i a d g a b t ⇐⇒ A = A ⇐⇒ b e h = d e c
f
i
Portanto os elementos de Vλ1
g
h
de M3 (R). Ent˜ao A ∈ Vλ1 ⇐⇒ T (A) = A
c
f ⇐⇒ i
a s˜ ao da forma A = b
b=d c=g . f = h b c e f f i 0 0 0 1 0 +f 0
c 0 0 0 1 0 0 0 1 0 0 0 +b 1 0 0 +c 0 0 0 +e 0 0 0 0 0 0 0 1 0 0 0 0 0 | | | | {z } {z } {z } {z }
1 = a 0
A1
A2
A3
Consequentemente Vλ1 = [A1 , A2 , A3 , A4 , A5 , A6 ]. Autovetores de λ2
A4
0 0 0 0 0 1 +i 0 0 0. 0 1 0 0 0 1 | {z } | {z } 0
A5
A6
CAP´ITULO 5. AUTOVALORES E AUTOVETORES
67
a Seja A = d
b
c
e
f uma matriz gen´erica de M3 (R). Ent˜ao A ∈ Vλ2 ⇐⇒ T (A) = −A
g
h
i
a t ⇐⇒ A = −A ⇐⇒ b
d
c
f
e
Portanto os elementos de Vλ2
a=e=i=0 −a −b −c g b = −d h = −d −e −f ⇐⇒ c = −g −g −h −i i f = −h 0 b c s˜ ao da forma A = −b 0 f −c −f 0 1 0 0 0 0 +f 0 0 1.
0 0 0 = b −1 0 0 +c 0 0 −1 0 0 0 0 0 | | {z } {z }
0
1
B1
B2
0 |
−1 {z B3
.
0 }
Consequentemente Vλ2 = [B1 , B2 , B3 ]. h iβ Portanto conclu´ımos que a base procurada ´e β = {A1 , A2 , A3 , A4 , A5 , A6 , B1 , B2 , B3 }, pois T β
´e sempre diagonal se β ´e base de autovetores.
5.0.27
Exerc´ıcio 6.72
Novamente recorremos ao Teorema 4.2.1 que diz, resumidamente, que: “Uma transforma¸c˜ ao linear fica completamente determinada pelos seus valores numa base” Prosseguimos da seguinte maneira: Colocamos • T (1, 0, 1) = (0, 0, 0) = 0 · (1, 0, 1) para incluir u = (1, 0, 1) no n´ ucleo. E agora, colocamos • T (0, 1, 0) = 1 · (0, 1, 0) • T (0, 0, 1) = 2 · (0, 0, 1) para satisfazer a condi¸c˜ ao de T ser diagonaliz´avel! A estrat´egia de colocar cada vetor da base escolhida como um autovetor associado a um autovalor diferente ´e sempre boa porque, ap´os calcularmos a f´ormula expl´ıcita de T , provar que T ´e diagonaliz´ avel ser´ a bem r´ apido. De fato, calculando a f´ ormula de T obtemos (exemplo mais detalhado de como calcular a f´ormula expl´ıcita de um operador no Exerc´ıcio 4.6) : (x, y, z) = c1 (1, 0, 1) + c2 (0, 1, 0) + c3 (0, 0, 1) =⇒ c1 = x, c2 = y e c3 = z − x. E portanto: T (x, y, z) = y(0, 1, 0) + (z − x)(0, 0, 2) = (0, y, 2z − 2x)
CAP´ITULO 5. AUTOVALORES E AUTOVETORES
68
Agora podemos concluir que T ´e diagonaliz´avel pois possui 3 autovalores distintos: λ1 = 0, λ2 = 1 e λ3 = 2, o que implica que existe um autovetor vi associado a cada autovalor λi e β = {v1 , v2 , v3 } ´e L.I. pois ´e formado por autovetores de autovalores distintos (e portanto β ´e base de R3 ). OBS.: Como sempre, ´e uma boa pr´ atica verificar (no rascunho) se o operador encontrado realmente satisfaz as propriedades requeridas.
Sess˜ ao 6.7 5.0.28
Exerc´ıcio 6.88
Vamos provar que x∗ Ax = x∗ Ax. De fato, temos que x∗ Ax = x∗ Ax = xt Ax. Agora como xt Ax ´e uma matriz 1×1 podemos aplicar a transposta sem alterar nada. Logo x∗ Ax = xt Ax = (xt Ax)t = x∗ A∗ x = x∗ Ax E isso s´ o pode acontecer se x∗ Ax for um n´ umero real.
5.0.29
Exerc´ıcio 6.92
(a) Se A ´e diagonaliz´ avel ent˜ ao existe uma matriz invert´ıvel P tal que A = P DP −1 , onde D ´e a matriz diagonal dos autovalores de A. Disso, det(A) = det(P ) det(P −1 ) det(D) = det(D) = λ1 · · · λn
(b) Da mesma forma, tr(A) = tr(P DP −1 ) = tr(P −1 P D) = tr(D) = λ1 + · · · + λn
5.0.30
Exerc´ıcio 6.94
Basta diagonalizar a matriz A e ent˜ ao ortonormalizar a base de autovetores encontrada. Autovalores de A −t 1 p(t) = det(A − tI3 ) = det 1 −t
1
1 = −t3 + 3t + 2 = (2 − t)(t + 1)2 1 1 −t Logo os autovalores s˜ ao λ1 = −1 e λ2 = 2 Autovetores de A
CAP´ITULO 5. AUTOVALORES E AUTOVETORES x+y+z =0 x 1 1 x 0 1 y = −1 · y ⇐⇒ x + y + z = 0 z x + y + z = 0 z 1 1 0 ⇐⇒ v = (−y − z, y, z) = y(−1, 1, 0) + z(−1, 0, 1)
0 Av = λ1 v ⇐⇒ 1
69
⇐⇒ x = −y − z
Portanto Vλ1 = [(−1, 1, 0), (−1, 0, 1)]. −2x + y + z = 0 x 1 x 0 1 y = 2 · y ⇐⇒ x − 2y + z = 0 z z 1 1 0 x + y − 2z = 0 ⇐⇒ v = (x, x, x) = x(1, 1, 1)
0 Av = λ2 v ⇐⇒ 1
1
⇐⇒ x = y = z
Portanto Vλ2 = [(1, 1, 1)]. v
v
v
z }|1 { z }|2 { z }|3 { Consequentemente, β = {(−1, 1, 0), (−1, 0, 1), (1, 1, 1)} ´e uma base de autovetores de A. Note que β n˜ ao ´e uma base ortonormal. Agora aplicamos o processo de Gram-Schmidt na base beta para obter uma base α = {q1 , q2 , q3 } ortonormal. w 1 = v1 w 2 = v2 − w 3 = v3 −
hv2 ,q1 i hq1 ,q1 i q1 hv3 ,q1 i hq1 ,q1 i q1
hv3 ,q2 i hq2 ,q2 i q2 qi = kw1i k wi
−
Finalmente fazemos
Fazendo as contas obtemos q1 =
para i = 1, 2, 3 e obtemos a base ortonormal α. √1 (−1, 1, 0), 2
q2 =
√ √2 (−1/2, −1/2, 1) 3
e q3 =
√1 (1, 1, 1) 3
como os
elementos da base ortonormal √ de√autovetores. √ √ −1/ 2 − 2/2 3 1/ 3 √ √ √ √ Portanto Q = 1/ 2 − 2/2 3 1/ 3 ´e a matriz ortogonal procurada. √ √ √ 0 2/ 3 1/ 3
5.0.31
Exerc´ıcio 6.95
OBS.: No livro do Pulino, foi definido uma matriz ser “positiva-definida” no caso que a matriz, por hip´ otese, j´ a era sim´etrica. Sendo assim, neste exerc´ıcio fica subentendido (ou n˜ao) que A ´e uma matriz sim´etrica. Este caso particular ´e bem mais simples e ser´a feito abaixo. Uma resposta mais geral tamb´em ser´ a feita ap´ os. Se A ´e sim´etrica, dizer que A ´e positiva-definida ´e equivalente a dizer que todos os autovalores de A s˜ ao positivos. Sendo assim, como toda matriz sim´etrica ´e diagonaliz´avel, A = P −1 DP , onde D ´e a matriz diagonal de autovalores. Segue que det(A) = det(P ) det(P −1 ) det(D) = det(D) = λ1 · ... · λn > 0, pois λi > 0 (i = 1, · · · , n).
No caso em que n˜ ao assumimos que A ´e sim´etrica, a prova ´e mais longa. Considere a fun¸c˜ ao f (t) = det(tIn + (1 − t)A)
CAP´ITULO 5. AUTOVALORES E AUTOVETORES
70
definida em [0, 1]. Observe que f ´e cont´ınua e que f (0) = det(A) e f (1) = det(In ) = 1. Nosso objetivo agora ´e mostrar que f n˜ao se anula, pois disso (usando o Teorema do Valor Intermedi´ ario) teremos que det(A) > 0 (pois 1 > 0). Agora, observe que a matriz tIn + (1 − t)A tamb´em ´e positiva-definida para todo t ∈ [0, 1] pois xT (tIn − (1 − t)A)x = txT x + (1 − t)xT Ax > 0 j´ a que xT Ax, t, (1 − t) > 0. Agora, como matrizes positivas-definidas s˜ao invert´ıveis segue que f (t) = det(tIn + (1 − t)A) 6= 0 ∀t ∈ [0, 1]
5.0.32 F
Exerc´ıcio 6.100
Usaremos o Teorema 6.7.10 para dizer que os autovalores n˜ao-nulos de uma matriz anti-sim´etrica
s˜ ao necessariamente imagin´ arios puros. Como I − A ∈ Mn (R), vamos provar que Ker(I − A) = {0} e disso concluir que I − A ´e invert´ıvel (argumento melhor justificado em (*)Exerc´ıcio 6.60). De fato, v ∈ Ker(I − A) ⇐⇒ (I − A)v = 0 ⇐⇒ v − Av = 0 ⇐⇒ Av = v. Logo supondo, por absurdo, que v 6= 0 conclu´ımos que v ´e autovetor de A com autovalor λ = 1. Mas isto ´e uma contradi¸c˜ ao pois matrizes anti-sim´etricas possuem apenas autovalores nulos ou imagin´ arios puros. Logo Ker(I − A) = {0} e portanto I − A ´e invert´ıvel. An´ alogo para I + A. Agora, vamos provar que a matriz B := (I − A)(I + A)−1 satisfaz B t B = I (e portanto ´e ortogonal). Primeiro, note que as matrizes I − A e I + A comutam. Isto ´e, (I − A)(I + A) = I − A2 = (I + A)(I − A). Agora, note que B t = ((I + A)−1 )t (I − A)t = ((I + A)t )−1 (I − A)t = (I + At )−1 (I − At ) = (I − A)−1 (I + A). E finalmente, B t B = (I − A)−1 (I + A)(I − A)(I + A)−1 = (I − A)−1 (I − A)(I + A)(I + A)−1 = I
5.0.33
Exerc´ıcio 6.101
Observe que A ´e uma matriz sim´etrica. Sendo assim A ´e positiva-definida se, e somente se, todos os seus autovalores s˜ao positivos. Ent˜ ao vamos calcul´ a-los!
CAP´ITULO 5. AUTOVALORES E AUTOVETORES
71
Note que o polinˆ omio caracter´ıstico de A, 5−t pA (t) = det(A − tI3 ) = det −1 2
−1 8−t −1
2
−1 5−t
possui ra´ızes λ1 = 3, λ2 = 6 e λ3 = 9. Sendo assim, todos os autovalores da matriz sim´etrica A s˜ao positivos e, portanto, A ´e uma matriz positiva definida. 3 0 0 ao existe uma matriz invert´ıvel P tal que A = P DP −1 (toda matriz Seja D = 0 6 0, ent˜ 0 0 9 sim´etrica ´e diagonaliz´ avel). Disso, analogamente ao Exerc´ıcio 6.92, conclu´ımos que det(A) = 3 · 6 · 9 = 162 e tr(A) = 3 + 6 + 9 = 18.
5.0.34
Exerc´ıcio 6.108
Vamos provar que se A ´e congruente a identidade ent˜ao A ´e positiva-definida. De fato, se A ´e congruente a In ent˜ ao existe uma matriz invert´ıvel P tal que A = P In P t = P P t . Agora considere um vetor x n˜ ao-nulo. Ent˜ao xt Ax = xt (P P t )x = (P t x)t (P t x) = hP t x, P t xi > 0 pois P invert´ıvel =⇒ P t invert´ıvel =⇒ Ker(P t ) = {0} =⇒ P t x 6= 0, se x 6= 0. Disso conclu´ımos que para todo vetor x n˜ao-nulo vale que xt Ax > 0. Logo A ´e positiva-definida. E como A ´e uma matriz sim´etrica, ser positiva-definida ´e equivalente a dizer que todos os autovalores de A s˜ ao positivos.