Soluções comentadas do livro ’ Álgebra Linear e suas Aplicações - Petronio Pulino ’


135 downloads 3K Views 453KB Size

Recommend Stories

Empty story

Idea Transcript


´ Solu¸co˜es comentadas do livro “Algebra Linear e suas Aplica¸co˜es - Petronio Pulino” Hugo Valad˜ao [email protected]

Universidade Estadual de Campinas 11 de Novembro de 2018

1

Aten¸ c˜ ao: As resolu¸c˜ oes dos exerc´ıcios deste documento, mesmo tendo sido revisadas, podem conter alguns erros. Sendo assim, ´e importante lˆe-las com olhar cr´ıtico e com aten¸c˜ao aos erros (leves ou graves) que possam surgir. Caso perceba qualquer erro (inclusive erro de digita¸c˜ao), agradeceria que me notificasse por e-mail para poder corrigir e atualizar o arquivo. Ali´as, este ´e um documento em constante constru¸c˜ ao e atualiza¸c˜ao, acesse o link do Google Drive (https://goo.gl/UhPMLv) para ter acesso ` a vers˜ ao mais recente. Meus agradecimentos a Laryssa Abdala que revisou, corrigiu e sugeriu algumas das solu¸c˜oes deste pdf!

Hugo Valad˜ao [email protected] 11 de Agosto de 2018

Conte´ udo 1 Estruturas Alg´ ebricas

6

1.0.1

Exerc´ıcio 1.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

6

1.0.2

Exerc´ıcio 1.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7

1.0.3

Exerc´ıcio 1.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7

1.0.4

Exerc´ıcio 1.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

8

1.0.5

Exerc´ıcio 1.7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

8

1.0.6

Exerc´ıcio 1.12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

8

1.0.7

Exerc´ıcio 1.17 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

9

1.0.8

Exerc´ıcio 1.20 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

9

1.0.9

Exerc´ıcio 1.21 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

9

2 Espa¸ cos Vetoriais

10

2.0.1

Exerc´ıcio 3.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

10

2.0.2

Exerc´ıcio 3.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

11

2.0.3

Exerc´ıcio 3.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

11

2.0.4

Exerc´ıcio 3.9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

13

2.0.5

Exerc´ıcio 3.11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

13

2.0.6

Exerc´ıcio 3.14 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

13

2.0.7

Exerc´ıcio 3.16 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

14

2.0.8

Exerc´ıcio 3.17 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

14

2.0.9

Exerc´ıcio 3.20 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

15

2.0.10 Exerc´ıcio 3.21 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

15

2.0.11 Exerc´ıcio 3.23 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

16

2.0.12 Exerc´ıcio 3.24 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

17

2.0.13 Exerc´ıcio 3.25 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

18

2.0.14 Exerc´ıcio 3.28 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

19

2.0.15 Exerc´ıcio 3.29 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

19

2.0.16 Exerc´ıcio 3.34 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

19

2.0.17 Exerc´ıcio 3.35 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

20

2.0.18 Exerc´ıcio 3.37 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

20

2.0.19 Exerc´ıcio 3.39 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

21

2

´ CONTEUDO

3

2.0.20 Exerc´ıcio 3.43 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

21

2.0.21 Exerc´ıcio 3.46 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

21

2.0.22 Exerc´ıcio 3.48 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

22

2.0.23 Exerc´ıcio 3.54 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

23

2.0.24 Exerc´ıcio 3.57 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

23

2.0.25 Exerc´ıcio 3.58 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

24

2.0.26 Exerc´ıcio 3.60 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.0.27 Exerc´ıcio 3.62 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

24 24

2.0.28 Exerc´ıcio 3.63 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

26

2.0.29 Exerc´ıcio 3.64 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

26

2.0.30 Exerc´ıcio 3.67 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

27

2.0.31 Exerc´ıcio 3.69 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

27

2.0.32 Exerc´ıcio 3.70 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

29

2.0.33 Exerc´ıcio 3.72 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

30

3 Transforma¸ c˜ oes Lineares

31

3.0.1

Exerc´ıcio 4.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

31

3.0.2

Exerc´ıcio 4.6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

31

3.0.3

Exerc´ıcio 4.9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

32

3.0.4

Exerc´ıcio 4.10 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

32

3.0.5

Exerc´ıcio 4.17 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

33

3.0.6

Exerc´ıcio 4.19 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

34

3.0.7

Exerc´ıcio 4.25 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

35

3.0.8

Exerc´ıcio 4.26 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

36

3.0.9

Exerc´ıcio 4.28 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

36

3.0.10 Exerc´ıcio 4.42 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.0.11 Exerc´ıcio 4.45 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

37 37

3.0.12 Exerc´ıcio 4.53 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

38

3.0.13 Exerc´ıcio 4.55 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

39

4 Produto Interno

40

4.0.1

Exerc´ıcio 5.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

40

4.0.2

Exerc´ıcio 5.7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

41

4.0.3

Exerc´ıcio 5.12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

41

4.0.4

Exerc´ıcio 5.14 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

42

4.0.5

Exerc´ıcio 5.18 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

42

4.0.6

Exerc´ıcio 5.29 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

43

4.0.7

Exerc´ıcio 5.31 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

43

4.0.8

Exerc´ıcio 5.41 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

43

4.0.9

Exerc´ıcio 5.53 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

44

4.0.10 Exerc´ıcio 5.55 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

44

4.0.11 Exerc´ıcio 5.57 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

45

´ CONTEUDO

4

4.0.12 Exerc´ıcio 5.58 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

46

4.0.13 Exerc´ıcio 5.59 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

46

4.0.14 Exerc´ıcio 5.60 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

46

4.0.15 Exerc´ıcio 5.62 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

48

4.0.16 Exerc´ıcio 5.64 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

48

4.0.17 Exerc´ıcio 5.66 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

49

4.0.18 Exerc´ıcio 5.67 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.0.19 Exerc´ıcio 5.71 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

49 50

5 Autovalores e Autovetores

51

5.0.1

Exerc´ıcio 6.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

51

5.0.2

Exerc´ıcio 6.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

51

5.0.3

Exerc´ıcio 6.6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

52

5.0.4

Exerc´ıcio 6.9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

52

5.0.5

Exerc´ıcio 6.11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

52

5.0.6

Exerc´ıcio 6.13 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

53

5.0.7

Exerc´ıcio 6.14 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

53

5.0.8

Exerc´ıcio 6.16 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

54

5.0.9

Exerc´ıcio 6.21 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

55

5.0.10 Exerc´ıcio 6.22 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

57

5.0.11 Exerc´ıcio 6.25 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

58

5.0.12 Exerc´ıcio 6.27 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

58

5.0.13 Exerc´ıcio 6.28 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

58

5.0.14 Exerc´ıcio 6.29 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

59

5.0.15 Exerc´ıcio 6.42 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

60

5.0.16 Exerc´ıcio 6.43 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

60

5.0.17 Exerc´ıcio 6.45 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

61

5.0.18 Exerc´ıcio 6.46 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.0.19 Exerc´ıcio 6.51 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

61 62

5.0.20 Exerc´ıcio 6.52 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

62

5.0.21 Exerc´ıcio 6.53 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

63

5.0.22 Exerc´ıcio 6.60 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

63

5.0.23 Exerc´ıcio 6.61 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

63

5.0.24 Exerc´ıcio 6.65 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

64

5.0.25 Exerc´ıcio 6.69 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

65

5.0.26 Exerc´ıcio 6.70 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

66

5.0.27 Exerc´ıcio 6.72 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

67

5.0.28 Exerc´ıcio 6.88 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

68

5.0.29 Exerc´ıcio 6.92 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

68

5.0.30 Exerc´ıcio 6.94 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

68

5.0.31 Exerc´ıcio 6.95 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

69

´ CONTEUDO

5

5.0.32 Exerc´ıcio 6.100 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

70

5.0.33 Exerc´ıcio 6.101 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

70

5.0.34 Exerc´ıcio 6.108 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

71

Cap´ıtulo 1

Estruturas Alg´ ebricas Sess˜ ao 1.1 1.0.1

Exerc´ıcio 1.1

(a) (E, ?) n˜ ao ´e grupo pois n˜ ao satisfaz a propriedade de que todo elemento x ∈ E ´e simetriz´ avel (al´em disso, note que satisfaz todas as outras). Previamente note que o elemento neutro da opera¸c˜ ao ? ´e e = 0. Agora tome, por exemplo, x = 1: ent˜ ao @x0 ∈ E tal que x ? x0 = e. De fato, pois por absurdo suponha que existe x0 ∈ E elemento sim´etrico de x = 1. Ent˜ao ter´ıamos que 0 = e = x ? x0 = x + x0

=⇒ x0 = −x = −1 6∈ E; Que ´e um absurdo pois assumimos previamente x0 ∈ E. Logo

1 ∈ E n˜ ao ´e simetriz´ avel e portanto E munido da opera¸c˜ao ? n˜ao tem uma estrutura de grupo (em particular n˜ ao tem estrutura de grupo abeliano). (b) (E, ?) ´e grupo abeliano e vou provar. i)Associatividade de ?: ∀x, y, z ∈ E vale que: (x ? y) ? z

= = = = =

(x + y − 1) + z − 1 x + (y − 1 + z − 1) x + (y + z − 1 − 1) x + (y + z − 1) − 1 x ? (y ? z)

pela assosiatividade da soma + de Z. pela comutatividade da soma + de Z. pela assosiatividade da soma + de Z. pela defini¸c˜ ao de ?.

ii)Existˆ encia do elemento neutro: Note que ∀x ∈ E vale que (x ? y = x ⇐⇒ x + y − 1 = x ⇐⇒ y = 1). e (y ? x = x ⇐⇒ y + x − 1 = x ⇐⇒ y = 1). Logo, como y = 1 ∈ E, provamos que x ? y = y ? x = x

∀x ∈ E, isto ´e, y ´e o elemento neutro de

E com rela¸c˜ ao ` a opera¸c˜ ao ? Aten¸ c˜ ao: as implica¸c˜ oes ⇐⇒ est˜ ao destacadas entre parˆenteses pois o que vale s˜ao somente as implica¸c˜ oes. N˜ ao podemos assumir (previamente) que x ? y = x para um certo y, mas podemos com certeza assumir que (x ? y = x ⇐⇒ x + y − 1 = x) para todo y. 6

´ CAP´ITULO 1. ESTRUTURAS ALGEBRICAS

7

iii)Existˆ encia dos sim´ etricos: Note que ∀x ∈ E vale que (x ? x0 = e ⇐⇒ x + x0 − 1 = 1 ⇐⇒ x0 = 2 − x), usando as propriedades da soma + de Z. E tamb´em (x0 ? x = e ⇐⇒ x0 + x − 1 = 1 ⇐⇒ x0 = 2 − x) Logo dado x ∈ E, x0 = 2 − x satisfaz a propriedade do elemento sim´etrico e como 2 − x sempre pertence a E, temos que x0 ∈ E e consequentemente todo elemento de E possui elemento sim´etrico em E. iv)Comutatividade de ?: ∀x, y ∈ E vale que: x ? y = x + y − 1 = y + x − 1 = y ? x, usando a comutatividade da soma + de Z. De i), ii), iii) e iv) est´ a provado que (E, ?) ´e um grupo abeliano. (c) (E, ?) ´e grupo abeliano (an´ alogo ` a letra (b)). (d) (E, ?) n˜ ao ´e grupo abeliano pois tomando x = 1 e y = 0 temos que 2 = x ? y 6= y ? x = 1. Logo n˜ ao satisfaz a propriedade da comutatividade. Pode-se verificar que tamb´em n˜ao satisfaz a associatividade nem a do elemento neutro (pois o elemento neutro deve ser u ´nico para todo x) e portanto tamb´em n˜ ao satisfaz a do elemento sim´etrico. (e) (E, ?) n˜ ao ´e grupo abeliano pois n˜ ao satisfaz a propriedade do elemento sim´etrico (o sim´etrico deve estar em E para que a propriedade seja satisfeita). Al´em disso, (E, ?) satisfaz todas as outras propriedades.

1.0.2

Exerc´ıcio 1.2

i)Associatividade: ∀x, y, z ∈ R vale que: ii)Existˆ encia do Elemento Neutro: ∀x ∈ R vale que: (x ? y = x ⇐⇒ x + y + 4 = x ⇐⇒ y = −4) e tamb´em (y ? x = x ⇐⇒ y + x + 4 = x ⇐⇒ y = −4). Como y = −4 ∈ R, tenho pela implica¸c˜ao que ele ´e o elementro neutro. iii)Existˆ encia dos sim´ etricos:∀x ∈ R vale que: (x ? x0 = e ⇐⇒ x + x0 + 4 = −4 ⇐⇒ x0 = −x − 8) e tamb´em (x0 ? x = e ⇐⇒ x0 + x + 4 = −4 ⇐⇒ x0 = −x − 8). Como −x − 8 sempre est´a em R tenho que este conjunto com esta opera¸c˜ ao satisfaz a propriedade da existˆencia dos sim´etricos. iv)Comutatividade: ∀x, y ∈ R vale que x ? y = x + y + 4 = y + x + 4 = y ? x, usando a comutatividade da soma + de R. Portanto, segue de i), ii), iii), iv) que (R, ?) possui estrutura de grupo comutativo. 

1.0.3

Exerc´ıcio 1.3

(R, ?) n˜ ao possui estrutura de grupo comutativo. Ele n˜ao satisfaz nenhuma das 4 propriedades. Associatividade: observando a forma de (x ? y) ? z e de x ? (y ? z) chegamos ao contra-exemplo x = y = 0 e z = 1; Para a comutatividade x = 0 e y = 1 serve de contra-exemplo; A existˆencia

´ CAP´ITULO 1. ESTRUTURAS ALGEBRICAS

8

do elemento neutro falha na ”neutralidade pela esquerda”, i.e., n˜ao existe um u ´nico e tal que e ? x = x ∀x ∈ R, pois se existisse tal elemento ter´ıamos e ? x = e + 2x − 4 = x =⇒ e = 4 − x que varia com x (logo n˜ ao ´e u ´nico, absurdo). (R, ?) tamb´em n˜ao pode satisfazer a propriedade da existˆ encia dos sim´ etricos pois esta depende da existˆencia de um elemento neutro (que j´a vimos que falha). Por fim a comutatividade tamb´em n˜ao ´e uma propriedade que (R, ?) possui, contra-exemplo: x = 0 e y = 1.

1.0.4

Exerc´ıcio 1.5

Neste caso, (R, ?) possui estrutura de grupo comutativo! De fato: Associatividade: ∀x, y, z ∈ R vale que (x?y)?z = (x+y−6)?z = (x+y−6)+z−6 = x+y+z−12, pela comutatividade e assosiatividade da soma + de R. Por outro lado, x?(y?z) = x?(y+z−6) = x + (y + z − 6) − 6 = x + y + z − 12 = (x ? y) ? z. Comutatividade: ∀x, y ∈ R vale que x ? y = x + y − 6 = y + x − 6 = y ? x, pela comutatividade da soma + de R. Existˆ encia do Elemento Neutro: ∀x ∈ R vale que (x ? y = x ⇐⇒ x + y − 6 = x ⇐⇒ y = 6). Ent˜ao x ? 6 = x

∀x ∈ R e n˜ao precisamos verificar a

”neutralidade pela esquerda”pois j´ a sabemos que ? ´e comutativa (e portanto 6 ? x = x ? 6 = x). Existˆ encia dos Sim´ etricos: ∀x ∈ R vale que: (x ? x0 = e ⇐⇒ x + x0 − 6 = 6 ⇐⇒ x0 = 12 − x), e tamb´em (x0 ? x = e ⇐⇒ x0 + x − 6 = 6 ⇐⇒ x0 = 12 − x). Logo, dado x ∈ R seu sim´etrico ´e x0 = 12 − x que est´ a em R. 

1.0.5

Exerc´ıcio 1.7

Note previamente que (Mn (R), ?) tem como elemento neutro a matriz identidade In . Como a opera¸c˜ ao ? ´e a multiplica¸c˜ ao usual de matrizes, ´e de se esperar que nem todo elemento de Mn (R) possua sim´etrico (pois nem toda matriz ´e invert´ıvel). Tome, por exemplo, a matriz nula 0. Suponha, por absurdo, que existe o sim´etrico A de 0. Neste caso, ter´ıamos In = A ? 0 = A · 0, mas isso implicaria det(In ) = det(A · 0) = det(A) · det(0) = det(A) · 0 = 0, absurdo pois det(In ) = 1. Portanto (Mn (R), ?) n˜ ao satisfaz a propriedade da existˆencia dos sim´etricos e portanto n˜ao ´e um grupo.

1.0.6

Exerc´ıcio 1.12 ? e

e e

a a

b b

c c

a

a

b

c

e

b

b

c

e

a

c

c

e

a

b

´ CAP´ITULO 1. ESTRUTURAS ALGEBRICAS

9

Sess˜ ao 1.7 1.0.7

Exerc´ıcio 1.17

Considere Re(z) = x e Im(z) = y. Temos ent˜ao: p

√ x2 + y 2 2 ≥ |x| + |y|

2(x2 + y 2 ) ≥ x2 + y 2 + 2|xy| x2 + y 2 ≥ 2|xy| x2 − 2|xy| + y 2 ≥ 0 (|x| − |y|)2 ≥ 0.

⇐⇒ ⇐⇒ ⇐⇒ ⇐⇒

Como vale que (|x| − |y|)2 ≥ 0

∀x, y, conseguimos provar o que quer´ıamos.

Aten¸ c˜ ao: essa demonstra¸c˜ ao s´ o ´e v´ alida pois as implica¸c˜oes s˜ao “ ⇐⇒ ”. As implica¸c˜oes =⇒ s˜ ao mais f´ aceis de verificar, por´em as

⇐=

devem ser verificadas a parte, e muitas vezes elas

n˜ ao ser˜ ao v´ alidas! Partir de uma afirma¸c˜ao A e chegar a uma afirma¸c˜ao verdadeira B, n˜ao quer dizer que A ´e necessariamente verdadeira!

1.0.8

Exerc´ıcio 1.20

Como i0 + i1 + i2 + i3 = 1 + i − 1 − i = i4 + i5 + i6 + i7 = · · · = 0, 100 X

ik = 0 + 0 + · · · + 0 + i100 = 1

k=0

Logo a = 1 e b = 0.

1.0.9

Exerc´ıcio 1.21 1+i 1+i z= = 2−i 2−i



2+i 2+i

 =

2 + i + 2i − 1 1 3 = + i 4+1 5 5

Cap´ıtulo 2

Espa¸ cos Vetoriais Sess˜ ao 3.1 2.0.1

Exerc´ıcio 3.2

A1) Comutatividade ∀A, B ∈ Mn (R) vale que: A + B = [aij + bij ] = [bij + aij ] = B + A, usando a comutatividade da soma + dos n´ umeros reais. A2) Associatividade: ∀A, B, C ∈ Mn (R) vale que: (A + B) + C = [(aij + bij ) + cij ] = [aij + (bij + cij )] = A + (B + C), usando a associatividade da soma + dos n´ umeros reais. A3) Elemento Neutro: Sei que para toda matriz A vale que: (A + N = A ⇐⇒ [aij + nij ] = [aij ] ⇐⇒ aij + nij = aij

∀i, j ⇐⇒ nij = 0 ∀i, j ⇐⇒ N = 0).

ao N ´e o elemento neutro do espa¸co vetorial (note que 0 ∈ Portanto se N ´e a matriz nula 0 ent˜ Mn (R)). A4) Elemento Sim´ etrico: dada matriz A ∈ Mn (R) vale que: (A + A0 = 0 ⇐⇒ [aij + a0ij ] = 0 ⇐⇒ aij + a0ij = 0 ∀i, j ⇐⇒ a0ij = −aij ⇐⇒ A0 = −A). Portanto dada A seu sim´etrico aditivo ´e −A. M1)Associatividade: ∀α, β ∈ R e ∀A ∈ Mn (R) vale que: (αβ) · A = αβ · [aij ] = [(αβ)aij ] = [α(βaij )] = α · [βaij ] = α · (βA), onde usamos a associatividade dos n´ umeros reais. M2) Distributividade para Adi¸ c˜ ao de Elementos: ∀α ∈ R e ∀A, B ∈ Mn (R) vale que: α · (A + B) = α · [aij + bij ] = [α(aij + bij )] = [αaij + αbij ] = [αaij ] + [αbij ] = α · A + α · B. M3) Distributividade para a Multiplica¸ c˜ ao por Escalar: ∀α, β ∈ R e ∀A ∈ Mn (R) vale que: (α + β) · A = (α + β) · [aij ] = [(α + β)aij ] = [αaij + βaij ] = [αaij ] + [βaij ] = α · A + β · A. M4) Elemento Identidade: ∀A ∈ Mn (R) vale que: (e · A = A ⇐⇒ e · [aij ] = [aij ]) ⇐⇒ [eaij ] = [aij ] ⇐⇒ eaij = aij

10

∀i, j)

CAP´ITULO 2. ESPAC ¸ OS VETORIAIS

Se supusermos e = 1 ent˜ ao temos eaij = aij

11

∀i, j e consequentemente (pela implica¸c˜oes ⇐= )

temos que e · A = A. Portanto, provamos que (Mn (R), +, ·) ´e um espa¸co vetorial. 

2.0.2

Exerc´ıcio 3.4

(V, ⊕, ) ´e um espa¸co vetorial e vou provar. De fato, as propriedades seguem: A1)Comutatividade: ∀x, y ∈ V vale que: x ⊕ y = xy = yx = y ⊕ x, onde usamos a comutatividade do produto dos reais. A2) Associatividade: ∀x, y, z ∈ V vale que: (x ⊕ y) ⊕ z

= = = = =

(xy) ⊕ z (xy)z x(yz) x(y ⊕ z) x ⊕ (y ⊕ z)

pela defini¸c˜ ao pela defini¸c˜ ao pela associatividade do produto dos pela defini¸c˜ ao pela defini¸c˜ ao

de ⊕ de ⊕ reais de ⊕ de ⊕

A3) Elemento Neutro: Sei que para todo x ∈ V vale que: (x ⊕ e = x ⇐⇒ xe = x ⇐⇒ e = 1) Portanto se e = 1 ent˜ ao e ´e o elemento neutro do espa¸co vetorial. Note que a segunda → s´o ´e v´ alida pois 0 6∈ V . A4) Elemento Sim´ etrico: dado x ∈ V vale que: (x ⊕ x0 = e ⇐⇒ xx0 = 1 ⇐⇒ x0 = x1 ) Portanto dado x ∈ V seu sim´etrico aditivo ´e x1 . Novamente a segunda → s´o ´e v´alida pois 0 6∈ V . M1)Associatividade: ∀α, β ∈ R e ∀x ∈ V vale que: (αβ) x = xαβ = (xβ )α = α (xβ ) = α (β x) M2)Distributividade para Adi¸ c˜ ao de Elementos: ∀α ∈ R e ∀x, y ∈ V vale que: α (x ⊕ y) = α (xy) = (xy)α = xα y α = (α x) ⊕ (α y) M3) Distributividade para a Multiplica¸ c˜ ao por Escalar: ∀α, β ∈ R e ∀x ∈ V vale que: (α + β) x = xα+β = xα xβ = (α x)(β x) = (α x) ⊕ (β x) M4) Elemento Identidade: ∀x ∈ V vale que: (n x = x ⇐⇒ xn = x) Note que a u ´ltima senten¸ca vale para todo x positivo se n = 1. Logo n = 1 ∈ V ´e o elementro identidade da a¸c˜ ao de multiplica¸c˜ ao por escalar. Portanto como s˜ ao v´ alidas as propriedades A1-A4,M1-M4 est´a provado que (V, ⊕, ) ´e um espa¸co vetorial.

2.0.3

Exerc´ıcio 3.5

A1) Comutatividade: ∀x, y ∈ Z vale que: A2) Associatividade: ∀x, y, z ∈ Z vale que:

CAP´ITULO 2. ESPAC ¸ OS VETORIAIS x+y

= = = = = =

(x + y) + z

(v1 , w1 ) + (v2 , w2 ) (v1 + v2 , w1 + w2 ) (v2 + v1 , w1 + w2 ) (v2 + v1 , w2 + w1 ) (v2 , w2 ) + (v1 , w1 ) y+x = = = = =

pela defini¸c˜ ao pois V pois W pela defini¸c˜ ao

12

da soma + em Z ´e espa¸co vetorial ´e espa¸co vetorial da soma + em Z

((v1 + v2 , w1 + w2 )) + (v3 , w3 ) ((v1 + v2 ) + v3 , (w1 + w2 ) + w3 ) (v1 + (v2 + v3 ), w1 + (w2 + w3 )) (v1 , w1 ) + (v2 + v3 , w2 + w3 ) x + (y + z)

pela defini¸c˜ ao da soma + em Z pois V e W s˜ ao espa¸cos vetoriais pela defini¸c˜ ao de + em Z pela defini¸c˜ ao de + em Z

A3) Elemento Neutro: Sei que para todo x ∈ Z vale que: x + e = x ⇐⇒ (v1 , w 1 ) + (e1 , e2 ) = (v1 , w1 ) ⇐⇒ (v1 + e1 , w1 + e2 ) = (v1 , w1 ) ⇐⇒  v + e = v e = elemento neutro da soma de V 1 1 1 1 ⇐⇒ w + e = w e = elemento neutro da soma de W 1 2 1 2 Sendo assim, ao tomarmos (e1 , e2 ) ∈ Z que ´e o par odenado formado pelo neutro de V e pelo neutro de W , temos o elemento neutro de Z. A4) Elemento Sim´ etrico: dado x = (v1 , w1 ) elemento gen´erico de Z, vale que: 0 0 0 0 0 x + x = (e1 , e2 ) ⇐⇒ (v 1 , w1 ) + (v1 , w1 ) = (e1 , e2 ) ⇐⇒ (v1 + v1 , w1 + w1 ) = (e1 , e2 ) ⇐⇒ v + v 0 = e v 0 ´e o sim´etrico de v em V 1 1 1 1 1 ⇐⇒ w + w 0 = e w0 ´e o sim´etrico de w em W 1 2 1 1 1

Ent˜ ao, dado x = (v1 , w1 ) seu sim´etrico em Z ´e (v10 , w10 ) como descrito acima. OBS.: n˜ ao ´e necess´ ario mostrar v10 como e1 − v1 , pois A4 diz somente sobre a existˆencia dos sim´etricos, fato que ´e garantido por V, W serem espa¸cos vetoriais. M1) Associatividade: ∀α, β ∈ R e ∀x ∈ Z vale que: (αβ)x = (αβ)(v1 , w1 ) = ((αβ)v1 , (αβ)w1 ) = (α(βv1 ), α(βw1 )), onde usamos que V, W possuem multiplica¸c˜ ao por escalar associativa. M2) Distributividade para Adi¸ c˜ ao de Elementos: ∀α ∈ R e ∀x, y ∈ Z vale que: α(x + y) = α(v1 + v2 , w1 + w2 ) = (α(v1 + v2 ), α(w1 + w2 )) = (αv1 + αv2 , αw1 + αw2 ) = (αv1 , αw1 ) + (αv2 , αw2 ) = α(v1 , w1 ) + α(v2 , w2 ) = αx + αy, onde usamos o fato de que V e W s˜ao espa¸cos vetoriais. M3) Distributividade para a Multiplica¸ c˜ ao por Escalar: ∀α, β ∈ R e ∀x ∈ Z vale que: (α + β)x = (α + β)(v1 , w1 ) = ((α + β)v1 , (α + β)w1 ) = (αv1 + βv1 , αw1 + βw1 ) = (αv1 , αw1 ) + (βv1 , βw1 ) = αx + βx, onde usamos novamente o fato de que V e W s˜ao ambos espa¸cos vetoriais. M4) Elemento Identidade: ∀x ∈ Z vale  que: nv = v 1 1 nx = x ⇐⇒ (nv1 , nw1 ) = (v1 , w1 ) ⇐⇒ nw = w 1 1

CAP´ITULO 2. ESPAC ¸ OS VETORIAIS

13

Agora como ambos V e W s˜ ao espa¸cos vetoriais sobre o corpo F, temos que n = 1F satisfaz as duas equa¸c˜ oes e, consequentemente, ´e tamb´em o elemento identidade da multiplica¸c˜ao por escalar do espa¸co Z.

Sess˜ ao 3.2 2.0.4

Exerc´ıcio 3.9

Preciso provar que i)H 6= ∅; ii) H ´e fechado pela soma e iii) H ´e fechado pela multiplica¸c˜ao por escalar. i): Note que (0, · · · , 0) ∈ H, pois c1 · 0 + · · · + cn · 0 = 0 =⇒ (0, · · · , 0) ∈ H =⇒ H 6= ∅. ii): Dados (x1 , · · · , xn ), (y1 , · · · , yn ) ∈ H quero mostrar que (x1 , · · · , xn ) + (y1 , · · · , yn ) ∈ H. De fato, (x1 , · · · , xn )+(y1 , · · · , yn ) = (x1 +y1 , · · · , xn +yn ) e vale que c1 ·(x1 +y1 )+· · ·+cn ·(xn + yn ) = (c1 ·x1 +· · ·+cn ·xn )+(c1 ·y1 +· · ·+cn ·yn ) = 0+0 = 0 =⇒ (x1 , · · · , xn )+(y1 , · · · , yn ) ∈ H. iii): Analogamente, dado (x1 , · · · , xn ) ∈ H e dado λ ∈ R quero mostrar que λ · (x1 , · · · , xn ) ∈ H. De fato λ · (x1 , · · · , xn ) = (λ · x1 , · · · , λ · xn ) e vale que c1 · (λx1 ) + · · · + cn · (λxn ) = λ · (c1 x1 + · · · + cn xn ) = λ · 0 = 0 =⇒ λ · (x1 , · · · , xn ) ∈ H. Portanto, de i), ii) e iii), est´ a provado.  OBS.: Note que ´e essencial provarmos que H 6= ∅, pois o conjunto vazio satisfaz ii) e iii) mas n˜ ao ´e um espa¸co vetorial!

2.0.5

Exerc´ıcio 3.11

i) S 6= ∅: Note que f = 0C([0,1]) ∈ S, pois

R1

0 dx = 0. Logo 0C([0,1]) ∈ S e S 6= ∅. R1 R1 ii) S ´ e fechado pela soma: Dados f, g ∈ S, temos que 0 (f (x) + g(x))dx = 0 f (x)dx + R1 g(x)dx = 0 + 0 = 0, pois ambas pertencem a S. 0 R1 iii) S ´ e fechado pela multiplica¸ c˜ ao por escalar: Dada f ∈ S e dado λ ∈ R, 0 λf (x)dx = R1 λ 0 f (x)dx = λ · 0 = 0, pois f ∈ S. 0

Portanto, de i), ii), e iii) est´ a provado que S ´e subespa¸co vetorial de C([0, 1]).

2.0.6

Exerc´ıcio 3.14 t

Note que a matriz nula 0 satisfaz 0 = 0 = −0, logo 0 ∈ U, W e portanto U, W 6= ∅. i)U ´ e fechado pela soma: ∀A, B ∈ U vale que (A + B)t = At + B t = (A + B), pois A e B est˜ao em U . Portanto A + B ∈ U . ii)U ´ e fechado pela multiplica¸ c˜ ao por escalar: Dado A ∈ U e λ ∈ R temos que (λA)t = λAt = λA, portanto λA ∈ U . E segue que U ´e um subespa¸co vetorial de Mn (R). An´ alogo para W .

CAP´ITULO 2. ESPAC ¸ OS VETORIAIS

2.0.7

14

Exerc´ıcio 3.16

S n˜ ao ´e um subespa¸co vetorial de R2 pois n˜ao possui elementro neutro da adi¸c˜ao. De fato, suponha por absurdo que ∃e ∈ S tal que v + e = e + v = v ∀v ∈ S. Como v ´e um elemento gen´erico de S, pode ser escrito da seguinte forma: v = α(1, 2)+(3, 2) = (α, 2α)+(3, 2) = (α + 3, 2α + 2). Logo temos que  v + e = (α + 3, 2α + 2) + (e1 , e2 ) = (α + 3 + e1 , 2α + 2 + e2 ) = v, e α + 3 + e = α + 3 1 isto acontece se e somente se . O que nos leva a e1 = 0 = e2 , e portanto 2α + 2 + e = 2α + 2 2 e = (0, 0). Absurdo, pois supomos e ∈ S mas (0, 0) 6∈ S. OBS.: Note que sempre vale que se S ⊆ V ´e um subespa¸co vetorial de V e que se e ∈ V ´e o elemento neutro de V , ent˜ ao necessariamente o elemento neutro de S tamb´em ´e e. Pela unicidade deste elemento em V pode-se provar que se e ∈ V n˜ao est´a em S ent˜ao S n˜ao pode ser um subespa¸co vetorial.

Sess˜ ao 3.3 2.0.8

Exerc´ıcio 3.17 "

x

y

z

t

#

matriz gen´erica 2 × 2. Ent˜ao A ∈ U ⇐⇒ x − y − z = 0 ⇐⇒ x = y + z, logo " # y+z y todos elementos de U s˜ ao da forma A = . Ent˜ao temos 3 graus de liberdade para z t formar o subespa¸co U (isso significa exatamente que a dimens˜ao de U ´e 3). Agora, para achar o

Seja A =

sistema U " de geradores # de " y+z y A= =y· z t |

basta #fatorar Isto ´e: " A pelas # vari´a"veis restantes. # 1 1 1 0 0 0 +z · +t · 0 0 1 0 0 1 {z } | {z } | {z } A1

A2

A3

Logo todo elemento de U ´e combina¸c˜ ao linear de A1 , A2 , A3 e portanto S = {A1 , A2 , A3 } ´e um sistema de geradores para o subespa¸co vetorial U . OBS.: Para provar a igualdade de conjuntos U = [S] temos que provar que todo elemento de U est´ a em [S] "e que todo elemento de [S] est´a em U . E afirmar que “todos elementos de U s˜ ao da # y+z y forma A = ” ´e dizer apenas que todo elemento de U est´a em [S]. Mas a rec´ıproca z t dessa afirma¸c˜ ao (que completa o que queremos provar) est´a implicitamente" provada pois # sabey+z y mos que A ∈ U ⇐⇒ x = y + z, logo se uma matriz ´e da forma A = ent˜ao z t automaticamente essa matriz est´ a em U (usando a implica¸c˜ao ⇐= ), o que prova que todo elemento de [S] est´ a em U .

CAP´ITULO 2. ESPAC ¸ OS VETORIAIS

2.0.9

15

Exerc´ıcio 3.20 

1





6



    Aqui usamos o abuso de nota¸c˜ ao de que u =  2  e que v = −3. −2 −8 Denote o espa¸co gerado pelas colunas da matriz A por U = [A1 , A2 ]     2 4     onde A1 = 1 e A2 = 5. 2

0 Agora, sabemos que:

u ∈ [A1 , A2 ] ⇐⇒ Existem escalares c1 , c2 tais que u= c1 A1 + c2 A2           4c + 2c2 = 1  4c1 + 2c2 2c2 4c1 1  1         ⇐⇒  2  =  c1  + 5c2  =  c1 + 5c2  ⇐⇒ c1 + 5c2 = 2    2c2 2c = −8 2c2 0 −8 2 Ent˜ ao para verificar se u est´ a no subespa¸co, basta verificar se o sistema de equa¸c˜oes possui solu¸c˜ao para c1 e c2 . E ao tentar resolver o sistema notamos que ele ´e um sistema imposs´ıvel, portanto u 6∈ U . Analogamente para v sabemos que     6 4c1 + 2c2     v ∈ [A1 , A2 ] ⇐⇒ −3 =  c1 + 5c2  ⇐⇒ −2

2c2

   4c + 2c2 = 6   1 c1 + 5c2 = −3    2c = −2 2

E como c1 = 2 e c2 = −1 resolve o sistema, conclu´ımos que v ∈ U .

2.0.10

Exerc´ıcio 3.21

Tenho que mostrar que W = [A1 , A2 , A3 ]. ! x y Considere uma matriz gen´erica A = . Sabemos que: z t    ! ! x=x   x y x z t A ∈ W ⇐⇒ A = A ⇐⇒ = ⇐⇒ y = z  z t y t   t = t ! ! ! x y 1 0 0 0 0 =x +t +y Portanto A ∈ W ⇐⇒ A = y t 0 0 0 1 1 ⇐⇒ A = xA1 + tA2 + yA3 ⇐⇒ A ∈ [A1 , A2 , A3 ] E consequentemente W = [A1 , A2 , A3 ]. 

! 1 0

CAP´ITULO 2. ESPAC ¸ OS VETORIAIS

16

Sess˜ ao 3.4 2.0.11

Exerc´ıcio 3.23

Para facilitar nosso trabalho, vamos determinar separadamente um sistema de geradores para U e um sistema de geradores para W . Geradores de U : Dado v = (x, y, z, t) elemento gen´erico de R4 , ent˜ao v ∈ U ⇐⇒ x + y = 0 e z − t = 0 ⇐⇒ x = −y e z = t ⇐⇒ v = (−y, y, t, t) Logo v = y(−1, 1, 0, 0) + t(0, 0, 1, 1) e U = [(−1, 1, 0, 0), (0, 0, 1, 1)]. | {z } | {z } u1

u2

Geradores de W : Dado v = (x, y, z, t) elemento gen´erico de R4 , ent˜ao v ∈ W ⇐⇒ x − y − z + t = 0 ⇐⇒ x = y + z − t ⇐⇒ v = (y + z − t, y, z, t) Logo v = y(1, 1, 0, 0) + z(1, 0, 1, 0) + t(−1, 0, 0, 1) e W = [(1, 1, 0, 0), (1, 0, 1, 0), (−1, 0, 0, 1)]. | {z } | {z } | {z } w1

w2

w3

4

(a) Dado v = (x, y, z, t) elemento gen´erico de R , ent˜ao v ∈ U ∩ W ⇐⇒ v ∈ U e v ∈ W . Portanto existem escalares a1 , a2 , b1 , b2 , b3 tais que: v = a1 (−1, 1, 0, 0) + a2 (0, 0, 1, 1), pois v ∈ U ; e v = b1 (1, 1, 0, 0) + b2 (1, 0, 1, 0) + b3 (−1, 0, 0, 1), pois v ∈ W . Da´ı, a1 u1 + a2 u2 = b1 w1 + b2 w2 + b3 w3 , ou seja: (−a1 , a1 , a2 , a2 ) = (b1 + b2 − b3 , b1 , b2 , b3 )    −a1 = b1 + b2 − b3     a = b 1 1 Logo temos o sistema   a2 = b2     a = b 2 3 escolhido resolvˆe-lo para b1 , b2 , b3 ).

, e vamos resolvˆe-lo para a1 , a2 (poder´ıamos ter

Note que a1 = 0 e a2 = b2 ´e uma solu¸c˜ao para o sistema pois satisfaz todas as equa¸c˜oes (se escolhermos as vari´ aves ai , as constanstes bi podem ser qualquer valor fixo). Substituindo os valores de a1 , a2 que resolvem o sistema (i.e, os valores de a1 , a2 para os quais v al´em de estar em U tamb´em est´ a em W ), obtemos: v = b2 (0, 0, 1, 1) E consequentemente U ∩ W = [(0, 0, 1, 1)]. (b) Dado v = (x, y, z, t) elemento gen´erico de R4 , ent˜ao v ∈ U + W ⇐⇒ v = u + w para algum u ∈ U e w ∈ W.

CAP´ITULO 2. ESPAC ¸ OS VETORIAIS

17

Logo, v ∈ U + W se (e somente se) existem escalares a1 , a2 , b1 , b2 , b3 tais que v = a1 u1 + a2 u2 + b1 w1 + b2 w2 + b3 w3 | {z } | {z } u

w

E isso ´e a mesma coisa que dizer U + W = [u1 , u2 , w1 , w2 , w3 ]. (c) U + W ´e soma direta se U ∩ W = {0R4 }. Mas como vimos na letra (a), U + W = [(0, 0, 1, 1)] 6= {0R4 }. Portanto n˜ ao ´e uma soma direta.

2.0.12

Exerc´ıcio 3.24

R3 = U ⊕ W se: i)U ∩ W = {0R3 } e ii) R3 = U + W . i) Como U = [(1, 0, 0)] e W = [(1, 1, 0), (0, 1, 1)], ent˜ao v ∈ U ∩ W

⇐⇒ existem escalares

a1 , b1 , b2 tais que v = a1 (1, 0, 0) e v = b1 (1, 1, 0) + b2 (0, 1, 1) Logo a 1 (1, 0, 0) = b1 (1, 1, 0) + b2 (0, 1, 1) =⇒ (a1 , 0, 0) = (b1 , b1 + b2 , b2 ).   a = b1   1 ´nica solu¸c˜ao a1 = 0. Ent˜ ao 0 = b1 + b2 , e resolvendo para a1 obtemos a u    0 = b 2

Consequentemente v = 0(1, 0, 0) = (0, 0, 0) e U ∩ W = {(0, 0, 0)}. OBS.: obtemos que (0, 0, 0) ∈ U ∩ W pois a1 = 0 ´e solu¸c˜ao do sistema e obtemos que na verdade esse ´e o u ´nico elemento do subespa¸co pois a solu¸c˜ao do sistema ´e u ´nica. ii) Por constru¸c˜ ao equivalente ao exerc´ıcio 3.23b temos que U + W = [(1, 0, 0), (1, 1, 0), (0, 1, 1)]. Agora, para provar que R3 = U + W devemos provar que U + W ⊆ R3 e que R3 ⊆ U + W . A primeira inclus˜ ao se deve ao fato de que R3 ´e um espa¸co vetorial e, portanto, combina¸c˜oes lineares de seus elementos ainda pertencem ao espa¸co vetorial. Para mostrar que a segunda inclus˜ ao ´e v´alida devemos mostrar que todo elemento de R3 est´a em U + W . Isto ´e, dado v = (x, y, z) ∈ R3 preciso encontrar escalares a1 , b1 , b2 que satisfazem v = a1 u1 + b1 w1 + b2 w2 .

  x = a1 + b1   Ent˜ ao temos, (x, y, z) = (a1 + b1 , b1 + b2 , b2 ) ⇐⇒ y = b1 + b2    z = b 2

E preciso resolver o sistema para as vari´aveis a1 , b1 , b2 , pois caso eu mostre que existe uma solu¸c˜ao para essas vari´ aveis ent˜ ao existem escalares  satisfazendo o que foi pedido.   b2 = z   Resolvendo o sistema, obtemos a solu¸c˜ ao b1 = y − z    a = x − y + z 1

E portanto mostramos que (x, y, z) = (x − y + z)(1, 0, 0) + (y − z)(1, 1, 0) + z(0, 1, 1), logo v = (x, y, z) est´ a em U + W . 

CAP´ITULO 2. ESPAC ¸ OS VETORIAIS

2.0.13

18

Exerc´ıcio 3.25

Preciso mostrar que: i) U ∩ W = {0Mn (R) } e ii) U + W = Mn (R). i) Dada matriz gen´erica A = [aij ], ent˜ ao A ∈ U ∩ W ⇐⇒ A ∈ U e A ∈ W . E temos que: A ∈ U ⇐⇒ At = A ⇐⇒ aji = aij

∀i, j; e

t

A ∈ W ⇐⇒ A = −A ⇐⇒ aji = −aij

∀i, j.

 a = a ij ji Portanto se A = [aij ] est´ a na interse¸c˜ ao devemos ter a = −a ij ji Mas isso s´ o acontece se aij = 0 ∀i, j, e portanto A = 0Mn (R) . Ent˜ ao conclu´ımos que U ∩ W = {0Mn (R) }. ii) Dada matriz gen´erica A = [aij ], tenho que mostrar que existe uma matriz sim´etrica e uma matriz antissim´etrica tais que A ´e a soma das duas. Agora definimos (a partir da matriz dada A) duas matrizes B e C da seguinte maneira: B = [bij ], com bij :=

aij + aji 2

∀i, j

C = [cij ], com cij :=

aij − aji 2

∀i, j

Note que bij = bji e cij = −cji A=B+C

∀i, j; e al´em disso aij = bij + cij , o que implica que



OBS.: Na parte ii) poder´ıamos ter tentado exibir os geradores de U e de W e prosseguido de forma similar ` a parte ii) do exerc´ıcio 3.24. Por´em, por n˜ao sabermos o valor de n, fica dif´ıcil exibir “concretamente” os geradores de U e W . Segue  outra solu¸c˜ao poss´ıvel nesse sentido: 1, se m = i e n = j Definimos uma matriz Eij = [emn ] com emn := . 0, caso contr´ario Agora considere a matriz Bij := Eij + Eji . Observe que Bij ´e sim´etrica ∀i, j e que, al´em disso, SU = {Bij |i ≤ j} ´e um conjunto de geradores de U . Analogamente definimos Cij := Eij − Eji e obtemos que SW = {Cij |i < j} ´e um conjunto de geradores de W . Logo U + W = [SU ∪ SW ] e podemos (exaustivamente) terminar a prova por esse caminho observando que Eij =

1 2

· (Bij + Cij ) e portanto A pode ser (exaustivamente) escrita como combina¸c˜ao

linear de elementos de SU ∪ SW .

CAP´ITULO 2. ESPAC ¸ OS VETORIAIS

2.0.14

19

Exerc´ıcio 3.28

U ∪ W n˜ ao ´e um subespa¸co vetorial de R2 e vou provar. De fato, ao considerarmos u = (1, 3) ∈ U e w = (1, −2) ∈ W temos que u+w 6∈ U ∪W (desenhe!), pois u + w = (2, 1) e 1 6= 3 · 2 (portanto n˜ao est´a em U ) e tamb´em 1 6= −2 · 2 (portanto n˜ao est´a em W ). Logo u + w 6∈ U ∪ W , e portanto U ∪ W n˜ao ´e fechado pela soma, logo n˜ao ´e subespa¸co vetorial.  OBS.: Note que U ∪ W ´e fechado pela multiplica¸c˜ao por escalar.

2.0.15

Exerc´ıcio 3.29

O sistema possui como conjunto solu¸c˜ ao S = {(x, y, z) ∈ R3 |x = − 27 z e y = 32 z}. Note que: i) S 6= ∅ pois (0, 0, 0) ∈ S ii) Dados  v1 = (x1 , y1 , z1 ) e v2 = (x2 , y2 , z2 ) elementos de S, v1 + v2 = (x1 + x2 , y1 + y2 , z1 + z2 ) ´e x + x = −7/2z − 7/2z = − 7 (z + z ) 1 2 1 2 2 2 1 tal que . y + y = 3/2z + 3/2z = 3 (z + z ) 1 2 1 2 2 2 1 Logo v1 + v2 ∈ S.  αx = α(−7/2z ) = − 7 (αz ) 1 1 1 2 . iii) Dados α ∈ R e v1 ∈ S, αv1 = (αx1 , αy1 , αz1 ) satisfaz αy = α(3/2z ) = 3 (αz ) 1

1

2

1

Logo αv1 ∈ S. De i), ii) e iii) provamos que S ´e um subespa¸co vetorial. Agora vamos determinar um sistema de geradores para S ∩ U . Note primeiro que S = [(−7/2, 3/2, 1)] = [(−7, 3, 2)] e que U = [(1, 1, 0), (−1, 0, 1)]. Agora temos que v ∈ S ∩ U ⇐⇒ v ∈ S e v ∈ U . Isso acontece  se (e somente se) ∃s1 , u1 , u2 ∈ R tais que s1 (−7, 3, 2) = u1 (1, 1, 0) + u2 (−1, 0, 1).   −7s1 = u1 − u2   ⇐⇒ s1 = 0. Ent˜ ao temos 3s1 = u1    2s = u 1

2

E consequentemente S ∩ U = {(0, 0, 0)}.

Sess˜ ao 3.5 2.0.16

Exerc´ıcio 3.34

(a) O conjunto n˜ ao ´e L.I. pois x2 + 2x + 1 = 1 · (x2 ) + 2 · (x − 1) + 3 · (1) (b) O conjunto n˜ ao ´e L.I. pois 2x3 − x2 = 2 · (x3 ) − 1 · (x2 − x) − 1 · (x)

CAP´ITULO 2. ESPAC ¸ OS VETORIAIS

2.0.17

20

Exerc´ıcio 3.35

Suponha que existem escalares c1 , c2 , c3 , c4 tais que c1 (1, 0, 0, −1) + c2 (0, 1, 0, 1) + c3 (0, 0, 1, 1) + c4 (1, 0, 0, 1) = 0R4 . Ent˜ aotemos que (c1 + c4 , c2 , c3 , −c1 + c2 + c3 + c4 ) = (0, 0, 0, 0).   c1 + c4 = 0     c = 0 2 Logo   c3 = 0     −c + c + c + c = 0 1 2 3 4 que possui somente a solu¸c˜ ao trivial c1 = c2 = c3 = c4 = 0. Portanto, provamos que o conjunto {(1, 0, 0, −1), (0, 1, 0, 1), (0, 0, 1, 1), (1, 0, 0, 1)} ´e L.I. 

2.0.18

Exerc´ıcio 3.37

Primeiro vamos mostrar que S = {f, g} ´e L.D. em i)C([−1, 0]) e em ii)C([0, 1]). i): Suponha que existem escalares c1 , c2 tais que c1 f + c2 g = 0C([−1,0]) Como temos uma igualdade de fun¸c˜ oes isso implica que o lado esquerdo se anula em todo x ∈ [−1, 0]. E observe que neste intervalo g(x) = |x| = −x e portanto: 0 = c1 f (x) + c2 g(x) = c1 x − c2 x = (c1 − c2 )x ∀x ∈ [−1, 0] E como temos uma igualdade de polinˆ omio, isso implica que c1 − c2 = 0 =⇒ c1 = c2 . Portanto n˜ ao conseguimos concluir que c1 = c2 = 0. Por exemplo, c1 = c2 = 1 s˜ao tais que c1 f + c2 g = 0C([−1,0]) e logo S = {f, g} ´e L.D. neste espa¸co vetorial. ii)Analogamente conclu´ımos que c1 = 1 e c2 = −1 s˜ao tais que c1 f + c2 g = 0C([0,1]) O que implica que S = {f, g} ´e L.D. em C([0, 1]). Agora, provemos que S = {f, g} ´e L.I. em C([−1, 1]). Suponha que existem escalares c1 , c2 tais que c1 f + c2 g = 0C([−1,1]) Issso implica que 0 = c1 f (x) + c2 g(x) = c1 x + c2 |x|

∀x ∈ [−1, 1].

Agora, se restringirmos a igualdade para o intervalo [−1, 0] temos que 0 = c1 x + c2 |x| = c1 x − c2 x = (c1 − c2 )x =⇒ c1 − c2 = 0 =⇒ c1 = c2

(F)

CAP´ITULO 2. ESPAC ¸ OS VETORIAIS

21

E se restringirmos a igualdade para o intervalo [0, 1] temos 0 = c1 x + c2 |x| = c1 x + c2 x = (c1 + c2 )x =⇒ c1 + c2 = 0 =⇒ c1 = −c2

(♥)

De ♥ e F conclu´ımos que c1 = c2 = 0, e consequentemente S = {f, g} ´e L.I. em C([−1, 1]).

2.0.19

Exerc´ıcio 3.39

Se S = {v1 , v2 } ´e L.D. ent˜ ao existem escalares n˜ao todos nulos c1 , c2 tais que c1 v1 + c2 v2 = 0. Como pelo menos um dos escalares ´e n˜ ao nulo, digamos c1 6= 0, temos que v1 =

−c2 c 1 v2 .

Sess˜ ao 3.6 2.0.20

Exerc´ıcio 3.43

Primeiro acharemos os geradores de W .  a11  Uma matriz gen´erica de W ⊆ M3 (R) ´e da forma A = a12

a12

a13

a22

 a23 . Logo temos:

a13

a23

a33

 1  A = a11 0 0 |



 0   0 +a12 1

0

0

0

0 0 {z }

A1

       1 0 0 0 0 0 0 0 0 0          0 0 +a13 0 0 0 +a22 0 1 0 +a23 0 0 1 +a33 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 1 | {z } | {z } | {z } | {z } | {z } 1

0







A2

0

0

A3

A4

A5

E consequentemente S = {A1 , A2 , A3 , A4 , A5 , A6 } ´e um conjunto de geradores para W . Agora, para saber se S ´e uma base de W precisamos apenas verificar se S ´e L.I., o que de fato acontece pois: Supondo escalares c1 , c2 , c3 , c4 , c5 , c6 tais que c1 A1 + c2 A2 + c3 A3 + c4 A4 + c5 A5 + c6 A6 = 0 chegamos num sistema de equa¸c˜ oes com u ´nica solu¸c˜ao c1 = c2 = c3 = c4 = c5 = c6 = 0. E portanto S ´e L.I. E como provamos que S ´e um conjunto de geradores L.I., encontramos a base S para o subespa¸co W.

2.0.21

Exerc´ıcio 3.46 "

x

y

z

t

#

matriz gen´erica 2 × 2. Ent˜ao A ∈ U ⇐⇒ x − y − z = 0 ⇐⇒ x = y + z, logo " # y+z y todos elementos de U s˜ ao da forma A = . Agora, para achar o sistema de geradores z t de U basta fatorar A pelas vari´ aveis restantes. Isto ´e: Seja A =

A6

CAP´ITULO 2. ESPAC ¸ OS VETORIAIS " A=

y+z

y

z

t

#

" =y· |

1

1

0

0 {z

A1

#

" +z ·

}

22

1

0

1

0

|

{z

A2

#

" +t ·

}

0

0

0 |

#

1 {z

}

A3

Logo todo elemento de U ´e combina¸c˜ ao linear de A1 , A2 , A3 e portanto U = [A1 , A2 , A3 ]. E tamb´em podemos verificar que S = {A1 , A2 , A3 } ´e um  conjunto L.I., pois:  c1 + c2 = 0    " # " # " #  c = 0 1 1 1 0 0 0 1 c1 · +c2 · +c3 · = 0M2 (R) =⇒ =⇒ c1 = c2 = c3 = 0.  0 0 1 0 0 1  c2 = 0     c = 0 3

Portanto, como S gera U e ´e L.I., temos que S ´e uma base de U .

2.0.22

Exerc´ıcio 3.48

Encontremos primeiro os geradores de U . omio gen´erico de P2 (R). Ent˜ao p(x) ∈ U Seja p(x) = a + bx + cx2 polinˆ ⇐⇒ a − 2c = 0 ⇐⇒ a = 2c. Ent˜ ao a forma gen´erica de um elemento de U ´e p(x) = 2c + bx + cx2 = c(2 + x2 ) + b(x) e, consequentemente, temos U = [2 + x2 , x]. Agora, como W = [1 − x, x − x2 ], podemos concluir que S = {2 + x2 , x, 1 − x, x − x2 } ´e um conjunto de geradores de U + W . Mas S n˜ao ´e uma base de U + W pois, como veremos a seguir, ´e um conjunto L.D.. De fato, supondo escalares k1 , k2 , k3 , k4 tais que k1 (2 + x2 ) + k2 (x) + k3 (1 − x) + k4 (x − x2 ) = 0P2 (R) ,

obtemos (2k1 + k3 ) + (k2 − k3 + k4 )x + (k1 − k4 )x2 = 0P2 (R)

   2k + k3 = 0   1 e portanto k2 − k3 + k4 = 0    k − k = 0 1

(?).

4

Que possui como solu¸c˜ ao geral k1 = k4 , k2 = −3k4 e k3 = −2k4 . Isso significa que ao tomarmos k4 = 1 obtemos: (2 + x2 ) − 3x − 2(1 − x) + (x − x2 ) = 0 =⇒ (x − x2 ) = (−1) · (2 + x2 ) + 3 · x + 2 · (1 − x) Logo x − x2 pode ser expresso como combina¸c˜ao linear dos outros 3 elementos. E ent˜ ao S 0 = {2 + x2 , x, 1 − x} tamb´em gera U + W . Agora, verificamos que S’ ´e L.I.. Supondo escalares k1 , k2 , k3 tais que 0 = k1 (2+x2 )+k2 x+k3 (1−x) = (2k1 +k3 )+(k2 −k3 )x+k1 x2 , obtemos apenas a solu¸c˜ ao trivial k1 = k2 = k3 = 0. Portanto S 0 ´e uma base de U + W . OBS.: O fato do sistema (?) ter solu¸c˜ ao geral com apenas 1 grau de liberdade est´a intimamente ligado com o fato do conjunto S ter apenas 1 elemento que ´e combina¸c˜ao linear dos outros. Isto ´e, podemos escolher qual dos elementos na equa¸c˜ao vamos expressar como combina¸c˜ao linear dos

CAP´ITULO 2. ESPAC ¸ OS VETORIAIS

23

outros, por´em ao retir´ a-lo de S n˜ ao encontraremos outro elemento que seja combina¸c˜ao linear dos restantes.

2.0.23

Exerc´ıcio 3.54

Dizemos que um conjunto ϕ de condi¸co˜es s˜ao condi¸c˜oes necess´arias e suficientes para que dim(U ∩ W ) = dim(W ) quando temos “ϕ ⇐⇒ dim(U ∩ W ) = dim(W )”. Agora, sabemos que se W ⊆ U ent˜ ao temos U ∩ W = W e portanto conclu´ımos que W ⊆ U =⇒ dim(U ∩ W ) = dim(W ). Caso a volta ⇐= seja v´ alida, encontramos o que quer´ıamos. E de fato a rec´ıproca ´e v´ alida. Supondo dim(U ∩ W ) = dim(W ) vamos provar W ⊆ U . Por absurdo, se fosse W 6⊆ U ent˜ ao existiria um elemento n˜ao-nulo w ∈ W tal que w 6∈ U . Por´em isso implicaria que para todo escalar λ 6= 0, λw 6∈ U (pois U ´e espa¸co vetorial). Com isso ter´ıamos que dim(U ∩ W ) < dim(W ), absurdo! Logo dim(U ∩ W ) = dim(W ) =⇒ W ⊆ U . 

2.0.24

Exerc´ıcio 3.57

Seja S = {p1 (x), p2 (x), p3 (x), p4 (x)}. Precisamos mostrar que i) P3 (R) = [S] e que ii) S ´e L.I.. i) Seja p(x) = a + bx + cx2 + dx3 polinˆomio gen´erico de P3 (R). Preciso mostrar que existem escalares k1 , k2 , k3 , k4 tais que p(x) = k1 p1 (x) + k2 p2 (x)k3 p3 (x) + k4 p4 (x). E isso acontece se, e somente se: a + bx + cx2 + dx3 = (k1 + k2 + k3 + k4 ) + (k2 − k4 )x + (−k3 − k4 )x2 − k4 x3

Que ´e equivalente a dizer que

   k1 + k2 + k3 + k4 = a     k − k = b 2

4

.

  −k3 − k4 = c     −k = d 4   k1 = a − b + c + d     k = b − d 2 Note que ´e uma solu¸c˜ao do sistema e portanto temos os coeficientes da k = d − c  3     k = −d 4 combina¸c˜ ao linear desejada. Logo P3 (R) = [S]. ii) Supondo escalares k1 , k2 , k3 , k4 tais que k1 p1 (x) +k2 p2 (x)k3 p3 (x) + k4 p4 (x) = 0P3 (R) e igua k1 + k2 + k3 + k4 = 0     k − k = 0 2 4 lando coeficiente a coeficiente chegamos no sistema .  −k3 − k4 = 0     −k = 0 4 Que possui somente a solu¸c˜ ao trivial k1 = k2 = k4 = 0. Portanto S ´e L.I..

CAP´ITULO 2. ESPAC ¸ OS VETORIAIS

24

Como provamos que S gera P3 (R) e que ´e L.I., provamos que S ´e uma base de P3 (R). 

2.0.25

Exerc´ıcio 3.58

Precisamos mostrar que: i) V ∩ W = {0R3 } e ii) R3 = V + W . i) Como V 6⊆ W , existe um elemento v ∈ V que n˜ao pertence a W . Com isso temos que todo m´ ultiplo λv n˜ ao-nulo de v tamb´em n˜ ao est´a em W , pois caso contr´ario ter´ıamos que v =

1 λ λv



W (pois W ´e subespa¸co vetorial). Mas como dim(V ) = 1 isso implica que todo elemento n˜ao-nulo de V n˜ao pertence a W . E como 0R3 ∈ W , segue que V ∩ W = {0R3 }. ii) Seja A = {w1 , w2 } uma base de W e B = {v1 } uma base de V . Ent˜ ao temos que A ∪ B = {w1 , w2 , v1 } ´e L.I.. De fato, supondo escalares c1 , c2 , c3 tais que: c1 w1 + c2 w2 + c3 v1 = 0 Temos que c3 v1 = −c1 w1 − c2 w2 . Agora, se c3 6= 0 ter´ıamos que v1 ´e combina¸c˜ao linear de w1 e w2 (que sabemos que n˜ ao ´e verdade); logo c3 = 0. Mas isso implica que c1 w1 + c2 w2 = 0, e como sabemos que A = {w1 , w2 } ´e L.I. (pois ´e base) temos que c1 = c2 = 0 = c3 . E portanto dim(U + W ) = dim([A ∪ B]) = 3. Mas como dim(R3 ) = 3 e U + W ⊆ R3 segue que U + W = R3 .

2.0.26



Exerc´ıcio 3.60

Note que (−1, 1, 0, 1) = −2(1, 2, 1, 0) + (1, 5, 2, 1) e disso chegamos a dim(U ∩ W ) = 2. Ent˜ ao, como diz o Teorema 3.6.5: dim(U + W ) = dim(U ) + dim(W ) − dim(U ∩ W ) = 3 + 3 − 2 = 4

Uma segunda maneira de resolver esse exerc´ıcio ´e a seguinte: Como U ⊆ U + W ⊆ R4 , segue que 3 ≤ dim(U + W ) ≤ 4. Finalmente, dim(U + W ) tamb´em n˜ ao pode ser igual a 3; pois caso contr´ario ter´ıamos 3 = dim(U + W ) = dim(U ) = dim(W ) um absurdo pois dim(U ∩ W ) = 2.

=⇒

U = U +W = W

Portanto s´ o podemos ter dim(U + W ) = 4.

2.0.27

Exerc´ıcio 3.62

Note que: u

z }|2 { U = [(0, 1, 0), (0, 0, 1)] | {z } u1

=⇒

U ∩ W = U , que ´e

CAP´ITULO 2. ESPAC ¸ OS VETORIAIS

25 v

z }|2 { V = [(1, 0, 0), (0, 1, 2)] | {z } v1

w

z }|2 { W = [(1, 1, 0), (0, 0, 2)] | {z } w1

i) Ent˜ ao V +W = [v1 , v2 , w1 , w2 ]. Agora precisamos achar um subconjunto L.I. de {v1 , v2 , w1 , w2 }. Supondo escalares c1 , c2 , c3 , c4 tais que c1 v1 + c2 v2 + c3 w1 + c4 w2 = 0 chegamos ao sistema:    c + c3 = 0   1 c2 + c3 = 0    2c + 2c = 0 2

4

Que possui solu¸c˜ ao geral c1 = −c3 , c2 = −c3 e c4 = c3 . Voltando na combina¸c˜ ao linear descobrimos que (colocando c3 = 1) w2 = v1 +v2 −w1 . E podemos verificar que {v1 , v2 , w1 } ´e L.I. e, portanto, uma base de V + W . ii) Agora, temos que U + V + W = [u1 , u2 , v1 , v2 , w1 , w2 ]. Analogamente supondo escalares c1 , c2 , c3 , c4 , c5 , c6 tais que c1 u1 + c2 u2 + c3 v1 + c4 v2 c5 w1 + c6 w2 = 0 chegamos ao sistema:    c + c5 = 0   3 c1 + c4 + c5 = 0    c + 2c + 2c = 0 2

4

6

Que possui solu¸c˜ ao geral c1 = −c4 − c5 , c2 = −2c4 − 2c6 e c3 = −c5 . Substituindo na combina¸c˜ ao linear • c4 = 0 e c5 = c6 = 1 • c5 = 0 e c4 = c6 = 1 • c6 = 0 e c4 = c5 = 1 obtemos, respectivamente: • w1 = u1 + 2u2 + v1 − w2 • w2 = u1 + 4u2 − v2 • v2 = 2u2 + 2u2 + v1 − w1 E portanto U + V + W = [u1 , u2 , v1 ]. Podemos verificar que {u1 , u2 , v1 } ´e L.I. e portanto uma base de U + V + W . iii): Seja v = (x, y, z) elemento gen´erico de R3 . Ent˜ao v ∈ U ∩ V existem escalares c1 , c2 , d1 , d2 tais que c1 u1 + c2 u2 = d1 v1 + d2 v2

⇐⇒ v ∈ U e v ∈ V . Logo

CAP´ITULO 2. ESPAC ¸ OS VETORIAIS

26

Isso equivale a (0, c1 , c2 ) = (d1 , d2 , 2d2 ). Como d1 = 0, d2 = c1 resolve o sistema de 3 equa¸c˜oes que obtemos da linha de cima, segue que v = c1 (0, 1, 2) e portanto U ∩ V = [(0, 1, 2)]. Logo {(0, 1, 2)} ´e uma base para U ∩ V .

Sess˜ ao 3.7 2.0.28

Exerc´ıcio 3.63

  c1   h i c2   Temos que p =  c  onde c1 , c2 , c3 , c4 s˜ao os escalares que satisfazem γ  3 c4 p(x) = c1 · (1) + c2 · (1 − x) + c3 · (1 − x)2 + c4 · (1 − x)3 Ent˜ ao, vamos encontrar tais escalares (existem pois γ ´e uma base). Temos: p(x) = 3 − 2x − x2 = c1 + c2 − c2 x + c3 − 2c3 x + c3 x2 + c4 − 3c4 x + 3c4 x2 − c4 x3 = (c1 + c2 + c3 + c4 ) + (−c2 − 2c3 − 3c4 )x + (c3 + 3c4 )x2 − c4 x3 Como possu´ımos uma igualdade de polinˆ omios temos que seus coeficientes devem coincidir. Isto  ´e:  c1 + c2 + c3 + c4 = 3     −c − 2c − 3c = −2 2

3

4

  c3 + 3c4 = −1     −c = 0 4 

0

=⇒ c1 = c4 = 0, c2 = 4 e c3 = −1.



  h i 4  Portanto p =  −1. γ   0

2.0.29

Exerc´ıcio 3.64

 3  h i 2   Temos que p =  1 , e pela defini¸c˜ao de matriz de coordenadas isso nos leva a : β −1 3 p(x) = x + x2 = · (2) + 1 · (a + x) − 1 · (1 + bx2 ) 2   0 = 2 + a   2 2 2 Logo temos que x + x = 3 + a + x − 1 − bx = (2 + a) + x − bx , da´ı 1 = 1 , que acontece    1 = −b somente se a = −2 e b = −1.

CAP´ITULO 2. ESPAC ¸ OS VETORIAIS

2.0.30

27

Exerc´ıcio 3.67

(a) Precisamos mostrar que: i) V = [β] e ii)β ´e L.I.. i) Dado v elemento gen´erico de V , quero encontrar escalares c1 , c2 , c3 tais que v = c1 v1 + c2 (v1 + v2 ) + c3 (−v1 + v2 + v3 ). Por´em, j´ a sabemos que γ = {v1 , v2 , v3 } ´e uma base de V . Portanto sei que existem escalares a1 , a2 , a3 tais que v = a1 v1 + a2 v2 + a3 v3 . Agora temos que: v = c1 v1 + c2 (v1 + v2 ) + c3 (−v1 + v2 + v3 ) ⇐⇒ a1 v1 + a2 v2 + a3 v3 = c1 v1 + c2 (v1 + v2 ) + c3 (−v1 + v2 + v3 ) = (c1 + c2 − c3 )v1 + (c2 + c3 )v2 + c3 v3 .    c + c2 − c3 = a1   1 Agora verificaremos se conseguimos resolver o sistema c2 + c3 = a2    c = a 3

, pois ent˜ao vamos

3

ter exibido os coeficientes que mostram v como combina¸c˜ao linear dos elementos de β. E de fato conseguimos resolver o sistema, obtendo c3 = a3 , c2 = a2 − a3 e c1 = a1 − a2 + 2a3 como solu¸c˜ ao. Portanto conclu´ımos que todo elemento de V pode ser escrito como combina¸c˜ao linear dos elementos de β. Isto ´e, V = [β]. ii) Suponha escalares c1 , c2 , c3 tais que c1 v1 + c2 (v1 + v2 ) + c3 (−v1 + v2 + v3 ) = 0V Ent˜ ao temos que (c1 + c2 − c3 )v1 + (c2 +c3 )v2 + c3 v3 = 0, e como γ = {v1 , v2 , v3 } ´e L.I. isso   c + c2 − c3 = 0   1 . implica que necessariamente devemos ter c2 + c3 = 0    c = 0 3

O que implica que c1 = c2 = c3 = 0. E portanto β ´e L.I.. De i) e ii) provamos que β ´e uma base de V .   2 h i   (b) v = −1 =⇒ v = 2v1 − v2 + v3 . γ

1 Usando os valores encontrados para os coeficientes da combina¸c˜ao linear dos elementos de β que resulta em v, obtemos c3 = 1, c2 = −1 − 1 = −2 e c1 = 2 − (−1) + 2 · 1 = 5.   5 h i   Logo v = −2. β

1

Sess˜ ao 3.8 2.0.31

Exerc´ıcio 3.69

Seja γ = {A1 , A2 , A3 } e β = {B1 , B2 , B3 }.

CAP´ITULO 2. ESPAC ¸ OS VETORIAIS

28

Por defini¸c˜ ao, a matriz de mudan¸ca de base de γ para β ´e:



h iγ h i  I =  A1  β β

h

A2



i



h i   A3  β 

β

Calculemos ent˜ ao cada coluna separadamente. Por defini¸c˜ ao,   c1 h i   A1 = c2  β

c3 Onde os ci ’s s˜ ao os coeficientes da combina¸c˜ao linear que expressa A1 na base β. Isto ´e, os coeficientes tais que A1 = c1 B1 + c2 B2 + c3 B3 . Substituindo as matrizes que j´a conhecemos obtemos: " 1

0

1

0

# = c1

" 1

1

0

0

#

   c1 + c2 = 1     c = 0 1 Que nos leva ao sistema   c2 = 1     c = 0 3   0 h i   Portanto A1 = 1.

" + c2

1

# 0

1

0

" + c3

0

# 0

0

1

" =

c1 + c2

c1

c2

c3

#

, que possui solu¸c˜ao c1 = c3 = 0 e c2 = 1.

β

0 h i h i Analogamente calculamos A2 e A3 . β β   c1 + c2 = 0     c = −1 1 A2 = c1 B1 + c2 B2 + c3 B3 ⇐⇒   c2 = 1    c = 0  3   c1 + c2 = 0     c = 0 1 A3 = c1 B1 + c2 B2 + c3 B3 ⇐⇒   c2 = 0     c = 1 3

    −2 0 h i h i     Portanto A2 =  1  e A3 = 0. β β 0 1

⇐⇒ c1 = −2, c2 = 1 e c3 = 0.

⇐⇒ c1 = c2 = 0 e c3 = 1.

CAP´ITULO 2. ESPAC ¸ OS VETORIAIS  0 h iγ  E ent˜ ao I = −2 β

0

2.0.32

1

 0  0.

0

1

1

29

Exerc´ıcio 3.70 



···





h i  h iβ h i  · · · vn  Por defini¸c˜ ao, I =  v1 .  γ γ γ ··· Calculemos, por exemplo, a primeira coluna.   k1 h i . . ao os coeficientes da combina¸c˜ao linear de γ que expressa v1 . v1 =   . , onde os ki ’s s˜ γ kn Agora, para achar os ci ’s vamos representar primeiro v1 na base α e depois representar cada elemento da base α na base γ. Isto ´e, v1

= =

a11 u1 + · · · + an1 un a11 (c11 w1 + · · · + cn1 wn ) + · · · + an1 (c1n w1 + · · · + cnn wn )

Onde cij ´e a i-´esima coordenada de vj na base γ. Observe que agora j´ a temos v1 como combina¸c˜ao linear de elementos de γ, basta fazer o trabalho manual de exibir os coeficientes. Ent˜ ao temos: v1

= =

a11 (c11 w1 + · · · + cn1 wn ) + · · · + an1 (c1n w1 + · · · + cnn wn ) (a11 c11 + · · · + an1 c1n )w1 + · · · + (a11 cn1 + · · · + an1 cnn )wn

Fazendo o mesmo processo para todo vj ’s obtemos: vj

= =

a1j (c11 w1 + · · · + cn1 wn ) + · · · + anj (c1n w1 + · · · + cnn wn ) (a1j c11 + · · · + anj c1n )w1 + · · · + (a1j cn1 + · · · + anj cnn )wn

h iβ Agora temos explicitamente os valores das entradas de I . γ

Por exemplo, a entrada m11 da matriz de mudan¸ca de base de β para γ ser´a a primeira coordenada de v1 na base γ. n P Isto ´e, m11 = ak1 c1k k=1

Por exemplo, a entrada m1j da matriz de mudan¸ca de base de β para γ ser´a a primeira coordenada de vj na base γ. n P Isto ´e, m1j = akj c1k k=1

Por exemplo, a entrada mij da matriz de mudan¸ca de base de β para γ ser´a a i-´esima coordenada de vj na base γ.

CAP´ITULO 2. ESPAC ¸ OS VETORIAIS

Isto ´e, mij =

n P

akj cik =

n P

cik akj . Que ´e exatamente a defini¸c˜ao do elemento origin´ario do

k=1

k=1

produto das matrizes Q · P . h iβ h iα h iβ Isto ´e, I = Q · P = I I γ

30

γ

α



Agora na segunda parte do exerc´ıcio, queremos provar que uma matriz de mudan¸ca de base h iA gen´erica I ´e invert´ıvel. B h iB Por defini¸c˜ ao I = In . B h iB h iA h iB h iA Por outro lado In = I = I ´e invert´ıvel com I . E portanto segue que I B B A B h iB h iA ( I )−1 = I . A

B

OBS.: A resolu¸c˜ ao da primeira parte deste exerc´ıcio ´e muito “conteira” e pesada de nota¸c˜oes; por´em possui pouco conte´ udo pragmaticamente relevante, embora seja importante para o desenvolvimento te´ orico. Sendo assim, fica a seu crit´erio a importˆancia de tˆe-la compreendido “completamente”.

2.0.33

Exerc´ıcio 3.72

Considere α = {v1 , v2 }.  h iγ h i Pela defini¸c˜ ao de matriz de mudan¸ca de base temos: I =   u1 α α Sendo assim, " # obtemos: " # h i h i 1 0 e u2 = u1 = α α 4 −2 Logo u1 = v1 + 4v2 e u2 = −2v2 . E portanto v2 = − 12 u2 = (1, −1) e v1 = u1 − 4v2 = (−3, 5). " # h i 1 Agora, se u = ent˜ ao u = v1 + 2v2 = (−1, 3). α 2

h

u2

 i  . α

Cap´ıtulo 3

Transforma¸ c˜ oes Lineares Sess˜ ao 4.2 3.0.1

Exerc´ıcio 4.4

Base para W : Seja v = (x, y) elemento gen´erico de R2 . Ent˜ao temos: v ∈ W

 2x − y = 3x ⇐⇒ T (x, y) = 3(x, y) ⇐⇒ (2x − y, −x + 2y) = 3(x, y) ⇐⇒ −x + 2y = 3y

⇐⇒ x = −y Logo v = (x, y) est´ a em W se, e somente se, v = (−y, y) = y(−1, 1). Portanto W = [(−1, 1)] e α = {(−1, 1)} ´e uma base para W . Base para U : Seja v = (x, y) elemento gen´erico de R2 . Ent˜ao temos:

 2x − y = x v ∈ U ⇐⇒ T (x, y) = (x, y) ⇐⇒ (2x − y, −x + 2y) = (x, y) ⇐⇒ −x + 2y = y

⇐⇒ x = y

Logo v = (x, y) est´ a em U se, e somente se, v = (y, y) = y(1, 1). Portanto U = [(1, 1)] e β = {(1, 1)} ´e uma base para U .

3.0.2

Exerc´ıcio 4.6

O exerc´ıcio de determinar uma transforma¸c˜ao linear satisfazendo certas condi¸c˜oes ´e bastante t´ıpico e ir´ a nos acompanhar at´e alguns cap´ıtulos a frente. A frase da teoria que fundamenta a solu¸c˜ao deste tipo de exerc´ıcio ´e a seguinte (Teorema 4.2.1): “Uma transforma¸c˜ ao linear fica completamente determinada pelos seus valores numa base” Sendo assim, nossa tarefa de criar uma transforma¸c˜ao linear que satisfa¸ca certas propriedades ser´ a sempre executada dizendo o que acontece com tal transforma¸c˜ao nos elementos de uma base. 31

˜ CAP´ITULO 3. TRANSFORMAC ¸ OES LINEARES

32

A solu¸c˜ ao desse exerc´ıcio ´e, em particular, mais direta. Como α = {(1, 1), (1, −1)} ´e uma base de R2 , existe somente uma transforma¸c˜ao linear T satisfazendo as duas condi¸c˜ oes. Ent˜ ao econtremos sua f´ormula. Dado v = (v1 , v2 ) elemento gen´erico de R2 , vamos encontrar primeiro suas coordenadas na base α. (v1 , v2 ) = a(1, 1) + b(1, −1) = (a + b, a − b) =⇒ Portanto (v1 , v2 ) =

v1 +v2 2 (1, 1)

T (v1 , v2 ) = T (

+

v1 −v2 2 (1, −1),

 a + b = v

1

a − b = v

2

=⇒ a =

v1 +v2 2

eb=

v1 −v2 2 .

e aplicando T dos dois lados obtemos:

v1 + v2 v1 − v2 v1 + v2 v1 − v2 (1, 1) + (1, −1)) = T (1, 1) + T (1, −1) 2 2 2 2

pois T ´e linear. Agora para T satisfazer as duas condi¸co˜es devemos ter T (v1 , v2 ) = e consequentemente: T (v1 , v2 ) = −v2 + (

v1 +v2 2 2 (x

− 1) +

v1 −v2 3 2 (x

+ 1)

v1 − v2 3 v1 + v2 2 )x + ( )x 2 2

Sess˜ ao 4.3 3.0.3

Exerc´ıcio 4.9

Base para Ker(T ): Dado v = (x, y, z) elemento gen´e rico de R3 . Ent˜ao v ∈ Ker(T ) ⇐⇒ T (v) = 0R2 ⇐⇒ x − y − z = 0 (x − y − z, 2z − x) = (0, 0) ⇐⇒ ⇐⇒ x = 2z e y = z. 2z − x = 0 Portanto v ∈ Ker(T ) ⇐⇒ v = (2z, z, z) = z(2, 1, 1). Logo Ker(T ) = [(2, 1, 1)], e α = {(2, 1, 1)} ´e uma base para Ker(T ). Base para Im(T ): Dado u = (x1 , x2 ) elemento gen´erico de R2 . Ent˜ ao u ∈ Im(T ) ⇐⇒ ∃v = (x, y, z) ∈ R3 ; u = T (v). Sendo assim, a forma gen´erica de um elemento em Im(T ) ´e u = T (v) = (x − y − z, 2z − x) = x(1, −1) + y(−1, 0) + z(−1, 2). Logo Im(T ) = [(1, −1), (−1, 0), (−1, 2)] e β = {(1, −1), (−1, 0)} ´e uma base para Im(T ).

3.0.4

Exerc´ıcio 4.10

Base para Ker(T ): Dado p(x) = a + bx + cx2 elemento gen´erico de P2 (R). Ent˜ao p(x)     a − b + 2c 0 0 0 0 0     0U ⇐⇒  0 2a + b 0  = 0 0 0 ⇐⇒ 0

0

−a − 2b + 2c

0

0

0

∈Ker(T ) ⇐⇒ T (p(x)) =   a − b + 2c = 0   ⇐⇒ 2a + b = 0    −a − 2b + 2c = 0

˜ CAP´ITULO 3. TRANSFORMAC ¸ OES LINEARES  b = −2a c = − 3 a

33

.

2

Portanto p(x) ∈ Ker(T ) ⇐⇒ p(x) = a − 2ax − 23 ax2 = a(1 − 2x − 32 x2 ). Logo Ker(T ) = [1 − 2x − 23 x2 ] = [2 − 4x − 3x2 ] e α = {2 − 4x − 3x2 } ´e uma base para Ker(T ). Base para Im(T ): Dada A ∈ U . Ent˜ ao A ∈ Im(T ) ⇐⇒ ∃p(x) ∈ P2 (R); A = T (p(x)). Sendo assim, a forma gen´erica de um elemento em Im(T ) ´e         1 0 0 a − b + 2c 0 0 −1 0 0 2 0 0         A = T (p(x)) =  0 2a + b 0  = a 0 2 0  +b  0 1 0  +c 0 0 0 0 0 −1 0 0 −a − 2b + 2c 0 0 −2 0 0 2 | | | {z } {z } {z } A1

A2

A3

Portanto Im(T ) = [A1 , A2 , A3 ] e β = {A1 , A2 , A3 } ´e uma base para Im(T ) pois ´e L.I..

Sess˜ ao 4.4 3.0.5

Exerc´ıcio 4.17 u

u

w

w

z }|1 { z }|2 { z }|1 { z }|2 { Primeiramente note que U = [(−1, 1, 0), (−1, 0, 1)] e que W = [(1, 0, 1), (0, −1, 1)]. Determinemos ent˜ ao U ∩ W . Dado v = (x, y, z) elemento gen´erico de R3 , sei que v ∈ U ∩ W ⇐⇒ v ∈ U e v ∈ W ⇐⇒  ∃a1 , a2 , b1 , b2 ; a = b  1   2 ⇐⇒ a1 = −b2    a = b + b 2

1

a1 u2 + a2 u2 = b1 w1 + b2 w2 ⇐⇒ (−a1 − a2 , a1 , a2 ) = (b1 , −b2 , b1 + b2 )  a = 0 1 ⇐⇒ . a = b 2

1

2

Portanto v ∈ U ∩ W ⇐⇒ v = b1 (−1, 0, 1). Logo U ∩ W = [(−1, 0, 1)]. Agora recordamos que “Uma transforma¸c˜ ao linear fica completamente determinada pelos seus valores numa base” e que devemos satisfazer: i)Im(T ) = [(−1, 1, 0), (−1, 0, 1)] e ii)Ker(T ) = [(−1, 0, 1)]. Escolhemos • T (−1, 0, 1) = 0R3 para satisfazer ii). E tamb´em • T (0, 1, 0) = (−1, 1, 0) • T (0, 0, 1) = (−1, 0, 1) para satisfazer i). Note que com essas 3 informa¸c˜ oes, T fica completamente determinada pois α = {(−1, 0, 1), (0, 1, 0), (0, 0, 1)} 3 ´e uma base de R (Prove!).

˜ CAP´ITULO 3. TRANSFORMAC ¸ OES LINEARES

34

Agora nos resta achar explicitamente a f´ormula de T (x, y, z), que ´e an´alogo ao Exerc´ıcio 4.6. Primeiro, precisamos achar as coordenadas de um vetor v = (x, y, z) gen´erico de R3 na base α na qual sabemos como T se comporta. Isto ´e, precisamos achar os escalares a1 , a2 , a3 tais que (x, y, z) = a1 (−1, 0, 1) + a2 (0, 1, 0) + a3 (0, 0, 1)    −a = x   1 Da´ı, temos que (x, y, z) = (−a1 , a2 , a1 + a3 ) que nos leva ao sistema a2 = y    a + a = z 1 3    a = −x   1 solu¸c˜ ao a2 = y .    a = z + x

, que possui

3

Portanto (x, y, z) = −x(−1, 0, 1) + y(0, 1, 0) + (z + x)(0, 0, 1). Aplicando T nos dois lados da igualdade e usando a linearidade de T temos que: T (x, y, z) = −xT (−1, 0, 1)+yT (0, 1, 0)+(z+x)T (0, 0, 1) = −x(0, 0, 0)+y(−1, 1, 0)+(z+x)(−1, 0, 1) E finalmente conclu´ımos que T (x, y, z) = (−x − y − z, y, x + z) ´e a (´ unica) transforma¸c˜ao linear que satisfaz ` as condi¸c˜ oes citadas. ´ de bom costume, ap´ OBS.: E os exibir a f´ormula de T , provar rapidamente as propriedades citadas (e tamb´em para verificar se n˜ ao houve nenhum erro de conta no processo!).

3.0.6

Exerc´ıcio 4.19

(a) Falso! Suponha, por absurdo, que existe uma transforma¸c˜ao linear injetora T : R4

=⇒

R3 . Isso

implicaria que Ker(T ) = {0R3 } e consequentemente dim(Ker(T )) = 0. Da´ı, pelo teorema do n´ ucleo e da imagem ter´ıamos: dim(R4 ) = dim(Ker(T )) + dim(Im(T )) O que nos leva a 4 = 0 + dim(Im(T )) e dim(Im(T )) = 4, por´em Im(T ) ⊆ R3 e dim(R3 ) = 3; absurdo!.



OBS.: Similarmente, sempre que dim(V ) ≥ dim(W ) podemos provar que n˜ao existe uma transforma¸c˜ ao linear T : V → W injetora. (b) Verdadeiro! Seja α = {(1, 0, 0, 0), (0, 1, 0, 0)(0, 0, 1, 0), (0, 0, 0, 1)} base canˆonica de R4 e β = {1, x, x2 } base canˆ onica de P2 (R). Constru´ımos a transforma¸c˜ao linear T considerando que: • T (1, 0, 0, 0) = 1

˜ CAP´ITULO 3. TRANSFORMAC ¸ OES LINEARES

35

• T (0, 1, 0, 0) = x • T (0, 0, 1, 0) = x2 • T (0, 0, 0, 1) = 0 Podemos verificar que Im(T ) = P2 (R) e consequentemente T ´e sobrejetora.



OBS.: Similarmente, sempre que dim(V ) ≥ dim(W ) podemos provar que existe uma transforma¸c˜ ao linear sobrejetora T : V → W . (c) Falso! Sabemos que T ´e bijetora ⇐⇒ T ´e injetora e sobrejetora. Existem transforma¸c˜ oes lineares injetoras de R2 em P2 (R). Por´em, n˜ao existem transforma¸c˜oes lineares sobrejetoras T : R2 → P2 (R). De fato, suponha que ∃T : R2 → P2 (R) linear e sobrejetora. Ent˜ao ter´ıamos que Im(T ) = P2 (R) e consequentemente dim(Im(T )) = dim(P2 (R)) = 3. Mas, pelo Teorema do N´ ucleo e da Imagem, isso implicaria que: dim(R2 ) = dim(Ker(T )) + dim(Im(T )) Da´ı, 2 = dim(Ker(T )) + 3 e dim(Ker(T )) = −1; absurdo! pois a dimens˜ao de um espa¸co vetorial deve ser sempre n˜ ao-negativa.

3.0.7



Exerc´ıcio 4.25

(a) Se T e P s˜ ao transforma¸c˜ oes lineares injetoras, ent˜ao Ker(T ) = {0V } e Ker(P ) = {0W }. Pelo Teorema do N´ ucleo e da Imagem temos: dim(U ) = dim(Ker(T )) + dim(Im(T )) dim(V ) = dim(Ker(P )) + dim(Im(P )) Portanto dim(U ) = dim(Im(T )) e dim(V ) = dim(Im(P )). Mas dim(Im(T )) ≤ dim(V ), pois Im(T ) ⊆ V . Da´ı, dim(U ) ≤ dim(V )

F

.

Similarmente, como dim(Im(P )) ≤ dim(W ), pois Im(P ) ⊆ W ; temos que dim(V ) ≤ dim(W )



.

De F e ♥ conclu´ımos que dim(U ) ≤ dim(V ) ≤ dim(W ).  (b) Se T e P s˜ ao transforma¸c˜ oes lineares sobrejetoras, ent˜ao Im(T ) = V e Im(P ) = W . Logo dim(Im(T )) = dim(V ) e dim(Im(P )) = dim(W ). Pelo Teorema do N´ ucleo e da Imagem devemos ter: dim(U ) = dim(Ker(T )) + dim(Im(T )) dim(V ) = dim(Ker(P )) + dim(Im(P )) Portanto dim(U ) = dim(Ker(T )) + dim(V ) e dim(V ) = dim(Ker(P )) + dim(W ). ucleo ´e sempre Logo temos que dim(U ) ≥ dim(V )F e dim(V ) ≥ dim(W )♥ ; pois a dimens˜ao do n´ n˜ ao-negativa.

˜ CAP´ITULO 3. TRANSFORMAC ¸ OES LINEARES

36

De F e ♥ conclu´ımos que dim(U ) ≥ dim(V ) ≥ dim(W ). 

Sess˜ ao 4.5 3.0.8

Exerc´ıcio 4.26

Uma fun¸ca˜o T : R3 → R3 ´e um isomorfismo de espa¸cos vetoriais se, e somente se, T ´e linear e bijetora. Como j´ a nos foi informado que T ´e linear, basta provar que T ´e bijetora. T ´e injetora: Calculemos Ker(T ). 3 Seja v = (x, y, z) elemento gen´erico  de R , ent˜ao v ∈ Ker(T ) ⇐⇒ T (v) = (0, 0, 0) ⇐⇒  x − 2y = 0   (x − 2y, z, x + y) = (0, 0, 0) ⇐⇒ z = 0 ⇐⇒ x = y = z = 0.    x + y = 0

Portanto Ker(T ) = {0R3 } e consequentemente T ´e injetora. T ´e sobrejetora: Provemos que Im(T ) = R3 . De fato, seja u ∈ R3 . Ent˜ ao u ∈ Im(T ) ⇐⇒ ∃v = (x, y, z) ∈ R3 tal que u = T (v) Sendo assim, a forma gen´erica de um elemento em Im(T ) ´e u = T (v) = (x − 2y, z, x + y) = x(1, 0, 1) + y(−2, 0, 1) + z(0, 1, 0). Logo Im(T ) = [(1, 0, 1), (−2, 0, 1), (0, 1, 0)] e podemos verificar que {(1, 0, 1), (−2, 0, 1), (0, 1, 0)} ´e L.I. e portanto uma base de Im(T ). Logo dim(Im(T )) = 3 = dim(R3 ) e como Im(T ) ⊆ R3 segue que Im(T ) = R3 e consequentemente T ´e sobrejetora.

3.0.9



Exerc´ıcio 4.28

Note que S = [(1, 1, 0), (−2, 0, 1)]. Agora, consideremos a base α = {(1, 0), (0, 1)} canˆonica de R2 . Ent˜ao considere T : R2 → S a transforma¸c˜ ao linear determinada por: • T (1, 0) = (1, 1, 0) • T (0, 1) = (−2, 0, 1) Agora vamos exibir a f´ ormula de T . Primeiro achamos as coordenadas de um elemento gen´erico (x, y) ∈ R2 na base α. Isto ´e, acharemos a1 , a2 tais que (x, y) = a1 (1, 0) + a2 (0, 1). Isso acontece somente se (x, y) = (a1 , a2 ) e logo a1 = x e a2 = y. Ent˜ao T (x, y) = xT (1, 0) + yT (0, 1) = (x − 2y, x, y)

˜ CAP´ITULO 3. TRANSFORMAC ¸ OES LINEARES

´e o isomorfismo procurado (Prove que T ´e uma bije¸c˜ao!).

37



Sess˜ ao 4.8 3.0.10

Exerc´ıcio 4.42

Seja α = {a1 , a2 }, β = {b1 , b2 } e γ = {c1 , c2 } bases de R2 .  i h i  h iβ h . Agora T (b1 ) = T (1, 0) = (1, 2) = 1·(1, 0)+2·(0, 1) T (b ) T (b )  Por defini¸c˜ ao T =  1 2   β β β " # h iβ 1 2 e T (b2 ) = T (0, 1) = (2, 4) = 2 · (1, 0) + 4 · (0, 1). Portanto T = . β 2 4   h i h i h iβ   . Agora preciso descobrir as constantes k1 , k2 tais  Por defini¸c˜ ao T =  T (b1 ) T (b2 )   α α α  k = 1 1 que T (b2 ) = (1, 2) = k1 (1, −1) + k2 (0, 1). Da´ı, (1, 2) = (k1 , −k1 + k2 ) =⇒ −k + k = 2 1

2

k1 = 1 e k2 = 3. Agora preciso descobrir as constantes k10 , k20 tais que T (b2 ) = (2, 4) =  k 0 = 2 1 k10 (1, −1) + k20 (0, 1). Da´ı, (2, 4) = (k10 , −k10 + k20 ) =⇒ =⇒ k10 = 2 e k20 = 6. −k 0 + k 0 = 4 1 2 " # h iβ 1 2 Portanto T = . α 3 6   i h i  h iα h . T (a ) T (a )  Por defini¸c˜ ao, T =  1 2   β β β =⇒

Agora T (a1 ) = T (1, −1) = (−1, −2) "= −1 ·#(1, 0) − 2 · (0, 1) e T (a2 ) = T (0, 1) = (2, 4) = h iα −1 2 2 · (1, 0) + 4 · (0, 1). Portanto T = . β −2 4   i h i  h iγ h . Agora T (c1 ) = T (1, −1) = (−1, −2) = −1 ·  Por defini¸c˜ ao, T =  T (c ) T (c ) 1 2  α α α # " h iγ −1 3 (−1, −2) + 1 · (0, 1) e T (c2 ) = T (1, 1) = (3, 6) = 3 · (1, −1) + 9 · (0, 1). Portanto T = . α 1 9

3.0.11

Exerc´ıcio 4.45

i h i h iβ h (a) Sabemos que T (p(x)) = T · p(x) . γ

γ

β

˜ CAP´ITULO 3. TRANSFORMAC ¸ OES LINEARES    " # c + c2 = 3 1   1 c  1 =⇒ 1 2c1 + c2 = 5  c2   2 c + 2c = 4 1 2 " # h i 2 Portanto p(x) = . β 1

   1 3    Disso, 5 = 2 1 4



, que possui solu¸c˜ao c1 = 2 e c2 = 1.

(b) Observe que     1 1 1 " # i h iβ h  1    = 2 x − x2 + x3 = 2 1 T (x − x2 + x3 ) = T γ β γ 0 1 1 2 2 3 2 Ent˜ ao T (x − x + x ) = 1 − 2x + 3x = 1(x + 2) + 2p1 (x) + p2 (x) F .

h

i

E tamb´em temos  1 i h i h iβ h  2 2 = 2 1+x+x T (1 + x + x ) = T

   1 1 " #  0   = 1 1 γ β γ 1 2 1 2 Ent˜ ao T (1 + x + x2 ) = 2 + 3x = 1(x + 2) + p1 (x) + 2p2 (x) ♥ . Somando as equa¸c˜ oes F e ♥ temos que: 3 + x + 3x2 = 2(x + 2) + 3p1 (x) + 3p2 (x) E consequentemente 3p1 (x) + 3p2 (x) = −1 − x + 3x2 .

3.0.12

Exerc´ıcio 4.53

  h i h i h iβ   T (1, 0) T (0, 1)  (a) Por defini¸c˜ ao T =  .  γ γ γ     −1 1 h i h i     Logo T (1, 0) =  0  e T (0, 1) =  1 . γ γ −2 3 Disso temos que T (1, 0) = 1 · (1, 0, 1) + 0 · (−1, 0, 1) − 2 · (0, 1, 0) = (1, −2, 1) e T (0, 1) = −1 · (1, 0, 1) + 1 · (−1, 0, 1) + 3 · (0, 1, 0) = (−2, 3, 0). (b) Dado (x, y) elemento gen´erico de R2 , temos que T (x, y) = T (x(1, 0) + y(0, 1)) = xT (1, 0) + yT (0, 1) = x(1, −2, 1) + y(−2, 3, 0) Portanto Im(T ) = [(1, −2, 1), (−2, 3, 0)] e α = {(1, −2, 1), (−2, 3, 0)} ´e uma base de Im(T ). (c) Calculemos Ker(T ). Pelo T.N.I.: dim(R2 ) = dim(Ker(T )) + dim(Im(T )) Logo 2 = dim(Ker(T )) + 2 e dim(Ker(T )) = 0.

38

˜ CAP´ITULO 3. TRANSFORMAC ¸ OES LINEARES

39

Portanto Ker(T ) = {0R3 } e T ´e uma transforma¸c˜ao linear injetora.

3.0.13

Exerc´ıcio 4.55



i h iγ h  (a) Pela defini¸c˜ ao, T =  T (v1 )  γ γ Agora, como

h

T (v2 )

i γ



h i T (v3 ) γ

h





i   T (v4 ) . γ

• T (v1 ) = v1 ; • T (v2 ) = v2 ; • T (v3 ) = v3 ; • T (v4 ) = v1 + v3 .  1 h iγ  0 Segue que T =  0 γ  0



0

0

1

1

0

0

1

0

0

 0 . 1  0

h i h iβ h i (b) Sabemos que T (e1 ) = T e1 . γ γ β  1 0 h iβ h iγ h iβ  0 1 E temos que T = T I = 0 0 γ γ γ  0 0  1 0 1  h i 0 0 0 Consequentemente T (e1 ) =  1 1 0 γ  0 0 0

 0 0 1    0 0 0 0 0  1 1  0 1 0 0 0 1 0 0     0 1 1         1  0 = 0.     0  0 1 0 0 0 0

1

 1     1 0 = 0  1 0 0 0





0

1

0

0

0

1

0

0

0

 1 . 0  0

Cap´ıtulo 4

Produto Interno Sess˜ ao 5.2 4.0.1

Exerc´ıcio 5.2

Considere A = [aij ] a matriz do produto interno de V na base β. n P Observe que se escrevermos o elemento u na base β como u = αj vj , ent˜ao j=1 n n n X X X hu, v1 i = h αj vj , v1 i = αj hvj , v1 i = αj a1j j=1

j=1

j=1

n n n X X X hu, v2 i = h αj vj , v2 i = αj hvj , v2 i = αj a2j j=1

j=1

j=1

.. . n n n X X X hu, vi i = h αj vj , vi i = αj hvj , vi i = αj aij j=1

j=1

(F)

j=1

Ent˜ ao dados escalares c1 , · · · , cn vamos provar que existe um u ´nico u ∈ V que satisfaz hu, vi i = ci ∀i = 1, · · · , n. De fato, 

a11  . . hu, vi i = ci ⇐⇒   . an1 (F)

a12 .. . an2

··· .. . ···

       α1 c1 c1 a1n        α2   c2   c2  ..        .   ..  =  ..  ⇐⇒ A[u]β =  ..   .  . . ann αn cn cn

Observe que como a matriz A e as constantes ci est˜ao fixadas, temos um sistema de equa¸c˜oes nas vari´ aveis α1 , · · · , αn . E na verdade, como a matriz do produto interno A ´e sempre invert´ıvelF ,

40

CAP´ITULO 4. PRODUTO INTERNO

41

o sistema   c1      α2   c2     A  ..  =  ..   .  . 

α1



cn

αn

  c1 α1      c2   α2  −1    ´nico elemento u = α1 v1 + · · · + αn vn possui solu¸ca ˜o u ´nica   ..  = A  .. . Ou seja, existe um u .  .  



cn αn que satisfaz a propriedade desejada.  OBS.F : Todas as matrizes n × n positivas definidas s˜ao invert´ıveis. De fato, se A fosse n˜ao invert´ıvel ent˜ ao existiria um vetor (matriz coluna) X 6= 0 tal que AX = 0 (pois caso contr´ario Ker(A) = {0} =⇒ dim(Im(A)) = n =⇒ A invert´ıvel ). Ent˜ao para tal X 6= 0 temos X t AX = 0 e logo A n˜ ao pode ser positiva definida.

4.0.2

Exerc´ıcio 5.7

Precisamos provar que: i) hA, Bi = hB, Ai ii) hA, Ai ≥ 0

∀A, B ∈ Mn (R);

∀A ∈ Mn (R) com hA, Ai = 0 ⇐⇒ A = 0Mn (R) ;

iii) hA + C, Bi = hA, Bi + hC, Bi

∀A, B, C ∈ Mn (R);

iv) hλA, Bi = λhA, Bi ∀A, B ∈ Mn (R) ∀λ ∈ R. m P n m P n P P i) hA, Bi = aij bij = bij aij = hB, Ai. i=1 j=1

ii) hA, Ai =

i=1 j=1

m P n P

aij aij =

i=1 j=1 m P

Agora hA, Ai =

i=1 j=1 n P

i=1 j=1

iii) hA + C, Bi =

m P n P

a2ij ≥ 0

∀A = [aij ]

a2ij = 0 ⇐⇒ aij = 0 para todo i, j, i.e. A = 0Mn (R) .

m P n P

(aij + cij )bij =

i=1 j=1

m P n P

aij bij + cij bij =

i=1 j=1

m P n P

aij bij +

i=1 j=1

m P n P

cij bij =

i=1 j=1

hA, Bi + hC, Bi. m P n m P n P P iv) hλA, Bi = λaij bij = λ aij bij = λhA, Bi. i=1 j=1

4.0.3

i=1 j=1

Exerc´ıcio 5.12

a) A matriz A = [aij ] deste produto interno na base canˆonica ´e, por defini¸c˜ao, determinada por aij = hpj , pi i. Ent˜ ao temos: a11 = hp1 , p1 i = p1 (−1)2 + p1 (0)2 + p1 (1)2 = 12 + 12 + 12 = 3 a22 = hp2 , p2 i = p2 (−1)2 + p2 (0)2 + p2 (1)2 = (−1)2 + 02 + 12 = 2 a33 = hp3 , p3 i = p3 (−1)2 + p3 (0)2 + p3 (1)2 = ( (−1)2 )2 + (02 )2 + (12 )2 = 2

CAP´ITULO 4. PRODUTO INTERNO

42

a21 = a12 = hp2 , p1 i = p2 (−1)p1 (−1) + p2 (0)p1 (0) + p2 (1)p1 (1) = (−1) · 1 + 0 · 1+1·1=0 a31 = a13 = hp3 , p1 i = p3 (−1)p1 (−1) + p3 (0)p1 (0) + p3 (1)p1 (1) = (−1)2 · 1 + 02 · 1 + 12 · 1 = 2 a32 = a23 = hp3 , p2 i = p3 (−1)p2 (−1) + p3 (0)p2 (0) + p3 (1)p2 (1) = (−1)2 · (−1) + 02 · 0 + 12 · 1 = 0  3  E consequentemente, A = 0

0 2

 2  0.

2

0

2

 i 3  −1 0 2

0

b) h

hp, qi = Y t AX = 4

2

2 0

  2 −1 h   0  3  = 10 2 1

  i −1   6  3  = −10 + 12 + 6 = 8 1

4

c) Considere X como a matriz de coordenadas do polinˆomio p(x) = −1 + 3x + 1x2 na base canˆ onica e Y a matriz de coordenadas de q(x) = d + ex + f x2 na base canˆonica. Ent˜ao:      −1 h i −1 h i 3 0 2      hp, qi = 0 ⇐⇒ Y t AX = 0 ⇐⇒ d e f 0 2 0  3  = 3d + 2f 2e 2d + 2f  3  = 2 0 0 ⇐⇒ −3d − 2f + 6e + 2d + 2f = 0 ⇐⇒ d = 6e

2

1

1

Portanto os polinˆ omios q tais que hp, qi = 0 s˜ao da forma q(x) = 6e + ex + f x2 = e(6 + x) + f x2 .

Sess˜ ao 5.5 4.0.4

Exerc´ıcio 5.14

Considere o espa¸co vetorial real Rn munido do produto interno usual e os vetores u = (a1 , · · · , an ) e v = ( n1 , · · · , n1 ). Pela desigualdade de Cauchy-Schwarz hu, vi2 ≤ hu, ui · hv, vi Substituindo os valores de u e v obtemos 

4.0.5

a1 + · · · + an n

2 ≤

(a1 + · · · + an )2 n

Exerc´ıcio 5.18

Considere R4 um espa¸co vetorial real munido do produto interno usual. Ent˜ ao os vetores u = (1, 2, α, 3) e v = (α, 2, α, −2) s˜ao ortogonais ⇐⇒ 2

2

α + 4 + α − 6 = 0 ⇐⇒ α + α − 2 = 0 ⇐⇒ α = 1 ou α = −2.

hu, vi = 0

⇐⇒

CAP´ITULO 4. PRODUTO INTERNO

4.0.6

43

Exerc´ıcio 5.29

Devemos provar que para cada par de vetores n˜ao-nulos u, v ∈ V existe um θ ∈ [0, π/2] tal que cos(θ) =

|hu, vi| kuk2 kvk2

Al´em disso, devemos provar que tal θ ´e u ´nico. Provando essas duas coisas vamos ter provado que tal ˆ angulo pode ser definido “sem ambiguidade”. De fato, pela desigualdade de Cauchy-Schwarz sempre ´e o caso que 0 ≤ hu, vi2 ≤ hu, uihv, vi =⇒ p p |hu,vi| |hu, vi| ≤ hu, ui hv, vi = kuk2 kvk2 . E portanto 0 ≤ kuk ≤ 1. 2 kvk2 Agora, observe que a fun¸c˜ ao cosseno restrita ao intervalo [0, π/2] e com contra-dom´ınio [0, 1] ´e bijetora! Disso, certamente existe um θ ∈ [0, π/2] satisfazendo tal propriedade (sobrejetora) e certamente esse θ ser´ au ´nico (injetora).

4.0.7

Exerc´ıcio 5.31

O produto interno usual do espa¸co vetorial real C([0, 1]) ´e definido por: Z hf, gi =

1

f (x)g(x) dx 0

Sendo assim, para f (x) = ax + b e g(x) = x2 , f e g s˜ao ortogonais se, e somente se, 1  R1 R1 R1 0 = hf, gi = 0 f (x)g(x) dx = 0 (ax + b)x2 dx = 0 ax3 + bx2 dx = a4 x4 + 3b x3 0 =

a 4

+ 3b .

Como o exerc´ıcio nos pede apenas uma fun¸c˜ao deste tipo, escolhemos a = 4 e conclu´ımos que a fun¸c˜ ao f (x) = 4x − 3 ´e ortogonal ` a fun¸c˜ao g(x) = x2 segundo o produto interno usual do espa¸co.

Sess˜ ao 5.7 Sess˜ ao 5.9 4.0.8

Exerc´ıcio 5.41

Ker(T ) v = (x, y, z) ∈ Ker(T ) ⇐⇒ T (x, y, z) = (0, 0) ⇐⇒ (x − y − z, 2z − x) = (0, 0) ⇐⇒ x − y − z = 0 ⇐⇒ x = 2z e y = z. Logo Ker(T ) = [(2, 1, 1)]. 2z − x = 0 (Ker(T ))⊥ v = (x, y, z) ∈ Ker(T )⊥ ⇐⇒ hv, (2, 1, 1)i = 0 ⇐⇒ 2x + y + z = 0 ⇐⇒ y = −2x − z. Logo os elementos de Ker(T )⊥ s˜ ao da forma v = (x, −2x − z, z) = x(1, −2, 0) + z(0, −1, 1) e Ker(T )⊥ = [(1, −2, 0), (0, −1, 1)]. Base ortogonal de Ker(T )⊥

CAP´ITULO 4. PRODUTO INTERNO

44

Vamos ortogonalizar a base β = {(1, −2, 0), (0, −1, 1)} de Ker(T )⊥ utilizando o processo de | {z } | {z } v1

v2

Gram-Schmidt. O processo nos retorna a base ortogonal α = {q1 , q2 } com q1 = v1 = (1, −2, 0); 2 2 1 2 ,q1 i q2 = v2 − hv hq1 ,q1 i q1 = (0, −1, 1) − 5 (1, −2, 0) = (− 5 , − 5 , 1).

Sess˜ ao 5.14 4.0.9

Exerc´ıcio 5.53

Preciso mostrar que Ker(T ) ⊆ (Im(T ))⊥ e que (Im(T ))⊥ ⊆ Ker(T ). Ker(T ) ⊆ (Im(T ))⊥ Vamos supor um elemento em Ker(T ) e ent˜ao concluir que este elemento ´e perpendicular a todo elemento de Im(T ). Supondo v ∈ Ker(T ) temos que para todo elemento gen´erico da imagem do operador, T (u) ∈ Im(T ), vale que hv, T (u)i

T

sim´ etrico

=

hT (v), ui

v∈Ker(T )

=

h0, ui

def. p.i.

=

0

E portanto v ∈ (Im(T ))⊥ . Disso conclu´ımos a primeira inclus˜ ao. (Im(T ))⊥ ⊆ Ker(T ) Similarmente, vamos considerar um elemento em (Im(T ))⊥ e ent˜ao concluir que este elemento est´ a tamb´em no n´ ucleo do operador. Suponha v ∈ (Im(T ))⊥ . Ent˜ ao para todo elemento u ∈ V , v ´e perpendicular a T (u). Isto ´e, hv, T (u)i = 0 ∀u ∈ V . Mas como T ´e um operador linear sim´etrico vale que: hv, T (u)i = 0 ∀u ∈ V =⇒ hT (v), ui = 0 ∀u ∈ V e disso podemos concluir que T (v) = 0 pois, pela defini¸c˜ao do produto interno, o u ´nico elemento que ´e ortogonal a todo u ∈ V ´e o vetor nulo. Portanto conclu´ımos a segunda inclus˜ ao e segue a igualdade.

4.0.10

Exerc´ıcio 5.55

Seja α uma base ortonormal de V . α Ent˜ ao considere as matrizes A1 = [T1 ]α ao operadores lineares herα e A2 = [T2 ]α . Como T1 e T2 s˜

mitianos e α ´e base ortonormal, segue que A1 e A2 s˜ao matrizes hermitianas. Agora, provemos a dupla implica¸c˜ ao.

CAP´ITULO 4. PRODUTO INTERNO

45

=⇒ Assumimos que T1 ◦ T2 ´e um operador hermitiano. Observe que [T1 ◦ T2 ]α ao: α = A1 A2 . Ent˜ A2 A1

= A∗2 A∗1 =

(A1 A2 )

A2 e A1 hermitianas ∗

= A1 A2

A1 A2 ´e hermitiana

Portanto A2 A1 = A1 A2 e pela defini¸c˜ ao dessas matrizes conclu´ımos que T2 ◦ T1 = T1 ◦ T2 . ⇐= Agora assumimos que T2 ◦ T1 = T1 ◦ T2 . Ent˜ ao: (A1 A2 )∗

= A∗2 A∗1 = A2 A1

A2 e A1 hermitianas

= A1 A2

T2 ◦ T1 = T1 ◦ T2

Portanto A1 A2 ´e uma matriz hermitiana, e pela defini¸c˜ao dessas matrizes isso implica que T1 ◦ T2 ´e um operador linear hermitiano.

4.0.11



Exerc´ıcio 5.57

Precisamos provar que i) (a) e (b) =⇒ (c); ii) (a) e (c) =⇒ (b); iii) (b) e (c) =⇒ (a). i) Seja α uma base ortonormal de V . e sim´etrica (At = A), Assumindo que T ´e um operador sim´etrico temos que a matriz A := [T ]α α ´ assumindo que o operador linear T ´e uma isometria conclu´ımos, pela Proposi¸c˜ao 5.14.3, que T ´e ortogonal e portanto A ´e ortogonal (At = A−1 ). Disso, A2 = AA = AAt = AA−1 = In onde usamos que A ´e sim´etrica e ortogonal, respectivamente. Como A2 = [T 2 ]α ımos que T 2 = I. α conclu´ ii) Supondo que T ´e sim´etrico e T 2 = I obtemos que para todo v ∈ V vale que hT (v), T (v)i = hv, T (T (v))i = hv, vi onde usamos que T ´e sim´etrico e T 2 = I, respectivamente. Consequentemente, T ´e uma isometria. iii) Seja α uma base ortonormal de V . 2 Ent˜ ao se A := [T ]α e isometria linear obtemos A2 = In e At = A−1 , α , assumindo que T = I e T ´

respectivamente. Disso, In = A2 = AA =⇒ A = A−1 = At

CAP´ITULO 4. PRODUTO INTERNO

46

e portanto A ´e uma matriz sim´etrica. Como escolhemos uma base ortonormal α segue que T ´e sim´etrico.

4.0.12

Exerc´ıcio 5.58

A matriz Q ´e ortogonal sse Qt = Q−1 . Agora observe que " t

QQ =

#" cos(θ) − sin(θ) cos(θ) sin(θ)

cos(θ)

− sin(θ)

sin(θ)

#

cos(θ)

" =

#

cos2 (θ) + sin2 (θ)

0

0

sin2 (θ) + cos2 (θ)

" =

1

# 0

0

1

Disso, conclu´ımos que Qt = Q−1 e portanto Q ´e uma matriz ortogonal.

4.0.13

Exerc´ıcio 5.59

Vamos construir a matriz de T na base canˆonica de R3 , que ´e uma base ortonormal, e ent˜ao mostrar que esta matriz ´e ortogonal. Seja α = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}, ent˜ao • T (1, 0, 0) = (cos(θ), sin(θ), 0) • T (0, 1, 0) = (− sin(θ), cos(θ), 0) • T (0, 0, 1) = (0, 0, 1)  cos(θ) − sin(θ)  α E portanto A := [T ]α =  sin(θ) cos(θ)

 0  0.

0 0 1 Similarmente ao exerc´ıcio 5.58 podemos ver que AAt = I3 e portanto A ´e uma matriz ortogonal e, como a base utilizada na constru¸c˜ ao de A ´e uma base ortonormal, segue que T ´e um operador ortogonal.

4.0.14

Exerc´ıcio 5.60

(a) Sejam u, v elementos gen´ericos de V . Ent˜ao existem u ´nicos u1 , v1 ∈ W e u2 , v2 ∈ W ⊥ tais que u = u1 + u2 v = v1 + v2 Disso temos que, hT (u), vi = hu1 − u2 , v1 + v2 i = hu1 , v1 i + hu1 , v2 i − hu2 , v1 i − hu2 , v2 i = hu1 , v1 i − hu2 , v2 i Por outro lado, hu, T (v)i = hu1 + u2 , v1 − v2 i = hu1 , v1 i − hu2 , v2 i. Portanto hT (u), vi = hu, T (v)i ∀u, v ∈ V . Ou seja, T ´e sim´etrico. Analogamente podemos ver que:

= I2

CAP´ITULO 4. PRODUTO INTERNO

47

hT (u), T (v)i = hu1 , v1 i + hu2 , v2 i = hu, vi ∀u, v ∈ V e portanto T tamb´em ´e ortogonal. (b) Calculemos W ⊥ . Como W = [(1, 1, 1)], temos que v = (x, y, z) ∈ W ⊥ ⇐⇒ h(x, y, z), (1, 1, 1)i = 0 ⇐⇒ x = −y − z e portanto W ⊥ = [(−1, 1, 0), (−1, 0, 1)] Agora, se α ´e a base canˆ onica de R3 e β ´e a base da decomposi¸c˜ao ortogonal a partir de W , i.e. β = {(1, 1, 1), (−1, 1, 0)(−1, 0, 1)}, ent˜ ao β β α [T ]α α = [I]α [T ]β [I]β

Sabemos que • T (1, 1, 1) = (1, 1, 1) − (0, 0, 0); • T (−1, 1, 0) = (0, 0, 0) − (−1, 1, 0); • T (−1, 0, 1) = (0, 0, 0) − (−1, 0, 1)   1 0 0   E portanto [T ]ββ = 0 −1 0 . 0 0 −1 Agora, resta-nos calcular  as matrizes  de mudan¸ca de base. 1 −1 −1   Pela defini¸c˜ ao [I]βα = 1 1 0 . Agora, vamos achar os coeficientes ci tais que 1

0

1

(1, 0, 0) = c1 (1, 1, 1) + c2 (−1, 1, 0) + c3 (−1, 0, 1) (0, 1, 0) = c4 (1, 1, 1) + c5 (−1, 1, 0) + c6 (−1, 0, 1) (0, 0, 1) = c7 (1, 1, 1) + c8 (−1, 1, 0) + c9 (−1, 0, 1)   c1 c4 c7   pois ent˜ ao teremos que [I]α β = c2 c5 c8 . c3

c6

c9  1/3  α Fazendo as contas, obtemos que [I]β = −1/3 −1/3

1/3 2/3 −1/3

1/3



 −1/3. 2/3

E consequentemente  1  α [T ]α = 1 1

1

 1  0  0

0

1

−1

−1

0

0 −1 0

0



1/3

 0  −1/3 −1 −1/3

1/3 2/3 −1/3



 −1  1 −1/3 =  2 3 2/3 2 1/3

2 −1 2

2



 2 −1

CAP´ITULO 4. PRODUTO INTERNO

4.0.15

48

Exerc´ıcio 5.62

Lembremos da defini¸c˜ ao de cosseno do ˆangulo entre dois vetores n˜ao-nulos de um espa¸co vetorial com produto interno e da defini¸c˜ ao de isometria. • Dados u, v ∈ V n˜ ao-nulos o cosseno entre o ˆangulo θ formado por esses dois vetores ´e definido como cos(θ) :=

hu,vi kuk2 kvk2

• Um operador T ´e uma isometria ⇐⇒ kT (v)k2 = kvk2 ∀v ∈ V Agora queremos provar que se T ´e uma isometria ent˜ao cos(θ0 ) = cos(θ1 ), onde θ0 ´e o ˆangulo formado pelos vetores gen´ericos u, v ∈ V e θ1 ´e o ˆangulo formado pelos vetores T (u), T (v) ∈ V . De fato, cos(θ0 )

4.0.16

=

hu,vi kuk2 kvk2

=

hu,vi kT (u)k2 kT (v)k2

T ´e isometria

=

hT (u),T (v)i kT (u)k2 kT (v)k2

T ´e ortogonal (T linear e isometria =⇒ T ortogonal )

=

cos(θ1 )

Exerc´ıcio 5.64

⇐= Assumimos que a matriz Q ´e ortogonal. Agora, hTQ (X), TQ (X)i = hQX, QXi = tr((QX)t QX) = tr(X t Qt QX) = tr(X t X)

, pois Qt = Q−1

= hX, Xi E portanto TQ ´e uma isometria. =⇒ Se TQ ´e uma isometria (linear) ent˜ ao TQ ´e um operador ortogonal. Disso temos que para quaisquer matrizes X e Y vale hTQ (X), TQ (Y )i = hX, Y i, que pela defini¸c˜ ao do produto interno ´e a mesma coisa que tr((QY )t QX) = tr(Y t X). Em particular, para Y = In temos que tr(Qt QX) = tr(X). E como tr(A + B) = tr(A) + tr(B) ∀A, B, isso implica que: 0 = tr(Qt QX − X) = tr( (Qt Q − In )X ) = hX, QQt − In i .

CAP´ITULO 4. PRODUTO INTERNO

49

Logo temos que hX, QQt − In i = 0 para toda matriz X. E isso s´ o acontece (pela defini¸c˜ ao gen´erica de produto interno) se QQt − In = 0Mn (R) e portanto QQt = In , que ´e o mesmo que Qt = Q−1 . 

Sess˜ ao 5.15 4.0.17

Exerc´ıcio 5.66 q

z }|1 { Note que α = {(1, 1, 1)} ´e uma base ortogonal para S. Ent˜ ao seja v = (x, y, z) um elemento gen´erico de R3 . O operador de proje¸c˜ao ortogonal sobre S fica determinado por P (x, y, z) =

1 X h(x, y, z), qi i i=1

hqi , qi i

qi

Fazendo as contas obtemos P (x, y, z) =

4.0.18

h(x,y,z),(1,1,1)i (1, 1, 1) 3

= 13 (x + y + z)(1, 1, 1) = ( x+y+z , x+y+z , x+y+z ). 3 3 3

Exerc´ıcio 5.67

(a) Note que o plano determinado por 3x + 2y + z = 0 ´e o subespa¸co vetorial W = {(x, y, z) ∈ R3 : 3x + 2y + z = 0} = [(1, 0, −3), (0, 1, −2)] O caminho que acha uma base ortogonal para W e ent˜ao usa a f´ormula para encontrar o operador de proje¸c˜ ao ortogonal sobre W a partir dessa base ortogonal ´e extremamente longo (experimente). Sendo assim vamos calcular o operador de proje¸c˜ao sobre o espa¸co W ⊥ e depois utilizaremos o fato de que, para todo vetor v, v = PW (v) + PW ⊥ (v) para encontrar o operador PW . Sendo assim, note que W ⊥ = [(3, 2, 1)]. E que o operador de proje¸c˜ ao ortogonal sobre W ⊥ fica determinado por PW ⊥ (x, y, z) =

3x + 2y + z h(x, y, z), (3, 2, 1)i · (3, 2, 1) = (3, 2, 1) h(3, 2, 1), (3, 2, 1)i 14

E disso, como (x, y, z) = PW (x, y, z) + PW ⊥ (x, y, z) conclu´ımos que PW (x, y, z) = (x, y, z) −

3x + 2y + z (3, 2, 1) 14

CAP´ITULO 4. PRODUTO INTERNO

50

(b) Pela defini¸c˜ ao, Im(PW ) = {PW (v) : v ∈ R3 }. Agora sabemos que PW (w) = w

∀w ∈ W

PW (w0 ) = 0 ∀w0 ∈ W ⊥ E tamb´em temos que R3 = W ⊕ W ⊥ . Logo dado v ∈ R3 , existem w, w0 elementos de W e W ⊥ , respectivamente, tais que v = w + w0 . Disso, temos que PW (v) = PW (w) + PW (w0 ) = w + 0 = w. Consequentemente, Im(PW ) = {PW (v) : v ∈ R3 } = {w : w ∈ W } = W

(c) Sabemos que (para todo subespa¸co W ) vale que R3 = W ⊕ W ⊥ . E tamb´em que (Corol´ario 5.15.1) R3 = Im(PW ) ⊕ Ker(PW ). Agora como Im(PW ) = W s´ o pode ser o caso que Ker(Pw ) = W ⊥ = [(3, 2, 1)].

Sess˜ ao 5.16 4.0.19

Exerc´ıcio 5.71

(a) Como R(v) = 2P (v) − v para todo vetor v. Segue pelo Exerc´ıcio 5.67(a) que R(x, y, z) = 2((x, y, z) −

3x + 2y + z 3x + 2y + z (3, 2, 1)) − (x, y, z) = (x, y, z) − 2 · (3, 2, 1) 14 14

(b) Considere um elemento gen´erico v = (x, y, z) de R3 . Ent˜ao v = u + u0 para algum u ∈ W e u0 ∈ W ⊥ . Agora v ∈ Ker(R) ⇐⇒ 0 = R(v) = R(u) + R(u0 ) = u − u0 ⇐⇒ u = u0 . Logo u ´e um elemento de W que tamb´em est´a em W ⊥ . Mas como W ∩ W ⊥ = {0R3 }, segue que u = u0 = 0. Consequentemente v = 0 e Ker(R) = {0}. (c) Pelo T.N.I., dim(Im(R)) = dim(R3 ) − dim(Ker(R)) = 3 − 0 = 3. E como Im(R) ⊆ R3 segue que Im(R) = R3 .

Cap´ıtulo 5

Autovalores e Autovetores Sess˜ ao 6.1 5.0.1

Exerc´ıcio 6.2

=⇒ Supondo que λ = 0 ´e um autovalor de T vou provar que T n˜ao ´e um operador injetor. De fato, se ∃v 6= 0 tal que T (v) = λv = 0 ent˜ao temos que v ∈ Ker(T ). E como v ´e n˜ao-nulo segue que Ker(T ) 6= {0}, logo T n˜ ao ´e injetor. ⇐= Supomos que T n˜ ao ´e injetor. Disso temos que Ker(T ) 6= {0}. Logo existe v 6= 0 tal que v ∈ Ker(T ). O que implica que T (v) = 0 = 0 · v e portanto λ = 0 ´e autovalor de T.

5.0.2



Exerc´ıcio 6.3

Supondo que exista um autovalor λ de T , vou provar que devemos ter necessariamente λ = 0 ou λ = 1. De fato, se T (v) = λv para algum v n˜ ao-nulo, ent˜ao temos: T (T (v)) = T (v) =⇒ =⇒

T (λv) λT (v)

= λv = λv

=⇒ λ2 v = λv Agora se λ = 0 ent˜ ao j´ a temos o que quer´ıamos (λ = 0 ou λ = 1). Mas se λ 6= 0 podemos dividir os dois lados da u ´ltima equa¸c˜ ao por λ. O que nos leva a: λv = v =⇒ (λ − 1)v = 0 E como v 6= 0 isso implica que λ = 1. Portanto vale que λ = 0 ou λ = 1. 

51

CAP´ITULO 5. AUTOVALORES E AUTOVETORES

52

OBS.: Note que n˜ ao necessariamente um operador idempotente possui simultaneamente os autovalores 1 e 0. Por exemplo, o operador identidade do epsa¸co vetorial V , IV (v) = v, possui somente um autovalor: λ = 1.

5.0.3

Exerc´ıcio 6.6

Aqui novamente recordamos a frase “toda transforma¸ca ˜o linear fica completamente determinada pelo seus valores numa base”. Ou seja, para criar tal operador T iremos escolher uma base e seus valores nessa base. Para satisfazer (a) devemos ter T (1, −1) = 1 · (1, −1) (note que isso implica que T (y, −y) = yT (1, −1) = (y, −y)). Para satisfazer (b) devemos ter T (0, 1) = 3 · (0, 1) = (0, 3) (analogamente isso implica T (0, y) = 3(0, y)). E note que as duas informa¸c˜ oes que j´ a temos ´e suficiente para determinar T pois {(1, −1), (0, 1)} ´e uma base de R2 . Ent˜ ao determinemos T . Seja v = (x, y) elemento gen´erico de R2 vamos encontrar primeiro suas coordenadas na base {(1, −1), (0, 1)} na qual sabemos como T se comporta.  c = x 1 Isto ´e, encontremos c1 , c2 tais que (x, y) = c1 (1, −1)+c2 (0, 1). Disso temos o sistema −c + c = y 1 2 que possui solu¸c˜ ao c1 = x e c2 = x + y. Logo (x, y) = x(1, −1) + (x + y)(0, 1) =⇒ T (x, y) = xT (1, −1) + (x + y)T (0, 1) = x(1, −1) + (x + y)(0, 3), ou seja, T (x, y) = (x, 2x + 3y) ´e a transforam¸c˜ao procurada.

5.0.4

Exerc´ıcio 6.9

Vamos provar que se existir um autovalor λ de T ent˜ao λ = 0. De fato, suponha que λ ´e um autovalor do operador nilpotente T . Ent˜ ao existe algum w 6= 0V tal que T (w) = λw, mas como existe um natural n tal que T n (v) = 0V ∀v, temos que em particular T n (w) = 0V . Por outro lado, como nos sugere T (w) = λw, T 2 (w) = T ( T (w) ) = T (λw) = λT (w) = λ2 w, · · · podemos ver (indutivamente) que T n (w) = λn w ∀n ∈ N. Portanto λn w = T n (w) = 0V e como w 6= 0V devemos ter λn = 0 =⇒ λ = 0 

5.0.5

Exerc´ıcio 6.11

Vamos supor um autovalor qualquer λ de T e provar que necessariamente devemos ter λ = λ1 ou λ = λ2 . De fato, seja λ um autovalor de T tal que T (A) = λA para alguma matriz A n˜ao nula. Ent˜ ao temos:

CAP´ITULO 5. AUTOVALORES E AUTOVETORES

T (A)

=

At

=⇒

λA

=

At

=⇒

T (λA)

=

T (At )

=⇒

λT (A)

=

(At )t

53

=⇒ λ2 A = A E se nomearmos as entradas de A como aij , isso implica que λ2 aij = aij ∀i, j e como A n˜ao ´e a matriz nula, algum aij ´e diferente de zero e podemos concluir λ2 = 1. Segue ent˜ ao que λ = 1 ou λ = −1.  Os subespa¸cos associados a λ1 = 1 e λ2 = −1 s˜ao: o subespa¸co das matrizes sim´etricas e o subespa¸co das matrizes antissim´etricas, respectivamente (ver Exerc´ıco 3.25).

5.0.6

Exerc´ıcio 6.13

Lembre-se que um automorfismo ´e um operador linear bijetor. Ent˜ ao, primeiramente, provemos que T ´e injetor e sobrejetor (pois j´a foi dito que ´e um operador linear). Para verificar se T ´e injetor, vamos calcular Ker(T ). Considere um elemento gen´erico v ∈ V . Logo se v ∈ Ker(T ) ent˜ao T (v) = 0V e portanto −v = T (T (v)) = T (0v ) = 0V

=⇒ v = 0V

=⇒ Ker(T ) ⊆ {0V }, e como 0V ∈ Ker(T ) segue

que Ker(T ) = {0V }. E consequentemente T ´e injetor. Pelo Teorema do N´ ucleo e da Imagem, temos: dim(V ) = dim(Ker(T )) + dim(Im(T )) Da parte anterior temos que dim(Ker(T )) = 0 e portanto dim(Im(T )) = dim(V ) e como Im(T ) ⊆ V segue que Im(T ) = V . E portanto T ´e sobrejetor. Agora, vamos supor que λ ´e um autovalor de T e iremos concluir que devemos ter necessariamente λ = i ou λ = −i. De fato, se ∃v 6= 0 tal que T (v) = λv ent˜ao temos que: T (v) = λv =⇒ T (T (v)) =⇒

−v

= λT (v) =

λ2 v

=⇒ 0 = (λ2 + 1)v E como v 6= 0V segue que λ2 + 1 = 0. Consequentemente devemos ter λ = i ou λ = −i. 

5.0.7

Exerc´ıcio 6.14

Temos que T (x, y, z, t) = (−y, x, −t, z) =⇒ T (T (x, y, z, t)) = T (−y, x, −t, z) = (−x, −y, −z, −t). Agora, seja β = {b1 , b2 , b3 , b4 } = {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} a base canˆonica de R4 .

CAP´ITULO 5. AUTOVALORES E AUTOVETORES 





54





i h i h i h i  h iβ h   T (b2 ) T (b3 ) T (b4 ) . Por defini¸c˜ ao T =  T (b1 )  β β β β β      T (1, 0, 0, 0) = (0, 1, 0, 0)  0 −1 0 0     T (0, 1, 0, 0) = (−1, 0, 0, 0) h iβ  1 0 0 0 .  E como segue que T =    β 0 0 0 1    T (0, 0, 1, 0) = (0, 0, 0, 1)     0 0 1 0 T (0, 0, 0, 1) = (0, 0, −1, 0) Vamos ver agora que T n˜ ao possui autovalores. Supondo que existe um autovalor λ de T ent˜ao ter´ıamos que, para algum v n˜ao nulo: T (v) = λv =⇒

T (T (v))

= T (λv)

=⇒ −v = λT (v) = λ2 v 2 E portanto λ v + v = 0 =⇒ (λ2 + 1)v = 0 e como v 6= 0V isso implica λ2 = −1. Mas como foi dito, V ´e um espa¸co vetorial real e, portanto, n˜ao existe λ ∈ R que satisfa¸ca tal propriedade (ser autovalor de T ).

Sess˜ ao 6.2 5.0.8

Exerc´ıcio 6.16

Vamos calcular a matriz de T na base canˆonica do espa¸co (pois ´e a base mais f´acil de se trabalhar) e ent˜ ao calcular os autovalores e autovetores da matriz via polinˆomio caracter´ıstico. Seja β = {1, x, x2 } a base canˆ onica de P2 (R). Ent˜ao T (1) = 1, T (x) = x + (x + 1) = 1 + 2x e   1 1 0 h iβ   T (x2 ) = x2 + (x + 1)2x = 2x + 3x2 e portanto A := T = 0 2 2. β

0 0 3   1−λ 1 0   Agora p(λ) = Ker(A − λI3 ) = det  0 2−λ 2  = (1 − λ)(2 − λ)(3 − λ). 0 0 3−λ Portanto as ra´ızes do polinˆ omio caracter´ıstico, i.e. os autovalores de T , s˜ao λ1 = 1, λ2 = 2 e λ3 = 3. Agora vamos calcular os autoespa¸cos de cada autovalor. Autovetores de λ1 Seja p(x) = a + bx + cx2 , ent˜ ao p(x) ∈ Vλ1 ⇐⇒ T (p(x)) = λ1 p(x) = p(x) ⇐⇒ p(x) + (x + 1)p0 (x) = p(x) ⇐⇒(x + 1)p0 (x) = 0 ⇐⇒ (x + 1)(b + 2cx) = 0   b=0   ⇐⇒ b + (2c + b)x + 2cx2 = 0 ⇐⇒ 2c + b = 0 ⇐⇒ a=a, b = 0 e c = 0.    2c = 0 Portanto os autovetores associados a λ1 s˜ao da forma p1 (x) = a · 1. Consequentemente Vλ1 = [1].

CAP´ITULO 5. AUTOVALORES E AUTOVETORES

55

Autovetores de λ2 Seja p(x) = a + bx + cx2 , ent˜ ao p(x) ∈ Vλ2 ⇐⇒ T (p(x)) = 2p(x) 2 ⇐⇒ p(x) + (x + 1)p0 (x) = 2p(x)  ⇐⇒ −a + −bx + −cx + (x + 1)(b + 2cx) = 0   −a + b = 0   2 ⇐⇒ (−a + b) + 2cx + cx = 0 2c = 0 ⇐⇒ a = b e c = 0.    c = 0 Portanto os autovetores associados a λ2 s˜ao da forma p2 (x) = a + ax = a(1 + x).

Consequentemente Vλ2 = [1 + x]. Autovetores de λ3 Seja p(x) = a + bx + cx2 , ent˜ ao p(x) ∈ Vλ3 ⇐⇒ T (p(x)) = 3p(x) ⇐⇒ p(x) + (x + 1)p0 (x) = 3p(x) ⇐⇒ −2a − 2bx − 2cx2 + (x + 1)(b + 2cx) = 0 ⇐⇒ (−2a + b) + (−b + 2c)x = 0 ⇐⇒  −2a + b = 0 ⇐⇒ b = 2a e c = a −b + 2c = 0 Portanto os autovetores associados a λ3 s˜ao da forma p3 (x) = a + 2ax + ax2 = a(1 + 2x + x2 ). Consequentemente Vλ3 = [1 + 2x + x2 ].

5.0.9

Exerc´ıcio 6.21

   T (1, 0, 0) = (1, 1, 2)   Temos que T (0, 1, 0) = (1, −1, 1)    T (0, 0, 1) = (0, 2, −1)   1 1 0 h iβ   A := T = 1 −1 2 .

, e portanto a matriz de T na base β canˆonica de R3 ´e

β

2 1 −1 Calculamos agora o polinˆ omio caracter´ıstico  1−λ  p(λ) = det(A−λI3 ) = det  1 2

1 −1 − λ 1

0



 2  = (1−λ)(−1−λ) +4−( 2(1−λ)+(−1−λ) ) −1 − λ 2

Logo p(λ) = −λ3 − λ2 + 4λ + 4, por inspe¸c˜ao vemos que λ = −1 ´e uma raiz do polinˆomio e logo, p(λ) = (λ + 1)(−λ2 + 4). Portanto as ra´ızes do polinˆomio caracter´ıstico, i.e. os autovalores de T , s˜ ao λ1 = −1, λ2 = 2 e λ3 = −2. Agora calculemos os autoespa¸cos. Autovetores de λ1 Seja v = (x, y, z). Ent˜ ao v ∈ Vλ1

    x −x     ⇐⇒ T (v) = −v ⇐⇒ A y  = −y  z −z

CAP´ITULO 5. AUTOVALORES E AUTOVETORES    x + y = −x   ⇐⇒ x − y + 2z = −y    2x + y − z = −z

56

⇐⇒ x = −2z e y = 4z.

Portanto os elementos de Vλ1 s˜ ao da forma v = (−2z, 4z, z) = z(−2, 4, 1). Consequentemente Vλ1 = [(−2, 4, 1)] Autovetores de λ2

Seja v = (x, y, z). Ent˜ ao v ∈ Vλ2

       x + y = 2x 2x  x      ⇐⇒ T (v) = 2v ⇐⇒ A y  = 2y  ⇐⇒ x − y + 2z = 2y    2z z 2x + y − z = 2z

⇐⇒ x = z = y. Portanto os elementos de Vλ2 s˜ ao da forma v = (y, y, y) = y(1, 1, 1). Consequentemente Vλ2 = [(1, 1, 1)]. Autovetores de λ3 Seja v = (x, y, z). Ent˜ ao v ∈ Vλ3    x + y = −2x   ⇐⇒ x − y + 2z = −2y    2x + y − z = −2z

    x −2x     ⇐⇒ T (v) = −2v ⇐⇒ A y  = −2y  z −2x

⇐⇒ x = z e y = −3z.

Portanto os elementos de Vλ3 s˜ ao da forma v = (z, −3z, z) = z(1, −3, 1). Consequentemente Vλ3 = [(1, −3, 1)]

Talvez uma das OBS. mais importantes deste pdf

OBS.: Para calcular os autovetores no Exerc´ıcio 3.16 utilizamos diretamente a f´ormula da transforma¸c˜ ao T para achar os vetores p(x) tais que T (p(x)) = λp(x). J´a neste Exerc´ıcio 3.21, por quest˜ ao de praticidade, utilizamos a forma matricial de T para calcular os vetores v = (x, y, z) tais que     x h iβ x     T y  = λ y 

F

β

z

z

Caso, por algum motivo, queiramos utilizar uma base α = {a1 , a2 , a3 } diferente da canˆonica para expressar essa equa¸c˜ ao n˜ ao podemos dizer que os autovetores v = (x, y, z) de T ser˜ao tais que     x x h iα     T y  = λ y . Por quˆe?! α

z

z

h iβ h i h i Porque observe que a equa¸c˜ ao F ´e equivalente a T v = λ v . E se mudarmos a base da β

β

β

matriz de T devemos tamb´em mudar a base da matriz de coordenadas do vetor!

CAP´ITULO 5. AUTOVALORES E AUTOVETORES

57

    c1 h iα c1     A corre¸ca ˜o que deveria ser feita ´e a seguinte : achar c1 , c2 , c3 tais que T c2  = λ c2  e α

c3 ent˜ ao concluir que os autovetores s˜ ao da forma v = (x, y, z) = c1 a1 + c2 a2 + c3 a3 .

5.0.10

c3

Exerc´ıcio 6.22 B

B

B

B

z }|4 #{ z }|1 #{ z" }|2 #{ z" }|3 #{ " " 1 0 0 1 0 0 0 0 , , , }. Encontremos a matriz de T na base canˆonica de Mn (R) β = { 0 0 0 0 1 0 0 1 " # " # 2 0 1 2 Temos que T (B1 ) = = 2B1 , T (B2 ) = = B1 + B2 , 0 0 0 0 " # " # 0 0 0 0 T (B3 ) = = 2B3 e T (B4 ) = = 3B4 2 0 0 3   2 1 0 0  h iβ  0 2 0 0   Portanto A := T =   β 0 0 2 0 0 0 0 3 Agora podemos calcular o polinˆ omio caracter´ıstico  2−λ   0  p(λ) = det(A − λI4 ) = det   0  0

1

0

2−λ

0

0

2−λ

0

0

0



  0   = (2 − λ)3 (3 − λ)  0   3−λ

Ent˜ ao as ra´ızes do polinˆ omio caracter´ıstico, i.e. os autovalores de T , s˜ao λ1 = 2 e λ2 = 3. Calculmeos os autoespa¸cos. Autovetores " a Seja A = c  2 1  0 2 ⇐⇒  0 0  0 0

de λ1 # b matriz gen´erica de Mn (R). Ent˜ao A ∈ Vλ1 ⇐⇒ T (A) = 2A d        2a + b = 2a  0 0 a 2a             2b = 2b 0 0   b  =  2b  ⇐⇒ ⇐⇒ b = d = 0       2 0  c   2c   2c = 2c     0 3 d 2d 3d = 2d " # a 0 Portanto os elementos de Vλ1 s˜ ao da forma A = = aB1 + cB3 . c 0 Consequentemente Vλ1 = [B1 , B3 ].

Autovetores de λ2 " # a b Seja A = matriz gen´erica de Mn (R). Ent˜ao A ∈ Vλ2 ⇐⇒ T (A) = 3A c d

CAP´ITULO 5. AUTOVALORES E AUTOVETORES

58

       2a + b = 3a  3a a 1 0 0        2b = 3b     2 0 0   b  =  3b  ⇐⇒ ⇐⇒ a = b = c = 0       0 2 0  c   3c   2c = 3c     3d d 0 0 3 3d = 3d " # 0 0 Portanto os elementos de Vλ2 s˜ ao da forma A = = dB4 . 0 d Consequentemente Vλ2 = [B4 ].  2  0 ⇐⇒  0  0

5.0.11

Exerc´ıcio 6.25

Vamos provar que o polinˆ omio caracter´ıstico de A e o de At s˜ao o mesmo polinˆomio. De fato: pA (x) = det(A − xIn ) = det( (A − xIn )t ) = det(At − xInt ) = det(At − xIn ) = pAt (x) Sendo assim, as ra´ızes de pA e de pAt , i.e. os autovalores de A e de At , coincidem! 

5.0.12

Exerc´ıcio 6.27

Seja λ um autovalor da matriz invert´ıvel A com autovetor associado v (na forma de matriz coluna). Ent˜ ao: In v

= v

=⇒

A−1 Av

= v

=⇒

−1

(λv)

= v

−1

= v

A

=⇒

λA

F

=⇒ Ent˜ ao

v

−1

1 λ

A v = λ1 v ´e um autovalor da matriz A−1 .

OBS.: A implica¸c˜ ao F s´ o ´e v´ alida se λ 6= 0. E na verdade podemos provar que se A ´e invert´ıvel ent˜ ao 0 n˜ ao ´e um de seus autovalores (basta ver que caso 0 fosse autovalor ent˜ao Ker(A) 6= {0}).

5.0.13

Exerc´ıcio 6.28

Calculemos as ra´ızes de pA (t). Temos que:  −t 1  pA (t) = det(A − tI3 ) = det  0 −t 1 E suas ra´ızes, i.e. os autovalores de A, s˜ao 1, −1+i 2



3

0 e

0



 1  = −t3 + 1 −t

√ −1−i 3 . 2

CAP´ITULO 5. AUTOVALORES E AUTOVETORES

5.0.14

59

Exerc´ıcio 6.29 



i h iγ h  Pela defini¸c˜ ao, T =  T (v1 )  γ γ Agora, como

h

T (v2 )

i γ





h i   T (v3 ) . γ 

• T (v1 ) = v1 ; • T (v2 ) = v1 + 2v2 + 3v3 ; • T (v3 ) = v3 ;   1 1 0 h iγ   segue que A := T = 0 2 0. γ 0 3 1 Agora podemos calcular o polinˆ omio caracter´ıstico:  1−t  pT (t) = det(A − tI3 ) = det  0 0

1 2−t 3

0



 0  = (1 − t)2 (2 − t) 1−t

que possui as ra´ızes (autovalores de T ) λ1 = 1 e λ2 = 2. Calculemos agora os autoespa¸cos. Autovetores de λ1 Seja v = (x, y, z) ∈ R3 . Ent˜ ao v ∈ Vλ1

    x x     ⇐⇒ T (v) = λ1 v ⇐⇒ A y  = y  z z

       x+y =x  x 1 0 x      ⇐⇒ y = 0 2 0 y  = y  ⇐⇒ 2y = y    3y + z = z 0 3 1 z z Portanto os elementos de Vλ1 s˜ ao da forma v = (x, 0, z) = x(1, 0, 0) + z(0, 0, 1).  1  ⇐⇒ 0

Consequentemente Vλ1 = [(1, 0, 0), (0, 0, 1)]. Autovetores de λ2     x 2x     Seja v = (x, y, z) ∈ R3 . Ent˜ ao v ∈ Vλ2 ⇐⇒ T (v) = λ2 v ⇐⇒ A y  = 2y  2z z        x + y = 2x 1 1 0 x 2x        ⇐⇒ 0 2 0 y  = 2y  ⇐⇒ 2y = 2y ⇐⇒ x = y e z = 3y    0 3 1 z 2z 3y + z = 2z Portanto os elementos de Vλ2 s˜ ao da forma v = (y, y, 3y) = y(1, 1, 3). Consequentemente Vλ2 = [(1, 1, 3)].

CAP´ITULO 5. AUTOVALORES E AUTOVETORES

60

Sess˜ ao 6.3 5.0.15

Exerc´ıcio 6.42

Calculemos os autovalores e autovetores de A. Temos que:  1−t  pA (t) = det(A − tI3 ) = det  0 0

1 2−t 0

1



 1  = (1 − t)2 (2 − t) 1−t

que possui como ra´ızes λ1 = 1 com ma (λ1 ) = 2 e λ2 = 2 com ma (λ2 ) = 1. Autovetores de λ1       x x x       ao v ∈ Vλ1 ⇐⇒ A y  = y  Seja v = y . Ent˜ z z        x+y+z =x  x 1 1 x      ⇐⇒ y = −z 2 1 y  = y  ⇐⇒ 2y + z = y    z = z z z 0 0 1 Portanto os elementos de Vλ1 s˜ ao da forma v = (x, −z, z) = x(1, 0, 0) + z(0, −1, 1). z

 1  ⇐⇒ 0

Consequentemente Vλ1 = [(1, 0, 0), (0, −1, 1)]. E segue que mg (λ1 ) = dim(Vλ1 ) = 2. Autovetores de λ2       x x 2x       Seja v = y . Ent˜ ao v ∈ Vλ2 ⇐⇒ A y  = 2y  z z 2z        x + y + z = 2x  2x 1 1 1 x       ⇐⇒ 0 2 1 y  = 2y  ⇐⇒ 2y + z = 2y    z = 2z 2z 0 0 1 z

⇐⇒ z = 0 e x = y

Portanto os elementos de Vλ2 s˜ ao da forma v = (y, y, 0) = y(1, 1, 0). Consequentemente Vλ2 = [(1, 1, 0)]. E segue que mg (λ2 ) = dim(Vλ2 ) = 1.

5.0.16

Exerc´ıcio 6.43

Os autovalores de matrizes similares s˜ ao os mesmos! Vamos provar que se A e B s˜ao matrizes similares ent˜ ao vale que pA (t) = pB (t). De fato,

CAP´ITULO 5. AUTOVALORES E AUTOVETORES

pA (t)

=

det(A − tIn )

=

det(P −1 BP − tIn )

=

det( P −1 (B − tIn )P )

1

=

det(P −1 ) · det(B − tIn ) · det(P )

2

det(B − tIn )

=

= pB (t) Onde nas igualdades det(A

−1

)=

5.0.17

1 det(A) ,

1

e

2

61

usamos as propriedades dos determinantes det(AB) = det(A) det(B) e

respectivamente.

Exerc´ıcio 6.45

(a) Vamos provar que AB e BA possuem o mesmo polinˆomio caracter´ıstico. De fato, pAB (t)

=

det(AB − λIn )

=

det( (AB − λIn )AA−1 )

=

det(ABAA−1 − λAA−1 )

=

det(A(BA − λIn )A−1 )

=

det(A) det(A−1 ) det(BA − λIn )

=

det(BA − λIn )

= pBA (t) Portanto AB e BA possuem os mesmos autovalores (ra´ızes do polinˆomio caracter´ıstico). 

5.0.18

Exerc´ıcio 6.46

No Exerc´ıcio 6.43 vimos que se A e B s˜ao matrizes similares ent˜ao elas possuem o mesmo polinˆ omio caracter´ıstico. Logo n˜ ao s´ o os autovalores dessas matrizes coincidem mas tamb´em suas respectivas multiplicidades alg´ebricas. Resta-nos ver se a multiplicidade geom´etrica tamb´em ´e mantida. Agora, dizer que A e B s˜ ao matrizes similares ´e dizer que A = P −1 BP para alguma matriz invert´ıvel P . Fixado um autovalor λ de A queremos provar que dim(Vλ ) = dim(Vλ0 ) onde Vλ ´e o autoespa¸co de λ como autovalor de A e Vλ0 ´e o autoespa¸co de λ como autovalor de B. Seja ent˜ ao β = {v1 , · · · , vk } uma base para Vλ . Para cada autovetor vi vale que: P −1 BP vi = Avi = λvi E al´em disso, λ(P vi ) = P (λvi ) = P (Avi ) = P (P −1 BP vi ) = B(P vi )

CAP´ITULO 5. AUTOVALORES E AUTOVETORES

com P vi 6= 0, pois vi 6= 0 e P ´e invert´ıvel

F

62

.

Portanto P vi (i = 1, · · · , k) s˜ ao autovetores de B associados ao mesmo autovalor λ. Agora se provarmos que β 0 = {P v1 , · · · , P vk } ´e L.I. estar´a provado que dim(Vλ ) ≤ dim(Vλ0 ). E de fato isso acontece: supondo escalares c1 , · · · , ck tais que c1 (P v1 ) + · · · + ck (P vk ) = 0 temos que 0 = c1 (P v1 ) + · · · + ck (P vk ) = P (c1 v1 + · · · + ck vk ) e como P ´e invert´ıvel isso implica que c1 v1 + · · · + ck vk = 0, disso c1 = c2 = · · · = ck = 0 pois {v1 , · · · , vk } = β ´e uma base. Logo β 0 ´e realmente L.I.. Agora preciso provar que dim(Vλ0 ) ≤ dim(Vλ ). Para isso, suponha que α0 = {w1 , · · · , wm } seja uma base de Vλ0 . Temos que B = P AP −1 e analogamente ao caso anterior podemos provar que α = {P −1 w1 , · · · , P −1 wm } ser´ a um conjunto L.I. de autovetores de A associados a λ, o que implica que dim(Vλ0 ) ≤ dim(Vλ ). De dim(Vλ ) ≤ dim(Vλ0 ) e dim(Vλ0 ) ≤ dim(Vλ ) conclu´ımos finalmente que dim(Vλ ) = dim(Vλ0 ) e consequentemente a transforma¸c˜ ao de similaridade tamb´em conserva a multiplicidade geom´etrica dos autovalores!  OBS.F : Se v 6= 0 e P ´e uma matriz invert´ıvel ent˜ao P v 6= 0. De fato, (pela contrapositiva) suponha P v = 0, logo P −1 P v = P −1 · 0 =⇒ v = 0. Outra maneira hde ienxergar essa afirma¸c˜ao ´e olhar P como uma matriz de uma tranforma¸c˜ao liγ near, i.e. P = T para alguma base γ. Ent˜ao ser invert´ıvel ´e equivalente a T ser bijetora, o γ

que implica que Ker(T ) = {0} e logo vale a implica¸c˜ao v 6= 0 =⇒ P v 6= 0.

Sess˜ ao 6.4 5.0.19

Exerc´ıcio 6.51

Note que para todo vetor (matriz coluna) v vale que (Qv)t Qv = v t Qt Qv = v t v pois Qt = Q−1 . Agora se considerarmos v um autovetor de Q com autovalor associado λ ∈ R temos que: (Qv)t Qv = (λv)t λv = λ2 v t v E portanto λ2 v t v = v t v. Como v 6= 0 disso temos λ2 = 1 =⇒ |λ| = 1 =⇒ λ = 1 ou λ = −1.

5.0.20

Exerc´ıcio 6.52

O polinˆ omio caracter´ıstico de uma matriz Q ∈ Mn (R) ´e um polinˆomio com coeficientes reais. ¯ Sendo assim se λ ∈ C ´e uma raiz desse polinˆomio, i.e. λ ´e um autovalor complexo, ent˜ao λ

CAP´ITULO 5. AUTOVALORES E AUTOVETORES

63

tamb´em ´e raiz do polinˆ omio! OBS.: Note que Q n˜ ao precisa ser ortogonal para satisfazer isso.

5.0.21

Exerc´ıcio 6.53

Se A ∈ Mn (R) ent˜ ao o grau do polinˆ omio caracter´ıstico pA (t) = det(A − tIn ) ´e n. Sendo assim, temos um polinˆ omio com coeficientes reais de grau n. ¯ tamb´em ´e autovalor. Como vimos no Exerc´ıcio 6.52, se existe um autovalor complexo λ ent˜ao λ Agora note que se todos os autovalores n˜ao fossem n´ umeros reais, ter´ıamos para cada λ outro ¯ o que nos levaria a um n´ autovalor diferente λ umero par de autovalores. Sendo assim, se n ´e ´ımpar obrigatoriamente devemos ter um autovalor real.

5.0.22

Exerc´ıcio 6.60

(∗ )Neste exerc´ıcio, podemos entender melhor os passos usando o fato de que toda matriz A ∈ Mn (R) pode ser vista como matriz de um operador linear numa base A = [T ]α α . Agora observe que “A ´e invert´ıvel ⇐⇒ T ´e bijetora ”. Sendo assim, considere A uma matriz positiva-definida (xt Ax > 0 ∀x 6= 0). Suponha, por absurdo, que A pode ser n˜ao-invert´ıvel. Sendo assim, existe um vetor n˜ao-nulo v ∈ Ker(A), pois caso contr´ ario (∗ ) nos diria que T ´e bije¸c˜ao. Disso temos que Av = 0 =⇒ v t Av = 0 e v 6= 0, que ´e uma contradi¸c˜ao pois assumimos que A ´e positiva-definida. Portanto A positiva-definida =⇒ A invert´ıvel. Agora, sabemos que “A sim´etrica ´e positiva-definida ⇐⇒ todos seus autovalores s˜ao positivos (Teorema 6.4.5)”. Agora, sabemos que os autovalores de A−1 s˜ao todos da forma

1 λ,

onde λ ´e um

autovalor de A (Exerc´ıcio 6.27). Disso ´e imediato que se todos os autovalores de A s˜ao positivos ent˜ao todos os autovalores de A−1 tamb´em s˜ ao positivos, i.e. A positiva-definida =⇒ A−1 positiva-definida.

5.0.23

Exerc´ıcio 6.61

Vamos provar que se uma matriz sim´etrica A ´e semipositiva-definida e, al´em disso, n˜ ao ´e positivadefinida, ent˜ ao det(A) = 0 e λ = 0 ´e um autovalor de A. Se tiv´essemos Ker(A) 6= {0} ent˜ ao Av 6= 0 ∀v 6= 0 =⇒ v t Av 6= 0 ∀v 6= 0 o que n˜ao acontece por hip´ otese. Logo existe um vetor n˜ ao-nulo v tal que Av = 0 = 0 · v e portanto λ = 0 ´e um autovalor de A. Al´em disso, A ∈ Mn (R) n˜ ao pode ser invert´ıvel pois se consideramos A := [T ]α ao Ker(A) 6= α ent˜ {0} implica que T n˜ ao ´e injetora e logo T n˜ao ´e bijetora, que ´e equivalente a dizer que A n˜ao ´e invert´ıvel (i.e. det(A) = 0).

CAP´ITULO 5. AUTOVALORES E AUTOVETORES

64

Sess˜ ao 6.6 Nesta sess˜ ao utilizaremos exaustivamente o Teorema 6.6.6 que afirma resumidamente que: “T ´e diagonaliz´ avel ⇐⇒ existe uma base de autovetores de T ”.

5.0.24

Exerc´ıcio 6.65

Calculemos primeiramente os autovalores e autovetores do operador linear T . Encontremos a matriz de T na base canˆonica de R3 , β = {(1, 0, 0), (0, 0, 1), (0, 0, 1)}. Temos que T (1, 0, 0) = (−3, 2, 0) T (0, 1, 0) = (−4, 3, 0) T (0, 0, 1) = (0, 0, −1)  −3 h iβ  Portanto A := T =  2 β

0

−4 3 0

0



 0 −1

 −3 − λ  Agora podemos calcular o polinˆ omio caracter´ıstico p(λ) = det(A−λI3 ) = det  2

−4 3−λ

0 0 (−3 − λ)(3 − λ)(−1 − λ) + 8(−1 − λ) = (−1 − λ)[(3 − λ)(−3 − λ) + 8] = (−1 − λ)(λ2 − 1) Ent˜ ao as ra´ızes do polinˆ omio caracter´ıstico, i.e. os autovalores de T , s˜ao λ1 = 1 e λ2 = −1. Do polinˆ omio caracter´ıstico conclu´ımos que ma (λ1 ) = 1 e ma (λ2 ) = 2. Calculmeos agora os autoespa¸cos. Autovetores de λ1 Seja v = (x, y, z) vetor gen´erico de R3 . Ent˜ao v ∈ Vλ1 ⇐⇒ T (x, y, z) = (x, y, z) ⇐⇒ Av = v (escrevendo o vetor como matriz coluna). Disso temos que: v ∈ Vλ1        −3x − 4y = x −3 −4 0 x x        ⇐⇒ z = 0; x = −y 3 0  y  = y  ⇐⇒ 2 2x + 3y = y    −z = z 0 0 −1 z z

⇐⇒

Portanto os elementos de Vλ1 s˜ ao da forma v = (−y, y, 0) = y(−1, 1, 0). Consequentemente Vλ1 = [(−1, 1, 0)] e observe que disso conclu´ımos que mg (λ1 ) = dim(Vλ1 ) = 1. Autovetores de λ2 Seja v = (x, y, z) vetor gen´erico de R3 . Ent˜ao v ∈ Vλ2 ⇐⇒ T (x, y, z) = −1 · (x, y, z) ⇐⇒ Av = −v (escrevendo o vetor como matriz coluna). Disso temos que:         −3x − 4y = −x −3 −4 0 x −x        ⇐⇒ x = −2y v ∈ Vλ2 ⇐⇒  2 3 0  y  = −y  ⇐⇒ 2x + 3y = −y    0 0 −1 z −z −z = −z Portanto os elementos de Vλ2 s˜ ao da forma v = (−2y, y, z) = y(−2, 1, 0) + z(0, 0, 1). Consequentemente Vλ2 = [(−2, 1, 0), (0, 0, 1)] e observe que disso conclu´ımos que mg (λ2 ) =

0



  = −1 − λ 0

CAP´ITULO 5. AUTOVALORES E AUTOVETORES

65

dim(Vλ2 ) = 2. Finalmente como dim(Vλ1 ) + dim(Vλ2 ) = dim(R3 ) conseguimos encontrar uma base para R3 formada por autovetores de T . De fato, o conjunto de autovetores β = {(−1, 1, 0), (−2, 1, 0), (0, 0, 1)} ´e L.I. (e portanto base); Podemos verificar manualmente que β ´e L.I. ou usar o fato de que autovetores associados a autovalores distintos s˜ ao L.I. entre si (e os autovetores com mesmo autovalor associado s˜ao L.I. entre si pois s˜ ao integrantes da base do autoespa¸co). Tendo feito isso provamos que β ´e uma base de R3 formada por autovetores e, como diz o Teorema 6.6.6, fica provado que T ´e um operador linear diagonaliz´avel.

5.0.25

Exerc´ıcio 6.69

Calculemos primeiramente os autovalores e autovetores do operador linear T . Encontremos a matriz de T na base canˆonica de P2 (R), β = {1, x, x2 }. Temos que T (1) = 0 T (x) = 2 + 2x T (x2 ) = 1 − x + 2x2  0 h iβ  Portanto A := T = 0

2

1



 −1 0 0 2 Agora podemos calcular o polinˆ omio caracter´ıstico β

2

 −λ  p(λ) = det(A − λI3 ) = det  0 0

2 2−λ 0

1



 −1  = (−λ)(2 − λ)2 2−λ

Ent˜ ao as ra´ızes do polinˆ omio caracter´ıstico, i.e. os autovalores de T , s˜ao λ1 = 0 e λ2 = 2. Do polinˆ omio caracter´ıstico conclu´ımos que ma (λ1 ) = 1 e ma (λ2 ) = 2. Calculmeos agora os autoespa¸cos. Autovetores de λ1 Para economizar esfor¸co, podemos usar um m´etodo diferente do Exerc´ıcio 6.65. Sei que λ1 = 0 ´e autovalor de T . Ent˜ ao existe um p1 (x) 6= 0 tal que p1 (x) ´e autovetor associado a λ1 . E como ma (λ1 ) = 1 e 1 ≤ mg (λ1 ) ≤ ma (λ1 ) = 1, segue que dim(Vλ1 ) = mg (λ1 ) = 1. E veremos que saber a dimens˜ ao dos autoespa¸cos ´e suficiente para determinar se um operador ´e diagonaliz´ avel ou n˜ ao! Pois “a soma da dimens˜ao dos autoespa¸cos ´e igual a dimens˜ao do espa¸co todo ⇐⇒ o operador ´e diagonaliz´ avel” (essa afirma¸c˜ao ´e equivalente a dizer que um operador ´e diagonaliz´ avel ⇐⇒ existe uma base de autovetores). Autovetores de λ2 Neste caso, n˜ ao conseguimos um argumento similar ao anterior pois ma (λ2 ) > 1. Isto ´e, n˜ao

CAP´ITULO 5. AUTOVALORES E AUTOVETORES

66

conseguimos de maneira r´ apida concluir a existˆencia de um conjunto L.I. de autovetores sem calcular os autovetores explicitamente. Ent˜ao calculemos eles. Seja p(x) = a + bx + cx2 vetor gen´erico de P2 (R). Ent˜ao p(x) ∈ Vλ2 ⇐⇒ T (p(x)) = 2 · p(x) ⇐⇒ (2b + c) + (2b − c)x + 2cx2 = 2a + 2bx + 2cx2 ⇐⇒ (2b + c − 2a) + (2b − c − 2b)x + (2c − 2c)x2 = 0P2 (R) . Disso temos  que:  2b + c − 2a = 0   p(x) ∈ Vλ2 ⇐⇒ −c = 0    0 = 0

, que possui solu¸c˜ao c = 0 e b = a.

Portanto os elementos de Vλ2 s˜ ao da forma p(x) = a + ax = a(1 + x). Consequentemente Vλ2 = [1 + x] e observe que disso conclu´ımos que mg (λ2 ) = dim(Vλ2 ) = 1. Sendo assim, n˜ ao ´e poss´ıvel encontrar uma base de autovetores, pois conseguimos apenas um conjunto L.I. de no m´ aximo dois autovetores {p1 (x), 1 + x} e dim(P2 (R)) = 3. Logo n˜ao existe base de autovetores e portanto T n˜ ao ´e um operador diagonaliz´avel.

OBS.: Em geral, quando encontrarmos que mg (λ) < ma (λ) para algum autovalor λ isso j´a ser´a suficiente para concluirmos que o operador em quest˜ao n˜ao ´e diagonaliz´avel (Por quˆe? ).

5.0.26

Exerc´ıcio 6.70

A base ordenada que o exerc´ıcio nos pede ´e simplesmente uma base de autovetores (Por quˆe? ). Ent˜ ao vamos calcular os autovetores de T . Do Exerc´ıcio 6.11 temos que os autovalores de T s˜ao λ1 = 1 e λ2 = −1. Autovetores de λ1   a b c   Seja A = d e f  uma matriz gen´erica g h i    a d g a b    t ⇐⇒ A = A ⇐⇒  b e h = d e c

f

i

Portanto os elementos de Vλ1

g

h

de M3 (R). Ent˜ao A ∈ Vλ1 ⇐⇒ T (A) = A

c



 f  ⇐⇒ i

 a  s˜ ao da forma A =  b

   b=d   c=g .    f = h  b c  e f f i   0 0 0   1 0 +f 0

c       0 0 0 1 0 0 0 1 0       0 0 +b 1 0 0 +c 0 0 0 +e 0 0 0 0 0 0 0 1 0 0 0 0 0 | | | | {z } {z } {z } {z }

 1  = a 0

A1

A2

A3

Consequentemente Vλ1 = [A1 , A2 , A3 , A4 , A5 , A6 ]. Autovetores de λ2

A4

   0 0 0 0    0 1 +i 0 0 0. 0 1 0 0 0 1 | {z } | {z } 0

A5

A6

CAP´ITULO 5. AUTOVALORES E AUTOVETORES

67



 a  Seja A = d

b

c

e

 f  uma matriz gen´erica de M3 (R). Ent˜ao A ∈ Vλ2 ⇐⇒ T (A) = −A

g

h

i

 a  t ⇐⇒ A = −A ⇐⇒  b

d

c

f

e

Portanto os elementos de Vλ2

   a=e=i=0       −a −b −c g  b = −d    h = −d −e −f  ⇐⇒   c = −g  −g −h −i i    f = −h   0 b c   s˜ ao da forma A = −b 0 f  −c −f 0    1 0 0 0    0 +f 0 0 1.

  0 0 0    = b −1 0 0 +c  0 0 −1 0 0 0 0 0 | | {z } {z } 

0

1

B1

B2

0 |

−1 {z B3

.

0 }

Consequentemente Vλ2 = [B1 , B2 , B3 ]. h iβ Portanto conclu´ımos que a base procurada ´e β = {A1 , A2 , A3 , A4 , A5 , A6 , B1 , B2 , B3 }, pois T β

´e sempre diagonal se β ´e base de autovetores.

5.0.27

Exerc´ıcio 6.72

Novamente recorremos ao Teorema 4.2.1 que diz, resumidamente, que: “Uma transforma¸c˜ ao linear fica completamente determinada pelos seus valores numa base” Prosseguimos da seguinte maneira: Colocamos • T (1, 0, 1) = (0, 0, 0) = 0 · (1, 0, 1) para incluir u = (1, 0, 1) no n´ ucleo. E agora, colocamos • T (0, 1, 0) = 1 · (0, 1, 0) • T (0, 0, 1) = 2 · (0, 0, 1) para satisfazer a condi¸c˜ ao de T ser diagonaliz´avel! A estrat´egia de colocar cada vetor da base escolhida como um autovetor associado a um autovalor diferente ´e sempre boa porque, ap´os calcularmos a f´ormula expl´ıcita de T , provar que T ´e diagonaliz´ avel ser´ a bem r´ apido. De fato, calculando a f´ ormula de T obtemos (exemplo mais detalhado de como calcular a f´ormula expl´ıcita de um operador no Exerc´ıcio 4.6) : (x, y, z) = c1 (1, 0, 1) + c2 (0, 1, 0) + c3 (0, 0, 1) =⇒ c1 = x, c2 = y e c3 = z − x. E portanto: T (x, y, z) = y(0, 1, 0) + (z − x)(0, 0, 2) = (0, y, 2z − 2x)

CAP´ITULO 5. AUTOVALORES E AUTOVETORES

68

Agora podemos concluir que T ´e diagonaliz´avel pois possui 3 autovalores distintos: λ1 = 0, λ2 = 1 e λ3 = 2, o que implica que existe um autovetor vi associado a cada autovalor λi e β = {v1 , v2 , v3 } ´e L.I. pois ´e formado por autovetores de autovalores distintos (e portanto β ´e base de R3 ). OBS.: Como sempre, ´e uma boa pr´ atica verificar (no rascunho) se o operador encontrado realmente satisfaz as propriedades requeridas.

Sess˜ ao 6.7 5.0.28

Exerc´ıcio 6.88

Vamos provar que x∗ Ax = x∗ Ax. De fato, temos que x∗ Ax = x∗ Ax = xt Ax. Agora como xt Ax ´e uma matriz 1×1 podemos aplicar a transposta sem alterar nada. Logo x∗ Ax = xt Ax = (xt Ax)t = x∗ A∗ x = x∗ Ax E isso s´ o pode acontecer se x∗ Ax for um n´ umero real.

5.0.29



Exerc´ıcio 6.92

(a) Se A ´e diagonaliz´ avel ent˜ ao existe uma matriz invert´ıvel P tal que A = P DP −1 , onde D ´e a matriz diagonal dos autovalores de A. Disso, det(A) = det(P ) det(P −1 ) det(D) = det(D) = λ1 · · · λn

(b) Da mesma forma, tr(A) = tr(P DP −1 ) = tr(P −1 P D) = tr(D) = λ1 + · · · + λn

5.0.30

Exerc´ıcio 6.94

Basta diagonalizar a matriz A e ent˜ ao ortonormalizar a base de autovetores encontrada. Autovalores de A  −t 1  p(t) = det(A − tI3 ) = det  1 −t

1



 1  = −t3 + 3t + 2 = (2 − t)(t + 1)2 1 1 −t Logo os autovalores s˜ ao λ1 = −1 e λ2 = 2 Autovetores de A

CAP´ITULO 5. AUTOVALORES E AUTOVETORES        x+y+z =0  x 1 1 x      0 1 y  = −1 · y  ⇐⇒ x + y + z = 0    z x + y + z = 0 z 1 1 0 ⇐⇒ v = (−y − z, y, z) = y(−1, 1, 0) + z(−1, 0, 1)

 0  Av = λ1 v ⇐⇒ 1

69

⇐⇒ x = −y − z

Portanto Vλ1 = [(−1, 1, 0), (−1, 0, 1)].        −2x + y + z = 0 x  1 x      0 1 y  = 2 · y  ⇐⇒ x − 2y + z = 0    z z 1 1 0 x + y − 2z = 0 ⇐⇒ v = (x, x, x) = x(1, 1, 1)

 0  Av = λ2 v ⇐⇒ 1

1

⇐⇒ x = y = z

Portanto Vλ2 = [(1, 1, 1)]. v

v

v

z }|1 { z }|2 { z }|3 { Consequentemente, β = {(−1, 1, 0), (−1, 0, 1), (1, 1, 1)} ´e uma base de autovetores de A. Note que β n˜ ao ´e uma base ortonormal. Agora aplicamos o processo de Gram-Schmidt na base beta para obter uma base α = {q1 , q2 , q3 } ortonormal. w 1 = v1 w 2 = v2 − w 3 = v3 −

hv2 ,q1 i hq1 ,q1 i q1 hv3 ,q1 i hq1 ,q1 i q1

hv3 ,q2 i hq2 ,q2 i q2 qi = kw1i k wi



Finalmente fazemos

Fazendo as contas obtemos q1 =

para i = 1, 2, 3 e obtemos a base ortonormal α. √1 (−1, 1, 0), 2

q2 =

√ √2 (−1/2, −1/2, 1) 3

e q3 =

√1 (1, 1, 1) 3

como os

elementos da base  ortonormal √ de√autovetores. √  √ −1/ 2 − 2/2 3 1/ 3 √ √ √   √ Portanto Q =  1/ 2 − 2/2 3 1/ 3 ´e a matriz ortogonal procurada. √ √ √ 0 2/ 3 1/ 3

5.0.31

Exerc´ıcio 6.95

OBS.: No livro do Pulino, foi definido uma matriz ser “positiva-definida” no caso que a matriz, por hip´ otese, j´ a era sim´etrica. Sendo assim, neste exerc´ıcio fica subentendido (ou n˜ao) que A ´e uma matriz sim´etrica. Este caso particular ´e bem mais simples e ser´a feito abaixo. Uma resposta mais geral tamb´em ser´ a feita ap´ os. Se A ´e sim´etrica, dizer que A ´e positiva-definida ´e equivalente a dizer que todos os autovalores de A s˜ ao positivos. Sendo assim, como toda matriz sim´etrica ´e diagonaliz´avel, A = P −1 DP , onde D ´e a matriz diagonal de autovalores. Segue que det(A) = det(P ) det(P −1 ) det(D) = det(D) = λ1 · ... · λn > 0, pois λi > 0 (i = 1, · · · , n).



No caso em que n˜ ao assumimos que A ´e sim´etrica, a prova ´e mais longa. Considere a fun¸c˜ ao f (t) = det(tIn + (1 − t)A)

CAP´ITULO 5. AUTOVALORES E AUTOVETORES

70

definida em [0, 1]. Observe que f ´e cont´ınua e que f (0) = det(A) e f (1) = det(In ) = 1. Nosso objetivo agora ´e mostrar que f n˜ao se anula, pois disso (usando o Teorema do Valor Intermedi´ ario) teremos que det(A) > 0 (pois 1 > 0). Agora, observe que a matriz tIn + (1 − t)A tamb´em ´e positiva-definida para todo t ∈ [0, 1] pois xT (tIn − (1 − t)A)x = txT x + (1 − t)xT Ax > 0 j´ a que xT Ax, t, (1 − t) > 0. Agora, como matrizes positivas-definidas s˜ao invert´ıveis segue que f (t) = det(tIn + (1 − t)A) 6= 0 ∀t ∈ [0, 1]

5.0.32 F



Exerc´ıcio 6.100

Usaremos o Teorema 6.7.10 para dizer que os autovalores n˜ao-nulos de uma matriz anti-sim´etrica

s˜ ao necessariamente imagin´ arios puros. Como I − A ∈ Mn (R), vamos provar que Ker(I − A) = {0} e disso concluir que I − A ´e invert´ıvel (argumento melhor justificado em (*)Exerc´ıcio 6.60). De fato, v ∈ Ker(I − A) ⇐⇒ (I − A)v = 0 ⇐⇒ v − Av = 0 ⇐⇒ Av = v. Logo supondo, por absurdo, que v 6= 0 conclu´ımos que v ´e autovetor de A com autovalor λ = 1. Mas isto ´e uma contradi¸c˜ ao pois matrizes anti-sim´etricas possuem apenas autovalores nulos ou imagin´ arios puros. Logo Ker(I − A) = {0} e portanto I − A ´e invert´ıvel. An´ alogo para I + A. Agora, vamos provar que a matriz B := (I − A)(I + A)−1 satisfaz B t B = I (e portanto ´e ortogonal). Primeiro, note que as matrizes I − A e I + A comutam. Isto ´e, (I − A)(I + A) = I − A2 = (I + A)(I − A). Agora, note que B t = ((I + A)−1 )t (I − A)t = ((I + A)t )−1 (I − A)t = (I + At )−1 (I − At ) = (I − A)−1 (I + A). E finalmente, B t B = (I − A)−1 (I + A)(I − A)(I + A)−1 = (I − A)−1 (I − A)(I + A)(I + A)−1 = I

5.0.33

Exerc´ıcio 6.101

Observe que A ´e uma matriz sim´etrica. Sendo assim A ´e positiva-definida se, e somente se, todos os seus autovalores s˜ao positivos. Ent˜ ao vamos calcul´ a-los!



CAP´ITULO 5. AUTOVALORES E AUTOVETORES

71

Note que o polinˆ omio caracter´ıstico de A,  5−t  pA (t) = det(A − tI3 ) = det  −1 2

−1 8−t −1

2



 −1  5−t

possui ra´ızes λ1 = 3, λ2 = 6 e λ3 = 9. Sendo assim, todos os autovalores da matriz sim´etrica A s˜ao positivos e, portanto, A ´e uma matriz positiva  definida. 3 0 0   ao existe uma matriz invert´ıvel P tal que A = P DP −1 (toda matriz Seja D = 0 6 0, ent˜ 0 0 9 sim´etrica ´e diagonaliz´ avel). Disso, analogamente ao Exerc´ıcio 6.92, conclu´ımos que det(A) = 3 · 6 · 9 = 162 e tr(A) = 3 + 6 + 9 = 18.

5.0.34

Exerc´ıcio 6.108

Vamos provar que se A ´e congruente a identidade ent˜ao A ´e positiva-definida. De fato, se A ´e congruente a In ent˜ ao existe uma matriz invert´ıvel P tal que A = P In P t = P P t . Agora considere um vetor x n˜ ao-nulo. Ent˜ao xt Ax = xt (P P t )x = (P t x)t (P t x) = hP t x, P t xi > 0 pois P invert´ıvel =⇒ P t invert´ıvel =⇒ Ker(P t ) = {0} =⇒ P t x 6= 0, se x 6= 0. Disso conclu´ımos que para todo vetor x n˜ao-nulo vale que xt Ax > 0. Logo A ´e positiva-definida. E como A ´e uma matriz sim´etrica, ser positiva-definida ´e equivalente a dizer que todos os autovalores de A s˜ ao positivos.



Smile Life

When life gives you a hundred reasons to cry, show life that you have a thousand reasons to smile

Get in touch

© Copyright 2015 - 2024 AZPDF.TIPS - All rights reserved.