37
i

Leon Solutions

Embed Size (px)

DESCRIPTION

Manual de soluções. SteveLeon

Citation preview

  • i

  • Material SupleMentar para acoMpanhar

    ] lgebra Linear com Aplicaes

    Oitava Edio

    Steven J. LeonUniversity of Massachusetts, Dartmouth

    Traduo e Reviso Tcnica

    Srgio Gilberto TaboadaDocteur Ingnieur cole Nationale Suprieure de lAronautique et de lEspace Toulouse Frana

    Professor Associado II do Centro Federal de Educao Tecnolgica Celso Suckow da Fonseca (CEFET-RJ)

  • Authorized translation from the English language edition, entitled LINEARALGEBRA WITH APPLICATIONS, 8th Edition by STEVEN J. LEON, published byPearson Education, Inc., publishing as Prentice Hall, Copyright 2010 byPearson Education, Inc.

    All rights reserved. No part of this book may be reproduced or transmitted inany form or by any means, electronic or mechanical, including photocopying,recording or by any information storage retrieval system, without permissionfrom Pearson Education, Inc.

    PORTUGUESE language edition published by LTC LIVROS TCNICOS ECIENTFICOS EDITORA LTDA., Copyright 2011.Traduo autorizada da edio em lngua inglesa intitulada LINEAR ALGEBRA WITH APPLICATIONS, 8th Edition by LEON, STEVEN J., published by Pearson Education, Inc., publishing as Prentice Hall, Copyright 2010 by Pearson Education, Inc.Reservados todos os direitos. Nenhuma parte deste livro pode ser reproduzida ou transmitida sob quaisquer formas ou por quaisquer meios, eletrnico ou mecnico, incluindo fotocpia, gravao, ou por qualquer sistema de armazenagem e recuperao de informaes sem permisso da Pearson Education, Inc.

    Edio em lngua PORTUGUESA publicada por LTC LIVROS TCNICOS E CIENTFICOS EDITORA LTDA. Copyright 2011.

    Direitos exclusivos para a lngua portuguesaCopyright 2011 byLTC Livros Tcnicos e Cientficos Editora Ltda.Uma editora integrante do GEN | Grupo Editorial NacionalReservados todos os direitos. proibida a duplicao ou reproduo deste volume, no todo ou em parte, sob quaisquer formas ou por quaisquer meios (eletrnico, mecnico, gravao, fotocpia, distribuio na internet ou outros), sem permisso expressa da editora.Travessa do Ouvidor, 11Rio de Janeiro, RJ CEP 20040-040Tels.: 21-3543-0770 / 11-5080-0770Fax: [email protected]

    Capa: Leonardo QueirozEditorao Eletrnica:

    Este Material Suplementar contm as Respostas referentes ao livro-texto e que podem ser usadas como apoio para o livro lgebra Linear com Aplicaes, Oitava Edio, 2010. Este material de uso exclusivo de professores e estudantes da matria.

  • 1 Matrizes e Sistemas de Equaes 1 1.1 Sistemas de Equaes Lineares 1 1.2 Forma Linha Degraus 2 1.3 Aritmtica Matricial 2 1.4 lgebra Matricial 3 1.5 Matrizes Elementares 4

    2 Determinantes 5 2.1 O Determinante de uma Matriz 5 2.2 Propriedades dos Determinantes 5 2.3 Tpicos Adicionais e Aplicaes 6

    3 Espaos Vetoriais 8 3.1 Definio e Exemplos 8 3.2 Subespaos 8 3.3 Independncia Linear 9 3.4 Base e Dimenso 10 3.5 Mudana de Bases 10 3.6 Espao Linha e Espao Coluna 11

    4 Transformaes Lineares 13 4.1 Definio e Exemplos 13 4.2 Representao Matricial de Transformaes Lineares 13 4.3 Similaridade 14

    5 Ortogonalidade 16 5.1 O Produto Escalar em Rn 16 5.2 Subespaos Ortogonais 16 5.3 Problemas de Mnimos Quadrados 17 5.4 Espaos de Produto Interno 18 5.5 Conjuntos Ortonormais 18 5.6 O Processo de Ortogonalizao de Gram-Schmidt 19 5.7 Polinmios Ortogonais 20

    6 Autovalores 22 6.1 Autovalores e Autovetores 22 6.2 Sistemas de Equaes Diferenciais Lineares 22 6.3 Diagonalizao 23 6.4 Matrizes Hermitianas 24 6.5 A Decomposio em Valores Singulares 24 6.6 Formas Quadrticas 25 6.7 Matrizes Definidas Positivas 26 6.8 Matrizes No Negativas 27

    Sumrio

    Sees opcionais. Estas sees no so pr-requisitos a quaisquer outras no livro.

  • Sumrio

    7 lgebra Linear Numrica 28 7.1 Nmeros em Ponto Flutuante 28 7.2 Eliminao Gaussiana 28 7.3 Estratgias de Pivotamento 29 7.4 Normas Matriciais e Condicionamento 30 7.5 Transformaes Ortogonais 30 7.6 O Problema dos Autovalores 31 7.7 Problemas de Mnimos Quadrados 32

  • CAPTULO 1SEO 1.11. Uma equao linear em n incgnitas uma equao da forma a1x1 1 a2x2 1 1 anxn 5 b onde a1,a2,,an so constantes, e x1, x2, , xn so variveis.Uma equao linear em n incgnitas uma equao da formaa1x1 1 a2x2 1 1 anxn 5 bonde a1,a2,,an e b so nmeros reais, ex1,x2,,xn so variveis.2. Um sistema consistente, se tiver pelo menos uma soluo.Ter pelo menos uma soluo a definio de um sistema consistente.3. Um sistema inconsistente se tem pelo menos duas solues.Um sistema inconsistente se no tem solues.4. O seguinte sistema um sistema linear:x 1 y 5 22x 0,3y 5 0Este sistema est sob a forma daquele na parte inferior da pgina 1 do livro-texto. (x1 5 x,x2 5 y).5. Dois sistemas de equaes envolvendo as mesmas variveis so ditos equivalentes se tm o mesmo conjunto soluo.Esta a definio de equivalente dada na pgina 4 do livro-texto.6. Um sistema est na forma triangular, se na k-sima equao os primeiros k 1 coefi-cientes so diferentes de zero e o coeficiente de xk e todos os xi seguintes so zero.Um sistema est na forma triangular, se na k-sima equao os primeiros k 1 coeficientes so

    7. Uma matriz um arranjo retangular de nmeros.Esta a definio de matriz.8. Se uma matriz tem n colunas e m linhas, dizemos que ela n por m.Se uma matriz tem m linhas e n colunas, dizemos que ela m por n.9. Multiplicar uma linha por zero uma operao elementar sobre linhas.Multiplicar uma linha por zero no uma das operaes elementares sobre linhas:

    1. Trocar duas linhas.2. Multiplicar uma linha por um nmero real diferente de zero.3. Substituir uma linha pela sua soma com um mltiplo de outra linha.

    10. Troca de duas linhas uma operao elementar sobre linhas.Troca de duas linhas uma das operaes elementares sobre linhas:

    1. Trocar duas linhas.2. Multiplicar uma linha por um nmero real diferente de zero.3. Substituir uma linha pela sua soma com um mltiplo de outra linha.

  • 2 Captulo Um

    SEO 1.21. O processo de utilizao das operaes elementares sobre linhas para transformar um sistema linear em um cuja matriz aumentada est na forma linha-degrau chamada de eliminao de Newton. chamado de eliminao gaussiana.2. Para que uma matriz esteja na forma linha-degrau, o primeiro elemento diferente de zero em cada linha deve ser maior que 1.Para que uma matriz esteja na forma linha-degrau, o primeiro elemento diferente de zero deve ser 1.3. Se uma matriz est na forma linha-degrau e h uma linha cujos elementos so todos zero, ento ela est abaixo das linhas que tm elementos diferentes de zero.Esta a parte (iii) da definio na pgina 16 do livro-texto.4. Um sistema sobredeterminado se ele tem mais incgnitas que equaes.Um sistema sobredeterminado se ele tem mais equaes que incgnitas.5. Sistemas sobredeterminados so sempre consistentes.Sistemas sobredeterminados so geralmente inconsistentes. (Mas no sempre.)6. Um sistema indeterminado se ele tem mais incgnitas que equaes.Esta a definio de sistema indeterminado.7. Sistemas indeterminados so sempre consistentes.Embora os sistemas indeterminados sejam geralmente consistentes com uma infinidade de solues, eles podem ser inconsistentes. (Veja as pginas 17 e 18 do livro-texto para mais explicaes.)8. Na forma linha-degrau reduzida, o primeiro elemento diferente de zero em cada linha o nico elemento diferente de zero em sua coluna.Esta a parte (ii) da definio de FLDR.9. Uma matriz no precisa estar na forma linha-degrau para estar na forma linha-degrau reduzida.Para estar na forma linha-degrau reduzida, uma matriz deve estar na forma linha-degrau.10. O processo de utilizao de operaes elementares sobre linhas para transformar uma matriz na forma linha-degrau reduzida chamado de reduo de Gauss-Jordan.Esta a definio de reduo de Gauss-Jordan.

    SEO 1.31. Se uma n-upla representada como uma matriz 1 3 n, ento ela chamada de vetor linha.Esta a definio. ( uma linha de nmeros!)2. Se A uma matriz e b um escalar, ento, bA a matriz formada pela multiplicao do primeiro elemento em cada linha de A por b.Se A uma matriz e b um escalar, ento, bA a matriz formada pela multiplicao de cada elemento de cada linha de A por b.

  • Captulo Um 3

    3. Matrizes de tamanhos diferentes podem ser adicionadas.

    Matrizes devem ter as mesmas dimenses para ser adicionadas.

    4. A matriz nula age como uma identidade multiplicativa sobre o conjunto de todas as matrizes m 3 n.

    A matriz nula age como uma identidade aditiva sobre o conjunto de todas as matrizes m 3 n.

    5. Um sistema linear pode ser representado: Ax 5 b, onde A uma matriz m 3 n, x est em Rn, e b est em Rm.

    Observe as dimenses de x e b.

    6. Para multiplicar duas matrizes, cada matriz deve ter o mesmo nmero de linhas.

    Para multiplicar duas matrizes, o nmero de linhas da primeira deve ser igual ao nmero de colunas da segunda.

    7. Para multiplicar duas matrizes, cada matriz deve ter o mesmo nmero de linhas.

    Para multiplicar duas matrizes, o nmero de linhas da primeira deve ser igual ao nmero de colunas da segunda.

    8. Se A e B so matrizes, ento AB 5 BA.

    A multiplicao no comutativa.

    9. Se A, B e C so matrizes (AB)C 5 A(BC)Voc pode agrupar a multiplicao grupo de qualquer maneira que quiser.

    10. Se A, B e C so matrizes, ento (A1B)C 5 CA 1 CB.(A1B)C 5 AC 1 BC, que no sempre igual a CA 1 CB.

    SEO 1.41. Dado um sistema linear n 3 m Ax 5 b, Ax 5 b e MAx 5 Mb so sistemas equivalentes, onde M uma matriz no singular m 3 m.

    Eles tm as mesmas solues, como mostrado no livro-texto.

    2. Se A e B so matrizes no singulares n 3 n, ento AB singular.

    Se A e B so matrizes n 3 n no singulares, ento AB no singular. (Teorema 1.4.1)3. Se A e B so matrizes no singulares n 3 n, ento (AB)21 5 B21A21.Este o resultado do Teorema 1.4.1.

    4. Uma matriz elementar de tipo I obtida trocando duas linhas de I.

    Esta a definio de uma matriz elementar de tipo I.

    5. Uma matriz elementar de tipo II uma matriz obtida pela adio de um mltiplo de uma linha a outra.

    Esta uma matriz elementar do tipo III, no do tipo II.

    6. Se E uma matriz elementar, E21 uma matriz elementar do mesmo tipo.

    Este o resultado do Teorema 1.4.2.

  • 4 Captulo Um

    7. Um sistema de n equaes lineares em n incgnitas Ax 5 b tem uma soluo nica se e somente se A no singular.Este o resultado do Corolrio 1.4.4.8. Uma matriz n 3 n chamada de triangular superior se aij 5 0 para i , j.Uma matriz n 3 n chamada de triangular superior se aij 5 0 para i . j.9. Uma matriz n 3 n diagonal, se aij 5 0 para i 5 j.Uma matriz n 3 n diagonal se aij 5 0 para i diferente de j.10. Uma matriz diagonal triangular superior.Uma matriz diagonal tanto triangular superior como triangular inferior.

    SEO 1.51. Nunca interessante pensar em uma matriz como uma composta de vrias submatrizes.Muitas vezes, interessante pensar em uma matriz como uma composta de vrias subma-trizes.2. Pode-se particionar matrizes em linhas.Cada linha um vetor linha, que uma matriz por definio.3. Ao particionar uma matriz, as matrizes menores podem ser chamadas de blocos. um outro nome para as submatrizes, como visto no livro-texto.4. No se pode particionar matrizes em colunas, ao contrrio de linhas.Cada coluna um vetor e, consequentemente, uma submatriz. Pode-se particionar matrizes em colunas.5. Se A uma matriz m 3 n e B uma matriz n 3 r, no possvel multiplicar AB se elas forem particionadas.Muitas vezes, interessante particionar A e B e expressar o produto em funo das parti-es.

    6. Dados dois vetores x e y em Rn, eles podem ser multiplicados como so. possvel multiplic-los se um dos vetores transposto em primeiro lugar. Caso contrrio, a regra de multiplicao de matrizes no pode ser aplicada.7. O produto interno e o produto escalar so equivalentes.Estes so nomes diferentes para a mesma operao.8. O produto interno de dois vetores de comprimento n resulta em um vetor 1 3 n.O produto interno de dois vetores de comprimento n resulta em um escalar.9. O produto externo de dois vetores de comprimento n resulta em uma matriz n 3 n.Isto decorre das regras gerais de multiplicao de matrizes.10. No produto externo xyT, cada vetor coluna um mltiplo de x.Esta uma propriedade interessante do produto externo.

  • CAPTULO 2SEO 2.11. No possvel associar um escalar a cada matriz n 3 n cujo valor vai nos dizer se a matriz ou no singular.

    possvel, e esse valor chamado de determinante.2. Se A uma matriz 4 3 4, ento det (A) pode ser expresso como uma expanso por cofa-tores usando qualquer linha ou coluna de A.

    Este um resultado do Teorema 2.1.1.

    3. Se A uma matriz 1 3 1, ento det(A) 5 0.Se A uma matriz 1 1, ento det(A) 5 a11.4. Se A uma matriz n 3 n com n . 1, det(A) 5 ann.Se A uma matriz n 3 n com n . 1, det(A) 5 a11A11 1 a12A12 11 a1nA1n, onde A1j5(21)11jdet(M1j) j 5 1,, n.5. A expanso por cofatores de um determinante 4 3 4 envolver seis determinantes 3 3 3.

    A expanso por cofatores de um determinante 4 3 4 ir envolver quatro determinantes 3 3 3.

    6. Se A uma matriz n 3 n, ento det(AT) 5 det(A).Este o Teorema 2.1.2.

    7. Se A um matriz triangular n 3 n, ento det(A) igual ao produto dos elementos da diagonal de A.

    Este o Teorema 2.1.3.

    8. Se A uma matriz n 3 n, e tem duas linhas idnticas, det(A) 5 1.Se A uma matriz n 3 n, e tem duas linhas idnticas, det(A) 5 0.9. Se A uma matriz n 3 n, e tem duas colunas idnticas, det (A) 5 0.Isto segue do Teorema 2.1.4.

    10. Se A uma matriz n 3 n, e tem uma linha de zeros, det(A) 5 0.Isto tambm decorre do Teorema 2.1.4.

    SEO 2.21. Se duas linhas de A forem trocadas, o determinante permanece inalterado.Se duas linhas de A forem trocadas, o determinante igual a 2det(A).2. Se A multiplicada por uma constante, o seu determinante multiplicado por uma cons-tante.

    Isto visto atravs da expanso por cofatores ao longo da linha i, como no livro-texto.3. Se um mltiplo de uma linha de A adicionado a outra linha, o determinante permanece inalterado.Isto visto atravs da expanso por cofatores ao longo da linha j, como no livro-texto.

  • 6 Captulo Dois

    4. Uma matriz n 3 n singular se e somente se det(A) 5 1.Uma matriz n 3 n singular se e somente se det(A) 5 0.5. Se A e B so matrizes n 3 n, ento det(AB) 5 det(A)det(B).Este o resultado til do Teorema 2.2.3.6. Se A uma matriz n 3 n, com n , 4, menos passos so necessrios para calcular det(A) utilizando o mtodo de eliminao.Se A uma matriz n 3 n, com n , 4, menos passos so necessrios para calcular det(A) usando o mtodo de cofatores. (Veja tabela.)7. Se A uma matriz n 3 n, com n 5 10, menos passos so necessrios para calcular det(A) usando o mtodo de cofatores.Se A uma matriz n 3 n, com n 5 10, menos passos so necessrios para calcular det(A) utilizando o mtodo de eliminao.8. fcil determinar computacionalmente se uma matriz exatamente singular.Erros de arredondamento em computadores torna isso quase impossvel.9. Computadores so teis para determinar quando uma matriz est perto de ser singu-lar.Apesar de no usar o determinante, possvel calcular se uma matriz quase singular.10. Se duas linhas de A so trocadas, e depois mais duas linhas so trocadas, o determi-nante permanece inalterado.Esta uma aplicao da primeira operao elementar sobre linhas duas vezes. Primeiro det 5 2det(A), mas ento, aps a segunda aplicao, det 5 2det(A) 5 det(A).

    SEO 2.3

    1. A adjunta de A um nmero real.A adjunta de A uma matriz.2. Para formar a adjunta, cada termo substitudo pelo seu cofator, e ento a matriz resul-tante transposta.O resultado ser uma matriz.3. A(adj A) 5 det(A)IIsto segue do Lema 2.2.1.4. A inversa de A igual ao produto de adj A e det(A).A inversa de A igual ao quociente de adj A e det(A).5. A regra de Cramer exige uma matriz singular.A regra de Cramer exige uma matriz no singular.6. Quando se usa a regra de Cramer, xi 5 det(Ai)/det(A).Isso faz parte do Teorema 2.3.1.7. Ai utilizada para designar A com a i-sima linha substituda por b.Ai usada para denotar A com a i-sima coluna substituda por b.

  • Captulo Dois 7

    8. O sistema, no exemplo 3 inconsistente.O sistema consistente a regra de Cramer usada para encontrar a soluo: (1,1,2).9. Para calcular a inversa de uma matriz usando os mtodos da presente seo, preciso conhecer apenas o determinante da matriz. preciso conhecer o determinante e a adjunta.10. Se uma matriz usada para codificar uma mensagem usando os mtodos neste captulo, a inversa necessria para decodificar esta mensagem.Este o processo usado na aplicao 1.

  • CAPTULO 3SEO 3.11. Vetores no nulos em R2 podem ser representados geometricamente por planos.Vetores no nulos em R2 podem ser representados geometricamente por segmentos de reta.2. A soma de dois vetores definida como a soma de seus componentes em R2.Esta uma definio da adio de vetores.3. Sejam x, y elementos do espao vetorial V. Ento x 1 y 5 y 1 x para todo x e y em V.Este um axioma de espaos vetoriais.4. H um nico x em V, tal que existe um elemento x em V tal que x 1 (x) 5 0.Para todo x em V, existe um elemento 2x em V tal que x 1 (x) 5 0.5. O vetor 0 igual ao escalar 0.0 um vetor, e realmente uma coluna de zeros.6. O conjunto V, juntamente com a adio e a multiplicao por escalar, dito ser um espao vetorial se satisfaz sete axiomas.H 8 axiomas necessrios: A1-A8.7. As propriedades de fechamento so importantes para a definio de espao vetorial.Queremos que as operaes vetoriais produzam resultados no espao vetorial.8. O conjunto de todos os polinmios de grau menor que n forma um espao vetorial.Todos os axiomas de espao vetorial so mantidos sob as operaes-padro.9. Se V um espao vetorial e x est em V, 0x 5 0.Isto segue do Teorema 3.1.1.10. Se V um espao vetorial e x est em V, x 1 y 5 0 implica y 5 x.Se V um espao vetorial e x est em V, x 1 y 5 0 implica y 5 x.

    SEO 3.21. Se S um subconjunto de V, um espao vetorial, ele automaticamente um subespao.S deve ser fechado para a soma e multiplicao por escalar para ser um subespao.2. {0} e V nunca so considerados subespaos de V.{0} e V sempre so subespaos de V.3. Subespaos diferentes de {0} e V so subespaos conhecidos como prprios.Esta a definio de subespaos prprios.4. O conjunto de todas as solues de Ax 5 0 um subespao de Rn.Ele no vazio, e fechado para a soma e multiplicao por escalar.5. O espao nulo de A no um subespao de Rn.Por definio, o espao nulo o conjunto de todas as solues de Ax 5 0, que um subes-pao de Rn.

  • Captulo Trs 9

    6. O conjunto de todas as combinaes lineares de alguns vetores em um espao vetorial chamado de cobertura desses vetores.Esta a definio de cobertura.7. A cobertura de um conjunto de vetores de um espao vetorial V um subespao de V.Este o Teorema 3.2.1.8. O conjunto {v1,,vn} chamado de conjunto de cobertura se e somente se cada vetor em V estiver no conjunto.O conjunto {v1,,vn} chamado de conjunto de cobertura se e somente se cada vetor em V pode ser escrito como uma combinao linear de v1,v2,, vn.9. Os vetores e1,e2,e3 cobrem R3.Todos os vetores em R3 podem ser escritos como uma combinao linear desses vetores.10. Cob(e1,e2) no um subespao de R3.Cob (e1,e2) um subespao de R3.

    SEO 3.31. Se v1,v2,,vn cobrem um espao vetorial V e um desses vetores pode ser escrito como uma combinao linear dos outros vetores, ento esses outros vetores cobrem V.Veja a prova no livro-texto.2. Os vetores v1,v2,,vn em um espao vetorial V so ditos ser linearmente independentes se c1v1 1 c2v2 1 1 cnvn 5 1. Implica que todos os ci so iguais.Os vetores v1,v2,,vn em um espao vetorial V so ditos ser linearmente independentes se c1v1 1 c2v2 1 1 cnvn 5 0.3. Um conjunto mnimo de cobertura chamado de base.Esta uma definio da base.4. Os vetores v1,v2,,vn em um espao vetorial V so ditos linearmente dependentes se existem escalares c1,c2, cn nem todos nulos, tais que c1v1 1 c2v2 1 1 cnvn 5 0.Esta a definio de linearmente independentes.5. Se dois vetores em R2 so linearmente dependentes, ento um no pode ser escrito como um mltiplo escalar do outro.Se dois vetores em R2 so linearmente dependentes, ento um pode ser escrito como um mltiplo escalar do outro.6. Combinaes lineares de vetores linearmente independentes no so nicas.Combinaes lineares de vetores linearmente independentes so nicas.7. A recproca do Teorema 3.3.3 vlida.O exemplo dessas pginas mostra que a recproca do Teorema 3.3.3 no vlida.8. O wronskiano um escalar.O wronskiano um determinante de uma matriz e, portanto, um escalar.9. O vetores 1,x,x2,x3 so linearmente dependentes em P4.Os vetores 1,x,x2,x3 so linearmente independentes em P4.

  • 10 Captulo Trs

    10. Os vetores (4,2,3)T,(2,3,1)T,(2,25,3)T so linearmente dependentes.Veja o exemplo do livro-texto.

    SEO 3.41. Os vetores e1,e2,e3 formam a nica base de R3.H muitas bases para R3, incluindo (1,1,1)T, (0,1,1)T, (2,0,1)T.2. Se trs vetores cobrem um espao vetorial V, ento uma coleo de seis vetores em V linearmente dependente.Este um exemplo especfico do Teorema 3.4.1.3. Um subespao particular de um espao vetorial V pode ser determinado encontrando os elementos da base do subespao.Por definio, uma base cobre um espao vetorial ou subespao, e os vetores so linear-mente independentes.4. A base-padro para R3 {e1,e2, (1,2,0)T}.A base-padro para R3 {e1,e2,e3}.5. Se houver duas ou mais bases para um espao vetorial, cada base deve ter o mesmo nmero de elementos.Esta uma reformulao do Corolrio 3.4.2.6. A dimenso do espao vetorial V o nmero de elementos em cada vetor.A dimenso do espao vetorial V o nmero de vetores em uma base.7. O subespao {0} de V tem dimenso 1.O subespao {0} de V tem dimenso 0.8. Se V um espao vetorial com dimenso n . 0, ento quaisquer n vetores em V cobrem V.Se V um espao vetorial com dimenso n . 0, ento quaisquer n vetores linearmente independentes em V cobrem V.9. Se V um espao vetorial com dimenso n . 0, quaisquer n vetores que cobrem V so linearmente independentes.Esta a segunda parte do Teorema 3.4.3.10. Se um espao vetorial V tem dimenso n . 0, n 1 vetores podem cobrir V.Se um espao vetorial V tem dimenso n . 0, nada menos do que n vetores podem cobrir V.

    SEO 3.51. Alterar os sistemas de coordenadas em um espao vetorial V uma simples questo de encontrar um subespao adequado.Alterar os sistemas de coordenadas em um espao vetorial V o mesmo que mudar de uma base para outra.2. As coordenadas so os coeficientes escalares dos elementos da base em combinaes lineares.Esta uma reformulao da definio de coordenadas.

  • Captulo Trs 11

    3. Alterar os sistemas de coordenadas pode simplificar muitos dos problemas do mundo real.

    Esta uma das razes para aprender isto. Por exemplo, veja o aplicativo no livro-texto.4. A matriz de transio utilizada para modificar as coordenadas de uma base para outra.

    Como visto no livro-texto, x 5 Uc, onde U a matriz de transio.

    5. Embora a matriz de transio seja til para passar de um sistema de coordenadas para outro, intil para voltar para a base original.

    A inversa da matriz de transio pode ser usada para fazer a transformao na outra direo.

    6. Para obter a matriz de transio, preciso conhecer as duas bases envolvidas.

    Ambas as bases so necessrias, pois necessrio conhecer os vetores em uma base em termos da outra.

    7. O vetor de coordenadas contm os coeficientes dos elementos da base de um espao vetorial V.

    Esta a definio de vetor de coordenadas.

    8. A matriz de transio necessariamente singular.

    A matriz de transio necessariamente no singular.

    9. A nica base que tenha qualquer aplicao real a base-padro.

    H muitas bases teis, incluindo muitas bases ortonormais.

    10. As matrizes de transio no Rn so n 3 n.

    Isso decorre do fato de que os vetores so de comprimento n, e os conceitos desenvolvidos para R2.

    SEO 3.61. Se A uma matriz m 3 n, o espao linha de A cobre Rn.

    Se A uma matriz m 3 n, o espao linha de A cobre R1 3 n.

    2. Se A uma matriz m 3 n, o espao coluna de A cobre Rm.

    Esta parte da definio do espao coluna.

    3. O espao linha de uma matriz A o conjunto de vetores linha.O espao linha de uma matriz A o subespao de R13n coberto pelos vetores linha.

    4. O posto de uma matriz A definido como a dimenso do espao coluna de A.

    O posto de uma matriz A a dimenso do espao linha de A.

    5. Se duas matrizes so equivalentes linha, elas tm o mesmo espao linha.Esta uma reformulao do Teorema 3.6.1.

    6. A nulidade de uma matriz a dimenso do espao nulo.

    Esta a definio de nulidade.

  • 12 Captulo Trs

    7. Se A uma matriz m 3 n, ento o posto de A menos a nulidade de A igual a n.Se A uma matriz m 3 n, ento o posto de A mais a nulidade de A igual a n.8. Se b o espao coluna de A, ento Ax 5 b consistente.Isso faz parte do Teorema 3.6.2.9. Uma matriz n 3 n singular se e somente se os vetores coluna de A formam uma base para Rn.

    Uma matriz n 3 n no singular se e somente se os vetores coluna de A formam uma base para Rn.

    10. Em uma matriz A, a dimenso do espao linha de A igual dimenso do espao coluna de A.Este o Teorema 3.6.6.

  • CAPTULO 4SEO 4.11. Uma transformao linear e um operador linear so a mesma coisa.Dois termos para a mesma representao.2. Quando este texto usa a notao de seta para uma representao, ser assumido que V e W representam matrizes.Ser suposto que V e W representam espaos vetoriais.3. Uma transformao linear definida como uma representao de L no espao vetorial V em um espao vetorial W, se L(av1 1 bv2) 5 aL(v1) 1 bL(v2) para todos os v1,v2 em V e todos os escalares a e b.Esta a Equao (1).4. O operador identidade I uma transformao linear.I(av1 1 bv2) 5 aI(v1) 1 bI(v2)5. Se L um operador linear representando um espao vetorial V em um espao vetorial W, ento L(v) 5 L(v).L(v) 5 L(v)6. Se L um operador linear representando um espao vetorial V em um espao vetorial W, ento L(0V) 5 0W.Isso decorre de L(av) 5 aL(v), onde a 5 0.7. O ncleo de L denotado ncleo(L).O ncleo de L denotado nucl(L).8. O codomnio de L a imagem de todo o espao vetorial.Esta a definio de codomnio.9. Se L uma transformao linear de V para W e S um subespao de V, ento L(S) um subespao de V.Se L uma transformao linear de V para W e S um subespao de V, ento L(S) um subespao de W.10. Se L uma transformao linear de V para W e S um subespao de V, ento L(S) chamado de imagem de S.A imagem de S um subconjunto de W.

    SEO 4.21. Para algumas transformaes lineares L, impossvel encontrar uma matriz A tal que L(x) 5 Ax.Para toda transformao linear L, possvel encontrar uma matriz A tal que L(x) 5 Ax.2. Quando um operador linear representado usando os elementos da base-padro de Rn, a matriz A usada conhecida como a representao matricial de base.

    Quando um operador linear representado usando os elementos da base-padro de Rn, a matriz A usada conhecida como a representao matricial padro.

  • 14 Captulo Quatro

    3. possvel representar os operadores lineares utilizando bases diferentes da base-pa-dro.O Teorema 4.2.2 mostra como isso pode ser feito.4. Uma matriz A pode ser encontrada que representa um espao vetorial em si mesmo.No Exemplo 2, h uma matriz que representa R2 em R2.5. O operador linear D definido por D(p) 5 p representa P2 em P3.O operador linear D definido por D(p) 5 p representa P3 em P2.6. Um operador linear pode ser determinado na forma matricial, calculando a forma linha degrau reduzida de uma matriz aumentada.O Corolrio 4.2.4 mostra como isso feito.7. O Teorema da Representao Matricial requer base-padro para V.O Teorema da Representao Matricial requer apenas bases ordenadas.8. A matriz A do Exemplo 2 gira um vetor no sentido horrio.A matriz A gira um vetor no sentido anti-horrio.9. Uma dilatao uma transformao linear L(x) 5 ax, onde a . 0.Essa transformao simplesmente faz um vetor mais longo (dilata-o).10. Uma translao uma transformao linear que reflete um vetor.Uma translao muda a posio do vetor, mas no o seu tamanho ou direo. Uma reflexo reflete um vetor.

    SEO 4.31. Se L uma transformao linear representando um espao vetorial V nele mesmo, a matriz que representa L independente da base escolhida.A representao da matriz depende da base ordenada.2. Ao usar bases diferentes, possvel obter representaes matriciais de tamanhos dife-rentes.

    Todas as matrizes sero n 3 n, se a representao de V para V.3. Sejam A e B matrizes n 3 n, B similar a A caso exista uma matriz S no singular tal que B 5 SAS.

    Sejam A e B matrizes n 3 n, B similar a A caso exista uma matriz no singular S tal que B 5 S21AS.

    4. Se B similar a A, A similar a B.

    Se B 5 S21AS, ento A 5 (S21)21BS21.5. Algumas representaes de operadores lineares so mais fceis de trabalhar do que outras.

    O Exemplo 2 d um exemplo em que uma matriz muito mais fcil do que outra.6. O Teorema 4.3.1 requer duas bases ordenadas.Esta uma das exigncias do teorema.

  • Captulo Quatro 15

    7. O Teorema 4.3.1 est preocupado com as transformaes de um espao linear V para outro W.

    Este teorema est preocupado com transformaes lineares de um espao para si prprio.8. A matriz de transio entre duas bases til no clculo da representao matricial de uma transformao linear de uma base a partir da representao matricial da mesma trans-formao linear de outra.Esta uma reformulao do Teorema 4.3.1.9. Se A e B so do mesmo tamanho e ambas representam o mesmo operador linear, elas so similares.Isto segue do Teorema 4.3.1.10. O clculo das potncias de uma matriz diagonal mais fcil do que para uma matriz arbitrria.Com efeito, basta elevar os nmeros individuais, na diagonal, s potncias.

  • CAPTULO 5SEO 5.11. Vetores em Rn podem ser considerados como matrizes n 3 n.Vetores em Rn podem ser considerados como matrizes n 3 1.2. O produto xTy um escalar.A multiplicao de uma matriz 1 3 n por uma matriz n 3 1 resulta em uma matriz 1 3 1.3. Em R3, o produto (xTx)1/2 conhecido como o comprimento gaussiano. conhecido como o comprimento euclidiano.4. Em R2, a distncia entre dois vetores x e y ||y x||.||y x|| um nmero real.5. O cosseno do ngulo entre dois vetores igual ao seu produto escalar dividido pelo produto de seus comprimentos euclidianos.Este o Teorema 5.1.1 em palavras.6. O produto escalar de dois vetores igual ao produto de seus comprimentos euclidianos.De acordo com o Corolrio 5.1.2, o produto escalar de dois vetores menor ou igual ao produto de seus comprimentos euclidianos.7. O produto escalar pode ser usado para localizar a componente de um vetor na direo do outro.Esta a utilizao da projeo, especialmente em projees de vetores.8. Vetores so ditos ortogonais se eles tm o mesmo comprimento euclidiano.Vetores so ditos ortogonais se o seu produto escalar zero.9. A definio de comprimento euclidiano em R2 pode ser generalizada para Rn.No Rn, o comprimento euclidiano ainda (xTx)1/2.10. O Teorema de Pitgoras se generaliza ao Rn.Ele generaliza a Lei de Pitgoras.

    SEO 5.21. Somente vetores podem ser ortogonais entre si.Subespaos podem ser ortogonais entre si tambm.2. Dois subespaos so ditos ortogonais entre si, se pelo menos um vetor no primeiro ortogonal a um vetor no segundo.Dois subespaos so ditos ortogonais entre si, se cada vetor em cada um ortogonal a cada vetor no outro.

    3. A ideia de subespaos ortogonais de entendimento intuitivo.No to intuitivo como poderamos esperar, porque embora parea que o teto e as paredes sejam subespaos ortogonais em R3, eles so, na verdade, no ortogonais.4. Se X um subespao de Rn, ento o complemento ortogonal de X o conjunto de todos os vetores de Rn, que so ortogonais a todo vetor em X.Esta uma ligeira reformulao da definio de complemento ortogonal.

  • Captulo Cinco 17

    5. Se S um subespao de Rn, ento a dimenso de S mais a dimenso do complemento ortogonal de S igual a n 1 1. igual a n.6. A soma direta envolve subespaos.Quando todos os vetores em um espao vetorial podem ser escritos unicamente como a soma de um vetor de cada um de dois subespaos do espao, o espao dito ser uma soma direta dos dois subespaos.7. O complemento ortogonal do complemento ortogonal de um subespao S de Rn igual a S.

    Esta uma reformulao do Teorema 5.2.4.8. Se A e B so subespaos de Rn, ento se A o complemento ortogonal de B, B no necessariamente o complemento ortogonal de A.Esta uma consequncia necessria do Teorema 5.2.4.9. possvel formar uma correspondncia um-para-um entre R(AT) e R(A).De fato, a matriz A utilizada em um processo descrito no livro-texto.10. A prova do teorema fundamental de subespaos dependente do tamanho da matriz, e deve ser generalizado usando induo matemtica.A prova independente do tamanho da matriz.

    SEO 5.31. O ajuste por mnimos quadrados requer que a curva passe por cada ponto.Mnimos quadrados no exigem que a curva passe por cada ponto.2. H um retrato de Legendre, no incio do captulo. um retrato de Gauss.3. O ajuste por mnimos quadrados tenta minimizar os quadrados dos erros na direo y.O ajuste por mnimos quadrados tenta minimizar a soma dos quadrados dos erros na direo y. Ele no tenta minimizar cada quadrado.4. Ceres um cometa.Ceres um asteroide.5. Um resduo formado a partir de um sistema da forma Ax 5 b, onde A uma matriz m 3 n com m . n.

    O resduo dado por r(x) 5 b Ax.6. Um problema de mnimos quadrados geralmente pode ser formulado como um sistema linear subdeterminado.Um problema de mnimos quadrados geralmente pode ser formulado como um sistema linear sobredeterminado.7. Se A uma matriz m 3 n de posto n, h uma nica soluo, pelo mtodo dos mnimos quadrados do sistema Ax 5 b.Verdadeiro, e a soluo dada por (ATA)21ATb.

  • 18 Captulo Cinco

    8. Uma funo linear obtida por ajuste por mnimos quadrados no to til como um poli-nmio interpolador que passa por todos os pontos de dados.

    Como a maioria dos dados reais envolve erro experimental, no necessrio passar exata-mente por cada ponto.

    9. Uma das aplicaes do ajuste por mnimos quadrados no captulo envolvia meteoro-logia.

    Tratava-se de metrologia, que um estudo completamente diferente.

    10. O ajuste por mnimos quadrados pode ser usado para obter mais do que ajuste linear.Ele pode ser usado para polinmios e polinmios trigonomtricos tambm.

    SEO 5.41. A operao produto interno deve satisfazer a duas condies.H trs condies que devem ser satisfeitas.2. O produto interno atribui a cada vetor um nmero real.O produto interno atribui a cada par de vetores um nmero real.3. Um espao de produto interno simplesmente um espao vetorial com um produto interno.

    Esta uma reformulao da definio.4. O produto interno padro para Rn o produto escalar.O produto escalar um nmero real e satisfaz as trs condies.5. No h nenhum produto interno no espao vetorial Pn.H pelo menos dois exemplos de produtos internos dados no Pn.6. A Lei de Pitgoras vale para todos os vetores em um espao com produto interno.Os vetores devem ser ortogonais para que a lei seja vlida.7. A norma de Frobenius da matriz A denotada por ||A||F.Similar outra notao de norma.8. A norma de Frobenius derivada do espao vetorial Rn.A norma de Frobenius derivada do espao vetorial Rm3n.9. Se v um vetor diferente de zero e p a projeo de u em v, ento, u p e p so orto-gonais

    A prova desta observao est no livro-texto.10. A norma de um vetor um nmero complexo.A norma um nmero real.

    SEO 5.51. Em R2, geralmente mais conveniente usar a base-padro. a isto que estamos acostumados, com coordenadas xy.

  • Captulo Cinco 19

    2. Bases ortogonais so mais convenientes na busca de coordenadas vetoriais, mas so mais complicadas quando se trata de resolver problemas de mnimos quadrados.Bases ortogonais so mais convenientes em ambas as situaes.3. Se um conjunto de vetores no nulos ortogonal em um espao com produto interno, ento os vetores so linearmente independentes.Este o Teorema 5.5.1; a prova est no livro-texto.4. Um conjunto ortonormal de vetores um conjunto de quaisquer vetores unitrios de um espao com produto interno.Um conjunto ortonormal de vetores um conjunto ortogonal de vetores unitrios.5. possvel formar um conjunto ortonormal de vetores a partir de qualquer conjunto orto-gonal de vetores no nulos.Basta definir ui 5 (vi)21*vi para todo i 5 1,2,,n, onde u um vetor unitrio e vi um vetor do conjunto ortogonal.6. Se um conjunto ortonormal uma base de um subespao, ento referido como uma base ortonormal.Esta a definio. Deve-se notar, contudo, que as bases ortonormais so muito teis.7. As bases ortonormais so mais difceis de trabalhar do que bases regulares.Elas so muito mais fceis de trabalhar.8. Bases ortonormais podem ser usadas para comutar ||v|| para um vetor v.Bases ortonormais podem ser utilizadas para encontrar facilmente as coordenadas e o clculo de ||v|| simples.9. Uma matriz conhecida como uma matriz ortogonal se os seus vetores linha formam um conjunto ortonormal em Rn.Uma matriz conhecida como uma matriz ortogonal se os seus vetores coluna formam um conjunto ortonormal em Rn.10. Se Q uma matriz ortogonal n 3 n, QTQ 5 I.Esta uma das propriedades das matrizes ortogonais.

    SEO 5.61. O mtodo utilizado neste captulo usa projees para transformar bases comuns em bases ortonormais.O processo necessita de uma base para comear.2. O processo de Gram-Schmidt um processo recursivo.O processo de Gram-Schmidt define o primeiro elemento explicitamente, e cada elemento adicional de forma recursiva.3. A fatorao QR um mtodo para fatorar um produto escalar em seus respectivos vetores.

    A fatorao QR a fatorao de uma matriz em duas outras matrizes.4. Em uma fatorao QR, Q tem colunas ortonormais.A prova dessa propriedade est no livro-texto.

  • 20 Captulo Cinco

    5. Em uma fatorao QR, R uma matriz triangular inferior.Na fatorao QR, R uma matriz triangular superior.6. A fatorao QR pode ser usada para obter solues para problemas de mnimos quadrados.

    Este o propsito do Teorema 5.6.3.

    7. Na prtica, o processo de Gram-Schmidt no produz nenhum erro de arredondamento como um mtodo computacional.

    H problemas com aritmtica de preciso finita especificamente em aplicaes computa-cionais.

    8. O processo de Gram-Schmidt pode ser modificado para um computador e usado para obter a fatorao QR.Veja o Algoritmo 5.6.4.9. Em uma fatorao QR, R sempre tem as mesmas dimenses de A.Se A m 3 n, R n 3 n, portanto, a declarao s verdadeira se m 5 n.

    10. Em uma fatorao QR, Q inversvel.R inversvel.

    SEO 5.71. O fato de que o uso de polinmios tanto em ajuste de dados como na aproximao de funes contnuas so problemas de mnimos quadrados que do origem ao conceito de polinmios ortogonais.

    Como visto nas sees anteriores, bases ortonormais tornam problemas de mnimos quadrados mais fceis e, portanto, ns queremos de alguma maneira fazer uso disso com polinmios.

    2. Cada polinmio associado aos produtos internos em C[a,b] satisfaz uma relao recur-siva de quatro termos.

    uma relao recursiva de trs termos.3. A relao recursiva satisfeita por polinmios associados com os produtos internos em C[a,b] til em aplicaes computacionais. da natureza dos computadores fazer clculos repetidos, portanto isso funciona bem.4. Integrais no podem ser usadas para criar produtos internos.

    A Equao (1) um produto interno desse tipo.5. dim Pn 5 n 1 1

    dim Pn 5 n

    6. O intervalo de integrao na Equao (1) deve ser finito.O intervalo pode ser infinito.

    7. Os polinmios de Legendre satisfazem uma frmula de recurso.

    Os primeiros polinmios de Legendre so 1, x, (1/2)(3x2 1).

  • Captulo Cinco 21

    8. Os polinmios de Hermite so definidos a partir do infinito negativo ao infinito.Eles satisfazem uma relao recursiva.9. Os polinmios de Laguerre so definidos a partir do infinito negativo ao positivo.Os polinmios de Laguerre so definidos a partir de zero at o infinito positivo.10. Polinmios ortogonais podem ser utilizados na integrao numrica.A aplicao no livro-texto mostra como isso pode ser feito.

  • CAPTULO 6SEO 6.11. Autovetores so apenas elementos de qualquer base.Autovetores tm fatores de escala associados chamados de autovalores.2. Um autovalor um escalar.Por definio, um autovalor deve ser um escalar.3. Se A uma matriz n 3 n, e k um autovalor de A, A kI singular.A ki singular.4. Se A uma matriz n 3 n, e k um autovalor de A, det(A kI) 5 0.A kI singular.5. Se k um autovalor de uma matriz A n 3 n e x o autovetor correspondente, ento A 5 kx.Ax 5 kx.6. Se A uma matriz n 3 n, e k um autovalor de A com autovetor correspondente x, a equao Ax 5 kx equivalente a (A kI) x 5 0.Isto o resultado de algumas operaes matriciais simples.7. Se A uma matriz n 3 n, e k um autovalor de A com autovetor correspondente x, qual-quer mltiplo no nulo de x ser um autovetor.A(cx) 5 cAx 5 ckx 5 k(cx)8. Se A uma matriz n 3 n, e k um autovalor de A com autovetor correspondente x, o subespao N(kI) conhecido como o autoespao correspondente a k.N(A kI) conhecido como o autoespao.9. Os autovalores podem ser complexos.Como so razes de polinmios, eles devem ser complexos, j que alguns polinmios tm razes complexas.10. A soma dos autovalores difcil de calcular. fcil determinar a soma dos autovalores.

    SEO 6.21. Um sistema de equaes diferenciais lineares pode ser escrito em forma matricial.Ele pode ser escrito na forma Y 5 AY, em que Y e Y so funes vetoriais de T.2. Em geral, os sistemas lineares de equaes diferenciais tm solues nicas.Eles s tm solues nicas quando Y(t) tem necessariamente um certo valor em t 5 0.3. eat uma soluo para a equao diferencial y 5 a y.Qualquer funo da forma c eat uma soluo para a equao diferencial y 5 a y.4. Autovalores complexos implicam funes trigonomtricas na soluo.Pela equao de Euler, eix 5 cosx 1 isenx.

  • Captulo Seis 23

    5. Somente sistemas de primeira ordem podem ser resolvidos.

    Sistemas de ordem superior podem ser resolvidos convertendo-os em sistemas de primeira ordem.

    6. Re (3 1 i5) 5 5Re (3 1 i5) 5 37. Um sistema de segunda ordem n 3 n se transforma em um sistema de primeira ordem 3n 3 3n.

    Um sistema de segunda ordem n 3 n se transforma em um sistema de primeira ordem 2n 3 2n.

    8. Molas oscilatrias so um exemplo de um sistema linear de segunda ordem.

    , de fato, uma vez que a acelerao a segunda derivada da posio.9. Em sistemas lineares de equaes diferenciais, o valor inicial um escalar.

    O valor inicial deve ser dado como um vetor.

    10. Combinaes lineares de solues gerais so tambm solues gerais.

    Esta uma propriedade muito til de sistemas de equaes diferenciais.

    SEO 6.31. Seja A uma matriz n 3 n com autovalores k1 e k2 com autovetores correspondentes x1 e x2, ento se k1 e k2 so distintos, ento x1 e x2 so linearmente independentes.

    Isto se segue do Teorema 6.3.1.

    2. Seja A uma matriz n 3 n. A diagonalizvel se existe uma matriz no singular X tal que X21AX 5 D, onde D uma matriz diagonal.

    Dizemos que X diagonaliza A.

    3. Se X21AX 5 D, onde D uma matriz diagonal, dizemos que A diagonaliza X.

    Dizemos que X diagonaliza A.

    4. Se uma matriz A n 3 n tem n autovetores linearmente independentes, ento A diago-nalizvel.

    Esta uma direo do Teorema 6.3.2.

    5. Se A diagonalizvel, ento os vetores coluna de D so os autovetores de A.Os vetores coluna de X so os autovetores de A.

    6. Se A diagonalizvel, ento os elementos diagonais de D so os autovalores correspon-dentes de A.

    Todos os elementos fora da diagonal so zero.

    7. A matriz diagonalizante X nica.

    Ela no nica. As colunas podem ser reordenadas.

    8. A pode ser fatorada no produto XDX21.

    clculo simples baseado em que X21AX 5 D.

  • 24 Captulo Seis

    9. Um processo estocstico um processo que pode ser representado como uma matriz diagonal.

    Um processo estocstico uma sequncia de experimentos para os quais o resultado em qualquer fase depende do acaso.

    10. Um processo de Markov um tipo particular de processo estocstico.

    Um processo de Markov tem propriedades adicionais.

    SEO 6.41. Se c 5 a 1 bi um escalar complexo, |c| 5 0,5(a 1 b).Se c 5 a 1 bi um escalar complexo, ento |c| 5 (a2 1 b2)1/2.2. Produtos internos so definidos de forma diferente para os espaos complexos.,z,w. agora igual ao complexo conjugado de ,w,z..3. Se M 5 A 1 iB onde A e B tm elementos reais, o complexo conjugado de M igual A iB.

    Isso resulta no complexo conjugado de um elemento de M sendo o elemento correspon-dente no complexo conjugado de M.4. MH o complexo conjugado da inversa de M.MH o complexo conjugado da transposta de M.5. (AH)H 5 A.Esta a regra I para matrizes Hermitianas.

    6. (AC)H 5 AHCH.(AC)H 5 CHAH.7. Se M 5 MH, a matriz dita unitria.Se M 5 MH, a matriz dita hermitiana.8. Os vetores coluna de uma matriz unitria formam um conjunto ortonormal em Rn.Os vetores coluna de uma matriz unitria formam um conjunto ortonormal em Cn.9. Para qualquer matriz hermitiana, existe uma matriz unitria que a diagonaliza.Este o Teorema 6.4.4.10. A anti-hermitiana se AH 5 A21.

    A anti-hermitiana se AH 5 A.

    SEO 6.51. A eliminao gaussiana uma maneira prtica de determinar o posto de uma matriz quando se trabalha com aritmtica de preciso finita.Por causa do erro de arredondamento, a eliminao gaussiana no prtica neste caso.2. Se A uma matriz m 3 n, ento A tem uma decomposio em valores singulares.Este o enunciado para o Teorema dos Valores Singulares.

  • Captulo Seis 25

    3. Seja A uma matriz m 3 n com decomposio em valores singulares UEVT. Os vj so autovetores de ATA.Isso decorre do fato de que V diagonaliza ATA.4. Seja A uma matriz m 3 n com decomposio em valores singulares UEVT. Se A tem posto r, ento u1,,ur formam uma base ortonormal para N(A).Se A tem posto r, ento u1,,ur formam uma base ortonormal para R(A).5. A forma compacta da decomposio em valores singulares de A s til em uma apli-cao. til em muitas aplicaes.6. Os valores singulares so dados pela raiz quadrada dos autovalores correspondentes.Isto decorre da definio de valores singulares.7. Os valores singulares de uma matriz no so nicos.Os valores singulares so nicos.8. Seja A uma matriz m 3 n com decomposio em valores singulares UEVT. U e V no so nicos.Determinadas operaes matriciais iro produzir novos valores para U e V.9. Se A uma matriz m 3 n e Q uma matriz m 3 m ortogonal, ento ||QA||F 5 ||A||F.Este o Lema 6.5.2.10. O posto numrico de uma matriz o nmero de valores singulares da matriz.O posto numrico de uma matriz m 3 n o nmero de valores singulares que so maiores que o produto do maior valor singular, mx(m, n) pelo psilon de mquina.

    SEO 6.61. A equao de segundo grau a seguir tem duas variveis: 2x2 1 3xy2

    O segundo termo de um grau maior que dois.2. Se no houver pares ordenados (x,y) que satisfazem a Equao (1), ento dizemos que a equao representa uma cnica deficiente.Ns dizemos que a equao representa uma cnica imaginria.3. O crculo um caso especial de elipse.Se todos os parmetros das equaes (a) e (b) forem iguais a 1. Ento voc tem a mesma equao.4. Existem duas formas possveis de equaes que representam parbolas.Uma delas tem um termo quadrtico x, a outra um y quadrtico.5. Se uma cnica pode ser colocada em uma das formas-padro, a curva passa pela origem.Isso s verdade para a parbola. Em geral, a curva centrada na origem.6. O grfico transladado na horizontal, se tanto os termos y2 quanto os termos y tm coefi-cientes diferentes de zero.O grfico transladado na horizontal, se tanto os termos x2 quanto os termos x tm coefi-cientes diferentes de zero.

  • 26 Captulo Seis

    7. A seo cnica foi rodada por um mltiplo de 90 graus quando o termo xy tem um coefi-ciente zero.Quando o termo xy tem um coeficiente diferente de zero, h uma rotao que no um mltiplo de 90 graus.8. possvel ter uma translao horizontal e uma rotao de 45 graus.Qualquer combinao de rotaes horizontais e tanslaes verticais so possveis.9. Se uma matriz A definida positiva, um de seus autovalores 0.Todos os seus autovalores devem ser positivos.10. Uma matriz real simtrica A considerada positiva definida se xTAx . 0 para todo x diferente de zero em Rn.Estritamente maior que zero.

    SEO 6.71. Se A uma matriz definida positiva simtrica, ento A singular.A no singular.2. Se A uma matriz definida positiva simtrica, ento det(A) 5 0.Se A uma matriz definida positiva simtrica, ento det(A) . 0.3. Ar chamada de submatriz principal inicial de A de ordem n r.Ar chamada de submatriz principal inicial de A de ordem r.4. Se A uma matriz definida positiva simtrica, ento as submatrizes principais iniciais so singulares.As submatrizes principais iniciais so definidas positivas.5. Se A uma matriz n 3 n cujas submatrizes principais iniciais so todas no singulares, ento A pode ser reduzida forma triangular superior usando apenas a operao sobre linhas III.Os elementos da diagonal nunca sero 0, ento as linhas no precisam ser trocadas.6. Se A 5 LDLT uma matriz definida positiva simtrica, ento L uma matriz triangular superior.L uma matriz triangular inferior.7. Se A 5 LDLT uma matriz definida positiva simtrica, ento L tem 1 ao longo da diagonal.Esta uma das partes da propriedade V no livro-texto.8. Se A 5 LDLT uma matriz definida positiva simtrica, ento D uma matriz diagonal cujos elementos diagonais so todos positivos.Isso tambm faz parte da propriedade V.9. A 5 LDLT conhecida como a decomposio de Cholesky de A.A 5 L1L1T a decomposio de Cholesky.10. Na decomposio de Cholesky, os elementos da diagonal de L devem ser positivos.Isto vem do Teorema 6.7.1.

  • Captulo Seis 27

    SEO 6.81. Uma matriz com elementos reais positiva se todos os elementos forem maiores que zero.

    Esta a definio de uma matriz positiva.2. Todos os elementos de um vetor no negativo so maiores que zero.Os elementos tambm podem ser iguais a zero.3. Se A uma matriz positiva n 3 n, A tem um autovalor real positivo.Isto vem do Teorema de Perron.4. Se A uma matriz positiva n 3 n com autovalor real positivo r, ento r uma raiz simples da equao caracterstica.Isso tambm vem do Teorema de Perron.5. Se A uma matriz positiva n 3 n com autovalor real positivo r, ento r tem um autovetor negativo x.O autovetor positivo.6. O Teorema de Perron um caso especial do teorema de Frobenius.O Teorema de Frobenius lida com todas as matrizes no negativas irredutveis, enquanto o Teorema de Perron s se aplica a matrizes positivas.7. O Teorema de Frobenius se aplica a matrizes redutveis.O Teorema de Frobenius se aplica a matrizes irredutveis.8. Se A uma matriz irredutvel no negativa, ento A tem um autovalor real positivo.Esta a primeira afirmao do Teorema de Frobenius.9. O teorema de Frobenius facilmente demonstrado atravs de operaes elementares de linha.A prova deste teorema est alm do escopo deste texto.10. Os conceitos envolvidos com matrizes no negativas podem ser aplicados aos modelos de entrada-sada de Leontief.A Aplicao 1 lida com essa situao.

  • CAPTULO 7SEO 7.11. Um computador usa nmeros reais.Um computador usa nmeros de ponto flutuante.2. Um nmero de ponto flutuante definido na base 10.Um nmero de ponto flutuante definido em uma base arbitrria b.3. Nmeros de ponto flutuante sem zeros esquerda so ditos normalizados.Este o termo convencional. Alm disso, nmeros de ponto flutuante normalizados so facilmente comparados.4. O erro relativo dado por (x x)/x.A diviso por x d o erro na proporo adequada com a quantidade em causa.5. O erro absoluto sempre menor do que o erro relativo.Uma forma de erro no necessariamente maior que o outro.6. x x chamado de erro relativo.x x chamado de erro absoluto.7. x a aproximao de ponto flutuante de x.x a aproximao de ponto flutuante de x.8. Fazer aritmtica com nmeros de ponto flutuante preserva a preciso.Muitas vezes, erros de arredondamento adicionais podem ocorrer.9. A preciso de mquina igual ao dobro do psilon de mquina.Preciso de mquina e psilon de mquina so a mesma coisa.10. O psilon de mquina o menor nmero k tal que fl(1 1 k) . 1.Esta a definio.

    SEO 7.21. A eliminao gaussiana considerada o mais eficiente mtodo computacional, uma vez que envolve o menor nmero de matrizes. considerado o mais eficiente, pois envolve a menor quantidade de operaes aritmticas.2. A eliminao gaussiana pode ser realizada sem a operao matricial II (troca) em uma matriz no singular.Um mtodo de cumprimento disto mostrado no livro-texto.3. A eliminao gaussiana modificada no livro, quando realizada em uma matriz n 3 n, resulta em (1/2)*n*(n 1) operaes.Contando a diviso por etapas: (n 1) 1 (n 2) 11 1 5 (1/2)*n*(n 1).4. A eliminao gaussiana modificada no livro, quando realizada em uma matriz n 3 n, resulta no mesmo nmero de multiplicaes e adies e/ou subtraes.As duas tm (1/6)*n(2n 1)(n 1) operaes.

  • Captulo Sete 29

    5. A eliminao gaussiana modificada no livro, quando realizada em uma matriz n 3 n, resulta em n(2n 1)(n 1) multiplicaes.Na verdade, existem (1/6)*n(2n 1)(n 1) multiplicaes.6. Para resolver o sistema Ax 5 b, a matriz A pode ser aumentada por b antes da execuo de eliminao gaussiana.Isto simplesmente exige o armazenamento de b em uma coluna extra de A.7. O Algoritmo 7.2.1 pode ser usado, com uma ligeira modificao, para resolver um sistema linear.Basta fazer j variar de i 1 1 a n 1 1, em vez de apenas a n para levar em conta a coluna extra.

    8. Para calcular a fatorao LU, necessrio manter o controle da matriz, no final de cada etapa do ciclo k. necessrio acompanhar os multiplicadores.9. O Algoritmo 7.2.2 requer n 1 divises.Exige n divises.10. O Algoritmo 7.2.1 pode quebrar.Ele quebra se akk(k) 5 0.

    SEO 7.31. O pivotamento por linhas sempre acrescenta grandes erros na resoluo de sistemas line-ares por computador.Embora isto possa ocorrer, a escolha da linha adequada minimiza o erro.2. No exemplo 1, uma matriz n 3 n usada para acompanhar as trocas.Um vetor linha usado.3. A reordenao das linhas de uma matriz A equivalente multiplicao por uma matriz de permutao.A multiplicao pela matriz de permutao resulta nas mesmas linhas em diferentes posi-es.4. A forma reduzida de PA, onde A uma matriz e P uma matriz de permutao, fornece as informaes necessrias para determinar a fatorao triangular.De fato, PA 5 LU.5. Quando A uma matriz e P sua matriz de permutao, PA 5 LUT.PA 5 LU.6. Na aritmtica de preciso finita, pivs prximos de 1 podem causar problemas.Pivs perto de 0 podem causar problemas.7. A escolha de um ponto de piv ruim pode ocasionar 100% de erro relativo.O Exemplo 3 mostra tal ocorrncia.8. No passo i da reduo, h n i candidatos para o ponto de piv.H n i 1 1 candidatos.

  • 30 Captulo Sete

    9. A principal desvantagem para completar o pivotamento que ele requer procurar muito mais elementos.

    Em pivotamento completo h (n i 1 1)2 candidatos.10. As observaes 4 e 5, no livro-texto, significam que o sistema Ax 5 b pode ser resol-vido em trs passos.

    Os passos so reordenao, substituio avante e substituio reversa.

    SEO 7.41. A sensibilidade de uma matriz a pequenas mudanas conhecida como a norma matri-cial.

    conhecida como o condicionamento.2. A norma de Frobenius realmente define uma famlia de normas matriciais.A norma de Frobenius define uma norma em Rm3n para m e n.3. Para uma norma ser usada como uma norma matricial, ||A|| 5 0 se e somente se A 5 0.Esta a qualificao da primeira propriedade das normas matriciais.4. Para uma norma ser usada como uma norma matricial, ||A 1 B|| 5 ||A|| 1 ||B||.||A 1 B|| menor ou igual a ||A|| 1 ||B||.5. As normas matriciais tm uma propriedade adicional que no partilhada pelas proprie-dades gerais das normas.Trata-se de ||AB|| ser menor ou igual a ||A||*||B||.6. Se ||A|| , 1, ento ||An|| tende a 0 quando n tende ao infinito.Este um resultado da propriedade (iv) das normas matriciais.7. Uma pequena mudana nos elementos de A pode resultar em grandes alteraes das solues, se A for uma matriz mal-condicionada.

    Esta a definio de mal-condicionada.8. As matrizes mal-condicionadas so mais sensveis e, assim, produzem solues mais precisas.

    As matrizes mal-condicionadas geralmente no so muito precisas.9. O condicionamento da matriz pode ser usado para derivar um limite sobre o erro abso-luto.

    Ele pode ser usado para derivar um limite sobre o erro relativo.10. O condicionamento definido como ||A||||A21||. escrito cond(A).

    SEO 7.51. As transformaes ortogonais introduzidas neste captulo so boas para aplicaes em computador.

    Elas no necessitam de armazenamento e so muito fceis de trabalhar.

  • Captulo Sete 31

    2. Como as transformaes ortogonais so inerentemente instveis, requerem cuidados na escolha dos pivs.As transformaes ortogonais so inerentemente estveis.3. Quando uma transformao ortogonal aplicada a uma matriz, o erro vai crescer com respeito norma 2.O erro no vai crescer com respeito norma 2.4. As transformaes ortogonais so muito importantes.Elas tm muitas propriedades teis, tais como as discutidas nas questes anteriores.5. Se Q uma matriz elementar ortogonal, ento Q 5 Q21.Decorre do fato de que Q 5 1 2uuT e alguns clculos simples.6. Se Q uma matriz elementar ortogonal, ento Q 5 QT.Isso tambm decorre do fato de que Q 5 1 2uuT e alguns clculos simples.7. Para usar uma transformao de Householder, s precisamos armazenar dois escalares.S preciso armazenar um escalar e um vetor.8. Hk atua como uma identidade para as primeiras n 1 coordenadas de qualquer vetor em Rn.Ela atua como uma identidade para as primeiras k 1 coordenadas.9. A transformao de Givens ou rotaes no plano usam 0,5n2 razes quadradas, quando usada para obter a fatorao QR de A.Este apenas um clculo simples.10. Uma transformao de Householder tem aproximadamente o mesmo nmero de adies e multiplicaes.Elas so aproximadamente (2/3)n3.

    SEO 7.61. O autovalor dominante o autovalor que tem o maior valor absoluto.Esta a definio de autovalor dominante.2. O algoritmo QR pode encontrar autovalores, mas apenas um de cada vez.O algoritmo QR pode encontrar autovalores, todos de uma s vez.3. O mtodo das potncias sempre pode encontrar todos os autovalores da matriz.O mtodo das potncias s pode encontrar todos os autovalores, se eles tiverem diferentes valores absolutos.4. O mtodo das potncias uma abordagem iterativa, no entanto, o algoritmo QR no .Ambos os mtodos so iterativos.5. O mtodo de determinao de autovalores, encontrando as razes dos polinmios carac-tersticos, no bom para computadores.Este mtodo pode facilmente levar a sistemas mal-condicionados e outros problemas.6. O condicionamento de uma matriz til para determinar o erro mnimo de autovalores.O Teorema 7.6.1 mostra como isto til.

  • 32 Captulo Sete

    7. O mtodo das potncias faz uso de trs sequncias definidas recursivamente.O mtodo das potncias faz uso de duas sequncias definidas recursivamente.8. Depois de encontrar o autovalor dominante, o processo de deflao pode ser usado para reduzir a matriz, a fim de encontrar o prximo autovalor.Deflao o termo apropriado para esse processo de reduo de uma matriz n 3 n a uma matriz (n 1) 3 (n 1).9. A quantidade de trabalho envolvida em cada iterao de um mtodo-padro para encon-trar autovetores pequena.Muitas vezes, to grande que torna difcil encontrar os autovalores.10. importante que a matriz inicial esteja na forma Hessenberg ou tridiagonal simtrica antes de tentar a fatorao QR.Isso reduz muito a quantidade de trabalho necessria em cada iterao.

    SEO 7.71. Se A uma matriz n 3 n, dizemos que de posto completo se ele tem posto n.Esta a definio da expresso posto completo.2. Formar equaes normais requer n2 multiplicaes.

    Exige (1/2) mn2 multiplicaes.3. A matriz B da primeira parte do algoritmo descrito no livro-texto definida positiva.Isso decorre do fato de que ATA 5 B no singular.4. Os algoritmos de reduo de matrizes definidas positivas exigem o dobro do nmero habitual de multiplicaes.Existem algoritmos para matrizes definidas positivas que exigem a metade do nmero habitual de multiplicaes.5. A pseudoinversa pode ser definida de mais de uma maneira.A pseudoinversa pode ser definida por suas propriedades algbricas ou por um produto matricial.

    6. A pseudoinversa muitas vezes chamada de pseudoinversa de Moore-Penrose.Uma tentativa de dar crdito onde devido.7. As propriedades algbricas da pseudoinversa so chamadas de condies de Moore.Elas so chamadas de condies de Penrose.8. O Teorema 7.7.1 requer uma matriz m 3 n com posto r 5 n.Ele exige uma matriz de posto r , n.9. Se A uma matriz m 3 n de posto completo, n transformaes de Householder podem ser aplicadas para anular todos os elementos acima da diagonal.Isto anula todos os elementos abaixo da diagonal.10. O algoritmo Goub-Reinsch usado para formar matrizes bidiagonais.O processo mostrado no livro-texto.