711
INTRODUCCI~N AL ALGEBRA LINEAL

Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Embed Size (px)

DESCRIPTION

Inroduccion Algebra lineal Howard a Howard Anton 5ta. Edicion

Citation preview

Page 1: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

INTRODUCCI~N AL ALGEBRA LINEAL

Page 2: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

VERSIóN AUTORIZADA EN ESPAÑOL DE LA OBRA PUBLICADA EN INGLÉS CON EL TíTULO: ELEMENTARY LINEAR ALGEBRA O JOHN WILEY & SONS, INC.

COLABORADOR EN LA TRADUCCI~N: HUGO VILLAG~MEZ VELÁZQUEZ

LA PRESENTACI~N Y DISPOSICI~N EN CONJUNTO DE

INTRODUCCIóN AL ALGEBRA LINEAL

SON PROPIEDAD DEL EDITOR. NINGUNA PARTE DE ESTA OBRA PUEDE SER REPRODUCIDA o TRANSMITIDA, MEDIANTE NINGUN SISTEMA O MÉTODO, ELECTR6NICOOMECÁNlCO (INCLUYENDO EL FOTOCOPIADO, LA GRABACIóN O CUALQUIER SISTEMA DE RECUPERACI~N Y ALMACENAMIENTO DE INFORMACI~N), SIN CONSENTIMIENTO POR ESCRITO DEL EDITOR.

DERECHOS RESERVADOS:

O 2001, EDITORIAL LIMUSA, S.A. DE C.V. GRUPO NORIEGA EDITORES BALDERAS 95, M É x l c o , D.F. C.P. 06040 '-S$. (5) 521 -21 -05

O1 (800) 7-06-91-00 (5) 51 2-29-03 [email protected] + www.noriega.com.mx

CANIEM NÚM. 121

,. -? r 1 \.; ,. I i. -+; - QUINTA REIMPRESI~N

DE LA SEGUNDA EDICIÓN .T t4 ;S1 y ! ; o!? r - HECHO EN M É x l c o

ISBN 968-1 8-5192-7

Page 3: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

y Lauren

Page 4: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

I PROLOG0

Así como en la edición anterior. en esta nueva edición se proporciona un tra- tamiento básico del álgebra lineal, idóneo para estudiantes que están cursando el primer o segundo años de facultad. Mi objetivo es presentar los fundamentos del álgebra lineal de la forma más clara posible. por lo que el aspecto pedagógico es esencial. No se requiere haber estudiado cálculo, aunque se presentan ejerci- cios y ejemplos para estudiantes que tienen los conocimientos necesarios; estos ejercicios y ejemplos están claramente indicados y se pueden omitir sin pér- dida de continuidad.

RESUMEN DE LOS CAMBIOS EN ESTA EDICIóN

Aunque esta edición tiene mucho en común con la edición anterior, se trata de una revisión sustancial. g e intentado mantener la claridad y el estilo de la edición previa, y a la vez reflejar las necesidades cambiantes de una nueva generación de estudiantes. Con esta intención he puesto en práctica varias recomendaciones hechas por el Linear Algebra Curriculum Study Group. También he hecho algu- nos cambios de organización que deben facilitar a los instructores cubrir los fun- damentos de todos los temas esenciales, inclusive con severas restricciones de tiempo. Posteriormente, en este prólogo se presenta una descripción de los cam- bios capítulo a capítulo, aunque a continuación se presenta un resumen de los cambios más importantes:

Mayor énfasis en las relaciones que hay entre los conceptos: Uno de los objetivos importantes de un curso de álgebra lineal es establecer la trama

7

Page 5: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

intrincada de las relaciones que hay entre sistemas de ecuaciones, matrices, determinantes, veclores. transformaciones lineales y eigenvalores. En esta edición. la trama de relaciones se desarrolla a través del siguiente crescendo de teoremas que vinculan cada nueva idea con ideas precedentes: 1.5.3, 1.6.4. 2.3.6, 4.3.4, 63.9. 6.2.7, 6.4.5 y 7.1.5. Estos teoremas no sólo hacen más coherente el panorama algebraico, sino también sirven como fuente constante de repaso. Transición m b suave hacia la abstracción: La transición de R" a es- pacios vecloriales generales es traumática para casi todos los estudiantes. de modo que he intentado suavizarla analizando Rn en detalle, recalcando los conceptos geométricos subyacentes antes de proceder con el estudio de espacios vectoriales generales. Exposición temprana de transformaciones lineales y eigenvalores: A fin de asegurar que el material sobre transformaciones lineales y eigenvalores no se pierda al final del curso, algunos de los conceptos básicos que se re- lacionan con tales temas se desarrollan más pronto en el texto y luego se repasan cuando el tcma se desarrolla con mayor profundidad en la parte final del texto. Por ejemplo, las ecuaciones características se analizan brevemente en la sección sobre determinantes. Las transformacioncs linea- les de H" a R'" se abordan inmediatamente después que se introduce K". y se analizan más tarde en el contexto de las transformaciones linealcs gencrales. Estos repasos ayudan a asegurar que los estudiantes se ramiliari- cen con los fundanlentos de todos los temas más importantes, inclusive cuando el tiempo apremia. Mayor énfasis en la conceptualización: Para mantener el interés actual cn la conceptualización y en las aplicaciones crecientes del álgebra lineal a las gráficas, he puesto mayor énfasis en los aspectos geométricos de las rotaciones. proyecciones y reflexiones en y en R3. Nuevo material sobre mínimos cuadrados y descomposición QR: Se ha añadido nuevo material sobre mínimos cuadrados y descomposición QH, en respuesta al interés creciente en estos temas. Más demostraciones: Se han añadido varias demostraciones que antes habían sido omitidas. Todas las demostraciones en el texto han sido escritas en un estilo adecuado para principiantes. y se ha puesto especial cuidado a fin de asegurar que el carácter accesible y amable del texto no haya sido afectado de manera adversa por las demostraciones adicionales. Quienes deseen un curso matemáticamente más forrnal encontrarán que esta nueva edición es más idónea para tal efecto. y quienes deseen un curso más conceptual tendrhn mayor elección en las demostraciones.

DETALLES DE LOS CAMBIOS DE ESTA EDICIÓN

La amplia aceptación de la edición anterior ha sido muy gratificante. y apre- cio las sugerencias constructivas recibidas de parte de los usuarios y revisores. Se han revisado algunas secciones del testo para presentarlas con más claridad, y se han

Page 6: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

erectuando cambios sustanciales ente1 contenido y su OrgallhCiÓn, en rcspuesta a las sugerencias tanto de los usuarios como de los revisores. así como de las cCO- mendaciones hechas por el Linear Algebra ('urriculum Study (;roup.

Hay muchas formas en las que es posible ordenar el material en un curso de algebra lineal: el ordenamiento que he elegido para 10s capítulos refleja m i in- clinación por el axioma de que es necesario proceder de 10 conocido 21 10 des- conocido y de lo concreto a lo abstracto.

A continuación se presenta un resumen capítulo a capítulo de 10s cambios más importantes en esta nueva edición.

Capítulo 1. Se presenta una nueva sección sobre matrices de forma espc- cial: diagonal, triangular y simétrica. Al modificar ligeramente el material. no se incrementó el número de secciones de este capítulo. Capítulo 2. A este capítulo determinante se ha añadido nuevo material introductorio sobre eigenvalores, eigenvectores y ccuaciones característi- cas. Este material se repasa y posteriormente se analiza con más detalle en el capítulo 7. Se ha añadido la demostración de la igualdad det(AR) =

det(A)det(B). Capítulo 3. Se presenta nueva información sobre ecuaciones vectorialcs de rectas y planos, y la interpretación geomktrica de los determinantes 2 x

2 ~ 3 x 3 . Capítulo 4. Este es un nuevo capítulo dedicado exclusivamente a R". Se desarrollan conceptos fündamentales y se presenta una introducción a las transformaciones lineales de Rn a R"'. recalcando el aspecto geométrico dc las proyecciones, rotaciones y reflexiones. A diferencia de la edición anterior, este material se presenta ahora antes del desarrollo de los espacios vectoriales generales. El material de este capítulo se analiza más tarde, en el contesto de espacios \,ectoriales generales. Capítulo S. Este capítulo corresponde al capítulo 4 de la edición anterior. Se han añadido muchas de las demostraciones que se habían omitido. Tam- bién se presenta nuevo material sobre el wronskiano, para quienes han cs- tudiado Cálculo, y se incluye nuevo material sobre los cuatro espacios fun- damentales de una matriz. Capítulo 6. Este capítulo corresponde al capítulo 5 de la edición anterior. Se presenta nuevo material sobre complementos ortogonalcs. descomposi- ción QR y mínimos cuadrados. Capítulo 7. Este capítulo corresponde al capítulo 6 de la edición anterior. Se ha repasado el material desarrollado antes sobre eigenvalores y elgen- vectores. Se incluye nuevo material sobre las multiplicidades geométrica y algebraica. así como una explicación mejorada sobre los requisitos para la diagonalización. Capítulo 8. Este capítulo corresponde al capítulo 7 de la edición an- terior. El material se ha vuelto a escribir sustancialmente. a fin de reflejar el hecho de que las transformaciones lineales de Rn a Hm se introduje- ron en el capítulo 4. Capítulo 9. Este capítulo corresponde al capítulo 8 y a las secciones 9. I y 9.2 de la edición anterior. Se ha vuelto a escribir la sección sobre la

Page 7: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

10 Prólogo

geometría de los operadores lineales sobre R2 para poder fundamentar los conceptos desarrollados en la sección 4.2. Capítulo 10. Este capítulo corresponde al capítulo 7 de la edición anterior. Los cambios son menores.

ACERCA DE LOS EJERCICIOS

En todos los ejercicios de cada sección se empieza con problemas de rutina, se avanza hacia problemas más sustanciales y se concluye con problemas teóricos. AI final de casi todos los capítulos se presenta un conjunto de ejercicios complemen- tarios que pueden presentar más dificultad y forzar al estudiante a extraer ideas de todo un capítulo, en vez de hacerlo solamente de una sección específica.

Page 8: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

GUÍA PARA EL INSTRUCTOR

PROGRAMAS POSIBLES PARA UN CURSO NORMAL

He revisado una gran cantidad de posibilidades para cursos de álgebra lineal. La variación entre las instituciones es amplia, aunque los cursos tienden a caer en dos categorías: una que consta de entre 20 y 30 lecciones (excluyendo los exámenes y los repasos) y otra que consta de entre 35 y 40 lecciones (excluyendo los exámenes y los repasos). Con base en mi análisis de estas posibilidades. he proporcionado dos patrones para elaborar un curso propio. Los patrones se deben ajustar a fin de reflejar los intereses y requisitos propios, aunque deben ser útiles como punto de partida. En el patrón largo se supone que se cubren todas las secciones del capítulo, y en el patrón corto se supone que el instructor selecciona material para ajustarse al tiempo disponible.

Dos cambios en la organización del texto facilitan la construcción de cursos más cortos: la breve introducción a los eigenvalores y eigenvectores que se pre- senta en las secciones 2.3 y 4.3 y la colocación previa de las transformaciones lineales de R" a Rm en el capítulo 4. Estos cambios aseguran que el estudiante se familiarice un poco con estos conceptos fundamentales, inclusive si el tiempo disponible para abordar los capítulos 7 y S es limitado. Observé también que los estudiantes que ya conocen el material pueden omitir el capítulo 3 sin pérdida de continuidad.

Page 9: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

12 Guía para el instructor

Capítulo 1 Capítulo 2 Capítulo 4 Capítulo S Capítulo 6 Capítulo 7 Capítulo 8

Total

Patrón largo Patrón corto

7 lecciones 4 lecciones 3 lecciones X lecciones 6 lecciones 4 lecciones 6 lecciones

38 lecciones

6 lecciones 3 lecciones 3 lecciones 7 lecciones 3 lecciones 3 lecciones 2 lecciones

27 lecciones

VARIANTES DEL CURSO NORMAL

Son posibles muchas variantes del curso normal. Por ejemplo. es posible crcar un patrón largo opcional siguiendo la asignación de tiempo del patrón corto y dedicando las 11 lecciones restantes a algunos dc los temas de los cdphlOS 9 y 1 0 .

CURSO ORIENTADO A APLICACIONES

El capítulo 9 contiene aplicaciones selectas de álgebra lineal que son esencial- mente de naturaleza matemática. Los instructores interesados en una variedad más amplia de aplicaciones pueden considerar la otra versión de este texto, Elementary Linear Algebra, Aplications Version. de Howard Anton y Chris Rorres. En esc texto se proporcionan numerosas aplicaciones a los negocios. biología, ingeniería. economía. ciencias sociales y ciencias físicas.

Page 10: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

I

t AGRADECIMIENTOS 1

Expreso mi aprecio por la útil orientación proporcionada por las siguientes personas:

REVISORES Y COLABORADORES DE EDICIONES ANTERIORES EN INGLÉS

Steven C. Althoen, University of Michigan-Flint C. S. Ballantine, Oregon State University Erol Barbut, University of Idaho William A. Brown, University of Maine Joseph Buckley, Western Michigan University Thomas Cairns, University of Tulsa Douglas E. Cameron, University of Akron Bomshik Chang, University of British Columbia Peter Colwell, Iowa State University Carolyn A. Dean, University of Michigan Ken Dunn, Dalhousie University Bruce Edwards, University of Florida Murray Eisenberg, University of Massachusetts Harold S. Engelsohn, Kingshorough Comm. College Garret Etgen, University ofHouston Marjorie E. Fitting, San Jose State University Dan Flath, University of South Alabama David E. Flesner, Gettysburg College Mathew Gould, Vanderbilt University Ralph P. Grimaldi, Rose-Hulman Institute

William W. Hager, University of Florida Collin J. Hightower, University of Colorado Joseph F. Johnson, Rutgers University Robert L. Kelley, University of Miami Arlene Kleinstein Myren Krom, Calfornia State University Lawrence D. Kugler, University of Michigan Charles Livingston, Indiana University Nicholas Macri, Temple University Roger H. Marty, Cleveland State University Patricia T. McAuley, SUNY-Binghamton Robert M. McConnel, University of Tennessee Douglas McLeod, Drexel University Michael R. Meck, Southern Connecticut State Univ. Craig Miller, University of Pennsylvania Donald P. Minassian, Butler University Hal G. Moore, Brigham Young University Thomas E. Moore, Bridgewater State College Robert W. Negus, Rio Hondo Junior College Bart S. Ng, Purdue University

13

Page 11: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

I-í I Agradec.citrrientos

James Osterburg, University of Cincinnati William F. Trench, Trinity University Michael A. Penna, Indiana-Purdue University Joseph L. Ullman, University of Michigan Gerald J. Porter, University of Pennsylvania W. Vance Underhill, East Texas State University F. P. J. Rimrott, University qf Toronto James R. Wall, Auburn University C. Ray Rosentrater, Westmont College Arthur G. Wasserrnan, University of Michigan Kenneth Schilling, University of Michigan-Flint Evelyn J. Weinstock, Glassboro State College William Scott, University of Utah Rugang Ye, Stanford University Donald R. Sherbert, University of Illinois Frank Zorzitto, University of Waterloo Bruce Solomon, Indiana University Daniel Zwick, University of Vermont Mary T. Treanor, Valparaiso University

REVISORES Y COLABORADORES DE LA SÉPTIMA EDICIÓN EN INGLÉS, SEGUNDA EN ESPAÑOL

Mark B. Beintema, Southern Illinois University Paul Wayne Britt, Louisiana State University David C. Buchthal, University of Akron Keith Chavey, University of Wisconsin-River Falls Stephen L. Davis, Davidson College Blake DeSesa, Drexel University Dan Flath, Uniwrsity of South Alabama Peter Fowler, California State University Marc Frantz, Indiatza-Purdue University Sue Friedman, Bernard M. Baruch College, CUNY William Golightly, College qf Charleston Hugh Haynsworth, College qf Charleston Tom Hem, Bow!ling Green State University J. Hershenov, Queens College. CUNY Steve Humphries, Brigham Young Universitt3 Steven Kahan, Queens College, CUNY

Andrew S. Kim, Westfield State College John C. Lawlor, University of Vermont M. Malek, California State University at Huyward J. J. Malone, Worcester Polytechnic Institute William McWorter, Ohio State University Valerie A. Miller, Georgia State University Hal G. Moore, Brigham Young University S. Obaid, San Jose State University Ira J. Papick, University of Missouri-Columbia Donald Passman, University of Wisconsin Robby Robson, Oregon State University David Ryeburn, Simon Fraser University Ramesh Sharma, University of New Haven David A. Sibley, Pennsylvania State University Donald Story, Universio, of Akron Michael Tarabek, Southern Illinois University

SOLUCIONES A LOS PROBLEMAS, LECTURA DE PRUEBAS E INDICE

Michael Dagg, Numerical Solutions, Inc. Susan L. Friedman, Bernard M. Baruch College, CUNY Mareen Kelley, Northern Essex Communih. College Randy Schwartz, Schoolcraft College Daniel Traster (Student), Yale Universio.

COMPLEMENTOS

Benny Evans, Oklahoma State University Charles A. Grobe, Jr., Bowdoin College

Page 12: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Agradecimientos / 15

Elizabeth M. Grobe IntelliPro, Inc. Jerry Johnson, Oklahoma State University Randy Schwartz, Schoolcraft College

OTROS COLABORADORES

Un agradecimiento especial a los siguientes profesores, quienes leyeron profundamente el material del texto e hicieron contribuciones significativas a la calidad del nivel matemático y de exposición:

Stephen Davis, Davidson College Blaise DeSesa, Drexel University Dan Flath, University of South Alabama Marc Frantz, Indiana-Purdue University William McWorter, Ohio State University Donald Passman, University of Wisconsin David Ryeburn, Simon Fraser University Lois Craig Stagg, University of Wisconsin-Milwaukee

También deseo expresar mi agradecimiento a: Barbara Holland, mi editora, quien me ayudó a moldear al concepto de esta nueva edición y cuyo entusiasmo incluso convirtió en divertido el arduo tra- bajo (alguna vez). Ann Berlin, Lucille Buonocore y Nancy Prinz del Departamenro de Produc- ción de Wiley, por preocuparse tanto por la calidad de este trabajo y propor- cionarme un apoyo extraordinario. Lilian Brady, cuyo ojo para los detalles y sentido estético infalible mejoró grandemente la exactitud del texto y la belleza de la tipografía. Joan Carafiello y Sharon Prendergagst por su soberbio trabajo en la coordina- ción de la miríada de detalles que mágicamente produjeron las respuestas y los complementos a tiempo. El grupo en Hudson River Studio por tratar con tanto tacto a un autor rigu- roso. Mildred Jaggard, mi asistente, quien coordinó todos los detalles del texto desde la lectura de pruebas hasta el índice con pericia consumada, y quien pa- cientemente toleró mi idiosincrasia.

HOWARD ANTON

Page 13: Inroduccion Algebra lineal Howard Anton 5ta. Edicion
Page 14: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

CAPíTULO 1

CAPíTULO 2

CAPíTULO 3

SISTEMAS DE ECUACIONES LINEALES Y MATRICES 21

l . l . Introducción a los sistemas de ecuaciones lineales 2 1 1.2. Eliminación gaussiana 29 1.3. Matrices y operaciones con matrices 47 1.4. Inversas: Reglas de la aritmética de matrices 61 1.5. Matrices elementales y un método para determinarn" 75 1.6. Otros resultados sobre sistemas de ecuaciones e invertibilidad 85 1.7. Matrices diagonales, triangulares y simétricas 94

DETERMINANTES 107

2.1. La función determinante 107 2.2. Evaluación de determinantes por reducción de renglones 115 2.3. Propiedades de la función determinante 121 2.4. Desarrollo por cofactores; Regla de Cramer 13 1

VECTORES EN LOS ESPACIOS BlDlMENSlONAL Y TRIDIMENSIONAL. 149

3. l. Introducción a los vectores (geométrica) 147 3.2. Norma de un vector; Aritmética vectorial 159 3.3. Producto punto: Proyecciones 165

17

Page 15: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3.4. Producto cruz 175 3.5. Rectas y planos en el espacio tridimensional 189

CAPITULO 4 ESPACIOS VECTORIALES EUCLIDIANOS 203

4. l . Espacio euclidiano n dimensional 203 4.2. Transformaciones lineales de R" a Rm 218 5.3. Propiedades de las transformaciones lineales de R" a Rm 239

CAPíTULO 5 ESPACIOS VECTORIALES GENERALES 257

5. 1. Espacios vectoriales reales 257 5.2. Subespacios 265 5.3. Independencia lineal 277 5.4. Base y dimensión 287 5.5. Espacio renglón. espacio columna y espacio nulo 306 5.6. Rango y nulidad 322

CAPíTULO 6 ESPACIOS CON PRODUCTO INTERIOR 339

6.1. Productos interiores 339 6.2. Ángulo y ortogonalidad en espacios con producto interior 353 6.3. Bases ortonormales: Proceso de Gram-Schmidt; Descomposición QR

6.4. Mejor aproximación: Mínimos cuadrados 384 6.5. Matrices ortogonales: Cambio de base 395

3 67

CAPíTULO 7 EIGENVALORES, EIGENVECTORES 41 5

7. l . Eigenvalores y eigenvectores 4 15 7.2. Diagonalización 426 7.3. Diagonalización ortogonal 437

CAPíTULO 8 TRANSFORMACIONES LINEALES 447

8. I , Transformaciones lineales generales 447 8.2. Núcleo y recorrido 461 8.3, Transformaciones lineales inversas 468 8.4. Matrices de transformaciones lineales generales 478 8.5. Semejanza 595

Page 16: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Contenido / 19

CAPíTULO 9 TEMAS COMPLEMENTARIOS 513

9. l . Aplicaciones a las ecuaciones diferenciales S 13 9.2. Geometría de los operadores lineales sobre R2 521 9.3. Ajuste de datos por mínimos cuadrados 535 9.4. Problemas de aproximación: Series de Fourier 543 9.5. Formas cuadráticas 55 1 9.6. Diagonalización de formas cuadráticas; Secciones cónicas 561 9.7. Superficies cuádricas 574 9.8. Comparación de procedimientos para resolver sistemas lineales S79 9.9. Descomposiciones LU 589

CAPíTULO 10 ESPACIOS VECTORIALES COMPLEJOS 601

10.1. Números complejos 601 10.2. Módulo; Conjugado complejo; División 610 10.3. Forma polar; Teorema de De Moivre 617 10.4. Espacios vectoriales complejos 628 10.5. Espacios complejos con producto interior 637 10.6. Matrices unitarias, normales y hermitianas 647

RESPUESTAS A LOS EJERCICIOS 661

iNDlCE 711

Page 17: Inroduccion Algebra lineal Howard Anton 5ta. Edicion
Page 18: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

CAPíTULO I

~ SISTEMAS DE ECUACIONES LINEALES Y MATHCES

I .I INTRODUCCIQN A LOS SISTEMAS DE ECUACIONES LINEALES

El estudio de los sistemas de ecuaciones lineales y sus soluciones es uno de los temas más importantes del álgebra lineal. En esta sección se introducirá ter- minología básica y se analizará un metodo para resolver esos sistemas.

ECUACIONES Una recta en el plano xy puede representarse algebraicamente por una ecuación de LINEALES la forma

u I x + a,y = b

Una ecuación de este tipo se denomina ecuación lineal en las variables x y y . De manera más general, una ecuacidn lineal en las n variables x,, x2,. . . , xn se define como una ecuación que se puede expresar en la forma

U , X , + a2x2 + . . . + U,X, = h

donde al , a2, . . . , a,, y b son constantes reaies. Las variables en una ecuación lineal algunas veces se denominan incógnitas.

Ejemplo 1 Las ecuaciones siguientes son lineales:

x + 3 y = 7 x , - 2x, - 3x, + x, = 7 y = + x + 3 z + 1 x , + x * + . . . + x x , = l

21

Page 19: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

22 ;' Sistemas de ecuaciones lineales y matrices

Observar que una ecuación lineal no incluye ningún producto o raíz de variables. Todas las variables están elevadas sólo a la primera potencia y no aparecen como argumentos de funciones trigonométricas, logarítmicas o exponenciales. Las si- guientes ecuaciones no son lineales:

Una solución de una ecuación lineal alxl + a2x2 + . . . , + a>,= b es una sucesión de n números sl, sz, . . . , sn de modo que la ecuación se cumple cuando se sustituye x1 = sl, x2 = s2, . . . , x, = S,. El conjunto de todas las soluciones de la ecuación se denomina conjunto solucidn o, algunas veces, solucidn ge- neral de la ecuación.

Ejemplo 2 Encontrar el conjunto solución de

(a) 4x - 2"v = 1 (b) x1 - 4x, + 7x3 = 5

Solución a). Para encontrar soluciones de a), se asigna un valor cualesquiera a x y se despeja y, o bien, se elige un valor arbitrario paray y se despeja x. Si se sigue el primer método y a x se asigna un valor arbitrario t, se obtiene

x = t , y = 2 t - $

Estas expresiones describen el conjunto solución en términos de algún parámetro f. Las soluciones numéricas particulares se pueden obtener al sustituir valores específícos de t. Por ejemplo, f = 3 conduce a la solución x = 3, y = y , y t = - 4 produce la solución x = - T , y = - 2 .

Si se sigue el segundo método y a y se asigna el valor arbitrario t , se obtiene

1

Aunque estas expresiones son diferentes a las que se obtuvieron antes, producen el mismo conjunto solución cuando t asume todos los números reales posibles. Por ejemplo, con las expresiones anteriores se obtuvo la solución x = 3 , y = y cuando t = 3, mientras que con las expresiones posteriores se obtuvo esa solución cuando t - 11 - -

2 '

Solución b). Para encontrar el conjunto solución de b) es posible asignar valores arbitrarios a dos variables cualesquiera y despejar la tercera variable. En par- ticular, si a x2 y ,x3 se asignan los valores arbitrarios s y t , respectivamente, y se despeja xl, se obtiene

x 1 = 5 + 4 s - 7 t , x 2 = s , x 3 = t A

Page 20: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1. I Introducción a los sistemas de ecuaciones lineales I’ 23

SISTEMAS LINEALES

Un conjunto finito de ecuaciones lineales en las variables x,, x,, . . ., x,, se de- nomina sistema de ecuaciones lineales o sistema lineal. Una sucesión de nú- meros S,, S,,. . . , S, se denomina solución del sistema si x1 = sl, x, = S,, . . . , S,, =

xn es una solución de todas y cada una de las ecuaciones del sistema. Por ejemplo, el sistema

4x, -x* + 3x, = - 1 31, + x2 + 9x, = - 4

tiene la solución x, = 1, x2 = 2, x3 = - 1, ya que estos valores satisfacen ambas ecuaciones. Sin embargo, x1 = 1, x, = 8, x3 = 1 no es una solución, ya que estos valores satisfacen sólo la primera de las dos ecuaciones del sistema.

No todos los sistemas de ecuaciones lineales tienen solución. Por ejemplo, si la segunda ecuación del siguiente sistema

x + y = 4 2 x + 2 y = 6

se multiplica por i, resulta evidente que no existen soluciones, ya que el sistema equivalente obtenido

x +y = 4 x + y = 3

está compuesto por ecuaciones contradictorias. Se dice que un sistema de ecuaciones que no tiene soluciones es inconsisten-

te; si existe por lo menos una solución del sistema, éste se denomina consistente. Para ilustrar las posibilidades que pueden ocurrir al resolver sistemas de ecua- ciones lineales, se considerará un sistema general de dos ecuaciones lineales en las incógnitas x y y:

u , x + b , y = c , ( a , , b , nosonceroalavez)

a2x + b,y = c2 (az , 6, no son cero a la vez)

Las gráfkas de estas ecuaciones son rectas; por ejemplo I, y I,. Como un punto (x, y) pertenece a una recta sí y sólo si los números x y y satisfacen la ecuación de la recta, las soluciones del sistema de ecuaciones corresponden a los puntos de intersección de 1, y I,. Existen tres posibilidades (figura 1):

Las rectas I, y 1, pueden ser paralelas, en cuyo caso no se cortan y, en consecuencia, no existe solución del sistema. Las rectas I, y I, pueden cortarse sólo en un punto, en cuyo caso el sistema tiene exactamente una solución. Las rectas I, y 1, pueden coincidir, en cuyo caso hay una infinidad de puntos de intersección y, por tanto, existen infinidad de soluciones del sistema.

Page 21: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

24 Sistemas de ecuaciones lineales y matrices

Aunque aqui sólo se han considerado dos ecuaciones en dos incógnitas, más tarde se demostrará que las mismas tres posibilidades se cumplen para sistemas lineales arbitrarios:

Todo sistema de ecuaciones lineales no tiene soluciones, tiene exactamente una solución o tiene una injinidad de soluciones.

a)

Figura 1 No existe solución I M í d a d de soluciones I

Un sistema arbitrario de m ecuaciones lineales en n incógnitas se puede escribir como

umlxl + am2x2 + . . . + amnx, = b,

donde xl, x2,. . . , x, son las incógnitas y las letras a y b con subindices denotan constantes. Por ejemplo, un sistema general de tres ecuaciones lineales con cuatro incógnitas se puede escribir como

Los subindices dobles en los coeficientes de las incógnitas constituyen un mecanismo útil que se utiliza para especificar la ubicación del coeficiente en el sistema. El primer subíndice en el coeficiente ay indica la ecuación en que aparece el coeficiente, y el segundo subíndice indica a qué incógnita multiplica. Así, aI2 está en la primera ecuación y multiplica a la incógnita x2.

Page 22: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

l . 1 Introducción a los sistemas de ecuaciones lineales ,I 25

MATRICES Si mentalmente se ubica a los signos +, las letras x y los Signos =, entonces un AUMENTADAS sistema de m ecuaciones lineales con n incógnitas puede abreviarse al escribir sólo

el arreglo rectangular de números:

a12

a22

am2

. . .

. . .

. . .

a In

a 2"

amn

Este arreglo se denomina mutriz aumentada del sistema. (El término matriz se usa en matemáticas para denotar un arreglo rectangular de números. Las matrices surgen en muchos contextos que serán considerados con más detalle en secciones ulteriores.) Por ejemplo. la matriz aumentada del sistema de ecuaciones

x1 + x2 + 2x3 = 9 2x, + 4x2 - 3x3 = I

3x1 + 6x2 - 5x3 = O es

OBSERVACI~N. AI elaborar una matriz aumentada, las incógnitas deben escri- birse en el mismo orden en cada ecuación.

El método básico para resoiver un sistema de ecuaciones lineales es sustituir el sistema dado por un nuevo sistema que tenga el mismo conjunto solución, pero que sea más fácil de resolver. Este nuevo sistema suele obtenerse en una serie de pasos mediante la aplicación de los tres tipos de operaciones siguientes para eli- minar incógnitas de manera sistemática.

1. Multiplicar una ecuación por una constante diferente de cero. 2. Intercambiar dos ecuaciones. 3. Sumar un múltiplo de una ecuación a otra ecuación.

Dado que los renglones (líneas horizontales) de una matriz aumentada corres- ponden a las ecuaciones en el sistema asociado, las tres operaciones mencionadas corresponden a las siguientes operaciones efectuadas en los renglones de la matriz aumentada.

1. Multiplicar un renglón por una constante diferente de cero. 2. Intercambiar dos renglones. 3. Sumar un múltiplo de un renglón a otro renglón.

"

Page 23: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

26 / Sistemas de ecuaciones 1ineales.y matrices

OPERACIONES Las tres operaciones anteriores se denominan operaciones elementales en los ren- ELEMENTALES glones. En el siguiente ejemplo se ilustra cómo se pueden usar estas operaciones EN LOS para resolver sistemas de ecuaciones lineales. Como en la siguiente sección se RENGLONES obtendrá un procedimiento sistemático para determinar soluciones, no es necesario

preocuparse sobre cómo se eligieron los pasos en este ejemplo. El esfuerzo prin- cipal en este caso debe dedicarse a comprender los cálculos y el análisis.

Ejemplo 3 En la columna izquierda que se muestra a continuación se resuelve un sistema de ecuaciones lineales operando sobre las ecuaciones del sistema, y en la columna de la derecha el mismo sistema se resuelve operando sobre los renglones de la matriz aumentada.

x + y + 2 z = 9 2X + 4y - 32 = 1 3~ + 6-v - 5~ = O

Sumar -2 veces la primera ecuación a la segunda para obtener

x + y + 2 z = 9 2 y - 7 ~ ~ -17

3~ + 61' - 52 = O Sumar -3 veces la primera ecuación a la tercera para obtener

x + y + 2 z = 9 2 ~ - 7Z= -17 3 ~ - I I z = -27

Multiplicar la segunda ecuación por 1/2 para obtener

x + y'+ 2 z = 9 v - S z = " 17

3~ - 1 I Z = -27 Sumar -3 veces la segunda ecuación a la tercera para obtener

x + , y + 2 2 = 9 y - $ z = " 17

- 1" 3 2' - 2

"

Multiplicar la tercera ecuación por -2 para obtener

x + y + 2z = 9 v"? 2 Z " 7 - 2

z = 3

[: 4 - 3 '1 1 2

3 6 - 5 O

Sumar -2 veces el primer renglón al se- gundo para obtener

Sumar -3 veces el primer renglón al tercero para obtener

2 o 2 - 7 "'1 ia 1 -11 -27

Multiplicar el segundo renglón por 1/2 para obtener

Sumar -3 veces el segundo renglón al tercero para obtener

Sumar el tercer renglón por -2 para obtener

1 2 9 [; -; -;1

Page 24: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1 . 1 Introducción a los sistemas de ecuaciones lineales 1 27

Sumar -1 veces la segunda ecuación a la primera para obtener

x + y z = 35

y - S z = -17

z = 3 Sumar - 1112 veces la tercera ecuación a la primera y 7/2 veces la tercera ecuación a la segunda para obtener

X = 1 y = 2

z ='3

Sumar - 1 veces el segundo renglón al primero para obtener

0 % ~ 35

Sumar - 1112 veces el tercer rengl6n al primero y 712 veces el tercer renglón al segundo para obtener

0 0

La solución x = l , y = 2 , z = 3

es evidente ahora. A

EJERCICIOS DE LA SECCIóN 1.1

1. De las siguientes ecuaciones, ¿cuáles son lineales en x, , xz y x3?

a) xI + 5x2 - d x 3 = 1 b) xI + 3x2 + x,x3 = 2 C) xi = -7x, + Jx,

d ) x F 2 + x 2 + 8x, = 5 e) x:/' - 2x, + x j = 4 f ) m, - f i x 2 + ;x3 = 7'13

2. Dado que k es una constante, p d e s de las siguientes ecuaciones son lineales?

a)x, -xx,+x,=senk b) k x i - - x , = 9 c) 2 k x 1 + 7 x 2 - x 3 = 0 1 k -

3. Encontrar el conjunto solución de cada una de las siguientes ecuaciones lineales

a) 7x - 5.v = 3 b) 3x, - 5x2 + 4x3 = 7 C) - 8 x , + 2 x 2 - 5 x 3 + 6 x 4 = 1 d ) 3 ~ - 8 ~ + 2 ~ - ~ + 4 ~ = 0

4. Hallar la matnz aumentada de cada uno de los sigwentes sistemas de ecuaciones lineales.

a) 3x, - 2x, = - 1 b) 2x, + 2x3 = 1 c) X, + 2x2 - x4 + x5 = 1 d) XI = 1 4x, + 5 x 2 = 3 3x, - x2 + 4x, = 7 3x2 + x3 - x 5 = 2 x2 = 2 7x, +3x2 = 2 6x1 + X, - X, O x3 + 7x4 = 1 x j = 3

5. Determinar un sistema de ecuaciones lineales correspondiente a la matriz aumentada.

a) [: -9 81 c, [

o - 2 5

b) [: -: -;] O 0 0

7 2 1 - 3 1 2 4 0 1 5 1 [i i g -:I

0 o 1 4

6. a) Encontrar una ecuación lineal en las variables x y y que tenga la solución general x = 5 + 2 t , y = t .

Page 25: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

28 Sistemas de ecuaciones lineales .y maírices

b) Demostrar que x = t , y = if- - también es la solución general de la ecuación del inciso a).

7. La curva y = ax2 + bx + c de la figura 2 pasa por los puntos (x1, y,), (x2, y,) y (x3, yJ. Demostrar que los coeficientes a, b y c son una solución del sistema de ecuaciones lineales cuya matriz aumentada es

8. ¿Para qué valorirs) de la constante k el siguiente sistema de ecuaciones lineales no tiene soluciones? ¿exactamente una solución'? ¿infinidad de soluciones?

x - y = 3

2~ - 2y = k

9. Considerar el sistema de ecuaciones

ax + b-v = k cx + dy = I

ex + fy = n:

Analizar las posiciones relativas de las rectas ax + by = k, cx + 4v = 1 y ex + f i = m cuando el sistema a) no tiene soluciones. b) tiene exactamente una solución. c) tiene infinidad de soluciones.

10. Demostrar que si el sistema de ecuaciones del ejercicio 9 es consistente, entonces del sistema es posible eliminar por l o menos una ecdación sin modificar el conjunto solución.

11. Sean k = I = m = O en el ejercicio 9; demostrar que el sistema debe ser consistente. iQuC se puede decir del punto de intersección de las tres rectas si el sistema tiene exactamente una solución?

12. Considerar el sistema de ecuaciones

x + v + 2 z = a x + z = b

2 x + y + 3 z = c

Demostrar que para que este sistema sea consistente, a, b y c deben satisfacer c = a + b

13. Demostrar lo siguiente: Si las ecuaciones lineales x, + kx, = c y x, + Ix, = d tienen el mismo conjunto solución, entonces las ecuaciones son idénticas.

Page 26: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1.2 Eliminación gaussiana / 29

1.2 ELIMINACIÓN GAUSSIANA

En esta sección se dará un procedimiento sistemútico para resolver sistemas de ecuaciones lineales; el método se basa en la idea de reducir la matriz aumentada a una forma sujicientemente simple para que el sistema de ecuaciones se pueda resolver por inspección.

FORMA En el ejemplo 3 de la sección precedente, el sistema lineal se resolvió al reducir la ESCALONADA matriz aumentada a REDUCIDA

a partir de lo cual la solución del sistema era evidente. Este es un ejemplo de una matriz que está en forma escalonada reducida. Para que una matriz sea de esta forma. debe tener las siguientes propiedades.

1. Si un renglón no consta completamente de ceros, entonces el primer número diferente de cero en el renglón es un 1. (Que se denomina 1 principal.)

2. Si hay renglones que constan completamente de ceros, se agrupan en la parte inferior de la matriz.

3. En dos renglones consecutivos cualesquiera que no consten completamente de ceros, el I principal del renglón inferior aparece más a la derecha que el 1 principal en el renglón superior.

4. Cada columna que contenga un I principal tiene ceros en todas las demás posiciones.

Se dice que una matriz con las propiedades 1, 2 y 3 (pero no necesariamente con la propiedad 4) está en forma escalonada.

Ejemplo 1 Las siguientes matrices están en forma escalonada reducida.

[ I O O 4 1 [I O O] [: A -: y I] o 1 o 7 , 0 1 0 , o o 1 - 1

0 0 0 0 0 ’ [: :] O o l o o o o o

Las siguientes matrices están en forma escalonada

Page 27: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

30 1 Sistemas de ecuaciones lineales y matrices

El lector debe verificar que cada una de las matrices anteriores satisface todos los requisitos necesarios.

ORSERVACI~N. Según el ejemplo precedente, una matriz en forma escalonada tiene ceros abajo de cada 1 principal, mientras que una matriz en forma escalo- nada reducida tiene ceros tanto arriba como abajo de cada 1 principal.

Si, por m d o de una serie de operaciones elementales en los renglones, se llega a la forma escalonada reducida a partir de la matriz aumentada de un sistema de ecua- ciones lineales, entonces el conjunto solución del sistema será evidente por inspección o al cabo de unos cuantos pasos simples. Este hecho se ilustra con el siguiente ejemplo.

Ejemplo 2 Suponer que la matriz aumentada de un sistema de ecuaciones lineales se ha reducido por operaciones en los renglones a la forma escalonada reducida dada. Resolver el sistema.

1 0 0 b) [O 1 0 2

O 0 1 3 2

1 6 o o 4 - 2

c) O 0 0 1 5 2 o 0 0 0 0 0

Solución a). El sistema de ecuaciones correspondiente es

XI = 5

x3 = 4 x2 - - -2

Por inspección se obtiene que x1 = 5 , x2 = -2, x3 = 4

So/ución 6). El sistema de ecuaciones correspondiente es

XI + 4x, = - 1

x3 + 3X, = 2 .x2 + 2x, = 6

Ya que xl, x2 y xj corresponden a unos principales en la matriz aumentada, se denominan variables principales. Las variables no principales (en este caso x4) se denominan variables libres. Al expresar las variables principales en tér- minos de las variables libres se obtiene

XI = - 1 - 4x,

X) = 2 - 3s,

x2 = 6 - 2 ~ ,

Page 28: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

221526 1.2 Eliminación gaussiana / 31

A partir de esta forma de las ecuaciones se observa que a la variable libre x4 se le puede asignar algún valor, por ejemplo t, que luego determina el valor de las va- riables principales xl, x2 y x3. Por tanto, existe una infinidad de soluciones y la so- lución general está definida por las fórmulas

Solución c). El sistema de ecuaciones correspondiente es

x, + 6x, + 4x, = - 2 x3 + 3x5 = 1

x, + SX, = 2

Aquí las variables principales son x,, x3 y x4, y las variables libres son x2,y x5. Al expresar las variables principales en términos de las variables libres se obtiene

X, = - 2 - 6x2 - 4x5 x3 = 1 - 3x5 x, = 2 - 5x5

Puesto que x5 puede asumir un valor cualesquiera t y x2 puede asignarse un valor S, entonces existe una infinidad de soluciones. La solución general está definida por las fórmulas

Solución d). La última ecuación en el sistema de ecuaciones corresponlente es

ox, + ox, + ox, = 1

Como no es posible que esta ecuación se cumpla, entonces el sistema no tiene solución. A

ELIIMINACI~N Se ha visto cuán fácil es resolver un sistema de ecuaciones lineales una vez que su GAUSSIANA matriz aumentada se escribe en forma escalonada reducida. A continuación se propor-

cionará un procedimiento paso a paso que puede usarse para expresar cualquier matriz en forma escalonada reducida. A medda que se escriba cada paso del prooxhiento, se ilustmá la idea al expresar la siguiente matriz en forma escalonada reducida.

0 0 - 2 o 2 4 -10 6 12 2 4 - 5 6 - 5 - 1

Paso 1. Localizar la columna de la izquierda que no conste completamente de ceros.

Page 29: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

317 I/ Sistemas de ecuaciones lineales-v matrices

0 0 - 2 o 7 2 4 - 10 6 12 If] 2 4 -5 6 - 5 - 1

! Columna de la orilla izquierda diferente de cero

Paso 2. Intercambiar el renglón superior con otro renglón, en caso de ser ne- cesario, para que en la parte superior de la columna determinada en el paso 1 haya un elemento diferente de cero.

2 4 -10 o 0 - 2 o 7 1 2 renglones primero y segundo

Paso 3. Si el elemento que está ahora en la parte superior de la columna de- terminada en el paso l es a, multiplicar el primer renglón por l la a fin de introducir un 1 principal.

1 2 - 5 3 6 o 0 - 2 o 7 matriz precedente se

2 4 - 5 6 - 5 - 1

El primer renglón de la

multiplicó por 1/2.

Paso 4. Sumar mdtiplos adecuados del renglón superior a los renglones inferio- res para que todos los elementos abajo de 1 principal se vuelvan ceros.

1 2 - 5 3 o 0 - 2 o 7 precedente se sumó -2 veces 0 o 5 o -

El primer renglón de la matriz

Paso 5. A continuación, cubrir el renglón superior de la matriz y comenzar de nuevo con el paso 1 aplicado a la submatriz restante. Continuar de esta manera hasta que toda la matriz esté en forma escalonada.

1 2 - 5 3 o 0 - 2 0 7 O O 5 O -17 -29

Columna de la orilla izquierda diferente de cero en la submatriz

Page 30: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

l . 2 Eliminación gaussiana / 33

1 2 - 5 3 0 0 1 0 " 2

O O 5 O -17 -29

1 2 - 5 3 6 o o 1 o -; 0 0 0 0 ~ 1

1 2 - 5 3 6 o o 1 o -; -?I 0 0 0 0 ~ 1

A

El primer renglón de la submatriz se multiplicó por - 1/2 para introducir un 1 principal.

submatriz se sumó - 5 veces ' al segundo renglón de la submatriz para introducir un cero abajo del 1 principal.

El renglón superior de la submatriz se cubrió, y se volvió nuevamente al paso l .

Columna de la orilla izquierda diferente de cero en la nueva submatriz

1 2 - 5 3 El primer (y Único) renglón o o 1 0 0 0 0 1 2 introducir un 1 principal.

en la nueva submatrlz se

Ahora toda la matriz está en forma escalonada. Para determinar la forma escalo- nada reducida es necesario efectuar el siguiente paso adicional.

Paso 6. Empezando con el último renglón diferente de cero y trabajando hacia arriba, sumar múltiplos adecuados de cada renglón a los ren- glones de arriba con objeto de introducir ceros arriba de los unos principales.

1 2 - 5 3 6 0 0 1 0 0 precedente se sumó 712 veces 0 0 0 0 1

1 2 - 5 3 o 0 0 1 0 0 sumó -6 veces al

0 0 0 0 1

1 2 0 3 0 0 0 1 0 0 0 0 0 0 1

El segundo renglón se sumó 5 veces al primer renglón.

La última matriz está en forma escalonada reducida El procedimiento anterior para expresar una matriz en forma escalonada re-

ducida se denomina eliminación de Gauss-Jordan (véase la página 34). Si sólo se efectúan los cinco primeros pasos, el procedimiento se denomina eliminación gaussiana y produce una forma escalonada.

*

Page 31: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

34 1 Sistemas de ecuaciones lineales y matrices

OBSERVACI~N. Se puede demostrar que toda matriz tiene una forma esca- lonada reducida única; es decir, se obtiene la misma forma escalonada reducida de una matriz dada sin importar cómo se hagan variar las operaciones en los renglones. (Una demostración de este hecho puede consultarse en el artículo "The Reduced Row Echelon Form of a Matrix is Unique: A Simple Prooy, de Thomas Yuster, Mathematics Magazine, Vol. 57, No. 2, 1984, págs. 93 -94.) En contraste, una forma escalonada de una matriz dada no es única: diferentes secuencias de operaciones en los renglones pueden producir formas escalonadas diferentes.

Ejemplo 3 Resolver por eliminación de Gauss-Jordan

X ] + 3x, - 2x, + 2x, = o

5x, + lox, + 15x, = 5 2x, + 6x2 - 5x3 - 2x4 + 4x5 - 3x6 = - 1

2x, + 6x2 + 8x, + 4x, + 18x, = 6

*Karl Friedrich Gauss (1777-1855) fue un matemático y científico alemán. Algunas veces nombrado "príncipe de los matemáticos", Gauss es considerado junto con Isaac Newton y Arquimedes como uno de los tres más grandes matemáticos que han existido. En toda la historia de las matemáticas quizá nunca ha habido un niño tan precoz como Gauss: según cuenta éI mismo, ya dominaba las bases de las matemáticas aún antes de poder hablar. Un dia, cuando aún no tenia tres años de edad, su genio se manifestó a sus padres de manera bastante elocuente. Su padre estaba preparando la nómina semanal de los obreros a su cargo mientras el niño lo observaba en silencio desde un rincón de la habitación. AI final de los cálculos largos y tediosos, Gauss dijo a su padre que había un error en el resultado y le dijo la respuesta, a la que había llegado mentalmente. Para sorpresa de sus padres, jal comprobar los cálculos se dieron cuenta de que Gauss tenía razón!

En su disertación doctoral, Gauss proporcionó la primera demostración completa del teorema fundamental del álgebra, que establece que toda ecuación polinómica tiene cuando mucho.tantas soluciones como su grado. A los 19 años de edad resolvió un problema que desconcertó a Euclides: inscribir un polígono regular de 17 lados en una circunferencia usando sólo regla y transportador; y en 1801, a los 24 años de edad, publicó su primera obra maestra, Disqursrfrones Anfhrnetrcae, consrderada por muchos como uno de los logros más brillantes en matemáticas. En este documento, Gauss sistematizó el estudio de la teoría de números (propiedades de los enteros) y formuló los conceptos básicos que constituyen los cimientos de ese tema.

Entre la multitud de logros alcanzados, Gauss descubrió la curva "acampanada" o gaussiana que es fundamental en probabilidad, proporcionó la primera interpretación geométrica de los números complejos y estableció el papel fundamental de éstos en las matemáticas, desarrolló métodos para caracterizar superficies intrínsecamente por medio de las curvas contenidas en aquéllas, desarrolló la teoría del mapeo conforme (que preserva ángulos) y descubrió la geometría no euclidiana 30 años antes de que estas ideas fueran publicadas por otros. En fisica realizó contribuciones esenciales a la teoría de las lentes y a la acción capilar, y junto con Wilhelm Weber realizó trabajo fundamental en electromagnetismo, Gauss inventó el heliotropo, el magnetómetro bifilar y el electrotelegrafo.

Gauss era profundamente religioso y se comportaba como aristócrata. Dominaba fácilmente otros idiomas, leia bastante y disfrutaba la mineralogia y la botánica como pasatiempos. No le agradaba dar clases y solía ser frío y poco alentador con otros matemáticos, quizá porque ya había anticipado el trabajo de éstos. Se ha afirmado que si Gauss hubiera publicado todos sus descubrimientos, el estado actual de las matemáticas habría avanzado 50 años. Sin duda alguna es el matemático más grande de la epoca moderna.

Wilhelm Jordun (1842-1899) fue un matemático alemán que se especializó en geodesia. Su contribución a la resolución de sistemas lineales apareció en su libro conocido, Handbuch der I'errnessungskunde, en 1888.

Page 32: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1.2 Eliminación gaussiana / 35

La matriz aumentada del sistema es

AI sumar -2 veces el primer renglón a los renglones segundo y cuarto se obtiene

1 3 - 2 o 2 o o o o - 1 -2 o -3 - 1 (I O 5 1 0 0 1 5 5

L O O 4 8 O 1 8 6

Al multiplicar el segundo renglón por - 1 y luego sumar -5 veces el nuevo segundo renglón al tercer renglón y -4 veces el nuevo segundo renglón al cuarto renglón se obtiene

O 0 O 0 0 6 2

Al sumar -3 veces el tercer renglón al segundo renglón y luego sumar 2 veces el segundo renglón de la matriz resultante al primer renglón se obtiene la forma escalonada reducida

I 1 3 0 4 2 0 0 0 0 1 2 0 0 0 0 0 0 0 0 1 g 0 0 0 0 0 0 0

El sistema de ecuaciones correspondente es

x, + 3x, 4 4x, + 2x, = o x3 + 2x4 = o

X6 = Q

Page 33: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

(Se ha eliminado la última ecuación. Oxl + Ox, + Oxj + Ox4 -t Ox, + Ox6 = O, ya que las demris ccuaciones harán que se cumpla de manera automática.) AI despejar la,; variables principalcs. se obtiene

Si a las variables libres x,. x4. x5 se asignan los valores arbitrarios r. S y t. respectivamente. entonces la solucion general está dada por las fórmulas

X , = - 3r -- 4s - 2t, X? = Y , .x3 = - 2 ~ , .x4 = S, = t. X, = f A

RETRO- Ejemplo 4 Algunas Yeces es preferible resolver un sistema de ecuaciones lineales S U S T I T U C I ~ N por medio de la eliminación gaussiana a fin de expresar la matriz aumentada en

forma escalonada sin continuar hasta obtener la forma escalonada reducida. Cuando se hace lo anterior. el sistema de ecuaciones correspondiente se puede resolver mediante una técnica denominada retrosustitucidn. Para ilustrar este método se usarh el sistema de ecuaciones del ejemplo 3.

Con base en los cálculos en el ejemplo 3. una forma escalonada dc la matriz aumentada es

I 1 3 - 2 o 2 0 0 0 0 1 2 O 3 1 0 0 0 0 0 l g o 0 0 0 0 0 0

Para resolver el sistema de ccuaciones correspondiente

se procede como sigue:

Paso 1. Despejar las variables principales en las ecuaciones. I .Yl = -3x, + 2x, - 2x, xi = 1 - 2.r, - 3x, x, = f

Page 34: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1.2 Eliminación gaussiana / 37

Paso 2. Empezando con la última ecuación y trabajando hacia atrás, sustituir consecutivamente cada ecuación en las ecuaciones anteriores.

Al sustituir x6 = 3 en la segunda ecuación se obtiene

x, = -3x, + 2x, - 2x, x j = - 2x,

.X6 = $

La sustitución de x3 = -2x, en la primera ecuación da

x, = - 3x, - 4x, - 2x5

x, = -2x,

x6 = $

Paso 3. Asignar valores arbitrarios a las variables libres, si hay alguna.

Si a xz. x4 y x5 se asignan valores cualesquiera r, S y t , respectivamente, entonces la solución general está definida por las fórmulas

Lo anterior concuerda con la solución obtenida en el ejemplo 3. A

OBSERVACI~N. Los valores que se asignan a las variables libres se llaman parámetros. Aunque para designar a los parámetros en general se usarán las letras r , s. t , . . , , es posible usar cualquier letra que no cause problema con los nombres de las variables.

Ejemplo 5 Resolver

x + y + 2 2 = 9 2x + 4y - 32 = 1

3x + 6 , ~ - 5~ = O

por medio de la eliminación gaussiana y la retrosustitución.

Solución. Este es el sistema del ejemplo 3 en la sección 1 . 1 . En ese ejemplo se convirtió la matriz aumentada

Page 35: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

38 ,/ Sistemas de ecuaciones lineales y matrices

a la forma escalonada

1 2 9 [; -f -y] El sistema corresponhente a esta matriz es

x + y + 2 2 = 9 - 2, = -17

z = 3 2

Al despejar las variables principales se obtiene

La sustitución de la ecuación inferior en las ecuaciones anteriores da

x = 3 - y y = 2 z = 3

y la sustitución de la segunda ecuación en la ecuación superior se obtiene

x = 1 y = 2 z = 3

Esto concuerda con el resultado que se encontró mediante la eliminación de Gauss-Jordan en el ejemplo 3 de la sección l . l . A

SISTEMAS Se dice que un sistema de ecuaciones lineales es homogéneo si todos los término: LINEALES constantes son cero; es decir, el sistema es de la forma HOMOGÉNEOS

a I l x , + ai2x2 + . . . + a, ,x , = O u2,x , + a22x2 + . . . + u2,x, = O

amlxl + am2x2 + . . . + amnx, = O

Todo sistema de ecuaciones lineales homogéneo es consistente, ya que UM

solución de todos estos sistemas es x1 = O, xz = O, . . . , xn = O . Esta solución se denomina solución trivial; en caso de que haya otras soluciones, se denominan soluciones no triviales.

Page 36: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1.2 Eliminación gaussiana i 39

Debido a que un sistema lineal homogéneo siempre tiene la solución trivial, entonces para sus soluciones sólo hay dos posibilidades:

El sistema sólo tiene la solución trivial. El sistema tiene infinidad de soluciones además de la solución trivial

En el caso especial de un sistema lineal homogéneo de dos ecuaciones con dos incógnitas, por ejemplo

a , x + h , y = O ( a , , b , nosonceroalavez)

a2x + h2y = O (az , h, no son cero a la vez)

las gráfkas de las ecuaciones son rectas que pasan por el origen, y la solución trivial corresponde al punto de intersección en el origen (figura 1).

S Y Av

Figura 1 I S Ó I ~ la solución trivial I I Infinidad de soluciones I

Existe un caso en el cual se asegura que un sistema homogéneo tiene soluciones no triviales, a saber, siempre que el sistema tenga más indgnitas que ecuaciones. Para ver por qué, considerar el siguente ejemplo de cuatro ecuaciones con cinco incógnitas.

Ejemplo 6 Resolver el siguiente sistema de ecuaciones lineales homogéneo por eliminación de Gauss-Jordan.

2x1 + 2x2 - x3 + x 5 = o

-x1 - x2 + 2x, - 3x, + x5 = o x, + x2 - 2x, -x,=o

x3 + xq + x5 = o

Solución. L a matriz aumentada del sistema es

2 2 - 1 o 1 o - 1 - 1 2 - 3 1 o

1 1 - 2 0 - 1 o 0 0 1 1 1 0

Page 37: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

40 /' Sistemas de ecuaciones lineales y matrices

Al reducir esta matriz a la forma escalonada reducida, se obtiene

[ 1 1 0 0 1 0 0 0 1 0 1 0 o 0 0 1 0 0 0 0 0 0 0 0

El sistema de ecuaciones correspondiente es

XI +X? + 5 5 = 0 x j + X5 = o

.x4 = o Al despejar las variables principales se obtiene

x, = -x2 -- X.j

x2 = -x5

-Y4 = o

Par tanto, la solución general es

.x1 = - S - t, .x2 = S, X j = - t , XJ = 0, xj = 1

Observar que la solución trivial se obtiene cuando S = t = O. A

El ejemplo 6 ilustra dos cuestiones importantes respecto a la solución de sistemas homogéneos de ecuaciones lineales. Primera, ninguna de las tres operaciones elementales en los renglones modifica la columna final de ceros en la matriz aumentada, de modo que el sistema de ecuaciones correspondiente a la forma escalonada reducida de la matriz aumentada también debe ser un sistema homogéneo, véase el sistema (2) . Segunda, dependiendo de si la forma escalonada reducida de la matriz aumentada contiene algún renglón de ceros, el número de ecuaciones en el sistema reducido es menor o igual que el número de ecuaciones del sistema original, comparar los sistemas (1) y (2). Por tanto, si el sistema homogéneo dado contiene m ecuaciones con n incógnitas donde m < n, y s i en la forma escalonada reducida de la matriz aumentada hay r renglones diferentes de cero, entonces se tendrá r < n. Se concluye que el sistema de ecuaciones correspondiente a la forma escalonada reducida de la matriz aumentada es de la forma

Page 38: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

SOLUCIONES POR COMPUTADORA DE SISTEMAS LINEALES

1.2 Eliminación gaussiana 1 41

donde xk,, xk2, . . . , xkr son las variables principales y Z ( ) denota Sumas (posiblemente todas diferentes) que incluyen a las n - Y variables libres, comparar el sistema (3) con el sistema (2) . AI despejar las variables principales se obtiene

x k , = -X( 1 Xk2 = - G ( 1

Xk, = - C ( )

Así como en el ejemplo 6, es posible asignar valores cualesquiera a las variables libres del miembro derecho y obtener así una infinidad de soluciones del sistema.

En resumen, se tiene el siguiente teorema importante.

Teorema 1.2.1. Un sistema de ecuaciones lineales homogéneo con más incógnitas que ecuaciones tiene infinidad de soluciones.

OBSERVACI~N. Se debe notar que el teorema 1.2.1 es válido sólo para sistemas homogéneos. Un sistema no homogéneo con más incógnitas que ecuaciones no necesariamente es consistente (ejercicio 34); sin embargo, si el sistema es con- sistente, entonces tiene infinidad de soluciones. Este hecho se demostrará des- pués.

En las aplicaciones no es raro encontrar grandes sistemas lineales que cs necesario resolver por computadora. Zasi todos los algoritmos de cómputo para resolver los sistemas se basan en la eliminación gaussiana o en la eliminación de Gauss-Jordan, aunque los procedimientos básicos son modificados a menudo para poder abordar cuestiones como

reducir los errores por redondeo, disminuir el uso del espacio de memoria de la computadora, y resolver el sistema a la velocidad máxima.

Algunas de estas cuestiones se considerarán en el capítulo 9. En cálculos manuales, las fracciones son un inconveniente que a menudo es imposible evitar. Sin embargo, en algunos casos sí se puede hacer al variar de manera conveniente las operaciones elementales en los renglones. Por tanto, una vez que el lector domine los métodos de eliminación gaussiana y eliminación de Gauss-Jordan puede modificar los pasos en problemas específicos a fin de evitar las fracciones (véase el ejercicio 18).

EJERCICIOS DE LA SECCIÓN 1.2

1. De las siguientes matrices 3 x 3, ¿cuáles están en forma escalonada reducida?

Page 39: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

42 / Sistemas de ecuaciones lineales y matrices

a ) O l O [: :] b) 1 "1 c) [: 1 y ] d) [A 0" f] O 0 0 O 0 0 O 0 0

f ) l O O [" "1 g)[: :] hj [: '1 i) [: I :] 0 0 0 O 0 0 O 0 0 O 0 0

2. De las siguientes matnces 3 x 3 , ¿cuáles están en forma escalonada?

[l :] b ) [ i O 0 0 "1 c) [i O 2 0 f d)

a ) O l O 1 3 4 0 0 1

-0 o o

3. En cada inciso, determinar si la matriz está en forma escalonada, en forma escalonada reducida, en ambas formas o en ninguna.

1 2 0 3 0

a ) O O O O I [O o O] b ) [ i p c j [ ' o 1 2 4 o '1 0 0 0 0 0

1 3 0 2 0

dl [ ' o 1 3 2 -7 '1 e ) [' o * O] f ) [i i] O 0 0 0 1

0 0 0 0 0

4. En cada inciso, suponer que la matriz aumentada de un sistema de ecuaciones lineales ha sido reducida mediante operaciones en los renglones a la forma escalonada re- ducida dada. Resolver el sistema.

1 o 0 - 3 I o 0 - 7 8

,)[O

1 O 3 2 o o 1 1 - 5

1 - 6 O O 3 - 2 O 0 1 0 4 ;] d) [i -: x 81 O 0 0 1 5

~ 0 0 0 0 0 0

5. En cada inciso, suponer que la matriz aumentada de un sistema de ecuaciones lineales ha sido reducida mediante operaciones en los renglones a la forma escalonada dada. Resolver el sistema.

0 1 2 q 1 -3 4 0 0 1 s 2

Page 40: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1.2 Eliminación gaussiana / 43

6. Resolver cada uno de los siguientes sistemas aplicando eliminación de Gauss-Jordan. a) x, + x2 + 2x3 = 8 b) 2x, + 2x, + 2x3 = O

-x1 - 2x2 + 3x3 = 1 -2x, + 5x, + 2x3 = 1 3x, - 7x, + 4x3 = 10 8x, + X, + 4x3 = - 1

c) x - y + 2 z - w = - 1 d) -2b + 3 ~ = 1

2 x + y - 2 2 - 2 w = - 2 3 ~ + 6 b - 3 ~ = - 2 - x + 2 y - 4 2 + w = 1 6a + 66 + 3c = 5 3x - 3w = -3

7. Resolver cada uno de los sistemas del ejercicio 6 aplicando eliminación gaussiana.

8. Resolver cada uno de los siguientes sistemas aplicando eliminación de Gauss-Jordan a) 2x, - 3x2 = -2 b) 3x, + 2 ~ , - x3 = - 15

2x, + x, = 1 5x, + 3x2 + 2x3 = o 3x, +2x2 = 1 3x, + x, + 3x3 = 11

-6x, - 4x, + 2x3 = 30

C) 4x, - SX, = 12 d) 1oy-4z+ w = 1 3x1 - 6 ~ , = 9 x + 4y- z + w = 2

-2x, +4x,= - 6 3 x + 2 y + z + 2 w = 5 - 2 ~ - 8 y + 2 ~ - 2 ~ = -4

X - 6y+32 = 1 9. Resolver cada uno de los sistemas del ejercicio S aplicando eliminación gaussiana.

10. Resolver cada uno de los siguientes sistemas aplicando eliminación de Gauss-Jordan.

a) 5x, - 2x2 + 6x, = O b) xI - 2x, + x, - 4x, = 1 c) w + 2 x - y = 4 -2x, + x, + 3x3 = 1 XI + 3x2 + 7x3 + 2x, = 2 x - y = 3

x1 - I~x, - 1 IX, - 16x4 = 5 ~ + 3 ~ - 2 ~ = 7 2 u + 4 v + w + 7 x = 7

11. Resolver cada uno de los sistemas del ejercicio 10 aplicando eliminación gaussiana

12. Sin usar lápiz y papel, determinar cuáles de los siguientes sistemas homogéneos tienen soluciones no triviales. a) 2x1 - 3x, + 4x, - x, = O b) x, + 3x2 - x3 = 0

2x, + 8x2 + x3 - X, = O 4x3 = o 7x, + x, - 8x3 + 9x4 = o x, - SX, = o

C) a , ,x, + alzx2 + uI3x3 = O d) 3x1 - 2x2 = 0 aZlXl + a2zx2 + a23x3 = 0 6x, - 4x2 = O

13. Resolver los siguientes sistemas de ecuaciones lineales homogéneos aplicando cual- quier método.

a) 2x, + X, + 3x3 = O b) 3x1 + x2 + x3 + x, = O c) 2x + 2y + 4z = o x, + 2x, = O 5x, - x2 + x3 - x, = o W - y -3 .?=0

x, + x, = o 2 w + 3 x + y + z = O -2w+ ~ + 3 ~ - 2 ~ = 0

14. Resolver los siguientes sistemas de ecuaciones lineales homogéneos aplicando cual- quier método.

Page 41: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

44 1' Sistemas de ecuaciones lineales y matrices

a) 2.r -- y - 3z = 0 b) u t 3 w - 2 x = o c) x , + 3 x , +x,=o

x + , y + 4 z = o 2 ~ + 3 ~ + 2 ~ - x = O - 2x2 - 2x, - x, = o --x + 2y - 32 = o 2 u + u - 4 w + 3 x = o x, t 4x, + 2x, = o

-414 - 3U + 5W -. 4x = 0 2x, .- 4x, + x, + x, = o x, - 2x, - xj + .x4 = o

15. KesoIver 10s siguientes sistemas aplicando cualquier método.

a) 21, - I, + 31, + 41, = 9 b) z, + z, + z, = o 4 - 21, + 71, = I 1 -z, - z, + 22, - 32, + z, = o

31, - 31, + l3 + 51, = 8 z, +- z2 - 22, -z,=o 21, + I2 t 41, + 41, = 10 22, + 2z2 - z, +z,=o

16. Resolver los siguientes sistemas, donde a, b y c son constantes.

a) 2x + .V = a b) x, + .x2 + x, = u 3x +- 6~ = h 2.r , + 2x, = h

3.Y2 + 3x, = c

17. ¿Para qué valores de a el siguiente sistema no tiene solución? ¿exactamente una solución'? ¿,intinidad de soluciones?

.Y i- 21' "~ 3z = 4 31 " J' 4- 5z = 2 4x + v + (U' -- 1 4 ) ~ = 0 + 2

18. Expresar

en forma escalonada reducida sin introducir ninguna fracción

1 Y. Encontrar dos formas escalonadas diferentes de

20. Resolver e1 siguiente sistema de ecuaciones no lineales para los ángulos descono- c i d o s a , y p , d o n d e O ( a ( 2 n , O I P I 2 n , y O s y < : .

2 s e n a - c o s p + 3 t a n y = 3 4sencu+2cosp-2tany=2 6 s e n a - 3 c o s p + t a n y = 9

21. Resolvcr el siguiente sistema de ecuaciones no lineales para .Y, y y z.

X' + + z2 = 6

x"y '+22=2 2x2 f V 2 - 2 2 = 3

Page 42: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1.2 Eliminación gaussiana \ 45

22. Demostrar que el siguiente sistema no lineal tiene 18 soluciones si O 5 a 5 2 z, O 5 / 3 5 2 z , y O I . y < 2 z .

s e n a + 2 c o s p + 3 t a n y = O 2 s e n a + 5 c o s p + 3 t a n y = O - s e n a - 5 c o s p + 5 t a n y = O

23. $ara que valor(es) de y el siguiente sistema de ecuaciones tiene soluciones no triviales?

(a - 3lX + v = o x + (a - 3)?, = o

24. Considerar el sistema de ecuaciones

ax + by = O cx + dy = o ex + fy = O

Analizar las posiciones relativas de las rectas ax + by = O, cx + dy = O y ex +fi = O cuando a) el sistema tiene s3!0 la solución trivial, b) el sistema tiene soluciones no tnviales.

25. En la figura 2 se muestra la gráfica de una ecuación cúbica y = + b? + cx + d. Encontrar los coeficientes a, b , c y d.

ty 20 -

' I Figura 2

26. Recordar que en geometría plana tres puntos no colineales determinan una circunfe- rencia de manera única. En geometría analítica se demuestra que la ecuación de una circunferencia en el plano xy es de la forma

ux2 + uy2 + bx + cy + d = O

Encontrar la ecuación de la circunferencia que se muestra en la figura 3

CY

Page 43: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

46 / Sistemas de ecuaciones lineales y matrices

27. Describir las posibles formas escalonadas rqiucidas de

28. Demostrar que si ad - bc f O, entonces la forma escalonada reducida de

29. Usar el ejercicio 28 para demostrar que si ad - bc = O, entonces el sistema

ux + b ~ , = k CY + d v = I

tiene exactamente una solución

30. tlrsolvzr el sistema

para x,, x 2 y xj SI

a) k = 1 b) d = 2

31. Considerar el sistema de ecuaciones

ux + bj. = o C.Y + 41) = o

a) Demostrar que si x = xo, y = y, es cualquier solución del sistema y k es cualquier

b) Demostrar que si x = xo, y = y, y x = x], y = y, son dos soluciones cualesquiera, constante, entonces x = kr,, y = 4, también es una solución.

entonces x = x. + x,, y = y o + y , también es una solución.

32. Considerar el sistema de ecuaciones

(1 ) u . ~ + b,, = k (11) ax + by = O C.Y + dl) = I cx + 4v = o

a) Demostrar que si x = x,, y = y , y x = x*, y = y, son soluciones de I, entonces x = x1

b) Demostrar que si x = x], y = y , es una solución de I y x = x,, y = y, es una solución - x2,y = y I - y, es una solución de I I .

de I I , entonces x = x, + x,, y =y , +yo es una solución de I.

33. a) En el sistema de ecuaciones numerado con ( 3 ) , explicar por qué sería incorrecto denotar a las variables principales por xl, x2, , . . , xr en vez de por xk,, xk2, . . . , xk, como se hizo.

Page 44: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

l. 3 Matrices y operaciones con matrices / 4 7

b) El sistema de ecuaciones numerado con (2) es un caso específico de (3). ¿Qué valor tiene y en este caso? ¿Cuáles son xk,, xk2, . . . , x en este caso? Escribir las sumas denotadas por I: ( ) en ( 3 ) .

k,

34. Encontrar un sistema lineal inconsistente que tenga más incógnitas que ecuaciones

1.3 MATRICES Y OPERACIONES CON MATRICES

Los arreglos rectangulares de números reales surgen en muchos contextos distintos a las matrices aumentadas de sistemas de ecuaciones lineales. En esta sección estos arreglos se considerarán como objetos en sí y se desarrollarán

' algunas de sus propiedades para aplicarlas más tarde.

N O T A C I ~ N Y Definición. Una matriz es un arreglo rectangular de números. Los números en

DE MATRICES TERMINoLoGÍA el arreglo se denominan efementos de la matriz.

Ejemplo 1 Algunos ejemplos de matrices son

El tamaiio de una matriz se describe en términos del número de renglones (líneas horizontales) y de columnas (líneas verticales) que contiene. Por ejemplo, la primera matriz del ejemplo 1 tiene tres renglones y dos columnas, de modo que su tamaño es 3 por 2 (que se escribe 3 X 2). En la descripción del tamaño, el primer número siempre denota el número de renglones y el segundo, el de columnas. Las demás matrices del ejemplo 1 son de tamaño 1 X 4, 3 x 3, 2 X 1 y 1 X 1, respectivamente. Una matriz con una sola columna se denomina matriz co-

lumna (o vector columna), y una matriz con un solo renglón se denomina matriz renglón (o vector renglón). Así, en el ejemplo 1, la matriz 2 X 1 es una matriz columna, la matriz 1 X 4 es una matriz renglón y la matriz 1 X 1 es tanto una matriz renglón como una matriz columna. (El término vector tiene otro signi- ficado que será analizado en capítulos ulteriores.

OBSERVACI~N. Se acostumbra omitir los corchetes en una matriz 1 X 1. Así, se podría escribir 4 en vez de 4 . Aunque lo anterior imposibilita saber si 4 denota el número "cuatro1' o la matriz 1 X 1 cuyo elemento es 'Icuatro", excepcionalmente causa problemas, ya que casi siempre es posible inferir el significado a partir del contexto en que aparece el símbolo.

Page 45: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

48 .Sistemas de ecuaciones lineales y matrices

Para denotar matrices se usarán mayúsculas y para denotar cantidades, minúsculas; así. se podría escribir

Al estudiar matrices, es común denominar escdares a las cantidades numéricas. A menos que se establezca otra cosa. los escalares serán nitmeros reales; los escalares complejos serán considerados en el capítulo 10.

El elemento que aparece en el renglón i y la columna j de una matriz .4 se denota por a,,. Así, una matriz general 3 X 4 se puede escribir como

y una matriz general m x n, como

Cuando se desea que la notación sea condensada, la matriz precedente se puede expresar como

[ U , , I , , , X , I 0 [ % , I la primera notación se usa cuando en el análisis es importante conocer el tamaño y la segunda cuando no es necesario recalcar el tamaño. Por lo general, la letra que denota una matriz corresponde a la letra que denota sus elementos; así, para una matriz B en general se usará b,, para denotar el elemento en el renglón i y la columnaj, y para una matriz C se usará cy.

El elemento en el renglón i y la columna j de una matriz A se denota por el símbolo (A)q. Así. para la matriz (1) anterior, se tiene

( A ) , , = a,,

y para la matriz

se tiene (A)11 = 2, (A)12 = -3, (A)2l = 7 , y (A)22 = O . Las matrices renglón y columna revisten especial importancia y se denotan con

minúsculas negritas en vez de mayúsculas. En estas matrices es innecesario usar subindices dobles para los elementos. Entonces, una matriz renglón general a 1 X

n y una matriz columna general b m X 1 se escribirán como

Page 46: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1.3 Matrices y operaciones con matrices / 49

Figura 1

Una matriz A con n renglones y n columnas se denomina matriz cuadrada de orden n,-y se hce que los elementos a l l , a22, . . . , ann están en la diagonal principal de A (véanse los elementos en tipo negro en la figura 1).

OPERACIONES Hasta el momento, las matrices se han usado para abreviar el trabajo al resolver CON MATRICES sistemas de ecuaciones lineales. Para otras aplicaciones, sin embargo, es deseable

desarrollar una "aritmética de matrices" en la que sea posible sumar, restar y mul- tiplicar matrices de manera útil. El resto de esta sección se dedicará al desarrollo de esa aritmética.

Definición. Dos matrices son iguales si tienen el mismo tamaño y sus ele- mentos correspondientes son iguales.

En notación matricial, si A = [a,] y [B = b, ] son del mismo tamaño, entonces A =

B si y sólo si (A), = (B), o, equivalentemente, a, = bo para todo i y j .

Ejemplo 2 Considerar las matrices

Si x = 5, entonces A = B, pero para los demás valores de x las matrices A y B no son iguales. ya que no todos sus elementos correspondientes son iguales. No hay ningún valor de x para el que A = C, ya que los tamaños de A y C son diferentes. A

correspondientes de A , y la diferencia A - B es la matriz obtenida al restar los elementos de B de los elementos correspondientes de A . No es posible sumar o restar matrices de tamaños diferentes.

Page 47: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

7 ' P "*I 6 .,*< r : , : 'i -

, ~ . . ,

50 Sistemas de ecuaciones lineales v matrices

En notación matricial, si A = [au] y B = [ b J son del mismo tamaño, entonces

Ejemplo 3 Considerar las matrices

2 1 0 -4 3 5 - 1 O 2 '1 B = [ 2 2 O -:] C = [ ' '1

4 - 2 7 o 3 2 - 4 5 2 2

Entonces

11 - 5

Las expresiones A + c', B + C', A - C y B - C no están definidas. A

Definición. Si A es cualquier matriz y c es cualquier escalar, entonces el producto cA es la matriz obtenida al multiplicar cada elemento de A por c.

En notación matricial, si A = [a 1 , entonces r/

cA)ij = c(A),, = cui,

Ejemplo 4 Para las matrices

A = [ 1 3 I ] B = [ - 1 3 - 5 71 c= [: -r, 2 3 4 o 2

se tiene

Es común denotar (- l)B por -B. A

Si A , , A,, . . . , A,, son matrices del mismo tamaño y cl, c,, . . . , c,, son escalares. entonces una expresión de la forma

se denomina combinación lineal de A , , A,, . . . , A,, con coeficientes cl, c2, . . . , e,,. Por ejemplo, si A , B y C son las matrices del ejemplo 4, entonces

Page 48: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

224526 1.3 Matrices y operaciones con matrices I' 51

= [: 1 ;l.+ [: 1: -:I+[; -: :I = [7 '1

4 3 11

es la combinación lineal de A , B y C con coeficientes escalares 2, - 1 y i. Hasta el momento se ha definido la multiplicación de una matnz por un

escalar, pero no la multiplicación de dos matrices. Como la suma de matrices se ejecuta sumando los elementos correspondientes y la resta de matrices se ejecuta restando los elementos correspondientes, parecería natural definir el producto de matrices como la multiplicación de los elementos correspondientes. Sin embargo, resulta que la definición no es de mucha utilidad en la mayor parte de los problemas. La experiencia ha llevado a los matemáticos a la siguiente definición, menos natural pero más útil, de producto de matrices.

Definición. Si A es una matriz m x r y B es una matriz r x n, entonces el producto AB es la matriz m x n cuyos elementos se determinan como sigue. Para encontrar el elemento en el renglón i y en la columnaj de AB, considerar sólo el renglón i de la matriz A y la columnaj de la matriz B. Multiplicar entre sí los elementos correspondientes del renglón y de la columna mencionados y luego sumar los productos resultantes.

i 6

, ,

. ', j

Ejemplo 5 Considerar las matrices I ' '

4 1 4 3 - O - 1 3 1 2 7 5 2 -

I O

Como A es una matriz 2 x 3 y B es una matriz 3 x 4, el producto AB es una matriz 2 X 4. Para determinar, por ejemplo, el elemento en el renglón 2 y en la columna 3 de AB, sólo se consideran el renglón 2 de A y la columna 3 de B. Luego, como se ilustra a continuación, los elementos correspondientes (en tipo negro) se multiplican entre sí y se suman los productos obtenidos.

Page 49: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

El elemento en el renglón 1 y eyi In columna 4 de AB (en negro) se calcula como sigue.

l (1 .3) + (2 .1) + (4.2) = 131

Los cálculos para los demás productos son

(1 '4) + (2 .0) + (4.2) = 12

( 1 . 1 ) - ( 2 . 1 ) + ( 4 . 7 ) = 27

( 1 . 4 ) + ( 2 . 3 ) + ( 4 . 5 ) = 30 12 27 30

(2.4) + (6.0) +- (0.2) = 8 8 - 4 26 12

(2. 1) - (6 .1) + (0.7) = - 4

(2.3) + (6.1) + (0 .2) = 12 A

131

Para formar el producto AB, la definición de multiplicación de matrices requiere que el número de columnas del primer factor A sea el mismo que el número de renglones del segundo factor B. Si no se cumple esta condición. entonces el producto está indefinido. Una manera conveniente para determinar si el producto de dos matrices está definido es escribir el tamaño del primer factor y, a la derecha, escribir el tamaño del segundo factor. Si, como se observa en la figura 2, los números interiores son iguales, entonces el producto está definido. Los númcros exteriores proporcionan entonces el tamaño del producto.

A H A B -

m x r r x n m x n b A h S

Medios

Figura 2 Extremos

Ejemplo 6 Suponer que A , B y C son matrices con los siguientes tamaños:

A R C 3 x 4 4 x 7 7 x 3

Entonces A B está definido y se trata de una matriz 3 x 7; CA está definido y se trata de una matriz 7 X 4; y BC está definido y se trata de una matriz 4 x 3. Los productos AC, CB y BA están indefinidos.

Si A = [u,] es una matriz general m x r y B = [b,] es una matriz general Y X

n, entonces como se ilustra con tipo negro de la figura 3 , el elemento (AB)v en el renglón i y la columna j de AB está definido por

Page 50: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1.3 Matrices y operaciones con matrices / 53

PARTICI~N DE MATRICES

AB =

Figura 3

MULTIPLICA- CIóN DE MATRICES POR COLUMNAS Y POR RENGLONES

Una matriz se puede subdividir o partir en matrices más pequeñas insertando rectas horizontales y verticales entre renglones y columnas selectos. Por ejemplo, a continuación se muestran tres posibles particiones de una matriz general A 3 X

4: la primera es una partición de A en cuatro submatrices A 1, A 12, A , y A,2; la segunda es una partición de A en sus matrices renglón rl , r2, r3 y r4; y la tercera es una partición deA en sus matrices columna cl, c,, c3 y c4:

' I 2 '13 \ ' 1 4

A = [ """""""""_ ::: u22 u23 u24] = [ii: 'I2] A 2 2

'31 ' 3 2 ' 3 3 ~ ' 3 4

a12 u 1 3 '14

A = 1::: u22 a23 = [ill """""""_"" _""""""""" '31 '32 '33 a34

Algunas veces es necesario encontrar un renglón o una columna particulares de un producto AB de matrices sin calcular todo el producto. Los siguientes resultados, cuyas demostraciones se dejan como ejercicios, son útiles para este propósito:

j-ésima matriz columna de AB = A b-ésima matriz columna de B] (3 1

1 i-ésima matriz renglón de AB = (i-ésima matriz renglón de 1;3 B I..".

Ejemplo 7 Si '4 y B son las matrices del ejemplo 5 , entrnces por (3) la segunda matriz columna de AB se puede obtener al calcular

Page 51: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

54 / Sistemas de ecuaciones lineales y matrices

L ,"I t

I d e B 11 deAB I Segunda columna Segunda columna

y por (4), la primera matriz renglón de AB se puede obtener al calcular

11 2 41 1' 0 -: = [12 27 30 131-, I L2 7 5 2 1 I

Primer renglón

1 1 I I

Si al, $, . . . , a, denotan las matrices renglón de A y b,, b,, . . . , b, denotan las matrices columna de B, entonces por las fórmulas (3) y (4) se concluye que

(AB calculada renglón por rengldn)

OBSERVACI~N. Las fórmulas (5) y (6) son casos especiales de un procedmiento más general para multiplicar matrices divididas (véanse los ejercicios 15, 16 y 17).

PRODUCTOS Las matrices renglón y columna proporcionan otra manera de concebir la multi- DE MATRICES plicación de matrices. Por ejemplo, suponer que COMO

NES LINEALES COMBINACIO- a l l a12 " ' al,

a21 a22 ' . ' a2n A = .

Entonces

Page 52: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1.3 Matrices y operaciones con matrices / 55

En palabras, la fórmula (7) establece que el producto A x de una matriz A y una matriz columna x es una combinación lineal de las matrices columna de A con los coejicientes que provienen de la matriz x. En los ejercicios de la sección se pide al lector demostrar que el producto yA de una matriz y 1 X m y una matriz A m X n es una combinación lineal de las matrices renglón de A con coejcientes escalares que provienen de y.

Ejemplo 8 El producto matricial

se puede escribir como la combinación lineal

2[-i]-1 y el producto matricial

[ I -9 -3][-/ -:] = 1 - 1 6 - 1 8 351 - 2

se puede escribir como la combinación lineal

1 [ - 1 3 2 1 - 9 [ 1 2 - 3 1 - 3 [ 2 1 - 2 ] = [ - 1 6 - 1 8 351 A

Por (5) y (7) se concluye que la j-ésima matriz columna de un producto AB es una combinación lineal de las matrices columna de A con los coeficientes que provienen de la j-ésima columna de B.

Ejemplo 9 En el ejemplo 5 se demostró que

A B = 2 411[ 4 1 4 3 - 0 - 1 3 1

2 6 0 2 7 5 2-

Las matrices columna de AB se pueden expresar como combinaciones lineales de las matrices columna de A en la forma siguiente:

[ 'E] = 4 [ ; ] + 0 [ ; ] + 2 [ $

Page 53: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

FORMA La multiplicación de matrices tiene una aplicación importante a los sistemas de MATRZCIAL DE ecuaciones lineales. Considerar cualquier sistema de rn ecuaciones lineales con n UN SISTEMA incógnitas. LINEAL

CI,,Xl + a12.5 + ' ' ' + LI,,J, = h , aZ,xl + a22x7 + . . . + a2n.x, = b2

Como dos matrices son iguales si y sólo si sus elementos correspondientes son iguales, es posible sustituir las m ecuaciones lineales en este sistema por la simple ecuación matricial

La matriz m X 1 en el miembro izquierdo de esta ecuación se puede escribir como un producto para obtener

Si estas matrices se designan por A, x y b, respectivamente, entonces el sistema original de m ecuaciones con n incbgnitas ha sido reemplazado por la ecuación matricial

A x = b

La matriz A en esta ecuación se denomina matriz de coeficientes del sistema. La matriz aumentada del sistema se obtiene adjuntando b a A como última columna; así, la matriz aumentada es

Page 54: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

l . 3 Matrices y operaciones con matrices / 5 7

TRANSPUESTA Esta sección termina con la definición de dos operaciones matriciales que carecen DE UNA MATRIZ de análogo en los números reales.

Definición. Si A es cualquier matriz m X n, entonces la transpuesta de A , denotada por AT, se define como la matriz n X m que se obtiene al intercambiar los renglones y las columnas de A; es decir, la primera columna de AT es el primer renglón de A, la segunda columna de AT del segundo renglón de A , y así sucesivamente.

Figura 4

Ejemplo 10 A continuación se presentan algunos ejemplos de matrices y sus transpuestas.

A = [ : ! : ;;; ;;; ;J:] B = [ t i] C = [ l 3 51 0 = [ 4 1 '12 '13 '14 2 3

Observar no sólo que las columnas de AT son los renglones de A , sino que los renglones de AT son las columnas de A . Así, el elemento en el renglón i y la columnaj de A es el elemento en el renglónj y la columna i de A, es decir,

Observar la inversión de los subindices. En el caso especial en que A es una matriz cuadrada, la transpuesta de A se

puede obtener al intercambiar los elementos simétricos con respecto a la diagonal principal (figura 4). Planteado de otra forma, AT se puede obtener "reflejando" A con respecto a su diagonal principal.

1 "2 4 - 1 - -2 4 1 3 - 5 >.. ,f

simétricos con respecto a la

Page 55: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

58 :' Sistemas de ecuaciones lineales y matrices

TRAZA DE UNA MATRIZ

Definición. Si A es una matriz cuadrada, entonces la truzu de A , denotada por

CUADRADA traza de A no está definida si A no es una matriz cuadrada. tr(A), se define como la suma de los elementos de la diagonal principal de A . La

Ejemplo 11 A continuación se presentan algunos ejemplos de matrices y sus trazas.

2 7 0

-2

I tr(A)=a,,+a,,+a,, I Itr(B)= - 1 + 5 + 7 + 0 = 1 1 J A

EJERCICIOS DE LA SECCIÓN 1.3

1. Suponer que A , B, C, D y F son matrices de los tamaiios siguientes:

A B C D E (4 x 5) (4 x 5 ) (5 x 2 ) (4 x 2 ) (5 x 4)

Determinar cuáles de las siguientes expresiones de matnces están definidas. Para las que estén definidas, proporcionar el tamaño de la matriz resultante.

a) BA b j A C + D c ) . 4 E + B d) .4B+B e) E(A + B) f ) E(AC) g) ETA h) ( A + E)D

/ 2. Resolver la siguiente ecuación matricial para a, b, c y d.

[ a - b " c ] = [ ; A ] 3 d + c 2 a - 4 d -

3. Considerar las matrices.

Calcular lo siguiente (en caso de ser posible)

a) D + E b ) D - E c) 5 A d) -7C e) 2 B - C f ) 4 E - 2 D g) - 3 ( 0 + 2 E ) h) A - A i) tr(D) j) tr(D - 3 E ) k) 4 tr(7B) 1) ' tr(A)

4. Con las matrices del ejercicio 3, calcular lo siguiente (en caso de ser posible)

a) U ' + C b) D T - E' c) (D- E)' d) B T + 5C7 e) $ C ' - ~ A f) B-B' g) 2ET - 30' h) (2ET - 30')'

5. Usar las matrices del ejercicio 3 para calcular lo siguiente (en caso de ser posible).

a) AB b) BA c ) (3E)D d) (AWC e) A W ) f ) cc' g) (DA)' h) (C 'B)A ' i ) tr(DD') j ) tr(4ET - D ) k) tr(CTAT+ 2E')

6 1 3 - 1 1 2

4 1 3

Page 56: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1.3 Matrices y operaciones con matrices / 59

6. Mediante las matrices del ejercicio 3 , calcular lo siguiente (en caso de ser posible)

a) (2DT - E)A b) (4B)C + 2 B C) ( -AC)T + 5D7 d) ( B A T - 2C)T e) BT(CCT-ATA) f ) D T E T - (ED)'

Con el método del ejemplo 7, encontrar a) el primer renglón de A B , c) la segunda columna de A B , e) el tercer renglón de AA, y b) el tercer renglón de AB, d) la primera columna de BA, f) la tercera columna de A A .

8. Sean A y B las matrices del ejercicio 7. a) Expresar cada matriz columna de AB como una combinación lineal de las matrices

b) Expresar cada matriz columna de BA como una combinación lineal de las matrices columna de A .

columna de B.

Demostrar que el producto YA se puede expresar como una combinación lineal de las matrices renglón de A con los coeficientes escalares de y.

10. Sean A y B las matrices del ejercicio 7. a) Usar el resultado del ejercicio 9 para expresar cada matnz renglón de AB como una

b) Con el resultado del ejercicio 9 expresar cada matnz renglón de BA como una com- combinación lineal de las matrices renglón de B.

binación lineal de las matnces renglón de A.

11. Sean C, D y E las matrices del ejercicio 3 . Efectuando el menor número de cálculos posible, determinar el elemento en el renglón 2 y en la columna 3 de C(DE).

12. a) Demostrar que si AB y BA están definidos, entonces AB y BA son matnces cua-

b) Demostrar que si A es una matriz m X n y A(BA) está definido, entonces B es una dradas.

matriz n X m.

13. En cada inciso determinar las matrices A , x y b que expresen el sistema de ecuaciones lineales dado como una simple ecuación matricial Ax = b.

a) 2x, - 3x2 + 5x3 = 7 b) 4x, - 3x, + x4 = 1 9x , - x2 + x3 = - 1 5x, + x2 - 8x4 = 3

XI + 5x, + 4x3 = o 2x, - 5x2 + 9x, - x j = o 3x2 - x3 + 7x, = 2

14. En cada inciso expresar la ecuación matncial como un sistema de ecuaciones lineales.

Page 57: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

60 / Sistemas de ecuaciones lineales y matrices

15. Si '4 y B se dividen en submatrices, por ejemplo

entonces AB se puede expresar como

en el supuesto de que los tamaños de las submatrices A y B sean tales que las operaciones Indicadas se puedan efectuar. Este método para multiplicar matrices divididas se denomina mukiplicwidn en bloque. En cada inciso, calcular el producto por medio de multiplicación en bloque. Comprobar los resultados multiplicando direc- tamente.

2 I ' - 1 2 1 1 5

1 5 6 1 1 5 = [ p; i '1 """""""

- 1

O j - 3 16. Adaptar el método del ejerciclo 15 para calcular los siguientes productos mediante

multiplicación en bloque.

1 4 1 5 1 5 7 "1 1 4

- 2 0 ; - 1 2

17. En cada inciso, determinar si la multiplicación en bloque se puede usar para calcular AB a partir d e las particiones dadas. En caso afmativo, calcular el producto mediante multiplicación en bloque.

Page 58: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1.4 Inversas; reglas de la aritmética de matrices / 61

18. a) Demostrar que si A contiene un renglón de ceros y B es cualquier matriz para la que AB está definido, entonces AB también contiene un renglón de ceros.

b) Encontrar un resultado semejante, pero respecto a una columna de ceros.

19. Sea A cualquier matriz m X n y sea O la matriz m X n, cada uno de cuyos elemento es cero. Demostrar que si kA = O, entonces k = O o A = O.

20. Sea I la matriz n X n cuyo elemento en el renglón i y en la columnaj es

Demostrar que AI = IA = A para toda matriz A n X n

21. En cada inciso, encontrar una matriz [ u . ] 6 X 6 que cumpla la condición que se establece. Hacer que las respuestas sean lo más generales posible usando letras en vez de números específicos para denotar los elementos diferentes de cero.

'J

22. Encontrar una matriz A = [ulJ de 4 X 4 cuyos elementos cumplan la condición que se

23. Demostrar lo siguiente: Si A es una matriz m X n, entonces

donde S es la suma de los cuadrados de los elementos de A

24. Usando el resultado del ejercicio 23, demostrar lo siguiente. a) Si A es una matriz m X n tal q u e m T = O O ATA = O , entonces A = O. b) Si A es una matriz n X n tal que A = AT y A2 = O, entonces A = O.

I .4 INVERSAS; REGLAS DE LA ARITMÉTICA DE MATRICES

En esta sección se analizarán algunas propiedades de las operaciones aritméticas sobre matrices. Se verá que muchas de las reglas básicas de la aritmética de los números reales también se cumplen para matrices, aunque unas cuantas no.

Page 59: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

62 ,/ Sistemas de ecuaciones lineales y matrices

PROPIEDADES Para números reales a y b siempre se tiene que ab = ba, lo cual se denomina ley DE LAS conmutativa de la multiplicación. Para matrices, sin embargo, A B y BA no ne- OPERACIONES cesariamente son iguales. Es posible que la igualdad no se cumpla debido a tres CON MATRICES razones. Puede suceder, por ejemplo, que A B esté definido pero que BA no. Este es

el caso si A es una matriz 2 x 3 y B es una matriz 3 x 4. También, puede suceder que AB y BA estén definidos aunque sean de tamaños distintos. Esta es la situación si A es una matriz 2 X 3 y B es una matriz 3 X 2. Finalmente, como se muestra en el ejemplo 1, se puede tener A B f BA inclusive si tanto A B como BA4 están definidos y son del mismo tamaño.

Ejemplo 1 Considerar las matrices

Al multiplicar se obtiene

BA = [ - 3 ‘1 o

Así, AB f BA. A

Aunque la ley conmutativa de la multiplicación no es válida en aritmética matricial, muchas leyes conocidas de la aritmética son válidas para matrices. En el siguiente teorema se resumen algunas de las más importantes, así como sus deno- minaciones

Teorema 1.4.1. Suponiendo que los tamaños de las matrices son tales que las operaciones indicadas se pueden efectuar, entonces son válidas las siguientes reglas de aritmética matricial.

a ) A + B = B + A h) A f ( B + C ) = ( A + B ) f C c ) A(BC) = (AB)C d ) A ( B + C ) = A B + A C e) (B f C ) A = BA + CA f ) A ( B - C ) = A B - . 4 C g ) (B - C ) A = BA -- CA h ) a(B + C ) = aB + aC i ) a(B - C ) = nB - aC

(Ley c o n d a t i v a de la adición) (Ley mociativa de la adición) (Ley asociativa de la mltiplicación) (Ley distributiva por la izquierda) (Ley disfributivapor la derecha)

j ) ( a + b ) C = u C + b C

I ) a(hC) = (ab)C k ) (U - b ) C = u C - bC

m ) a(BC) = (aB)C = B(aC) I

Para probar las igualdades de este teorema es necesario demostrar que la matriz del miembro izquierdo es del mismo tamaño que la matriz del miembro derecho y que los elementos correspondientes en ambos miembros son iguales. Con excep- ción de la ley asociativa del inciso c), todas las demostraciones siguen el mismo

Page 60: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1.4 Inversas; reglas de la aritmética de matrices / 63

patrón general. Como ilustración, se demostrará el inciso 6). La demostración de la ley asociativa, que es más complicada, se esboza en los ejercicios.

Demostración de d). Es necesario demostrar que A(B + C ) y A B + AC son del mismo tamaño y que los elementos correspondientes son iguales. Para formar A(B + C), las matrices B y C deben ser del mismo tamaño, por ejemplo m x n, y entonces la matriz A debe tener m columnas, de modo que su tamaño debe ser de la forma r x m. Con lo anterior, se tiene que A(B + C ) es una matriz r X n. Se concluye que A B + A C también es una matriz r X n y, en consecuencia, A(B + C) y A B + AC son del mismo tamaño.

Suponer que A = [a,], B = [bu] y C = [c,]. Se quiere demostrar que los elementos correspondientes de A(B + C ) y AB + AC son iguales; es decir, que

[A(B + C ) ] , = [ A B + AC I;,

para todos los valores de i y j . Pero por las definiciones de adición y multiplicación de matrices se tiene

[A(B + C)];, = a,,(bl, + cl,) + a,2(b2j + c2,) + . . . + aim(bmj + cm,)

= (a,,b,, + a,2b2, + . . . + aimb,,) + (a j l c , , + U , ~ C ~ , + . . . + a,,cmj) = [AB], , + [AC,,] = [AB + AC I,, u

OBSERVACI~N. Aunque las operaciones de adición y multiplicación de matrices se definieron para pares de matrices, las leyes asociativas 6) y c ) permiten denotar sumas y productos de tres matrices como A + B + C y ABC sin introducir ningún paréntesis. Lo anterior se justifica por el hecho de que sin importar cómo se introducen paréntesis, las leyes asociativas garantizan la obtención del mismo resultado final. En general, dados cualquier suma o producto de matrices, en las expresiones se pueden introducir o eliminar pares de paréntesis sin afectar el resultadojnal.

Ejemplo 2 Como ilustración de la ley asociativa de la multiplicación de matrices, considerar

Entonces

. . ..

Page 61: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Y

.4(BC) = 1 2- 3 4 O 1

de modo que (,dB)(' = A(B(?, como garantiza el teorema 1.4. IC. A

MATRICES Una matriz que tiene todos sus elemento iguales a cero, como CERO

se denomina matriz cero. Una matriz cero se denotara por O; si es importante destacar el tamaño, se escribirá Omxn para denotar la matriz cero m x n.

Si A es cualquier matriz y U es la matriz cero del mismo tamaño que A , resulta evidente que A + O = O + .4 = A . La matriz O desempeña casi la misma función en estas ecuaciones matriciales que la desempeñada por el número O en las ecua- ciones numéricas a + O = O + a = a.

Como ya se sabe que algunas de las reglas de la aritmética para los números reales no se cumplen en la aritmética matricial, sería temerario asumir que todas las propiedades del número real cero se cumplen para las matrices cero. Por ejemplo. considerar los dos resultados normales siguientes de la aritmética para los nlimeros reales.

Si ab = ac y a = O. entonces b = c. (Esto se denomina ley de cancelación.) Si ad = O entonces por lo menos uno de los factores del miembro izquierdo es cero.

Como se muestra en el siguiente ejemplo, en general los resultados correspon- dientes no son ciertos en aritmética matricial.

Ejemplo 3 Considerar las matrices

Page 62: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1.4 Inversas; reglas de la aritmética de matrices / 65

Aquí A B = , A C = [6 8]

3 4

Aunque A # O, es incorrecto cancelar la A en ambos miembros de la ecuación AB = AC y escribir B = C. Así, la ley de cancelación no se cumple para matrices. También, AD = O, aunqueA # O y D # O. A

A pesar del ejemplo anterior, existen varias propiedades conocidas de número real O que se cumplen en las matrices cero. Algunas de las más importantes se resumen en el siguiente teorema. Las demostraciones se dejan como ejercicio.

Teorema 1.4.2. Si se supone que los tamaAos de las matrices son tales que es posible efectuar las operaciones que se indican, las siguientes reglas de aritmética matricial son válidas.

a) A + U = O + A = A 6 ) A - A - O C) O P A = - A d ) A O = O ; OA = O

MATRICES De especial interés son las matrices cuadradas que tienen unos en la diagonal IDENTIDAD principal y ceros fuera de ésta, como

Una matriz de esta forma se denomina matriz identidad y se denota por f. Si es importante recalcar el tamaño, se escribirá In para denotar la matriz identidad n X n .

Si A es una matriz m X n, entonces, como se ilustra en el siguiente ejemplo,

Así, en aritmética matricial la matriz identidad juega un papel bastante semejante al que desempeña el número 1 en las relaciones numéricas a ' 1 = 1 . a = a.

Ejemplo 4 Considerar la matriz

Entonces

Page 63: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

66 5';ste)rra.s de ccuaciones lineales .v matrices

Como se muestra en el siguiente teorema, las matrices identidad surgen de manera natural en el estudio de formas escalonadas reducidas de matrices cuadradas.

Teorema 1.43. Si I? e s la forma escalonada reducida de una tnatriz A de n X

n, entonces R tiene un renglón de ceros, o bien, R es la matriz identidad ih.

Demostración. Suponer que la forma escalonada reducida de A es

t - 1 1 I ' I Z ' ' ' Y l ? ,

R = [ r ; , I'; " '

y,, I r R z . . "n n

Entonces sucede que el ultimo renglón de esta matriz está integrado comple- tamente de ceros o no lo está. En caso de que no lo esté, la matriz no contiene renglones cero y. en consecuencia, cada uno de los n renglones contiene un elemento principal igual a 1. Como estos unos principales aparecen progresi- vamente cada vez más lejos hacia la derecha a medida que la matriz se recorre hacia abajo. cada uno de estos unos debe aparecer en la diagonal prin- cipal. Ya que los demás elementos en la misma columna de uno de los unos principales son cero, entonces R debe ser I,,. Así, R tiene un renglón de ceros, o bien, R = I,,. 0

INVERSA DE UNA matriz B del mismo tamaño tal que AB = BA = I. entonces se dice que A es MATRIZ Definición. Si A es una matriz cuadrada y si se puede encontrar una

invertible y R se denomina una inversa de A .

Ejemplo S La matriz

Page 64: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1.4 Inversas; reglas de la aritmética de matrices 1 67

Ejemplo 6 La matriz

no es invertible. Para ver por qué, sea

cualquier matriz 3 X 3 . La tercera columna de BA es

Así.

B A # I = O 1 O A [a :I PROPIEDADES Es razonable preguntar si una matriz invertible puede tener más de una inversa. El DE LAS siguiente teorema muestra que la respuesta es no: una matriz invertible tiene INVERSAS exactamente una inversa.

I Teorema 1.4.4. Si B y C son, ambas, inversas de la matriz A, entonces B = C. I Demostración. Ya que B es una inversa de A , se tiene que BA = I. Al multiplicar ambos miembros por la derecha por C se obtiene (BA)C = IC = C. Pero (BA)C =

B ( A 0 = BI = B, de modo que C = B. u Como una consecuencia de este importante resultado, ahora es posible hablar

de "la" inversa de una matriz invertible. Si A es invertible, entonces su inversa se denota por el símbolo A-' . Así,

A A " = / y A"A-I t

Page 65: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

La inversa de .-1 t i e x cn aritmCtica matricial casi la misma función que cl recíproco a.-i juega en las relaciones numericas aa-l = 1 y a-"a = 1.

En la siguiente sección se desarrollará m método para determinar inversas de xnatriccs jnvertibles dc cualquier tamafio; sin embargo, el siguiente teorema establece condiciones bajo las cuales una matriz 2 X 2 es invertible y proporciona una fórmula sencilla para cncontrar l a inversa.

f O. er? cuyo cuso la Inversa está definida por la

Ud - bc U

Demostracidn. Se deja para el lector la comprobación de que .M " = I , y A -'A

Teorema 1.4.6. Si A y R son tnatrices invertibles del mismo tamaño, entonces

a ) AB es znverlible, b ) (AB)" = 8",4 -1,

Demostración. Si se puede demostrar que (AB)(B"A ") = (N"'A ")(AB) = I, entonces se habrá demostrado simultáneamente que la matriz AB es invertible y que ( A B ) - ] = 5 " ~ " . Pero (AR)(B"A-') = A ( B B - ~ ~ " = AIA " =AA" = I. Con un razonamiento semejante se demuestra que (B"A")(AH) = 1.

Aunque este resultado no se demostrará, se puede extender para incluir tres o más factores: es decir.

Un producto de cualqurer número de matrices invertibles es invertible, y la inversa del producto es el producto de las inversas en orden invertido.

Ejemplo 7 Considerar las matnces

Page 66: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1.4 Inversas; reglas de la aritmética de matrices / 69

Aplicando la fórmula del Teorema 1.4.5, se obtiene

También,

Por consiguiente, ( ~ 1 3 1 - l = B"A" , como garantiza el teorema 1.4.6. A

POTENCIAS DE A continuación se definirán las potencias de una matriz cuadrada y se analizarán UNA MATRIZ sus propiedades.

Definición. Si A es una matriz cuadrada, entonces las potencias enteras no ne- gativas de A se definen como

- n factores

I Además, si A es invertible, entonces las potencias enteras negativas de A se definen conlo

n factores

Debido a que esta definición es paralela a la de los números reales, se cumplen las leyes usuales de los exponentes. (Se omiten los detalles.)

I Teorema 1.4.7. Si A es una matriz cuadrada y r y S son enteros, entonces

El siguiente teorema establece algunas propiedades importantes de los expo- nentes negativos.

Page 67: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

70 / Sistemas de ecuaciones lineales y matrices

Demostración

a) ComoAKl =d4K1A = f , 1amatrizA" esinvertibley(A")" = A . b ) Este inciso se deja como ejercicio. c) Si k es cualquier escalar diferente de cero, entonces por los resultados I) y m)

del teorema 1.4.1 es posible escribir

De manera semejante, LA" (U) =Ide modo que kA es invertible y (U)" = $A-1.

Ejemplo 8 Sean A y A " ' como en el ejemplo 7; es decir, ( k 1

Entonces

EXPRESIONES Si A es una matriz cuadrada, por ejemplo m X m, y si

EN QUE p ( x ) = a() + a 1x + . ' . + a,,s" APARECEN MATRICES es cualquier polinomio,, entonces se define

POLIN~MICAS

p(A) = a,,/ + a ,A + . . . + a,,A"

donde I es la matriz identidad m X m. En palabras, p(A) es la matriz m X m que se obtiene cuando A se sustituye por x en (1) y a. se reemplaza por a d .

Ejemplo 9 Si

entonces

Page 68: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1.3 Inversas; reglas de la aritmktica de matrices 71

PROPIEDADES En el siguiente teorema se enumeran las propiedades más importantes de la ope- DE LA ración de transposición. TRANSPUESTA

Teorema 1.4.9. Si los tamaños de las matrices son tales que se pueden efictuur las operaclones planteadas, entonces

u ) ( ( A ) T ) T = A

r i ) (AB)'= B ~ A T ~pQ1-1 : B-'. 8.'

b) (A + B ) ~ = A ' + B r y ( A - B)'= A ' - B' C ) ( k A ) ' = kA ', donde k es cualquier escalar

Considerando que al transponer una matriz se intercambian sus renglones y sus columnas, los incisos a), b ) y c) deben ser evidentes. Por ejemplo. en el inciso a) se establece que al intercambiar renglones y columnas dos veces la matriz per- manece sin modificar; en el inciso 6) se afirma que al sumar y luego intercambiar renglones y columnas se obtiene el mismo resultado que cuando primero se intercambian renglones y columnas y luego se suma; y en el inciso c) se establece que al multiplicar por un escalar y luego intercambiar renglones y columnas se ob- tiene el mismo resultado que si primero se intercambian renglones y columnas y luego se multiplica por un escalar. El inciso (d) no es tan evidente. por lo que se demostrará.

Demostracidn de 6). Sean

de modo que es posible formar los dos productos AB y BTAT. Se deja para el lector comprobar que (AB)T y BTAT son del mismo tamaño; a saber, que son n x m. Así, queda por demostrar que los elementos correspondientes de (ABjTy BTAT son los mismos; es decir,

( ( A B ) T ) = (BT,4')),, (2) I ,

AI aplicar la fórmula (S) de la sección 1.3 al miembro izquierdo de esta ecuación y usar la definición de multiplicación de matrices, se obtiene

(('4B)') =(AB), , = u . , I b I j + + . . . + u,?h,., (3) ,, Para evaluar el miembro derecho de (2) es conveniente que atíj y b', denoten los ij- ésimos elementos de A7 y BT. respectivamente, de modo que

Page 69: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

I2 ,/ Sistemas de ecuaciones lineales y matrices

Lo anterior, junto con (3), demuestra (2). 0

Aunque no se demostrara este hecho, el inciso 6) del teorema se puede extender para incluir tres o más factores; es decir,

I La transpuesta de un producto de cualquier número de matrices es igual al producto de sus transpuestas en orden invertido.

OBSERVACI~N. Nótese la semejanza entre este resultado y el resultado, que está a continuación del teorema 1.4.6, respecto a la inversa de un producto de matrices.

INVERTIBILIDAD El siguiente teorema establece una relación entre la inversa de una matriz in- DE UNA vertible y la inversa de su transpuesta. TRANSPUESTA

1 Teorema 1.4.10. Si A es una matriz invertible, entonces AT también es inver- I

Demostración. Se puede probar la invertibilidad de AT y obtener (4) al demostrar que

A 7 ' ( . + - l ) T = ( . + - * ) T A T = ]

Pero por el inciso d) del teorema 1.4.9 y el hecho de que IT = Z, se tiene

con lo que se completa la demostración. 11

Ejemplo 10 Considerar las matrices

Al aplicar el teorema 1.4.5 se obtiene

Page 70: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

. . . ,a * '

, 1.4 Inversas; reglas de la aritmética de matrices / 73

Como garantiza el teorema 1.4.10, estas matrices satisfacen la fórmula (4). A

EJERClCIOS DE LA SECCIóN 1.4

1. Sean

2 -1 - 3 - o - 2 3 A = [ - ; ; i], B = [ : -; a ] , C = [ : t], u = 4 , h = - 7

Demostrar que

a) A + ( B + C ) = ( A + B ) +- C b) (AB)C = A(BC) c) (U + h)C = UC + bC d) u(B - C ) UB - UC

2. Usando las matrices y los escalares del ejercicio I , demostrar que

a) a(BC) = (uB)C= B(uC) b) A(B - C ) = AB - AC C ) ( B + C ) A = E A + CA d) u(bC) = (ub)C

3. Usando las matrices y los escalares del ejercicio 1, demostrar que

a) A b) ( A + B ) 7 = A r + B T c) ( U C ) ~ = U C ~ d) ( A B ) 7 = B 7 A 7

4. Usar el teorema 1.4.5 para calcular las inversas de las sguientes matrices

5. Comprobar que las tres matrices A , B y C del ejercicio 4 satisfacen las relaciones (AB)" = B"A" y (fit)" = C"B"A"

6. Sean A y B matrices cuadradas del mismo tamaño. = A2B2 es una igualdad ma- tricial válida? Justificar la respuesta

7. En cada inciso, usar la información dada para encontrar A .

/ 8. SeaA la matriz

[: Y ] Calcular A3, A-3 y A' - 2A + I.

1 9 . Sea A la matriz

[: :I

Page 71: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

224526 74 í Sistemas de ecuaciones lineales y matrices

En cada inciso, determinar p(A).

a) p(x) = x -2 b) p(x ) = 2x2 -x + 1 c) p ( x ) = x3 -2x + 4

10. Seanpl(x) =x2 - 9,p,(x) = x + 3 yp , (x ) = x - 3 . a) Demostrar que p , ( A ) =p,(Alp,(A) para la matrizA del ejercicio 9. b) Demostrar que p , ( A ) = p,(A)p,(A) para cualquier matriz cuadrada A

./ 11. Encontrar la inversa de

r --en cos* 0 cos 0

12. a) Encontrar matnces A y B 2 X 2 tales que (A + B)' # A2 + 2AB + B2. b) Demostrar que si '4 y B son matrices cuadradas tales que AB = BA, entonces

('4 + B)2 = A' + 2i lB + B' c) Encontrar un desarrollo de ( A + B)' que sea válido para todas las matrices cuadra-

das A y B del mismo tamaño.

13. Considerar la matriz

o o " '

.4 = '" "7 y " '

o o . ' ' ann

donde a, la22 - . . ann f O. Demostrar que '1 es invertible y encontrar su inversa

14. Demostrar que si una matriz cuadrada A satisface ,43 - 311 + I = O, entonces A" = 31 - A.

15. a) Demostrar que una matnz con un renglón de ceros no puede tener inversa. b) Demostrar que una matriz con una columna de ceros no puede tener inversa.

16. La suma de dos matrices invertibles, ¿necesariamente es invertible?

17. Sean A y B matrices cuadradas tales que AB = O. Demostrar que si A es invertible, entonces B = O.

18. En el teorema 1.4.2, ¿por qué el inciso d) no se escribió como AO = O = OA?

19. La ecuación real a' = 1 tiene exactamente dos soluciones. Encontrar por lo menos ocho matrices diferentes 3 X 3 que cumplan la ecuación matricial A2 = I,. [Sugerencia Buscar soluciones en las que todos los elementos fuera de la diagonal principal sean iguales a cero.]

20. a) Encontrar una matnz A 3 X 3 diferente de cero tal que A T = A. b) Encontrar una matriz A 3 X 3 diferente de cero tal que AT = -A.

Page 72: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

21. Una matriz cuadrada A se denomina simétrica si A T = A y antisimétrica es AT = -A Demostrar que si B es una matriz cuadrada, entonces a) B B ~ y B + B~ son simétricas. b) B - BT es antisimétrica.

22. Si A es una matriz cuadrada y n es un entero positivo, ¿,es cierto que (A")T = (A')"? Justificar la respuesta.

23. Sea A la matriz

Determinar si A es invertible y, en caso afirmativo, encontrar su inversa. ISugerencia Resolver AX = I igualando los elementos correspondientes de ambos miembros.]

24. Demostrar lo siguiente: a) Inciso b ) del teorema 1.4. l . b) Inciso i) del teorema 1.4. l . c) Inciso m) del teore-

ma 1.4.1.

25. Aplicar los incisos d) y m) del teorema 1.4.1 a las matrices A , B y (- 1)(' para obtener el resultado del incison.

26. Demostrar el teorema 1.4.2

27. Considerar las leyes de los exponentes ArAS = A r f S y (A')" = A"". a) Demostrar que si .4 es cualquier matriz cuadrada, entonces estas leyes son váliGas

b) Demostrar que si A es invertible, entonces estas leyes son válidas para todos los para todos los valores enteros no negativos de r y s.

valores enteros negativos de r y s.

28. Demostrar que si A es invertible y k es cualquier escalar diferente de cero, entonces (M)" = PA" para todos los valores enteros de n.

29. a) Demostrar que SI ,4 es invertible y AB = AC, entonces B = C. b) Explicar por quC el inciso a) y el ejemplo 3 no se contradicen entre sí. I

30. Demostrar el inciso c) del teorema 1.4. l . [Sugerencia Suponer que A es m X n, que B es n X p y que C es p X q. El 9-ésimo elemento en el miembro izquierdo es 111 = all BC + u12 BC + . ' ' + aln BC ~,, y el q-ésimo elemento en el miembro derecho es r = ~ ~ l ~ , ~ + i l B ~ z c ~ + ~ . . + A B ~ r .Comprobarque1 = r 1 11

P PJ u 11

1.5 MATRICES ELEMENTALES Y UN MÉTODO PARA DETERMINAR A-'

En esta sección se obtendrá un algoritmo para determinar la inversa de una matriz invertible y se analizarán algunas propiedades básicas de las matrices in- vertibles.

Page 73: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

76 / Sistemas de ecuaciones lineales y matrices

MATRICES a partir de la matriz identidad In n X n al efectuar una sola operación elemental ELEMENTALES Definición. Una matriz 11 X n se denomina matriz elemental si se puede obtener

en los renglones.

Ejemplo 1 A continuación se muestran cuatro matrices elementales y las opera- ciones con que se obtuvieron. [;

O 0 1 0

- 3 el segundo renglones segundo y renglón de /?

] F I E ] Sumar 3 veces el tercer Multiplicar por

Cuando una matriz A se multiplica por la izquierda por una matriz elemental E, el efecto es efectuar una operación elemental en los renglones de A . Este es el contenido del siguiente teorema, cuya demostración se deja corno ejercicio para el lector.

Teorema 1.5.1. S i la matriz elemental E resulta de la ejecución de ciertas operaciones en los renglones de I,,, y si A es una matriz m x n, entonces el producto EA es la matriz que se obtiene cuando la misma operación en los renglones se efectúa en .1.

Ejemplo 2 Considerar la matriz

1 0 2 A = [ 2 - 1 3

1 4 4

y considerar la matriz elemental

1 0 0

3 o 1

que resulta al sumar 3 veces el primer renglón de I3 al tercero. El producto E4 es

I 1 0 E A = 2 - 1

4 4 1 0 9

Page 74: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1.5 Matrices elementules,v un método pura determinar A” / 77

que es precisamente la misma matriz que se obtiene al sumar 3 veces el primer renglón de A al tercer renglón. A

Si una operación elemental en los renglones se ejecuta en una matriz ele- mental I para obtener una matriz elemental E, entonces existe una segunda ope- ración en los renglones que, al ser efectuada en E, produce nuevamente I. Por ejemplo, si E se obtiene al multiplicar el i-ésimo renglón de I por una constante c diferente de cero, entonces I se puede recuperar si el i-ésimo renglón de E se mul- tiplica por l lc. En la tabla l se enumeran las diversas posibilidades.

TABLA 1

Operaciones en los renglones

Multiplicar el renglón i por c f O

de E que reproducen I de Z que producen E Operaciones en los renglones

Multiplicar el renglón i por 1 /c

Intercambiar los renglones i y J Intercambiar los renglones i y j

Las operaciones en la columna derecha de la tabla se denominan operaciones inversas de las operaciones correspondientes en la columna izquierda.

Ejemplo 3 En cada una de las siguientes situaciones se efectuó una operación elemental en un renglón de la matriz identidad 2 X 2 para obtener una matriz ele- mental E, y luego E se convirtió en la matriz identidad mediante la operación inversa en el mismo renglón.

[: Y ]

[t :] Multiplicar por 7 el segun- I Multiplicar por 1/7 el se-

gundo renglón. I [ Y A ]

Page 75: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

78 Sistemas de ecuaciones lineales v matrices

prlmero Y segundo.

[:, :I -+ [: :] " [: P] I/ Sumar -5 veces el segun-

do renglón al primero.

El siguiente teorema establece una propiedad importante de las matrices ele- mentales.

Teorema 1.5.2. Toda matriz elemental es invertible, y la inversa también es una matriz elemental.

Demosfración. Si E es una matriz elemental, entonces E se obtiene al efectuar algunas operaciones en los renglones de I. Sea E, la matriz que se obtiene cuando la inversa de esta operacion se efectúa en I. Al aplicar el teorema 1.5.1 y usando el hecho de que las operaciones inversas en los renglones cancelan mutuamente su efecto, se concluye que

E,E= I y EE,=I

Así. la matriz elemental E, es la inversa de E. 0

El siguiente teorema establece algunas relaciones fundamentales entre in- vertibilidad, sistemas lineales homogéneos, formas escalonadas reducidas y matri- ces elementales. Estos resultados son extremadamente importantes y se usarán muchas veces en secciones ultenores.

Teorema 1.5.3. Si A es una matriz n X n, entonces las siguientes proposiciones son equivalentes; es decir, todas son verdaderas o todas son falsas. a) A es Invertible. b ) Ax = O sólo tiene la solución trivial. c ) La.forma escalonada reducida de A es In. d) A se puede expresar como un producto de matrices elementales.

Demostración. Se demostrará la equivalencia estableciendo la cadena de implicaciones a * b * c => d * a.

a * b: Suponer que A es invertible y sea x(, cualquier solución de Ax = O ; así, Axo = O. Al multiplicar ambos miembros de esta ecuación por la matriz A" se obtiene

Page 76: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1.5 Matrices elementales y un método para determinar A-' / 79

= A"O, o (A"A)% = O , o Ix, = O, o x, = O. Por tanto, Axo = O sólo tiene la solución trivial.

b * c: Sea Ax = O la forma matricial del sistema

a l l X l + a 1 2 x 2 + ' . ' + a , , x , = o a 2 1 x I + u22x2 + . . . + u2 ,x , = o

U n l X l + an2x2 + . ' ' + annx, = o

y suponer que el sistema sólo tiene la solución trivial. Si el sistema se resuelve por eliminación de Gauss-Jordan, entonces el sistema de ecuaciones correspondiente a la forma escalonada reducida de la matriz aumentada es

* I = o x2 = o

x , = o

Así, la matriz aumentada

. .

de (1) se puede reducir a la matriz aumentada

1 o o

0 0 0 . " 1 o de (2) por medio de una sucesión de operaciones elementales en los renglones. Si en cada una de estas matrices se elimina la última columna (de ceros), se puede concluir que la forma escalonada reducida de A es I,.

c * d: Suponer que la forma escalonada reducida de A es I,, de modo que A se puede reducir a Z, mediante una sucesión finita de operaciones elementales en los renglones. Por el teorema 1.5.1, cada una de las operaciones se puede efectuar

Page 77: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

80 Sistemas de ecuaciones 1ineales.v matrices

multiplicando por la izquierda por una matriz elemental idónea. Así. es posible hallar matrices elementales E,, E2, . . . , Ek tales que

F . , . F E ''1 - 1 > h '2 I I, (3)

Por el teorema 1.5.2. las matriccs elementales E,, E*. . .. ; , Ek son invertibles. Al multiplicar por la izquierda ambos miembros de la ecuaclon (3) sucesivamente por E;l I?;, P" se obtiene

I . . . l , . ,d = E,- 'E? l . . .E, ¡I,, = E , ' E 2 I . . .EA (4)

Por el teorema 1.5.2, csta ecuación expresa .4 como un producto de matrices elementales.

d * a: Si il es un producto de matrices elementales, entonces por los teoremas 1.4.6 y 1.5.2 la matriz '4 es un producto de matrices invertibles, y por tanto es invertible. 0

EQUIVALENCLA Si una matriz B se puede obtener a partir de una matriz A mediante la ejecución POR de una sucesión finita de operaciones elementales en los renglones, entonces RENGLONES resulta evidente que 13 se puede convertir de nuevo en A mediante la ejecución al

revés de las inversas de tales operaciones elementales en los renglones. Las matrices que se pueden obtener a partir de otra matriz mediante la ejecución de una sucesión finita de operaciones elementales en los renglones se denominan equivalentes por rengfones. Con esta terminología, por los incisos a) y c) del teorema 1.5.3 se concluye que una matriz A n X n es invertible si y sólo si es equivalente por renglones a la matriz identidad n X n

UN MÉTODO Como primera aplicación del teorema 1.5.3, se establecerá un método para deter- PARA INVERTIR minar la inversa de una matriz invertible. Al invertir los miembros izquierdo y de- MATRICES recho de (4) se obtiene A" = EL ' ' E2 E, o, de manera equivalente,

que establece que A - se puede obtener al multiplicar I, sucesivamente por la izquierda por las matrices elementales E,, E2, . . . , Ek. Como cada multiplicación por la izquierda por una de estas matrices elementales efectúa una operación en los renglones, al comparar las ecuaciones (3) y (5) se concluye que la sucesión de operaciones en los renglones que reduce A a I, también reduce I, a A". Así. se tiene el siguiente resultado:

L Para determinar la inversa de una matriz invertible A , es necesario encontrar una sucesión de operaciones elementales en los renglones que reduzca A a la matriz identidad y luego efectuar esta misma sucesión de operaciones en I , para obtener A".

En el siguiente ejemplo se proporciona un método sencillo para llevar a cabo el procedimiento anterior.

Page 78: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1.5 Matrices elementales y un método para determinar A" / 81

Ejemplo 4 Encontrar la inversa de

Solución. Se desea reducir A a la matriz identidad mediante operaciones en los renglones y aplicar simultáneamente las operaciones a I para obtener A - l . Para lograr ésto, la matriz identidad se adjunta a la derecha de A , con lo que se obtiene una matriz de la forma

y luego se aplican operaciones en los renglones a esta matriz hasta que el lado izquierdo se reduce a I; estas operaciones convierten el lado derecho en A", de modo que la matriz final es de la forma

[ I A " ]

Los cálculos son como sigue:

1 2 3 / 1 0 2 5 3 j 0 1 1 0 8 j O O 1 "1 1 2 3 1 1 0 "1 I Se sumó -2 veces el primer o 1 - 3 1 -2 1 renglón al segundo y - 1 vez el

0 - 2 5 ; - 1 o 1 primer renglón al tercero.

1 2 3 1 1 0 o 1 - 3 : -2 1

1 2 3 j 1 0

1 2 O j -14 O 1 0 : 1 3 - 5

Se sumó 3 veces el tercer renglón al segundo y -3 veces el tercer

1 0 o 1 Se sumó -2 veces el segundo

Page 79: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

82 ! Sistemas de ecuaciones lineales y matrices

Así,

A menudo no es posible saber de antemano si una matriz dada es invertible. Si una matriz A n X n no es invertible, entonces no se puede reducir a I,, por medio de operaciones elementales en los renglones [inciso (c ) del teorema 1.5.3.1 Planteado de otra forma, la forma escalonada reducida de A contiene por lo menos un renglón de ceros. Así, si el procedimiento del último ejemplo se intenta con una matriz que no es invertible, entonces en algún momento de los cálculos aparecerá un renglón de ceros en el lado izquierdo. Entonces es posible concluir que la matriz dada no es invertible, de modo que ya no se realizan más cálculos.

Ejemplo 5 Considerar la matriz

1 6 4- A = [ 2 4 - 1

- 1 2 5 -

Al aplicar el procedimiento del ejemplo 4 se obtiene

[- 1 6 2 4 -

- 1 2 - 1 ; o 1

4 ! 5 1 o ' o o '"I 1

1 6 4 1 1 0 I

I o - 8 - 9 I - 2 1 renglón al segundo y se sumó el

0 8 9 1 1 0 1

:undo renglón tercero.

Dado que en el lado izquierdo se ha obtenido un renglón de ceros, se concluye que A no es invertible. A

Ejemplo 6 En el ejemplo 4 se demostró que

es una matriz invertible. Por el tepema 1.5.3 se concluye que el sistema de ecua- ciones

Page 80: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1.5 Matrices elementales y un método para determinar A" / 83

x, + 2x, + 3x, = o 2x, + 5x, + 3x, = o

XI + 8x, = O

sólo tiene la solución trivial. A

EJERCICIOS DE LA SECCIÓN 1.5

1. De las siguientes matrices, ¿cuáles son elementales'?

2. Encontrar una operación en los renglones que convierta la matriz elemental dada en

3. Considerar las matrices 3 4 8 1 5 4

A = [ & -: -:I, B = [ : -: -:I, c=[i 1; -i] Encontrar matrices elementales E,, E2, E, y E4 tales que a) E , A = B b) E$=A c)E#=C d)E4C=A

4. En el ejercicio 3, Les posible encontrar una matriz elemental E tal que EB = C? JUS- tificar la respuesta.

En los ejercicios 5. 6 y 7, aplicar el método mostrado en los ejemplos 4 y 5 para encontrar la inversa de la matriz dada si la matnz es invertible, y comprobar la respuesta por multiplicación.

Page 81: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

d ) [-: 'i L') [ o 1 o o o 2 (1- !

o - I 3 o .. . 1-3 4 7 2 I 5 " 3 .

8. Encontrar la inversa de cada una dc las siguientes matrices 4 k son, todos, diferentes de cero.

X 4, donde k, , k2 , k3, k4 y

9. Considerar la matriz

a) Encontrar matrices elementales E, y E, tales que E P , A = I. b) Escrihir A - ' como un producto de dosmatrices elementales. c) Escribir <4 como un producto de dos matnces elementales.

10. En cada inciso, efectuar en

la operación en los renglones que se indica, multiplicando A por la izquierda por una matnz elemental. En cada caso, comprobar l a respuesta, efectuando la operación en los renglones directamente en A. a) Intercambiar los renglones primero y tercero. b) Multiplicar por f el segundo renglón. c) Sumar dos veces el segundo renglón al primer renglón.

11. Expresar la matriz

en la forma A = EFGR, donde E, F y G son matrices elementales y R está en forma escalonada.

12. Demostrar que si

es una matriz elemental, entonces por lo menos un elemento en el tercer renglón debe ser igual a cero.

Page 82: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1.6 Otros resultados sobre sistemas e invertibilidad I’ 85

13. Demostrar que r O a O O O

b O c O O A = O d O e O

O O f O , q o O o I? o,

no es invertible para cualesquiera valores de los elementos

14. Demostrar que si A es una matriz m X n, entonces existe una matriz invertible C tal que CA está en forma escalonada reducida.

15. Demostrar que si A es una matriz invertible y B es equivalente por renglones a A , entonces B también es invertible.

16. a) Demostrar: Si A y B son matrices m X n, entonces A y B son equivalentes por

b) Demostrar que A y B son equivalente por renglones, y encontrar una sucesión de renglones si y sólo si A y B tienen la misma forma escalonada reducida.

operaciones elementales en los renglones que produzca B a partir de ‘4.

1 2 3 O .=II ; ;] .-[I ; -;I 17. Demostrar el teorema 1.5.1

1.6 OTROS RESULTADOS SOBRE SISTEMAS DE ECUACIONES E INVERTIBILIDAD

En esta sección se establecerán más resultados sobre sistemas de ecuaciones lineales e invertibilidad de matrices. El trabajo dará por resultado un método totalmente nuevo para resolver sistemas de n ecuaciones con n Incógnitas.

UN TEOREMA Se empezará por demostrar un resultado fundamental sobre sistemas lineales. que FUNDAMENTAL ya fue anticipado en la primera sección de este libro.

Teorema 1.6.1. Todo sistema de ecuaciones lineales no tiene solución, tiene exactamente una solucibn o tiene infinidad de soluciones.

~ ~~ ~~~

Demostración. Si Ax = b es un sistema de ecuaciones lineales, entonces exacta- mente una de las siguientes afirmacicmes es vcrdadcra: a) el sisienla no tiene sch- ción, b) el sistema tiene exactamentc I ~ I I ; ~ solucltr!. o bien, c) el sistema tiene más de una solucicin. La demostración cstard conipleri si se puede demostrar que cl sistema tiene iníínidnd de soluciones en el caso 2).

Page 83: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

86 1' Sistemas de ecuaciones lineales y matrices

RESOLUCI~N DE SISTEMAS LINEALES POR INVERSI~N DE MATRICES

Suponer que Ax = b tiene más de una solución, y sea x. = xl - 5, donde x1 y &r son dos soluciones distintas cualesquiera. Debido a que x1 y 5 son dlstintas, entonces la matriz x. es diferente de cero; además,

AX, A(x, - X,) = A X , - AX, = b - b = O

Si ahora se deja que k sea cualquier escalar, entonces

A ( x , + kx,) = Ax, + @x,) =Ax, + k(AX,) = b + k O = b + O = b

Pero esto establece que x, + kKo es una solución de Ax = b. Como x. es diferente de cero y existen intinidad de elecciones para k, entonces el sistema Ax = b tiene infinidad de soluciones. 1

Hasta el momento se han estudiado dos métodos para resolver sistemas lineales: la eliminación gaussiana y la eliminación de Gauss-Jordan. El siguiente teorema proporciona un nuevo método para resolver ciertos sistemas lineales.

Teorema 1.6.2. Si A es una matriz invertible n x n, entonces para toda matriz b n x I , el sistema de ecuaciones Ax = b tiene exactamente una solución; a saber, x = A"b.

Demostracidn. Como A(A"b) = b, se concluye que x = A-lb es una solución de Ax = b. Para demostrar que esta es la única solución, se supondrá que x. es una solución arbitraria y luego se demostrará que x. debe ser la so1uciÓnA"b.

Si x. es cualquier solución, entonces AxO = b. Al multiplicar ambos miembros por A" se obtiene x. = A"b. 0

Ejemplo 1 Considerar el sistema de ecuaciones lineales

x , + 2x, + 3x, = 5 2x, + sx, + 3x, = 3

XI + 8x3 = 17

En forma matricial, este sistema se puede escribir como Ax = b, donde

En el ejemplo 4 de la sección precedente se demostró que A es invertible y que

Page 84: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1.6 Otros resultados sobre sistemas e invertibilidad / 87

Por el teorema 1.6.2, la solución del sistema es

o bien, x1 = 1, x2 = -1, x3 = 2. A

OBSERVACI~N. Nótese que el método de ejemplo 1 es aplicable sólo cuando el sistema tiene tantas ecuaciones como incógnitas y la matriz de coeficientes es in- vertible.

RESOLUCIóN DE Frecuentemente es necesario resolver una sucesión de sistemas VARIOS SISTEMAS A x = b , , A x = b 2 , A x = b , , . . . , A x = b k LINEALES CON UNAMATRIZ DE COEFICIENTES entonces las soluciones

cada uno de los cuales tiene la misma matriz de coeficientes A . Si A es invertible,

COMÚN x l = A " b l , x 2 = A " b 2 , x 3 = A P 1 b 3 , . . . , xk=A-lb,

se pueden obtener con una inversión matricial y k multiplicaciones de matrices. Sin embargo, un método más eficaz es formar la matriz

[.4 I b, I b, . . . bk] (1)

donde la matriz de coeficientes A es "aumentada" por todas las k matrices b,, b,, . . . , b,. Al expresar (1) en forma escalonada reducida, por eliminación de Gauss- Jordan se pueden resolver a la vez todos los k sistemas. Este método tiene la ventaja de que se puede aplicar aun cuando A no sea invertible.

Ejemplo 2 Resolver los sistemas

Solución. Los dos sistemas tienen la misma matriz de Coeficientes. Si esta matriz de coeficientes se aumenta con las columnas de constantes que están en los miembros derechos de tales sistemas, se obtiene

Page 85: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

88 i Sistemas de ecuaciones lineales y matrices

Al expresar esta matriz en forma escalonada reducida se obtiene (comprobar)

o O I 1 ; '1 o 1 0 ; 0 ; o o 1 I 1 i - 1

l

Con base en las dos últimas columnas, se concluye que la solución del sistema a) es x, = 1, x2 = O, x3 = 1, y que solución del sistema b) es x1 = 2, x2 = I y x3 = - 1. A

PROPIEDADES Hasta el momento, para demostrar que una matriz A n x n es invertible ha sido DE LAS necesario encontrar una matriz B n x n tal que MATRICES INVERTIBLES A B = / y B A = I

El siguente teorema demuestra que si se obtiene una matriz B n X n que satisface cualquier condición, entonces la otra condición se cumple automáticamente.

Teorema 1.6.3. Sea A una matriz cuadrada. a) ,Si B es una matriz cuadrada que satisface BA = I, entonces B =A". b) Si B es una matriz cuadrada que satisface A B = I, entonces B =A".

Se demostrará el inciso a), y el inciso 6) se deja como ejercicio.

Demostración u). Suponer que BA = I. Si es posible probar que A es inverti- ble, la demostración se puede completar multiplicando BA =I en ambos miembros por A -' para obtener

BAA"=IA" o BI=IA- ' O B - A - '

Para probar que A es invertible, basta demostrar que el sistema A x = O sólo tiene la solución trivial (véase el teorema 1.5.3). Sea x. cualquier solución de este sistema. Si ambos miembros de AxO = O se multiplican por la izquierda por B, se obtiene BAxo = BO o Ixo = O o x . = O . Así, el sistema de ecuaciones A x = O sólo tiene la solución trivial. 5

Ahora ya es posible añadir dos proposiciones más que son equivalentes a las cuatro dadas en el teorema I . S . 3 .

~ ~~ --

Teorema 1.6.4. Si A es una matriz n X n, entonces las siguientes proposiciones son equivalentes. a ) A es invertible. 6) A x = O sólo tiene la solución trivial. c ) La forma escalonada reducida de A es I,,. d) A es expresable como un producto de matrices elementales. e ) A x = b es consistente para toda matriz b n X 1.

A x = b tiene exactamente una solución para toda matriz b n X 1.

Page 86: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1.6 Otros resultados sobre sistemas e invertibilidad / 89

Demostraciótz. Como en el teorema 1.5.3 se demostró que a), b), c) y d) son equivalentes, basta demostrar que a * f * e * a.

a * J Este hecho ya se demostró en el teorema 1.6.2.

f * e: Esta implicación es de por sí evidente. Si A x = b tiene exactamente una solución para toda matriz b de n X 1, entonces Ax = b es consistente para toda matriz b den X 1.

e * a: Si el sistema A x = b es consistente para toda matriz b n x 1, entonces en particular los sistemas

son consistentes. Sean x, , 3, . . . , x,, las soluciones de los sistemas respectivos, y se forma una matriz C n x n que tenga estas soluciones como columnas. Así, C es de la forma

Como se analizó en la sección 1.3, las columnas sucesivas del producto A C son

A x , , Ax,, . . . , Axn

Asi,

Por el inciso b) del teorema 1.6.3 se concluye que C = A - l . Entonces, A es invertible. 0

Por el trabajo realizado antes se sabe que factores de matrices invertibles producen un producto invertible. En el siguiente teorema se considera la conversa: se demuestra que si el producto de matrices cuadradas es invertible, entonces los factores mismos deben ser invertibles.

Page 87: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

90 Sistemas de ecuaciones lineales y matrices

Teorema 1.6.5. Sean A y B matrices cuadradas del mismo tamaño. Si A B es invertible, entonces A y B también deben ser invertibles.

Más tarde se encontrará que el siguiente problema fundamental aparece en varios contextos.

Un problema fundamental. Sea A una matriz fija m X n. Encontrar todas las matrices b m X 1 tales que el sistema de ecuaciones Ax = b sea consistente.

Si A es una matriz invertible, el teorema 1.6.2 resuelve por completo este problema al establecer que para toda matriz b m x 1 el sistema lineal Ax = b tiene la solución única x = A"b. Si A no es cuadrada, o si A es cuadrada pero no invertible, entonces el teorema 1.6.2 no es válido. En estos casos la matriz b debe satisfacer ciertas condiciones a fin de que Ax = b sea consistente. El siguiente ejemplo ilustra cómo se puede usar la eliminacion gaussiana para determinar tales condiciones.

Ejemplo 3 ¿Qué*condlciones deben satisfacer b,, 6, y 6 , para que el sistema de ecuaciones

xl + .y2 + 2x, = h , .xl 3- x3 = b,

2 x , + x2 + 3x, = h,

sea consistente?

Solución. La matriz aumentada es

que se puede expresar en forma escalonada reducida como sigue.

1 1 2 bl o - 1 - 1 renglón al segundo y se sumó -2

Se sumó - 1 veces el primer

O - 1 - 1 h , -2h , veces el primer renglón al tercero.

[(!I b l - b 2 ] T I hl

El segundo renglón se multiplicó por - l .

O - I - 1 h3-2bl

1 1 1 b2

o 1 1 O O O b3-bZ-bl

El segundo renglón se sumó al tercero.

Page 88: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1.6 Otros resultados sobre sistemas e invertibilidad / 91

Por el tercer renglón de la matriz, ahora resulta evidente que el sistema tiene una solución si y sólo si b,, b, y b, satisfacen la condición

Expresado de otra forma, esta condición es: A x = b es consistente si y sólo si b es una matriz de la forma

donde b , y b, son arbitrarios. A

Ejemplo 4 ¿Qué condiciones deben satisfacer b,, b, y b, para que el sistema de ecuaciones

sea consistente?

Solución. La matriz aumentada es

Al expresar esta matriz en forma escalonada reducida se obtiene (comprobar)

1 O O -40b, + 16b2 + 96, O 1 O 13b, - 5b2 - 3b3 O 0 1 5b, - 2b2 - b3 1

En este caso no hay restricciones sobre b b, y 6,; es decir, el sistema Ax = b dado tiene la solución única

X , = -40b, + 16b2 + 963, X* = 13b, - 5bz - 3b3, x3 = 5bl - 2bl- b3 (3 )

para toda b. A

OBSERVACI~N. Debido a que el sistema A x = b del ejemplo anterior es consis- tente para toda b, entonces por el teorema 1.6.4 se concluye que A es invertible. Se deja para el lector comprobar que las fórmulas en (3) también se pueden obtener calculando x =A"b.

Page 89: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

92 1 Sistemas de ecuaciones lineales y matrices

EJERCICIOS DE LA SECCIóN 1.6

l b 10s ejercicios del 1 al X, resolver el sistema invirtiendo la matriz de coeficientes Y aplicando el teorema 1.6.2. 1. x, + ,Y2 = 2 2. 4x, - 3.x2 = - 3 3. x, + 3x, +.u3 = 4

Zx, + 3n2 + .Yi = 3 4. 5x, + 3.Y2 + 2.17 = 4 5. .I + j' + 2 = 5 6. - 1- - 2.v - 3 - =

Sx, + 6x2 = 9 2x, - 5x2 = 9 21, + 2x2 + x3 = - 1

3 s , + 31, -i- ?.\Y3 = 2 .x t j' - 4; = 10 LC + Y + 4j, + 42 = 7 x, + .Y2 = S - 4 x + j . + z - o M' t 3.r + 7y + 93 = 4

- M' - 21 - 4y " 63 = 0

.I o

l. 3.r, + Sx, = h , N. .YI f 21: t is, = h , Y , + 2x2 = h, 2.u, + 5.r, + Sx3 = h,

3x, + 5x, + 8x, = h,

lisando las formulas resultantes, encontrar la solución si

a ) h , = - - ~ I , h 2 = 3 . h , - 4 h ) h , = S , h ,=O, / ) , = O c) h , = - 1 . h,= - 1 , h,=3

10. Resolver los tres sistemas del ejercicio 9 aplicando el método del ejemplo 2

En los ejercicios del I 1 al 14, usar el método del ejemplo 2 para resolver simultánea- mente los sistemas en todos los incisos.

a) h, = I , h Z = 4 b) h , - 2 , h, = 5

13. 4 . ~ , ~- Í'X, = h , .x, + 2 s , = h,

a) h, = O, h, = 1 b) h , = -4, h, 6 C ) h , = - I , h, = 3 d ) h , = -5, h, = I

15. El método del ejemplo 2 se puede usar para resolver sistemas lineales que tienen infinidad de soluciones. Usando ese método, resolver al mismo tiempo los sistemas de ambos incisos.

a) x , - Zx, + .xi = - 2 b) xi - 2x, + = 1 2x, - sx, + -Ti = 1 2x, - 5x2 + x; = - 1 3x, - ?x, + 2.Y, = - 1 3xi - 7,r2 + 2x7 = o

Page 90: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1.6 Otros resultados sobre sistemas e invertibilidad / 93

En los ejercicios del 16 al 19, encontrar condiciones que deben satisfacer las b para que el sistema sea consistente. 16. 6 ~ , - 4x2 = h,

3x, - 2x2 = h,

18. X, - 2 ~ 2 - S, -4x, + 5x2 + 2x3 b2

- 4x, + 7x2 + 4x3 = h,

20. Considerar las matrices

a) Demostrar que la ecuación Ax = x se puede volver a escribir como ( A - I)x = O y

b) Resolver Ax = 4x. usar este resultado para resolver Ax = x para x.

21. Resolver la siguiente ecuación matricial para X .

22. En cada inciso, determinar si el sistema homogéneo tiene una solución no trivial (sin usar lápiz y papel); luego, establecer si la matriz dada es invertible. a) 2x, + x2 - 3x, + x4 = O 2 1 - 3

5x2 + 4x, + 3x4 = o o 5 4 3 '1 b) 5x, +x, + 4x3 + x4 = O 1 4

2x, -- x4 = o x, + x4 = o

7x4 = o O 0 0 7

23. Sea Ax = O un sistema homogéneo de n ecuaciones lineales en n incógmtas que sólo tiene la solución tnvial. Demostrar que si k es cualquier entero positivo, entonces el sistema Akx = O también tiene sólo la solución trivial.

24. Sean Ax = O un sistema homogéneo de n ecuaciones lineales con n incógnitas y Q una matriz invertible n x n. Demostrar que Ax = O tiene sólo la solución trivial si y sólo si (QA)x = O sólo tiene la solución tnvial.

25. Sea Ax = b cualquier sistema de ecuaciones lineales consistente, y sea x, una solución fija. Demostrar que toda solución del sistema se puede escribir en la forma x = x1 + xo, donde x. es una solución de Ax = O. También demostrar que toda matriz de esta forma es una solución.

26. Usar el inciso a) del teorema 1.6.3 para demostrar el inciso b )

Page 91: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

94 ,' Sistemas de ecuaciones Einealesy matrices

I .7 MATRICES DIAGONALES, TRIANGULARES Y SIMÉTRICAS

En esta sección se considerarán ciertas clases de matrices que tienen formas especiales. Las matrices que se estudiarán en esta sección se encuentran entre las más importantes del álgebra lineal y se presentan en muchas situaciones a lo largo de este texto.

MATRICES Una matriz cuadrada en la que todos los elementos fuera de la diagonal principal DUGONALES son cero se denomina matriz diagonal; algunos ejemplos son

m- -I

1 0 0 6 0 0 0 0 - 4 o o

0 0 1 O 0 0 8

Una matriz diagonal general D n X n se puede escribir como

D = [ d , o

O

O

d2

O

. . .

. . .

Una matriz diagonal es invertible si y sólo si todos los elementos en su diagonal principal son diferentes de cero; en este caso la inversa de (1) es

El lector debe comprobar que DD- I = D"D = I. Las potencias de las matrices diagonales son fáciles de calcular; se deja para

el lector comprobar que si D es la matriz diagonal (1) y k es un entero positivo, entonces

Page 92: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1.7 Matrices diagonales, triangulares y simétricas / 95

Ejemplo 1 Si

A = [ : -9 3 entonces

Los productos de matrices en que aparecen factores lagonales son espe- cialmente fáciles de calcular. Por ejemplo,

[ O dl d2 O O O ][": ::: 1:; "::] = [.a2] d l a l l dl'13

d2a22 d2a23 d2a24

o o d 3 '31 u32 '33 u34 d3a31 d3a32 d3a33 d3'34 1 En palabras, para multiplicar una matriz A por la izquierda por una matriz diagonal D, es posible multiplicar renglones sucesivos de A por los elementos diagonales sucesivos de D, y para multiplicar A por la derecha por D es posible multiplicar columnas sucesivas de A por los elementos diagonales sucesivos de D.

MATRICES Una matriz cuadrada en la que todos los elementos arriba de la diagonal principal TRIANGULARES son cero se denomina triangular inferior, y una matriz cuadrada en la que todos

los elementos abajo de la diagonal principal son cero se denomina triangular superior. Una matriz que es triangular superior o triangular inferior se denomina triangular.

Ejemplo 2

Una matriz trian- gular superior ge- gular inferior gene-

Page 93: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

96 i Sistemas de ecuaciones lineales y matrices

OBSERVACI~N. Nótese que las matrices diagonales son tanto triangulares supe- riores como triangulares inferiores, ya que tienen ceros por abajo y por arriba de la diagonal principal. Nótese también que una matriz cuadrada en forma escalonada es triangular superior porque tiene ceros por abajo de la diagonal principal.

A continuación se proporcionan cuatro caracterizaciones útiles de las matrices triangulares. El lector encontrará instructivo comprobar que las matrices en el ejemplo 2 tienen las propiedades establecidas.

Una matriz cuadrada A = [aij] es triangular superior si y sólo si el i-ésimo

Una matriz cuadrada A = [aij] es triangular inferior si y sólo si la j-ésima

Una matriz cuadrada A = [aij] es triangular superior si y sólo si [aijJ = O

Una matriz cuadrada A = [aij] es triangular inferior si y sólo si [aij] = O

renglón empieza con por lo menos i - 1 ceros.

columna empieza con por lo menos j - 1 ceros.

para i > j .

para i j .

En el siguiente teorema se enumeran algunas de las propiedades básicas de las matrices triangulares.

Teorema 1.7.1. a) La transpuesta de una matriz triangular inferior es triangular superior, y

la transpuesta de una matriz triangular superior es triangular inferior. b) El producto de matrices triangulares inferiores es triangular inferior, y el

producto de matrices triangulares superiores es triangular superior. e> Una matriz triangular es invertible si y sólo si todos sus elementos diago-

nales son diferentes de cero. d) La inversa de una matriz triangular inferior invertible es triangular infe-

rior, JJ la inversa de una matriz triangular superior invertible es triangular superior.

El inciso a) es evidente a partir del hecho de que la trasposición de una matriz se puede efectuar reflejando los elementos con respecto a la diagonal principal; se omite la demostración formal. Se demostrará b), pero las demostraciones de c) y 6) se pospondrán para el siguiente capítulo, donde se contará con los medios para probar los resultados de manera m á s eficaz.

Demostración de b). Se demostrará el resultado para matrices triangulares infe- riores; la demostración para matrices triangulares superiores es semejante. Sean A = lav] y B = [b - .] matrices triangulares inferiores n x n, y sea C = [c..] el producto C = AB. Por la observación que precede a este teorema, se puede probar que C es triangular inferior demostrando que [c..]= O para i < j . Pero por la definición de multiplicación de matrices,

‘J IJ

1J

Page 94: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1.7Matrices diagonales, triangulares y simétricas / 97

s i se supone que i < j , entonces los términos de esta expresión se pueden agrupar como sigue:

cij = ailbl, + aj2b, + . . . +'ai,- ,bi_ ,, + ajjbj, + . . . + ainbn,

Términos en los cuales el Términos en los cuales el número de renglón de b es 'número de renglón de a es menor que el número de menor que el número de columna de 6. columna de a.

< ,

En el primer agrupamiento, todos los factores 6 son cero, ya que B es triangular inferior, y en el segundo agrupamiento todos los factores a son cero, ya que A es triangular inferior. Así, cij = O, que es lo que se queda demostrar. 0

Ejemplo 3 Considerar las matrices triangulares superiores

3 - A = [ : 11 B =

-3 -2 o o "1 O 0 1

La matriz A es invertible, ya que sus elementos diagonales son diferentes de cero, pero la matriz B no lo es. Se deja para el lector calcular la inversa de A aplicando el método de la sección 1.5 y demostrar que

Esta inversa es triangular superior, como garantiza el inciso d) del teorema 1.7. l . También se deja para el lector comprobar que el producto AB es

- 2 - 2 A B = [ : :]

Este producto es triangular superior, como garantiza el inciso 6) del teorema 1.7. l . A

MATRICES Una matriz cuadrada A es simétrica si A = A T. SIMÉTRICAS

Ejemplo 4 Las siguientes matrices son simétricas, ya que cada una es igual a su propia transpuesta (comprobar).

[-: -:I - * 4 -3 :] -5 O 7

4 O O O

O

4 O O

O O

4 O

O :] * 4

Page 95: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

98 ’; Sistemas de ecuaciones Iineales y matrices

Es fácil reconocer las matrices simétricas por inspección: Los elementos de la &agonal principal pueden ser cualesquiera, pero las “imágenes especulares” de los otros elementos de la matriz con respecto a la diagonal principal deben ser i g u a l e s (figura 1).

Este hecho se concluye porque la transposición de una matriz cuadrada se puede efectuar al intercambiar los elementos que son simétricos con respecto a la dia- gonal principal. Expresado en términos de los elementos individuales, una matriz A = [a’ .] es simétrica si y sólo si [a’.] = [u..] para todos los valores de i y j . Como se ilustra en el ejemplo 4, todas las matrices dlagonales son simétricas. Y Y J’ .

En el siguiente teorema se enumeran las propiedades algebraicas más im- portantes de las matrices simétricas. Las demostraciones son consecuencias direc- tas del teorema I .4.9 y se dejan como ejercicios.

Teorema 1.7.2. Si ,4 y B son matrices simétricas del mismo tamaño y si k es cualquier escalar, entonces: a ) A es simétrica. h ) A f B Y A - B son simétricas. c ) kA essimktrica.

OBSERVACI~N. En general, no es cierto que el producto de matrices simétricas es simétrico. Para ver esto, sean A y B matrices simétricas del mismo tamaño. Enton- ces por el inciso 4, del teorema 1.4.9 y por la simetría se tiene

AB)^= B ~ A ~ = BA

Como AB y BA suelen ser diferentes, se concluye que en términos generales AB no es simétrico. Sin embargo, en el caso especial en que AB = BA, el producto AB es simétrico. Si A y B son matrices tales que AB = BA, entonces se dice que A y B conmutan. En resumen: el producto de dos matrices simétricas es simétrico si y sólo si las mafrices conmutun.

Ejemplo 5 En la primera de las siguientes ecuaciones se muestra un producto de matrices simétricas que no es simétrico, y en la segunda se observa un pro- ducto de matrices simétricas que sí es sinlétrico. Se concluye que los factores de la primera ecuación no conmutan, pero que los de la segunda sí lo hacen. Se deja para el lector comprobar ambos hechos.

[: :I[ -; ;]=[I: :I

Page 96: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

l . 7 Matrices diagonales, triangulares y simétricas / 99

MATRICES DE LA FORMA A A T Y A ~ A

En general, una matriz simétrica no necesariamente es invertible; por ejem- plo, una matriz cuadrada cero es simétrica, pero no invertible. Sin embargo, si una matriz simétrica es invertible, entonces su inversa también es simétrica.

Teorema 1.1.3. Si A es una matriz simétrica invertible, entonces A" es simé- trica.

Demostración. Suponer que A es simétrica e invertible. Por el teorema 1.4.10 y el hecho de que A = A T , se tiene

lo que demuestra que A" es simétrica. 0

Los productos matriciales de la forma A A T y ATA se presentan en varias apli- caciones. Si A es una matriz m x n, entonces AT es una matriz n X m, de modo que los dos productos A A T y ATA son matrices cuadradas; la matriz A A T es de tamaño m x m y la matriz ATA es de tamaño n x n. Estos productos siempre son simétricos porque

Ejemplo 6 Sea A la matriz 2 x 3

Entonces

Observar que ATA y A A T son simétricas, como era de esperarse. A

Más tarde en este texto se obtendrán condiciones generales para A bajo las cuales A A T y ATA son invertibles. Sin embargo, para el caso especial en que A es cuadrada, se tiene el siguiente resultado.

I Teorema 1.7.4. Si A es una matriz invertible, entonces AA y A TA también son invertibles.

Page 97: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

EJERCICIOS DE LA S E G C I ~ N 1.7

2. Calcular el producto por inspección

J. i,Cuiiles de las siguientes matrices son simétricas'?

- 1

2 I

5. Por lnspccctón, determinar SI la matriz triangular dada es invertible

6. 1:ncontrar todos los valores de a, b y c para los cuales A es simétrica

7

7. Encontrar todos los valores de a, b y c para los cuales A y B , ambas, no son invertibles.

8. Aplicar la ecuación dada para determinar por inspección si las matrices de la izquierda conmutar.

Page 98: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1.7 Matrices diagonales, triangulares y simétricas I 10 1

9. Demostrar que A y B conmutan si a - d = 7b

10. Encontrar una matriz diagonal .A que cumpla

o 9 0 0 a) A5 = [i - A -:] b) A '= [o 4 o]

o o 1

11. a) Factorizar A en la forma A = BD, donde D es una matriz diagonal

b) La factorización efectuada, Les la única posible? Explicar la respuesta

12. Comprobar el teorema 1.7.1 b para el producto AB, donde

2 s 2 -8 A = [-i 31, ; ;]

13. Comprobar el teorema 1.7: 14 para las matricesA y B del ejercicio 12

14. Comprobar el teorema 1.7.3 para la matriz dada A .

15. Sea A una matriz simétnca. a) Demostrar que A' es simétnca. h) lkmostrar que 2 A 2 - 3A + I es simétrica

16. Sea A una matriz simétrica. a) Demostrar que Ak es simétrica si k es cualquier entero no negativo. b) Si p(x) es un polinomio, Les necesariamente simétrico p(A)? Explicar la respuesta

17. Sea '4 una matriz triangular superior y sea p ( x ) un polinomio @(A) es necesariamente triangular superior? Explicar la respuesta.

18. Demostrar: Si ATA = A , entonces A es simétrica y A = A2

19. ;,Cuál es el número máximo de elementos distintos que puede contener una matriz simktrica de n X n?

Page 99: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

I02 / Sistemas de ecuaciones lineales y matrices

21. Con base en la experiencia adquirida en el ejercicio 20, instrumentar una prueba gencral que se pueda aplicar a una fórmula para a a fin de determinar si A = u es simétrica. i/ il

22. Una matriz cuadrada A se denomina untkimdtrica si ,4T = -A. Demostrar lo siguiente: a) Si A es una matriz antisimétrica invertible, entor-ces A" es antisimétrica. b] Si A y 4 son antisimétricas, entonces también lo son n T , A + B, A -+ B y kA para

c) roda matriz cuadrada se puede expresar como la suma de una matriz simétrica y cualquier escalar k.

una matriz antisimétnca.

23. En el texto se demostró que el producto de matrices simétricas es simétrico si y sólo s i las matrices conmutan. El producto de matrices antisimétricas que conmutan, i es antisimétrico'? Explicar la respuesta.

24. Si la matriz A IZ X n se puede expresar como A = LU, donde L es una matriz triangulm inferior y li es una matriz triangular superior, entonces el sistema lineal Ax = b se puede expresar como LUX = b y se puede resolver en dos pasos:

Paso 1. Sea (:x = y, de modo que I,Cix = h se puede expresar como L y = b. Resolver

Paso 2. Resolver el sistema U x = y para x.

En cada inciso, aplicar el método anterior de dos pasos para resolver el sistema dado

este slstc~na

1 0 0 2 - 1

2 4 1

EJERCICIOS COMPLEMENTARIOS 1.7 I 1. IJsar eliminación de Gauss-Jordan para resolver para x' yy' en términos de x y y

x = $y - &' y = Qx' + g y t

2. lisar climinación de Gauss-Jordan para resolver para x' y y' en términos de n yy .

3. Encontrar un sistema lineal homogéneo con dos ecuaciones que no sean múltiples entre sí y tales que

Page 100: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1.7 Matrices diagonales, triangulares y simétricas I’ 103

x, = 1, x2 = - 1, xj = 1, x q = 2

Y

x, = 2, x2 = o, x j = 3, x4 = - 1

sean soluciones del sistema.

4. Una caja contiene en total 13 monedas distintas de 1, 5 y 10 centavos, cuyo valor total es de 83 centavos. ¿Cuántas monedas de cada denominación hay en la caja?

5. Encontrar enteros positivos que cumplan

x + y + z = 9

x + 5 y + 1 0 z = 4 4

6. ¿Para qué valor(es) de a el siguiente sistema no tiene solución, tiene exactamente una solución y tiene una infinidad de soluciones?

x, + x2 + xj = 4

x j = 2

(a2 - 4)x, = a - 2

7. Sea

la matriz aumentada de un sistema lineal. ¿Para qué valores de a y b el sistema a) tiene una solución única? b) tiene una solución de un parámetro? c) tiene una solución de dos parámetros? d) no tiene solución?

8. Resolver para x, y y z.

XY - 2$ + 3zy = 8

2*y - 3 g y + 2zy = 7

-xy + fi + 2zy = 4

9. Encontrar una matriz K tal que AKB = C dado que

8 6 -6. - y ] , C = [ 6 - 1 1

- 4 o o. 10. ¿Cómo se debe elegir los coeficientes a, b y c de modo que el sistema

a x + b L ” 3 z = -3

” x - b y + c z = - 1

a x + 3 y - c z = - 3

tengalasoluciónx= l , y = --I y z = 2 ?

11. En cada inciso, resolver la ecuación matncial paraX

Page 101: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

104 i Sistemas de ecuaciones lineales4v matrices

12. a) Expresar las ecuaciones

en las

YI = x1 - x, + x3 y 2 = 3x, + x* - 4x, y 3 = -2.w, - 2x2 + 3x, formas matriciales Y = Ry

Y 21 = 4Y, - ."2 + Y 3

z* = - 3,v, + 5y: - y,

Y Z = BY. Luego, usar estas formas obtener una relación directa Z = CX entre Z y X. b) Usar la ecuación Z = CX obtenida en el inciso a) para expresar z1 y zz en términos

c) Comprobar el resultado del inciso b) sustituyendo directamente las ecuaciones para dex1,x2yx3.

y,, y2 yy3 en las ecuaciones para zI y z2 y luego simplificando.

13. Si A es m X n y B es n X p , ¿cuántas operaciones de multiplicación y cuintas operaciones de adición son necesarias para calcular el producto matricial AB?

14. Sea A una matriz cuadrada.

a) Demostrar que (I - A ) - . ' = I +- A + A' + A 3 si A4 = O. b)Demostrarque(/-A)"=l+A1-A2+~~~+A"siA"+'=U.

15. Encontrar valores de u, b y c de niodo que la ghfica del polinOmio p(x) = td t bx + z pase por los puntos ( I , 2), (- 1,6) y (2,3).

16. (Para lectofes qaeya estudiaron Cdculo.) Encontrar vaIores de a, b y c de modo que la gráfica del polinomio p(x) = a? + bx +. c pase por el punto (- 1, O> y tenga una tangente horizontal en (2, -9).

17. Sea J, la matriz n X n integrada completamente por elementos iguales 1. Demostrar que

18. Demostrar que si una matriz cuadrada A satisface A3 + 4A2 - 2A + 71, entonces también AT cumple esta ecuación.

19. Demostrar: Si B es invertible, entonces AB" = B"A si y sólo si AB = E4

20. Demostrar: Si A es invertible, entonces ambas A + B e I + BA" son lnvertibles o ambas no son invertibles.

21. Demostrar que si A y B son matrices n x n, entonces a) tr(A + B ) = tr(A) + tr(B) b) tr(kA) = k tr(A) c ) tr(A ') = tr(A) d) tr(AB) = tr(BA)

22. usar el ejercicio 2 1 para demostrar que no existen matrices cuadradas A y B tales que AB - B A = I .

Page 102: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

I . 7 Matrices diagonales, triangulares y simétricas I' 105

23. Demostrar: Si A es una matriz m X n y B es la matriz n X 1 integrada completamente por elementos iguales a Un, entonces

donde 7, es la media de los elementos en el i-ésimo renglón de A .

son funciones diferenciables de x, entonces se define

Demostrar que si los elementos de A y B son funciones diferenciables de x y los tattlaiim de las matrices rim tales-fpe. es posible ejecutar 1% óperaciones indi&las, entonces

d dA d dA dB d dB (c) -(AB) = + A- a) - (kA) = k - (b) - (A f B ) = - + 1

dx dx dx dx dx dx dx dx

25. (Para kcfores que ya estudiaron CcflcurO.) Usar el inciso c) del ejercicio 24 para demostrar que

Escribir todas las hipótesis establecidas para obtener esta fórmula.

26. Encontrar los valores de A , B y C que hacen la ecuación

x2+x-2 A Bx+C - (3x - l)(XZ + 1 ) 3x - 1 x* + 1 " +-

una identidad. [Sugerencia Multiplicar todo por (3x - 1)(2 + 1) e igualar los coefi- cientes correspondientes de los polinomios en cada miembro de la ecuación resultante].

27. Si P es una matriz n X 1 tal que PTP = 1, entonces H = I - 2PPT se denomina matriz de Householdet correspondiente (en honor del matemático estadunidense A. S. Householder). a) Comprobar que PTP = 1 si PT = 3/4 1/6 1/4 5/12 5/12 y calcular la matriz de

Householder correspondiente.

Page 103: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

106 / Sistemas de ecuaciones lineales y matrices

b) Demostrar que si H es cualquier matriz de Householder, entonces H = HT y HTH = I. c) Demostrar que la matriz de Householder determinada en el inciso a) satisface las

condiciones demostradas en el inciso b).

28. Suponiendo que las inversas indicadas existen, demostrar las siguientes igualdades.

29. a) Demostrar que si a # b , entonces

b) Usar el resultado del inciso a) para encontrar

[Nota Este ejercicio se basa en un problema de John M. Johnson, The Mathematics Teacher, Vol. 85, No. 9, 1992.1

Page 104: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

CAPITULO 2

DETEMINANTES

2.1 LA FUNCIÓN DETERMINANTE

El lector está familiarizado con funciones como Ax) = sen x y Ax) = x2, que asocian un número real A x ) a un valor real de la variable x. Como x y Ax) aLwmen sólo valores reales, tales funciones se describen como 'yunciones con valores reales de una variable real". En esta sección se estudiará la función determinante, que es una "$unción con valores reales de una variable matricial" en el sentido de que asocia un número real fo con una matriz X . El trabajo que se efectuará sobre funciones determinantes tendrá importantes aplicaciones en la teoría de sistemas de ecuaciones lineales y también conducirá a una ,fórmula explícita para calcular la inversa de una matriz invertible.

De acuerdo con el teorema 1.4.5. la matriz

es invertible si ad - bc f O. La expresión ad - bc aparece con tanta frecuencia en matemáticas que tiene un nombre; se llama determinante de la matriz A 2 X 2, y se denota por el símbolo det(A). Con esta notación, la inversa de A se puede expresar como

I07

Page 105: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

108 / Determinantes

Uno de los objetivos de este capítulo es obtener fórmulas d o g a s para matrices de orden superior. Esto requerirá que se amplíe el concepto de determinante a matrices de orden superior. Para este fin serán necesarios algunos resultados preliminares sobre pennutaciones.

PERMUTACIONES Definición. Una permutucidtz del conjunto de enteros { I , 2, . . . , n} es un arreglo de éstos en algún orden sin omisiones ni repeticiones.

Ejemplo 1 Existen seis permutaciones diferentes del conjunto de enteros { 1, 2, 3}, que son

Un método conveniente para enumerar sistemáticamente las permutaciones es por medio de un árho1 de permufacianes. Este método se ilustra en el siguiente ejemplo.

. .

Ejemplo 2 Enumerar todas las permutaciones del conjunto de enteros { 1, 2, 3, 4).

"%jludbut, Considerar la figura l . Los cuatro puntos identlficados p z 1, -2, 3 , 4 en la parte stlperior de la figwa feptesentliil -las elecciones posibles p a a el primer número de la permutacidn. Las tres r ama que salen de cada uno de estos puntos representan las posibilidades para elegir la segunda posicibn en la permutación. Entonces, si la permutación empieza como (2, -, -, -), las tres posibilidades para la segunda posición son 1, 3 y 4. Las dos ramas que salen de cada punto en la segunda posición representan las elecciones posibles para la tercera posición. Así, si la permutación empieza como (2, 3, -, -), las dos elecciones posibles para la tercera posición son 1 y 4. Por último, la rama que sale de cada punto en la tercera posición representa la única elección posible para la cuarta posición. Entonces, si la permutación para la cuarta posición empieza como (2, 3, 4, -), la única elección para la cuarta posición es 1. Ahora es posible enumerar las distintas permutaciones siguiendo todas las trayectorias posibles a lo largo del "árbol". desde la primera posición hasta la última. Por medio de este proceso se obtiene la siguiente lista.

Page 106: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

2.1 La funcirin determinante / 109

A partir de este ejemplo se observa que existen 24 permutaciones del conjunto { 1, 2, 3, 4). Si se hubiera razonado como sigue, este resultado hubiera podido anticiparse sin necesidad de enumerar realmente las pcrmutaciones. Como la primera posición puede ocuparse de cuatro formas y luego la segunda posición puede ocuparse de tres formas, hay 4.3 formas para ocupar las dos primeras posiciones. Como la tercera posición se puede ocupar entonces en dos formas, existen 4 I 3 2 formas para ocupar las tres primeras posiciones. Finalmente, como la última posición se puede ocupar de una sola forma, existen 4 . 3 . 2 . 1 = 24 formas de ocupar las cuatro posiciones. En general, el conjunto { 1, 2, . . . , n } tiene n(n - l ) (n - 2). . . 2 . 1 = n! permutaciones diferentes.

Para denotar una permutación general del conjunto (1, 2, . . . , n}, se es- cribirá u,, j 2 , . . . , jn). Aquí, j , es el primer entero en la permutación, j , es el segundo, y así sucesivamente. Se &ce que en una permutación ol, j 2 , . . . , j,) ocurre una inversión siempre que un entero mayor precede a uno menor. El número total de inversiones que ocurren en una permutación puede obtenerse como sigue: (1) encontrar el número de enteros que son menores quejl y que están después de j , en la permutación; (2) encontrar el número de enteros que son menores que j z y que están después de j , en la permutación. Continuar este proceso de conteo paraj,, . . . , jn-,. La suma de estos números es el número total de inversiones que hay en la permutación.

Ejemplo 3 Determinar el número de inversiones que hay en las siguientes permutaciones:

a) (6 , 1, 3, 4, 5, 2) b)(2,4, 1, 3) c) (1,Z 3 ,4 )

Solucidn.

a) El número de inversiones es 5 + O + 1 + 1 + 1 = 8. b) El número de inversiones es 1 + 2 + O = 3. c) En esta permutación no hay inversiones. A

Definición. Se dice que una permutación es par si el número total de inversiones es un entero par, y es impar si el número total de inversiones es un entero impar.

Page 107: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

I I O I Determinantes

Ejemplo 4 En la tabla siguiente, cada una de las permutaciones de { 1, 2. 3) se clasifica como par o impar.

DEFINICIóN DE Por producto elemental de una matriz A n X n se entiende cualquier producto de DETERMINANTE n elementos de A , de los cuales ningún p a de elementos proviene del mismo

renglón o de la m i m a columna.

Ejemplo 5 Enumerar los productos elementales de las matrices

a) a22

a31 0 3 2 a33

Solución de a). Como cada producto elemental tiene dos factores y cada factor proviene de un renglón diferente, entonces un producto elemental se puede escribir en la forma

donde los espacios en blanco indican números de columna. Como ninguna pareja de factores en el producto proviene de la misma columna, entonces los números de columna deben ser 1 2 o 2 . Así. los únicos productos elementales son al ,a22 y a12a21.

Solución de 6). Como cada producto elemental tiene tres factores, cada uno de 10s cuales proviene de un renglón diferente, entonces un producto elemental se puede escribir en la forma

Como ninguna pareja de factores en el producto proviene de la misma columna. entonces los niuneros de columna no tienen repeticiones; en consecuencia, deben formar una permutación del conjunto { 1, 2, 3). Estas 3 ! = 6 permutaciones pro- ducen la siguiente lista de productos elementales.

Page 108: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

2.1 La función determinante / 1 I I

Como indica este ejemplo, una matriz A de n X n tiene n! productos elementales. Son los productos de la forma aljla2 . . . any , donde olT j 2 , . . , j,) es una permutación del conjunto { 1, 2, 3, . . . , n{ Por un producto elemental con signo de A se entenderá un producto elemental aljlazj2 ' . ' un? multiplicado por +1 o por - 1. Si GI, j 2 , . . . ,Jn) es una permutación par se usa el signo +, y si (jl,

j2, . . . , j,) es una permutación impar, se usa el signo - .

Ejemplo 6 Enumerar todos los productos elementales con signo de las matrices

a) ['I' " I 2 ] b) [ a22 a12 413

a 2 1 a 2 2 431 432 u33

Solución. a) -

Producto Producto Permutación elemental elemental asociada Par o impar con signo

4 , la22 ( L 2 ) par a 1 la22

012421 (2, 1) impar -a12421

h)

Ahora ya es posible definir la íünción determinante.

Definición. Sea A una matriz cuadrada. La función determinante se denota por det, y det(A) se define como la suma de los productos elementales con signo de A . El número det(A) se denomina determinante de A .

Page 109: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

112 / Determinantes

EVALUACIóN DE Ejemplo 7 Con referencia al ejemplo 6. se obtiene DETERMtNAN-

Para no tener que memorizar estas expresiones dificiles de manejar, se su- giere usar técnicas mnemónicas que se describen en la figura 2. La primera fbr- mula del ejemplo 7 se obtiene de la figura 2a al multiplicar los elementos de la flecha hacia la derecha y restar el producto de los elementos de la flecha hacia la izquierda. La segunda fórmula del ejemplo 7 se obtiene escribiendo de nuevo las columnas primera y segunda como se muestra en la figura 26. Luego, el detenni- nante se calcula sumando los productos de las flechas hacia la derecha y restando del resultado la suma de los productos de las flechas hacia la izquierda.

Figura 2 a) h )

Ejemplo 8 Evaluar los determinantes de

Solución, Con el método de la figura 2a se obtiene

det(A) = (3)( -2) - (1)(4) = - 10

El mktodo de la figura 26 produce

det(B) = (45) + (84) + (96) - (105) - ( - 48) - ( - 72) = 240

A

Advertencia. Se recalca que los métodos que se muestran en la figura 2 no fun- cionan para determinantes de matrices 4 X 4 o superiores.

Page 110: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

2.1 La función determinante / I 1 3

La evaluación directa de determinantes a partir de la definición conduce a dificultades de cómputo. En efecto, la evaluación directa de un determinante 4 X 4 podría incluiría el cálculo de 4! = 24 productos elementales con signo, y un deter- minante 10 X 10 incluiría el cálculo de lo! = 3 628 800 productos elementales con signo. Aplicando este método, inclusive la computadora digital más rápida es incapaz de manejar en una cantidad razonable de tiempo el cálculo de un determi- nante 25 X 25. Por consiguiente, gran parte del resto del capitulo se dedica al desarrollo de propiedades de determinantes, que simplficarán la evaluación de éstos.

COMENTARIOS Esta sección concluye con algunos comentarios sobre la terminología y la nota- SOBRE LA ción. Primero, se observa que el símbolo A es otra notación para det(A). Por ejem- NOTACIóN Y LA plo, el determinante de una matriz de 3 X 3 se puede escribir como TERMTNOLOGÍA

' 1 3

a21 a 2 2 a23

a l l a 1 2 u13

'31 ' 3 2 u 3 3

Con la ultima notación, el determinante de la matriz A del ejemplo 8 se escribiría como

OBSERVACI~N. En términos concretos, el determinante de una matriz es un número. Sin embargo, se acostumbra llabusarll ligeramente de la terminología y usar el término "determinante" para referirse a la matriz cuyo determinante está siendo calculado. Así,

se podría idenlficar como un determinante 2 x 2 y denominar 3 al elemento que está en primer renglón y en la primera columna del determinante.

Por último, se observa que el determinante de A a menudo se escribe simbó- licamente como

I

donde indica que los términos deben sumarse sobre todas las permutaciones ol, j 2 , . . . , J n ) y los signos + o - se eligen en cada término según s i la permutación es par o impar. Esta notación es útil cuando es necesario recalcar la definición de un determinante.

Page 111: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

EJERCICIOS DE LA SECCIóN 2.1

I . Ihcontrar el número de inversiones que hay en cada una de las siguientes permuta-

a ) ( 4 1 3 5 2 ) . b ) ( 5 7 4 2 l ) . c ) ( ~ 2 5 4 l ) . d ) ( 5 4 3 2 l ) . e ) ( l 2 3 4 5 ) . f ) ( l 4 2 3 5 ) . clones de 1.2. 3 , 3 , 5

2. Clasilicar cada una de las pennutaciones del ejercicio I como par o impar

E11 los ejcruclos del 3 al 12, evaluar el deteminante.

- 2 I 3 - 1 1 2

13. 1:ncontrar todos los valorcs de i para los cuales dct(A) = O.

14. Clasificar cada una de las permutaciones de { 1,2, 3 , 4 } como par O impar.

16. lJsar la formula obtenida en el ejercicio 15 para evaluar

4 - 9 9 2 - 2 5 6 4

1 2 - 5 - 3 I - 2 o - 2

17. llsar la definición de deteminante para evaluar

o o 0 0 - 3

a ) O

o o o 0 - 4 o o 0 - 4 o 5 0 0 0 0

0 - 2 o o o 5 0 0 0 0 0 0 0 1 0 0 2 0 0 0

O 3 O O b ) O 0 - 1 O 0

18. Resolver para x. I O -

1 3 x - 5

19. Demostrar que el valor del determinante

Page 112: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

2.2 Evaluación de determinantes por reducción de renglones / 11 S

no depende de O

20. Demostrar que si una matriz cuadrada A tiene un renglón o una columna de ceros, entonces det(A) = O.

21. Demostrar que las matrices

conmutan si y sólo si

2.2 EVALUACI~N DE DETERMINANTES POR REDUCCI~N DE RENGLONES

En esta sección se mostrará que el determinante de una matriz se puede evaluar expresando si se reduce la matriz a la forma escalonada. Este método es importante, ya que evita los extensos cálculos que se presentan cuando se usa la dejnición de determinante.

UN TEOREMA Se empezará con un teorema fundamental sobre determinantes. BÁSICO

Teorema 2.2.1. Sea A una matriz cuadrada. a ) Si A tiene un renglón de ceros o una columna de ceros, entonces det@) = O. 6) det(A) = det(AT).

Demostración de a). Como todo producto elemental con signo de A tiene un factor de cada renglón y un factor de cada columna, entonces todo producto elemental con signo tiene necesariamente un factor de un renglón cero o de una columna cero. En estos casos, todo producto elemental con signo es cero, y det(A), que es la suma de los productos elementales con signo, es cero. 0

Se omite la demostración del inciso b), pero se recuerda que un producto elemental tiene un factor de cada renglón y un factor de cada columna, de modo que es evidente que A y AT tienen exactamente el mismo conjunto de productos elementales. Mediante algunos teoremas sobre permutaciones, cuyo análisis llevaria demasiado lejos, se puede demostrar que ,n realidad A y AT tienen el mismo conjunto de productos elementales con signo. Esto significa que det(A) =

det(AT).

OBSERVACI~N. Debido al teorema 2.2.lb, casi todos los teoremas sobre determinantes que contienen la palabra "renglón" en su enunciación también son

Page 113: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

verdaderos cuando e11 VCY de "renglón" se escribe la palabra "columna". Para demostrar una proposiciorl sobre columnas, basta transponer la matriz en cuestión para convertir la proposicibn sobre columnas en una proposición sobre renglones, y luego aplicar los resultados conocidos sobre renglones.

DETERMINANTES F1 sigtnicnte teorema facilita la evaluación del determinante de una matriz trian- DE MATRICES gular, sin imporlar su tamaito. TRIANGULARES

Teorema 2.2.2. S i -4 es una matriz triangnlar w X n (triangular superior, triangular inj>rior o diagonalj, pnronces dei(,4) es el producto de los elenlentos de in diagonal principal; es decir, det(;.l) a , ,a7, . . a,,,,.

A f in de facilitar la notación. se demostrará el resultado para una matriz triangular inferior 4 X 4

El razonamiento en el caso general n X n es semejante. Para matrices triangulares superiores se puede obtener una demostración aplicando el teorema 2.2.lh y observando que la transpuesta de una matriz triangular superior es una matriz triangular inferior con los mismos elementos en la diagonal.

Dctmstrclc~rcirl del k m m a 2.2.2 (C'nso de una matriz lrianguiar injerior de 4 X 4). El Único producto elemental de A que puede s a diferente de cero es a l la22a33a44. Para ver que así cs. considerar un producto elemental representativo ~ ~ , , a ~ , ~ n ~ , ~ a ~ , , . Corno a,? = o I 3 - a14 = O. se debe tenerjl = 1 a fin de tener un productoelemental diferente de cero. Si , j l = 1. se debe cumplir que j , = 1, y-¿ que ninguna pareja de factores comunes prmienc de la misma columna. Además, como = a = O. se debe tener], = 2 a fin de que el producto elemental sea d&rente de cero. Proslguicndo de esta manera se obtienejB = 3 y j , = 3. Como n1 lc122a33a44 se multiplica por +I al formar el producto elemental con signo. se obtiene

-

24

Ejemplo 1

2 7 - 3 8 3 0 - 3 7 5 1 O O 6 7 6 = (2)( -3)(6)(9)(4) = - 1296 A O 0 0 9 8 0 0 0 0 4

EFECTO DE LAS El siguiente teorema muestra cómo una operación elemental en los renglones de OPERACIONES una matriz afecta el valor de su determinante.

Page 114: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

2.2 Evaluación de determinantes por reducción de renglones / 1 1 7

~

Teorema 2.2.3. Sea A una matriz n X n.

a) SI B es la matriz que se obtiene cuando un solo rengldn o una sola columna de A se nrultiplica por un escalar k, entonces det(B) = k det(A).

b) SI E: es la matriz que se obtiene cuando se intercambian dos renglones o dos columnas de A , entonces del@) z~ -det(A).

c) Si B es la matriz que se obtiene cuando un múltiplo de un renglón de A .se suma a otro renglón o cuando un múltiplo de una columna se suma a otra columna, entonces det(B) = detjA).

Una demostración de este teorema se puede obtener usando la fórmula (1) de la sección 2.1 para calcular los determinantes que aparecen y comprobando después las igualdades. Se omite la demostración, aunque se proporciona el siguiente ejern- plo que ilustra el teorema para determinantes 3 X 3

Ejemplo 2

ELEMENTALES EN LOS RENGLONES SOBRE UN DETERMINANTE

Relación Operación I

El primer renglón de A se multiplica pork.

d e t ( B ) = k dct (. I)

a21 a22 u23 a l l a12 0 1 3

0 1 1 0 1 2 al3 a21 0 2 2 u23 = -

a 3 1 a 3 2 u33 a 3 1 a 3 2 " 3 3

Los renglones primero y segundo de A se intercambian.

det ( B ) = - det ( 4)

I

a l l + k a 2 , k n 2 2 a 1 3 f k a 2 3 I ' I2 ' I3 I Un múltiplo del segundo a 2 1 a 2 2 a 2 3 a 2 1 a 2 2 ' 2 3 renglón de A se suma al

- -

'31 a 3 2 a 3 3 primer renglón. a3 I a 3 2 a 3 3

d c t ( R ) = det(:l)

Page 115: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

118 / Determinantes

OBSERVACI~N. Como se observa en la primera ecuación del ejemplo 2, el inciso a) del teorema 2.2.3 permite sacar del determinante un "factor común" de cual- quier renglón (o columna).

DETERMINAN- Recordar que una matriz elemental se obtiene cuando se efectúa una sola opera- TES DE ción elemental en los renglones de una matriz identidad; así, si en el teorema MATRICES 2.2.3 se hace que A = I,,, de modo que se tiene det(A) = der(/,) = 1, entonces la ELEMENTALES matriz B es una matriz elemental y el teorema conduce al siguiente resultado

sobre determinantes de matrices elementales.

Teorema 2.2.4. Sea E una matriz elemntal n X n. a) Si E se obtiene al multiplicar por k un renglón de In, entonces det(E) = k. b) Si E se obtiene al intercambiar dos renglones de In, entonces det(E) = -1. c) Si .E se obtiene al sumar un múltiplo de un renglón de In a otro renglbn,

entonces det(E) = I .

Ejemplo 3 Los siguientes determinantes de matrices elementales. que se evalúan por inspección, ilustran el teorema 2.2.4.

1 0 0 0

o 0 0 1 1 0 0 0 0 0 0 1 0 0 1 0 o 0 1 0 0 0 1 0 0 1 0 0 0 1 0 0 o 3 0 0 1 0 0 7 0 0 0 1

= 3 - 1 = I A

El segundo renglón de I, se Se intercambiaron los El liltimo renglón de I, se

multiplicó por 3. renglones primero y sumó 7 veces al primer liltimo de I,. renglón.

DETERMINAN- Si una matriz cuadrada A tiene dos renglones proporcionales, entonces se puede TES CON introducir un renglón de ceros sumando un múltiplo adecuado de uno de los RENGLONES renglones a otro renglón. Lo mismo es cierto para columnas. Pero sumar un O COLUMNAS múltiplo de un renglón o una columna a otro renglón o a otra columna no cambia

NALES O. Esto demuestra el siguiente teorema. PROPORCIO- el determinante, de modo que por el teorema 2 . 2 . 1 ~ se debe cumplir que det(A) =

Teorema 2.2.5. Si A es una matriz cuadrada con dos renglones o dos columnas proporcionales, entonces detjil) = O.

Ejemplo 4 El siguiente cálculo ilustra la introducción de un renglón de ceros cuando hay dos renglones proporcionales:

2 6 -4 0 0 0 veces el primero, de modo que

renglón al segundo para 1 1 4 1 4 8

Page 116: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

2.2 Evaluación de determinantes por reducción de renglones 1 I Y

EVALUACI~N DE DETERMINAN- TES POR REDUCCIóN DE RENGLONES

Cada una de las siguientes matrices tiene dos renglones o dos columnas propor- cionales; así, por inspección, el determinante de cada una es cero.

A continuación se proporcionará un método para evaluar determinantes, el cual requiere sustancialmente menos cálculos que la aplicación directa de la definición de determinante. La idea del método es reducir la matriz dada a la forma trian- gular superior mediante operaciones elementales en los renglones; luego, calcular el determinante de la matriz triangular superior (lo que es fácil), y, finalmente, relacionar el determinante de ésta con el determinante de la matriz original. A continuación de presenta un ejemplo.

Ejemplo 5 Evaluar det(A), donde

o 1 5 A=[3 - 6 9

2 6 1

Solucidn. A se reducirá a la forma escalonada (que es triangular superior) y se aplicará el teorema 2.2.3:

o 1 5 3 - 6 9 det(A)=

3 = - O

2 6 1 2

1 = -3 o

2

1 = - 3 o

O

-6 1 6

- 2 1 6

- 2 1

10

-2 1

9 5 1

3 5 1

3 5 5

31 5

-

I O O -551

1 - 2 3 = ( - 3 ) ( - 5 5 ) o 1 5

O 0 1

= (-3)(-55)(1)= 165 A

el primer renglón tomando en

Se sumó -2 veces el primer renglón al tercer renglón.

en el último renglón considerando el signo del

Page 117: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

OBSERVACI~N. El método de reducción de renglones se ajusta bien a la evalua- ción de determinantes por computadora, ya que es sistemático y se puede progra- mar fácilmente. Sin embargo, en secciones ulteriores se desarrollarán métodos que a menudo facilitan los cilculos manuales.

Ejemplo 6 Calcular el determinante de

Solución. Este determinante se puede calcular como ya se mostró, mediante operaciones elementales en los renglones para reducir A a la forma escalonada, aunque A también se puede escribir en forma triangular inferior en un paso sumando - 3 veces la primera columna a la cuarta para obtener

Este ejemplo señala la utilidad de no perder de vista las operaciones en las colum- nas que pueden abreviar los cálculos. A

EJERCICIOS DE LA SECCIÓN 2.2

1. Comprobar que det(A) = det(A7) para

2. Evaluar por inspección los siguientes determinantes

3. Encontrar por inspección los determinantes de las siguientes matrices elementales.

Page 118: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

2.3 Propiedades de la función determinante I’ 121

En los ejercicios del 4 al 11, evalmr el determinante de la matriz dada refiuciendo la matriz a forma escalonada.

4. [ -.; y -;] 5. [I 1 2 1 6. [-: -; 11 7. [-: i -!] 3 6 -9 o 3 1 1 - 3 3 - 6

3 2 4

3a 36 3c a + g b + h c + i

13. Por medio de la reducción de renglones demostrar que

1 ik; :2 i 2 i = ( b - u)(c - a)(c - b)

14. Con un razonamiento semejante al de la demostración del teorema 2.2.2, mostrar que

15. Demostrar los siguientes casos especiales del teorema 2.2.3.

k a t 2 & I 3 ‘12 u13 a22 a12

a) 1::; a l l / = k l : : : a22 Y:l/ b) 1::; a I 2 = -111: az2

‘31 ‘32 a 3 3 ‘31 ‘32 u33 ‘31 a 3 2 ‘33 a31 ‘32 ‘33

2.3 PROPIEDADES DE LA FUNCIÓN DETERMINANTE

En esta sección se desarrollarán algunas de las propiedades fundamentales de la función determinante. Con el trabajo aquí realizado se adquirirán mayores cono- cimientos sobre la relación que hay entre una matriz cuadrada y su determinante. Una de las consecuencias inmediatas de este material es una importante prueba de determinante para la invertibilidad de una matriz.

Page 119: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

122 / Determinantes

PROPIEDADES Suponer que A y B son matrices n X n y que k es cualquier escalar. Se comenzará SkSICAS DE LOS considerando posibles relaciones entre det(A), det(E) y DETERMINANTES

det(U), det(A + B) y det(AE)

Como del determinante puede sacarse un factor común de cualquier renglón de una matriz, y como cada uno de los n renglones de kA tiene un factor común igual a k, se obtiene

1 det(kA) = k"det(A) 1 ~ ~~

Por ejemplo,

Desafortunadamente, en general no existe ninguna relación simple entre los determinantes det(A), det(B) y det(A + B). En particular, se recalca que det(A + B ) suele no ser igual a det(A) + det(B). El siguiente ejemplo ilustra este hecho.

Ejemplo 1 Considerar

A pesar del tono negativo del ejemplo anterior, existe una relación im- portante en la que intervienen sumas de determinantes que a menudo es útil. Para obtenerla, considerar dos matrices 2 X 2 que sólo difieren en el segundo renglón:

= det a 2 1 + 6 2 1 a 2 2 + 6 2 2

Asi,

Page 120: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

2.3 Propiedades de la función determinante / 123

DETERMINANTE DE UN PRODUCTODE MATRICES

Este es un caso especial del siguiente resultado general.

Teorema 2.3.1. Sean A , B y C matrices n X n que sólo difieren en un renglón, por ejemplo, el r-ésimo, y suponer que el r-ésimo renglón de C se puede obtener sumando los elementos correspondientes de los r-ésimos renglones de A y B. Entonces

det(C) = det(4) + det(B).

El mismo resultado es cierto para columnas.

Ejemplo 2 Con la evaluación de los determinantes se puede comprobar que

1 7 5 det [ 2 O 3 ] =det[ i i i] +.et[: -:] A

l + O 4 + 1 7 + ( - 1 )

Cuando se considera la complejidad de las definiciones de la multiplicación de matrices y determinantes de una matriz, parecería improbable que exista alguna relación simple entre ellas. Es esto lo que hace tan sorprendente la sencillez del siguiente resultado. Se demostrará que si A y B son matrices cuadradas del mismo tamaño, entonces

det (AB) = det ( A ) det ( B ) (2)

Como la demostración de este teorema es bastante minuciosa, primero es necesario desarrollar algunos resultados preliminares. Se empezará con el caso especial de (2) en que A es una matriz elemental. Debido a que este caso especial es sólo un preludio a (2), se denomina lema.

Lema 2.3.2. Si B es una matriz n X n y E es una matriz elemental n x n, entonces

I det@B) = detp) de@)

Demostracidn. Se considerarán tres casos, cada uno dependiendo de la operación en el renglón con que se obtiene E.

Caso 1. Si E se obtiene al multiplicar por k un renglón de Zn, entonces, por el teorema 1.5.1, EB se obtiene a partir de B al multiplicar por k un renglón; así, por el teorema 2.2.3a se tiene que

det(EB) = k det(B)

Page 121: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

I24 / Determinantes

Pero por el teorema 2.2.4a se tiene que det(E) = k, de modo que

det(EB) = det(@ det(R)

~,bsos 2 y 3. Las demostraciones de los casos en los que E se obtiene al intercambiar dos renglones de I, o al sumar un múltiplo de un renglón a otro renglón siguen el mismo patrón que el caso 1, por lo que se dejan como ejercicios. 0

OBSERVACI~N. Por aplicaciones repetidas del lema 2.3.2 se concluye que si 5 es una matriz n X n y E,, E2, . . . , E,. son matrices elementales n x n, entonces

det(E ,E,. . 3 , B ) = det(E,)det(E2). . .det(E,.)det(B) (3 1

Por ejemplo.

det(E,E,B) = det(E, j det(E,B) = det(E,) det(E2) det(B)

PRUEBA DE LA El siguiente teorema es uno de los más importantes en álgebra iineal; proporciona INVERTIBILKDAD un criterio importante de invertibilidad en términos de determinantes y se usará MEDIANTE UN en la demostración de (2). DETERMINAYTE

Teorema 2.3.3. Una matriz cuadrada A es invertible si y sólo si det(A) = O.

Dernostración. Sea R la forma escalonada reducida de A. Como paso preliminar se demostrará que tanto det(A) como det(R) son cero o diferentes de cero: Sean E,. E2, . . , , E,. las matrices elementales que corresponden a Las operaciones elemen- tales en los renglones con que se obtiene R a partir de A . Así,

R =E; ' .E2E1A

y según (3),

det(R) = det(E,). . .det(E,) det(E,)det(A) (4)

Pero por el teorema 2.2.4, los determirlantes de las matrices elementales son Merentes de cero. (Tomar en cuenta que multiplicar por cero un renglón no es una operación elemental en los renglones permitida de modo que k = O en esta aplicación del teorema 2.2.4.) Así, por (4) se concluye que det(A) y de@) son cero o diferentes de cero. Ahora se procederá a la parte más importante de la demostración.

Si A es invertible, entonces por el teorema 1.6.4 se tiene R = I, de modo que det(R) = 1 f O y, en consecuencia, det(A) f O . Recíprocamente, si det(A) f O, entonces det(R) f O, de modo que R no puede contener un renglón de ceros. Por el teorema 1.4.3 se concluye que R =I, de modo que por el teorema 1.6.4 se tiene que A es invertible. [1

Page 122: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

2.3 Propiedades de la función determinante / 125

Por los teoremas 2.3.3 y 2.2.5 se concluye que una matriz cuadrada con dos renglones o columnas proporcionales no es invertible.

Ejemplo 3 Como los renglones primero y tercero de

son proporcionales, det(A) = O. Así, A no es invertible. A

Ahora ya es posible abordar el resultado principal de esta sección.

Teorema 2.3.4. Si A y B son matrices cuadradas de1 mismo tamafio, entonces det(AB) = det(A) det(B).

Demostración. La demostración se dividirá en dos casos que dependen de si A es invertible o no lo es. Si la matriz A no es invertible, entonces por el teorema 1.6.5 tampoco lo es el producto AB. Así, por el teorema 2.3.3 se tiene que det(AB) = O y det(A) = O, por tanto, se concluye que det(AB) = det(A) det(B).

Ahora se supone que A es invertible. Por el teorema 1.6.4, la matriz A se puede expresar como producto de matrices elementales, por ejemplo

A = E,E,. . .E, (5)

de modo que

A B = E1E2. . .E,B

Si se aplica ( 3 ) a esta ecuación se obtiene

det(AB) = det(El) det(E2) . . . det(E,.) det(B)

y aplicando (3) de nuevo se obtiene

det(AB) = det(E,E2 . . . E,.) det(B)

que, según (5), se puede escribir como det(AB) = det(A) det(B) 0

Ejemplo 4 Considerar las matrices

Se deja al lector comprobar que

det(A) = 1 det(B) = -23 y det(AB) = -23

Page 123: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

126 ,/ Determinantes

Así, det(AB) = det(A) det(B), como garantiza el teorema 2.3.4. A

El siguiente teorema proporciona una relación útil entre el determinante de una matriz invertible y el determinante de su inversa.

I Teorema 2.3.5. Si -4 es invertible, entonces

det(A") = -

Denrosfración. Como A "A = I, se concluye que det(A "A) = det(r). Por consi- guiente, se debe tener que det(A -I) det(A) = 1. Como det(A) = O, la demostración puede completarse dividiendo entre det(A). 0

SISTEMAS Muchas aplicaciones del álgebra lineal están relacionadas con sistemas de n LINEALES DE LA ecuaciones lineales en n incognitas que se expresan como FORMA Ax = Ax

A x = Ax (6)

donde A es un escalar. Estos sistemas son realmente sistemas lineales homogéneos encubiertos, ya que (6) puede escribirse de nuevo como x - A x = O o, insertando una matriz identidad y factorizando. como

( d I -A ) x=O (7 )

A continuación se proporciona un ejemplo.

Ejemplo 5 El sistema lineal

x, + 3x, = A x , 4x, 4 2x, = Ax2

puede escribirse en forma matricial como

que es de la forma (6) con

Este sistema puede volver a escribirse como

Page 124: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

2.3 Propiedades de ¡a función determinante / 127

O

A[: ;I[::] - [: :I[::] = [:I

que es de la forma (7) con

AI-.=[ A- - 4 1 a - 2 - 3 ]

El problema de interés esencial en sistemas lineales de la forma (7) es determinar los valores de para los cuales el sistema tiene una solución no trivial; ese valor de A se denomina valor característico o eigenvalor' de A . Si l e s un eigenvalor de A, entonces las soluciones no triviales de (7) se denominan eigen- vectores de A correspondientes a A.

De acuerdo con el teorema 2.3.3 se concluye que el sistema ( I - A)x = O tiene una solución no trivial si y sólo si

Ide t ( l I -A)=O I ÉSta se denomina ecuacidn característica de A ; los eigenvalores de A se pueden encontrar resolviendo esta ecuación para l.

Los eigenvalores y los eigenvectores se estudiarán de nuevo en otros capítulos, donde se analizará su interpretación geométrica y se desarrollarán sus propiedades con mayor profundidad.

Ejemplo 6 Determinar los eigenvalores y los eigenvectores correspondientes de la matriz A del ejemplo 5.

Solución. La ecuación característica de A es

*La palabra elgenvalor es una combinación de alemán y espaiiol. El prefijo alemán ergen puede traducirse como "propio", que resulta de l a s antiguas publicaciones en l a s que l o s eigenvalores se conocían como valores proplos; también se denominan raices latentes.

Page 125: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

O

/2*-3a- l o = o La forma factorizada de esta ecuación es (A + 2)(A - 5 ) = O, de modo que los eigenvalorcs de A son A = - 2 y A = 5 ,

Por dcfinición,

RESUMEN

es un eigenvector de .4 si y sólo si x es una solución no trivial de ( I1 - A)x = O ; es decir.

Si A = -2, entonces (9) se convierte en

Al resolver este sistema se obtiene (comprobar)

x = - t , x = 1 1 2

de modo que los eigenvectores correspondientes a diferentes de cero de la forma

A = -2 son las soluciones

De nuevo por (9), los eigenvectores de '4 correspondientes a A = 5 son las solucioner no triviales de

Se deja que el lector resuelva este sistema y demuestre que los eigenvectores de A correspondientes a A = 5 son las soluciones diferentes de cero de la forma

En el teorema 1.6.4 se mencionaron cinco resultados que son equivalentes a la invertibilidad de una matriz A. Esta sección termina con la inclusión del teorema 2.3.3 en esa lista para obtener el siguiente teorema que relaciona los temas primordiales que se han estudiado hasta ahora.

Page 126: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

2.3 Propiedades de la función determinante / 129

Teorema 2.3.6. Si A es una matriz n X n, entonces las siguientes proposicio- nes son equivalentes. a ) A es invertible. b ) Ax = O sólo tiene la solución trivial. c) La forma escalonada reducida de A es I,,. d) A se puede expresar como un producto de matrices elementales. e ) Ax = b es consistente para toda matriz b n X 1. f i Ax = b tiene exactamente una solución para toda matriz b n X 1. g ) det(A) = O.

EJERCICIOS DE LA S E C C I ~ N 2.3

1. Comprobar que det(kA) = k" det(A) para

2. Comprobar que det(AB) = det(A) det(B) para

2 1 0 A = [a y .-[i I i] - 1

3. Por inspección, explicar por qué det(A) = O

- 2 8 1 4

4 - 6 4 - 3

4. Con el teorema 2.3.3, determinar cuáles de las siguientes matrices son invertibles

5. Sea

Suponiendo que det(A) = -7, determinar

a) det(3A) b) det(A") c) det(2A")

6. Sin evaluar directamente demostrar que x = O y x = 2 satisfacen

Page 127: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

130 ,I Determinantes

7. Sin evaluar directamente, demostrar que

lin los ejercicios del 8 al 1 1. demostrar la identidad sin evaluar los determinantes

12. ;t'arira qui valor(es) de k se cumple que A 110 es invertible?

13. Con el teorema 2.3.3. demostrar que

sen1 (Y sen ' p sen' y

cos2 a c o s ' p cos2 y

210 es mvertible para cualesquiera valores de (x, f i , y y

14. kpresa r los siguientes sistemas lineales en la fonna ( I - A)x = O . a) .Y, + 2.r, = AX, h) + 3.r, = A.vl c) 3 . ~ , + .y2 = d.Yl

2 3 , + .xz = A.Y, 4s, + 3Sl = Ax2 - 5.r, - 3.r, = ax,

15. Para cada uno de los sistemas del ejerclcio 14, encontrar

a) la ecuación característica, b) los eigenvalores, > c) los eigenvectores correspondientes a cada uno de los eigenvalores.

Page 128: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

2.4 Desarrollo por cofactores; regla de Cramer / 13 I

16. Sean A y B matrices n X n. Demostrar que si A es invertible, entonces det(B) = det(A"BA).

17. a)Expresar

a , + b , c , + d l a, + b, c, + d,

como una suma de cuatro determinantes cuyos elementos no contengan sumas. b) Expresar

a1 + bl CI +dl el + f l

a2 + 6 2 c2 + d2 e2 + f 2

a3 + b3 c3 + d3 e3 + f 3

como una suma de ocho determinantes cuyos elementos no contengan sumas.

18. Demostrar que una matriz cuadrada A es invertible s i y sólo si ATA es invertible.

19. Demostrar los casos 2 y 3 del lema 2.3.2.

2.4 DESARROLLO POR COFACTORES; REGLA DE CRAMER

En esta sección se considerará un método para evaluar determinantes que es útil en la realización de cálculos manuales y reviste importancia teórica. Como consecuencia del trabajo aquí efectuado, se obtendrá una fórmula para calcular la inversa de una matriz invertible, así como una fórmula para encontrar la solución de ciertos sistema de ecuaciones lineales en términos de determinantes.

~ ~~

MENORES Y denota por M,, y se define como el determinante de la submatriz que queda COFACTORES Definición. Si A es una matriz cuadrada, entonces el menor del elemento ai se

después de q6itar el i-ésimo renglón y laj-ésima columna de A . El número (- l)'+JM,, se denota por C,, y se denomina cofactor del elemento u..

Ejemplo 1 Sea

A = [ : ; 1 - 4 i] El menor del elemento a l l es

Page 129: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

?32 1)etermlnante.s

El cofactor de I es

De manera scmejante, el menor del elemento a32 es

3 1 4 M ; 2 =

= 1; = 2 6 2 S 6 1 4 8

el cofactor de a32 cs

Observar que el cofactor y el menor de un elemento al, sólo difieren en el signo; es decir, C,j = "".4u. Una manera rápida para determinar si se usa el signo + o el signo - es aplicar el hecho de que el signo que relaciona Cy con M está en el i- Csimo renglón y en lajCsima columna del arreglo en forma de "tablero de ajedrez"

u

. . .

DESARROLLOS Considerar la matriz general 3 X 3 POR COFACTORES

-4 -[." ;;; %J a , , 0 1 3

En el ejemplo 7 de la sección 2.1 se demostró que

Page 130: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

2.4 Desarrollo por cofactores; regla de Cramer i 133

Debido a que las expresiones entre paréntesis son justamente los cofactores c,,. Czl y C31 (comprobar), se tiene que

La ecuación (2) muestra que el determinante de A se puede calcular multiplicando los elementos de la primera columna de A por sus cofactores y sumando los producto resultantes. Esta forma de evaluar det(A) se denomina desarrollo por cofactores a lo largo de la primera columna de A .

Ejemplo 2 Sea

A =

Evaluar det(A) por desarrollo por cofactores a lo largo de la primera columna de A .

Solución. Por (2), se tiene que

=3(-4) - ( -2) ( -2)+5(3)= - 1 A

Reordenando los términos de (1) de vanas formas, es posible obtener otras fórmulas como (2). No debe haber ningún problema en la comprobación de que todas las siguientes igualdades son correctas (véase el ejercicio 28):

Como en cada ecuación todos los elementos y los cofactores provienen del mismo renglón o de la misma columna. Estas ecuaciones se denominan desarrollos por cofactores de det(A).

Los resultados que acaban de proporcionarse para matrices 3 x 3 cons- tituyen un caso especial del siguiente teorema general, que se enuncia sin de- mostración,

Page 131: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

I34 1' Determinantes

Teorema 2.4.1. El determinante de una matriz A n x n se puede calcular multiplicando los elementos de cualquier renglón (o de cualquier columna) por sus cofactores y sumando los productos resultantes; es decir, para cada I i n y I j n, se tiene que

det(A) = aljClj + + -.. +a C (Desarrollo por cofuctores a lo largo de

ni nJ I I la j-ésima columna) I

det(A) = a,lC,l + +anJCnj (Desarrollo por cofdores a lo largo del i-

t é.&no renghjn) I

Ejemplo 3 Sea A la matriz del ejemplo 2. Evaluar det(A) mediante desarrollo por cofactores a lo largo del primer renglón.

Solución.

=3( -4 ) - (1 ) ( -11 )+0= - 1

Esto concuerda con el resultado obtenido en el ejemplo 2. A

OBSERVACI~N. En este ejemplo no fue necesario calcular el último cofactor, ya que se multiplicó por cero. En general, la mejor estrategia para evaluar un deter- minante melante cofactores, hacer el desarrollo a lo largo del renglón o la co- lumna que tenga el mayor número de ccros.

El desarrollo por cofactores y las operaciones en los renglones o en las columnas se pueden combinar algunas veces para obtener un método efectivo de evaluar determinantes. El siguiente ejemplo ilustra esta idea.

Ejemplo 4 Evaluar det(A), donde

A = [ l 3

2 3

- 2 - 1

1 5 :I 5 3

Page 132: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

2.4 Desarrollo por co factores; regla de Cramer 1 I35

Soluci&. Sumando múltiplos idóneos del segundo renglón a los demás renglo- nes se obtiene

0 - 1 1 3 1 2 - 1 1 0 0 3 3 O 1 8 0

det(A) =

- -

- 1 1 3 - "

o 9 3

Desarrollo por cofactores a lo largo de la primera columna.

= -18 A

ADJUNTA DE En un desarrollo por cofactores, det(A) se calcula multiplicando los elementos de un UNA MATRIZ renglón o una columna por sus cofadores y sumando los productos resultantes. Resulta

que si los elementos de cualquier renglón se multiplican por los cofactores co- rrespondientes de un renglón dijerente, la suma de tales productos siempre es cero. (Este resultado también se cumple para columnas.) Aunque se omite la demostración general, el siguiente ejemplo ilustra la idea de la demostración en un caso especial.

Ejemplo 5 Sea

Considerar la cantidad

que se forma al multiplicar los elementos del primer renglón por los cofactores de los elementos correspondientes en el tercer renglón y sumar los productos re- sultantes. A continuación se demostrará que esta cantidad es igual a cero mediante la sigwente regla práctica. Obtener una nueva matriz A' sustituyendo el tercer renglón de A por el primer renglón. Así,

- , . . . . , .

Page 133: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

I36 / Determinantes

Sean C',,, C3*. C,, los cofactores de los elementos del tercer renglón de A'. Como los dos primeros renglones de A y A' son iguales, y dado que en el cálculo de C31, C32, C33, C',,, C,, y C',3 sÓ10 intervienen elementos de los dos primeros renglones de A y A' , se concluye que

Como A' tiene dos renglones idénticos,

det(A') = O

Por otro lado, al evaluar det(A') por desarrollo por cofactores a lo largo del tercer renglón se obtiene

Por (4) y (5) se obtiene

Definición. Si A es cualquier matriz n X n y C,, es el cofactor de ai/, entonces la matriz

se denomina matriz de cofactores de A . La transpuesta de esta matriz se denomina adjunta de A y se denota por adj(A).

Ejemplo 6 Sea

2 - 4 o

Los cofactores de A son

Page 134: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

2.3 Desarrollo por cofactores; regla de Cramer 1 13 7

FÓRMULA PARA LA INVERSA DE UNA MATRIZ

C,, = 12 C,, = 6 C,, = - 16 c,, = 4 c,, = 2 C,, = 16 C,, = 12 C,, = - 10 C,, = 16

de modo que la matriz de cofactores es

y la adjunta de (A) es

12 4

adj (A) = [ 6 2 -:"I A -16 16 16

Ahora ya es posible obtener una fórmula para la inversa de una matriz invertible.

Teorema 2.4.2. Si A es una matriz invertible, entonces

(6)

Demostración. Primero se demostrara que

A adj(A) = det(il) I

Page 135: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

138 Determinantes

APLICACIONES DE LA FóRMULA DE LA ADJUNTA PARA LA INVERSA

(véame los renglones sombreados en las dos matrices anteriores). Si i =j, entonces (7) es el desarrollo por cofactores de det(A) a lo largo del i-

ésimo renglón deA (teorema 2.4.1), y si i = j , entonces las letras a y los cofactores provienen de renglones diferentes de A . de modo que el valor de (7) es cero. En consecuencia.

A adj(,4)=[ " ' . . . o ]=det(A)I (8)

det(A) O . . . O

det(A)

Dado que A es invertible, det(A) = O. Por tanto, la ecuación (8) puede volver a escribirse como

1 det ( A )

[ A adj(A)] = I

O

.4 [ - detiAj adj(A) 1 = I

Multiplicando por la izquierda ambos miembros por A -', se obtiene

1 A - 1 =~ det ( A )

adj(A) 0

Ejemplo 7 Por medio de (6), encontrar la inversa de la matriz A del ejemplo 6.

Solución. El lector puede comprobar que det(4 = 64. Así,

r 12 4 12- A ~ - 1 =- I

det ( A ) adj(A) = - 6 2 - 10

-16 16 16- i 4 1

Aunque el método del ejemplo precedente es razonable para invertir manualmente matrices 3 X 3, el algoritmo de inversión que se analizó en la sección 1.5 es más eficaz para matrices más grandes. Sin embargo, debe tenerse en cuenta que el mé- todo de la sección 1.5 es sólo un procedimiento de cómputo, mientras que la fórmula (6) es una fórmula real para encontrar la inversa. Como se verá a conti- nuación, esta fórmula es útil para obtener propiedades de la inversa.

En la sección 1.7 se establecieron sin demostración dos resultados sobre inversas.

Page 136: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

2.4 Desarrollo por cojactores; regla de Crawler 139

Teorema 1 .7 .1~: Una matriz triangular es invertible si y sólo si todos sus elementos diagonales son diferentes de cero. Teorema 1.7.ld: La inversa de una matriz triangular inferior invertible es triangular inferior, y la inversa de una matriz triangular superior in- vertible es triangular superior.

Estos resultados se demostrarán a continuación usando la fórmula de la adjunta para la inversa.

Demostración del teorema 1.7. I C . Sea A = a una matriz triangular, de modo que sus elementos diagonales son

r/

Por los teoremas 2.2.2 y 2.3.3, la matriz A es invertible si y sólo si

det(A) = a11u22 . . . ann f O

que es verdadero si y sólo si todos los elementos de la diagonal son diferentes de cero. 0

Se deja como ejercicio para el lector usar la fórmula de la adjunta de A" para demostrar que si A = a es una matriz triangular invertible, entonces los elementos diagonales sucesivos de A - son

iJ

(Véase el ejemplo 3 de la sección 1.7.)

Demostración del teorema I . 7. Id. El resultado se demostrará para matrices trian- gulares superiores y se dejará como ejercicio el caso para matrices triangulares inferiores. Suponer que A es triangular superior e invertible. Como

se puede demostrar que A-' es triangular superior puede probarse probando que adj(A) es triangular superior o, equivalentemente, que la matriz de cofactores es triangular inferior. Lo anterior se puede lograr demostrando que todo cofactor C: con i < j (es decir, arriba de la diagonal principal) es cero. Como iJ

ciJ = ( - i);+jM. ' J

Page 137: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

140 /' Determinantes

REGLA DE CRAMER

basta demostrar que cada menor My con i < j es cero. Para este propósito, sea By la matriz que se obtiene cuando se quitan el i-ésimo renglón y laj-ésima columna de A, de modo que

M,, = det@,,) (9)

A partir de la hipótesis que i < j. se concluye que Bq es triangular superior (ejercicio 32). Como A es triangular superior, su (i + I)-ésimo renglón comienza con por lo menos i ceros. Pero el i-ésimo renglón de B, es el (i + 1)-ésimo renglón de A sin el elemento de la j-ésima columna. Ya que i < j, ninguno de los i primeros ceros se elimina quitando la j-ésima columna; así, el i-ésimo renglón de B comienza con por lo menos i ceros, lo cual indica que este renglón contiene un cero en la diagonal principal, Ahora, por el teorema 2.2.2 se concluye que det(BJ = O, y por la expresión (9) se concluye que M,] = O . O

i/

El siguiente teorema proporciona una fórmula útil para la solución de ciertos sistemas lineales de n ecuaciones con n incógnitas. Esta fórmula, denominada re@ de Cramer , es de interés marginal para efectos de cómputo, aunque es útil para estudiar las propiedades matemáticas de una solución sin necesidad de resol- ve< el sistema

*

Teorema 2.4.3. (Regla de Crumer). Si Ax rz b es un sistema de n ecuaciones lineales con n incdgnitas tal que det(A) = O, entonces la solución del sistema es única. Esta solucidn es

donde .4 es la matriz que se obtiene al sustituir los elementos de la j-&into columna de A por los elementos de la matriz

J

*Gabriel Cramer (1704-1752), matemático suizo. Aunque Cramer no está considerado al lado de los grandes matemáticos de su tiempo, sus contribuciones como diseminador de las ideas matemáticas le ganaron un bien merecido lugar en la historia de las matemáticas. Cramer viaj6 bastante y conoció a muchos de los grandes matemáticos de su época. Estos contactos y amistades condujeron a una correspondencia abundante a través de la cual se difilndia la informacibn snbrt nuevos descubrimientos matemáticos.

Page 138: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

2.4 Desarrollo por cofactores; regla de Crarner / 141

Demostración. Si det(A) = O, entonces A es invertible y, según el teorema 1.6.2, x = A"b es la única solución de Ax = b. En consecuencia, por el teorema 2.4.2 se tiene

1 det (A)

adj (A)b = - det (A) x = A " b = -

Multiplicando las matrices se obtiene

Por consiguiente, el elemento en elj-ésimo renglón de x es

blC, , + h2C,, f . . . + b,Cn,

det (A) x, =

Ahora, sea

Como Al difiere de A sólo en laj-ésima columna, se concluye que los cofactores de los elementos b,, b2, . . . , b,, en A son los mismos que los cofactores de los ele- mentos correspondientes en la j-&ma columna de A. En consecuencia, el desa- rrollo por cofactores de det(A) a lo largo de laj-ésima columna es

1

det(A,) = b,C,, + b2CZj + . . . + b,C,,

El trabajo más conocido de Crarner, Introductron ir l'analyse des lrgnes courbes algébnques (1750), es un estudio y una clasificación de las curvas algebraicas; la regla de Cramer apareció en el apéndice. Aunque la regla lleva su nombre, variantes de la idea básica fueron planteadas antes por otros matemáticos. Sin embargo, la notación superior de Cramer ayudó a aclarar y popularizar la técnica.

El exceso de trabajo, combinado con una caída de un carruaje, provocaron su fallecimiento en 1752. Aparentemente, Cramer era una persona de buen corazón y agradable, aunque nunca contrajo matrimonio. Sus intereses eran amplios. Escribió sobre filosofía de las leyes y del gobierno, y sobre la historia de las matemáticas. Trabajó en una oficina pública, participó en la artillería y en actividades de fortificaciones para el gobierno, instruyó a trabajadores sobre técnicas de reparación de catedrales y efectuó excavaciones de archivos catedralicios. Cramer recibió numerosos honores por sus actividades.

Page 139: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

112 Determinantes

Sustituyendo este resultado en (10) se obtiene

.Y = - n de t (Ai)

' det(A)

Ejemplo 8 Aplicar la regla de Cramer para resolver

x, + + 2x, = 6

-.Y, - 2 s 2 + 3x, = S - 3x, + 4 . ~ ~ + 6x3 = 30

Solucibn.

Por consiguiente.

dCt(A,) -40 -10 det(A,) 72 18 ~ 1 = " - - -

det ( A ) 44 1 1 ' .x2=-- - - - -

det(A) 44 1 1 ' "-

det(.4,) 152 38

det(A) 44 1 1 x3=" " -- A -

OBSERVACION. Para resolver un sistema de n ecuaciones con n incógnitas mediante la regla de Cramer, es necesario evaluar n + 1 determinantes de matrices n x n. Para sistemas con más de tres ecuaciones, la eliminación gaussiana es bastante más eficaz, ya que sólo es necesario reducir una matriz aumentada n X (n + 1). Sin embargo, la regla de Cramer proporciona una fórmula para la solución si el determinante de la matriz de coeficientes es diferente de cero.

EJERCICIOS DE LA S E C C I ~ ' ; ~ 2.4

1. Sea

2. Sea

A =

4 - 1 I 6 o 0 - 3 3 4 1 O 1 4 4 1 3 2

Page 140: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

2.4 Desarrollo por cofactores; regla de Cramer / 143

3. Evaluar el determinante de la matriz del ejercicio 1 por desarrollo por cofactores a lo largo de lo siguiente:

a) El primer renglón. b) La primera columna. c) El segundo renglón. d) La segunda columna. e)' El tercer renglón. f) La tercera columna.

4. Para la matriz del ejercicio 1, encontrar a) adj(A). b) A" usando el teorema 2.4.2

En los ejercicios del 5 al 10, evaluar det(A) mediante desarrollo por cofactores a lo largo de un renglón o una columna que el lector elija.

-3 o 7 3 5. A = [ 2 5 I ] tí. A = [ : -: -!]

- 1 o 5

5

O 10. A = 1: i -! 2

2 2 4 2

4 0 0 1 0

En los ejercicios del 11 al 14, encontrar A" por medio del teorema 2.4.2.

2 5 2 0 3 11. A = [ -: -: :] 12. A = [ -: 2 1

2 - 3 5 2 0 0 13. A = [ : A -:] 14. A = [ -: 15. Sea

A = [ ; : '8 i] 1 3 1 1

1 3 2 2

a) Evaluar A" usando el teorema 2.4.2. b) Evaluar A" con el método del ejemplo 4 de la sección 1.5. c) ¿Cuál método requiere menos cálculos?

Page 141: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

144 ' Determinantes

En los ejercicios del I6 al 2 l . obtener la solución usando la regla de Cramer cuando sea aplicable.

16. 7 x , - 2 ~ , = 3 17. 4x + 5y = 2 3.x, + x? = 5 I l x + y + 2 2 = 3

x + 5y + 2z = 1

18. x - ~ J + Z = 6 4 x - y + 2 2 = - 1 2x + 2.v - 32 = -20

19. x , - 3.x2 + x, = 4 20. -.x1 - 4x, + 2 s , + .xj = -32 21. 3x, - x * + x i = 4 2s, - .x2 = - 2 2x, - .x2 + 7x3 + 91, = 14 - x , + 7x, " 2x, = I 41- I - 3x, = o -x, + X2 + 3x, + Xq = 1 I 2x1 + 6x2 - X., = 5

X I - 2 s 2 + xi - 4x, = - 4

22. Ilemostrar que la matriz

cos H sen H O .-[:O co;H y ]

cs invertible para todos los valores de d; luego, encontrar A" usando el teorema 2.4.2

23. Apllcar la regla de Cramer para hallary sin resolver para x, z y MJ

4 x + v + z t u'= 6

3x+7.v- z + M'= 1

7 1 - + 3 y - 5 z + 8 U . = - 3 St y + 2 + 2 w = 3

24. Sea A x = b el sistema del ejercicio 23. a ) Resolver aplicando la regla de Cramer. b) Obtener la solución por eliminación de Gauss-Jordan. c) ¿,Cuál mktodo requiere menos cálculos?

25. Demostrar que si d 4 4 ) = 1 y todos los elementos de A son enteros, entonces todos los elementos de A " son enteros.

26. Sea A x = b un slsterna de tz ecuaciones lineales con n incógnitas, coeficientes enteros y constantes enteras. Demostrar que si det(A) = 1, la solución x tiene elementos enteros.

27. Demostrar que si 11 es una matIiz triangular inferior invertible, entonces A - I es trian- gular mferior.

28. Obtener los desarrollos por cofactores primero y último que se enumeran en la fórmula (3).

29. Demostrar: La ecuación de la recta que pasa por los puntos distintos (a,, b , ) y (a2, bz) se puede escribir como

30. Demostrar: (x,, yl), (x2, y?) v (x3, y,) son puntos colineales si y sólo si

Page 142: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Ejercicios complementarios /’ 145

31. Demostrar: La ecuación del plano que pasa por los puntos no colineales (a, , b , , c , ) , (a,, b,, cz) y (u3, b,, c3) se puede escribir como

x y z l

a1 b, C I 1 a2 b2 c2 1 a3 b3 c3 1

= O

32. Demostrar que si A es triangular superior y B . . es la matriz que se obtiene cuando se eliminan el i-ésimo renglón y la j-ésima columna de A , entonces B. . es triangular superior SI i < j .

2/

r/

I EJERCICIOS COMPLEMENTARIOS

1. Con la regla de Cramer, resolver para x’ y y’ en términos de x y y .

2. IJsar la regla de Cramer para que x’ y y’ queden expresadas en términos de x y y

x=x’cosO-y‘sen0 y=x’senO+y’cosO

3. Analizando el determinante de la matriz de coeficientes, demostrar que el siguiente sistema tiene una solución no trivial si y sólo si CY = p.

x + y + m = o x + y + p z = o

f f x + p y + z = o

4. Sea A una matriz 3 X 3, cada uno de cuyos elementos es 1 6 O. ¿Cuál es el máxuno valor posible de A ?

5. a) Para el tnángulo de la figura 1 que se muestra a continuación, usar trigonometria para demostrar que

b c o s y + c c o s p = a c cos CY + a cos y = b a cos p + b cos CY = c

y luego aplicar la regla de Cramer para demostrar que

b2 + c2 - a2 2bc

cos CY =

Page 143: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

b) Con la rcgla de Crarner obtener fórmulas semejantes para cos p y cos y.

6. Por medlo de determinantes, demostrar que para todos los valores reales de jl la única solución de

x - 2-v = Lx x - v = A.v

7. Demostrar: Si A es invertible, entonces adj(A) es mvertible y

[ adj ( A ) ] - ' = --A = adj (A - I ) 1

det (A)

8. Demostrar- Si A es una matriz n X 11, entonces det [adj(A)] = [det(A)] '- l .

10. a) En la figura 2 que se muestra a contmuacion, el área del triángulo ABC se puede expresar como

IJsar Csto y el hecho de que el área de un trapezoide es igual a 1/2 de la altura multiplicada por la suma de los lados paralelos, para demostrar que

[Notu En la obtención de esta fórmula, los vtrtices se identifican de modo que el triángulo se traza en sentido contrario al movimiento de las manecillas del reloj procediendo de (x,, y , ) a (x?, y 2 ) a (x3, ,y3). Para una orientación en el sentido del movimiento de las nmnecillas del reloj, el determinante anterior produce el neguti- vo del área.]

b) Usar el resultado del inciso a), para determinar el área del triángulo con vkrtices ( 3 , 31, (4, O), ("2, - 1).

Page 144: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Ejercicios complementarios / 147

Figura 2 D E F

11. Demostrar: Si la suma de los elementos en cada renglón de una matriz A n X n es cero, entonces el determinante de A es cero. [Sugerencia Considerar el producto M, donde X es la matriz n X 1 cuyos elementos son iguales a 1 .]

12. Sean A una matriz n x n y B la matriz que se obtiene cuando los renglones de A se escriben en orden invertido. ¿Cómo están relacionados det(A) y det(B)?

13. ¿Cómo se afecta A ” si a) se intercambian los renglones i-ésimo yj-ésimo de A? b) el i-ésimo renglón de A se multiplica por un escalar c diferente de cero?; c) el i-ésimo renglón de A se suma c veces alfésimo renglón?

14. Sea A una matriz de n X n . Suponer que B , se obtiene al sumar el mismo número t a cada elemento en el z-ésimo renglón de A , y que B, se obtiene al restar t de cada elemento en el z-ésimo renglón de A . Demostrar que det(A) = 112 [det(B,) + det(BJ1.

15. Sea .=[a, u12 ;;j u13

a) Expresar det(1Z - A ) como un polinomiop(A) = ,I3 + bL2 + d + d. b) Expresar los coeficientes b y d en términos de determinantes y trazas

16. Sin evaluar directamente el detexminante, demostrar que

sen ct cos a sen (a + 6) senp cos sen ( p + S) seny cos y sen(?+ 6)

= 0

17. Usar el hecho de que 21 375, 38 798, 34 162, 40 223 y 79 154 son, todos, divisibles entre 19 para demostrar que

2 1 3 7 5 3 8 7 9 8 3 4 1 6 2 4 0 2 2 3 7 9 1 5 4

Page 145: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

I48 Determinantes

cs divisiblc entre 19 sin evaluar directamente el determinante

Page 146: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

CAPhULO 3

VECTORES EN LOS ESPACIOS BIDIMENSIONAL Y TRIIDIMENSIONAL

Los lectores familiarizados con el contenido de este capítulo pueden omitirlo y pasar al capítulo 4 sin pérdida de continuidad.

3.1 INTRODUCCI~N A LOS VECTORES (GEOMÉTRICA) ~~~~~~~ ~~~~~ ~ ~

Muchas cantidades fisicas, como área, longitud, masa y temperatura quedan descritas una vez que se conoce la magnitud de la cantidad. Esas cantidades se denominan escalares. Otras CantidudesJsicus, denominadas vectores, no quedan determinadas sino hasta que se especijkan una magnitud y una dirección. Un caso sería la descripción del movimiento del viento que suele hacerse dando su rapidez y dirección, por ejemplo 20 kph noreste. La rapidez y la dirección del viento constituyen una cantidad vectorial denominada velocidad del viento. Otros ejemplos de vectores son la fuerza y el desplazamiento. En esta sección se hará una presentación geométrica de los vectores en los espacios bidimensional y tridimensional, se definirán las operaciones aritméticas con vectores y se esta- blecerán algunas propiedades básicas de estas operaciones.

~~~~~~ ~~ ~ ~

VECTORES Los vectores se pueden representar geométricamente como segmentos de recta GEOMÉTRICOS dirigidos o flechas en el espacio bidimensional o en el espacio tridimensional;

la dirección y la longitud de la flecha especifican, respectivamente, la direc- ción y la magnitud del vector. La cola de la flecha se denomina punto inicial del vector y la punta, punto terminal. Los vectores se denotarán con mi- núsculas negritas (por ejemplo, a, k, v. w y x). Cuando se analizan vectores, los números se denominan escalares. Todos los escalares serán números rea- les y se denotarán por minúsculas cursivas (por ejemplo,, a, k, v, w y x),

149

Page 147: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

150 / Vectores en los espacios bidilnensional y tridimensional

Si, como en la figura l a , el punto inicial de un vector v es A y el punto terminal es B. se escribe

v = A B -4

a) b)

Figura 1 E l Vectores equivalentes

Los vectores con la misma longitud y dirección, como los de la figura l b , se denominan equivalentes. Como se quiere que un vector quede determinado solamente por su longitud y su dirección, los vectores equivalentes se consideran como iguales aun cuando puedan estar ubicados en posiciones diferentes. Si v y w son equivalentes, se escribe

v = w

Definición. Si v y w son dos vectores cualesquiera, entonces la suma v + w es el vector determinado como sigue: El vector w se coloca de modo que su punto inicial coincida con el punto terminal de v. El vector v + w se representa por la flecha que va del punto inicial de v al punto terminal de w (figura 2a).

En la figura 26 se han construido dos sumas, v + w (flecha blanca) y w + v (flecha negra). Resulta evidente que

v + w = w + v

y que la suma coincide con la diagonal del paraleiogramo determinado por v y w cuando estos vectores se colocan de modo que tienen el mismo punto inicial.

El vector de longitud cero se denomina vector cero y se denota por O. Se define

O + v = v + O = v

para todo vector v. Como para el vector cero no existe ninguna dirección natural, se acuerda que es posible asignarle cualquier dirección conveniente para el problema en cuestión.

Page 148: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Si v es cualquier vector diferente de cero, entonces "v, el negutivo de v, sc define como el vector que tiene la misma magnitud que v, pero dirección opuesta (Figura 3).

Figura 3 I El negativo de v tiene la m i s m a longitud que v, pero su dirección es opuesta. I Este vector tiene la propiedad

v + ( - v ) = O

(¿Por qué?) Además, se define -O = O. La sustracción de vectores se define como sigue.

Definición. Si v y w son dos vectores cualesquiera, entonces la dijierenciu de w con respecto a v se define como

v - w = v + ( - w )

Para obtener la diferencia v - w sin construir "w, v y w se colocan de modo que coincidan sus puntos iniciales; entonces, el vector del punto terminal de w al punto terminal de v es el vector v - w (figura 46).

Definición. Si v es un vector diferente de cero y k es un número real (escalar) diferente de cero, entonces el producto kv se define como el vector cuya longitud es I k [ veces la longitud de v y cuya dirección es la misma que la de v si k > O y es opuesta a la de v si k O. Si k = O o v = O, se define kv = O.

En la figura 5 se ilustra la relación entre un vector v y los vectores T V , 1

(- l)v, 2v y (-3)v. Observar que el vector (- I)v tiene la misma longitud que v, pero dirección opuesta. Así, (- l)v es simplemente el negativo de v; es decir,

(- l)v = -v.

Page 149: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

/'

Un vector de la forma kv se denomina multiplo escalar de v. En la figura 5 se observa que los vectores que son múltiplos escalares entre sí son paralelos. Rccíprocamentc. se puede demostrar que los vectores paralelos diferentes de cero son múltiplos escalares entre sí. Se omite la demostración.

VECTORES EN Los problemas con vectores a menudo se pueden simplificar introduciendo un SISTEMAS DE sistema de coordenadas rectangulares. Por ahora, el análisis se limitará a vectores COORDENADAS en el espacio bidimensional (el plano). Sea v cualquier vector en el plano y suponer.

como se muestra en la figura 6, que v se ha colocado de modo que su punto inicial está en el origen de un sistema de coordenadas rectangulares. Las coordenadas (vl. v2) del punto terminal de v se denominan componentes de v , y se escribe

Si vectores equivalentes v y w se colocan de modo que sus puntos iniciales estén en el origen, entonces resulta evidente que sus puntos terminales deben coin- cidir (ya que los vectores tienen la misma longitud y la misma dirección); así. los vectores tienen las mismas componentes. Recíprocamente, los vectores con las mismas componentes son equivalentes, ya que tienen las misma longitud y la misma dirección. En resumen. dos vectores

v = (VI . v2) y w = (MIl . w2)

son equivalentes si y sólo si

Ill - w 1 y v 2 - w2 - -

ty

~i~~~~ 6 vl y v 2 son las componentes de v.

Las operaciones de suma vectorial y multiplicación por escalares son fáciles de efectuar en términos de componentes. Como se ilustra en la figura 7, si

v = ( V I ' \ I 2 ) y w = (wl. w2)

Page 150: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3.1 Introducridn u los vectores (geométricu) / 153

entonces

r v + w = (Ui + w,, u, + w2)

Figura 7 L - 1 - i - U J - r

Si v = (vl , v2) y k es cualquier escalar, entonces mediante un razonamiento geométrico con triángulos semejantes se puede demostrar (ejercicio 15) que

(Figura 8). Así, por ejemplo, si v = (1, -2) y w = (7, 6), entonces

~ + ~ = ( 1 , - 2 ) + ( 7 , 6 ) = ( 1 + 7 , - 2 + 6 ) = ( 8 , 4 ) Y

4 ~ = 4 ( 1 , -2)=(4(1),4(-2))=(4, -8)

Como v - w = v + (- I)w, por las fórmulas (1) y (2) se concluye que

I v - w = (u1 - w1, u, - w,) I (Comprobarlo.)

tY

Page 151: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

154 / Vectores en los espacios bidimensional y tridimensional

VECTORES EN Así como los vectores en el plano se pueden describir por parejas de números EL ESPACIO reales, los vectores en el espacio tridimensional se pueden describir por ternas de TRIDIRIENSIO- números reales introduciendo un sistema de coordenadas rectangulares. Para

y se eligen tres rectas perpendiculares entre si, denominadas ejes de coordenadas, que pasan por el origen. Los ejes se identifican con x, y y z y se elige una dirección positiva para cada eje de coordenadas, así como una unidad de longitud para medir distancias (figura 9a). Cada par de ejes de coordenadas determina un plano denominado plano de coordenadas. Estos planos se denominan plano x y , plano xz y plano yz. A cada punto P en el espacio tridimensional corresponde una terna de números (x, y, z ) denominados coordenadas de P, como sigue: Por P se hacen pasar tres planos paralelos a los planos de coordenadas, y los puntos de inter- sección de estos planos con los tres ejes de coordenadas se denotan por X. Y y Z (figura 9h).

N A L construir ese sistema de coordenadas, se elige un punto O, denominado el origen,

f '

Figura 9 b

Las coordenadas de P se definen como las longitudes con signo

x = o x , y = o Y , z = o z

En la figura 10 se muestra la grX1ca de los puntos cuyas coordenadas son (4, 5, 6) y (-3, 2, -4).

Figura 10 I

Page 152: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3.1 Introducción a los vectores (qeornétrica) 1 155

Los sistemas de coordenadas rectangulares en el espacio tridimensional se clas~lcan en dos categorías: izquierdos y derechos. Un sistema derecho tiene la propiedad de que un tornillo normal que apunta en la dirección positiva del eje z debe avanzar si el eje x positivo se hace girar 90° hacia el eje y positivo (figura I la); el sistema es izquierdo si el tornillo retrocede (figura 1 lb ) .

OBSERVACI~N. En este libro sólo se usarán sistemas de coordenadas derechos.

t“ t‘

Figura 11 I Derecho I I Izquierdo I Si, como se observa en la figura 12, un vector v en el espacio tridimensional

se coloca de modo que su punto inicial esté en el origen de un sistema de coordenadas rectangulares, entonces las coordenadas del punto terminal se denominan componentes de v y se escribe

v = (VI, v2, v3)

Si v = (vl, v2, v3) y w = (wl, w2, w3) son dos vectores en el espacio tridimensional, entonces se pueden usar razonamientos semejantes a los que se siguieron para vectores en el plano a fin de establecer los siguientes resultados

v y w son equivalentes si y sólo si v1 = wl, v2 = w2, v3 = w3.

kv = ( k v , , kv,, kv,), donde k es cualquier escalar. v + w = (vl + wl , vz + w2, v3 + w3).

Ejemplo 1 Si v = (1, -3,2) y w = (4, 2, l), entonces

V + W = ( S , -1,3), 2 ~ = ( 2 , - 6 , 4 ) , - ~ = ( - 4 , -2, - 1 ) v - w = v + ( - w ) = ( - ~ , - 5 , l ) A

... . . .

Page 153: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

156 / Vectoves en los espacios bidimensional y tridimensional

Algunas veces un vector se coloca de modo que su punto inicial no esté en el origen. Si el vector P,P2 tiene como punto inicial a Pl(x, , Y , , 2 , ) y como punto terminal P2(x2, yz, z,), entonces

A

I I p,p; = (x2 - XI, Y2 - Y , , 22 -

Es decir, las componentes de P I P , se obtienen al restar las coordenadas del punto inicial de las coordenadas del punto terminal. Esto se puede ver usando la figura 1; el vector P I P, es la diferencia de los vectores OP, y OP, , de modo que

+ "--)

Figura 13 d!

Ejemplo 2 Las componentes del vector v = P,P, con punto inicial P,(2, - 1, 4) y punto terminal P,(7, 5, -8) son

En el espacio bidimensional, el vector con punto inicial P,(xl , yl) y punto terminal P2(x2, y,) es

TRASLACI~N Las soluciones de muchos problemas se pueden simplificar trasladando los ejes de DE EJES coordenadas para obtener nuevos ejes paralelos a los originales.

En la figura 14a, los ejes de un sistema de coordenadas xy se han trasladado para obtener un sistema x'y' cuyo origen O' está en el punto (x, y ) = ( k , 4. Un punto P en el espacio bidimensional ahora tiene las dos coordenadas (x, y ) y ( 2 , y'). Para ver cómo se relacionan las coordenadas, considerar el vector G'? (figura 14b). En el sistema x y , su punto inicial está en (k, l) y su punto terminal

Page 154: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3.1 Introducción a los vectores (geométrica) / 157

t'

Figura 14 4 6)

"----*

está en (x, y), de modo que O'P = (x - k, y - 0. En el sistema x", su punto inicial está en (O, O) y su punto terminal esti en (Y, y'), de modo que O'P = (x', y'). Por consiguiente,

Ejemplo 3 Suponer que un sistema de coordenadas xy se traslada para obtener un sistema de coordenadas x? cuyo origen tiene las coordenadas (k, I> = (4, 1).

a) Encontrar las coordenadas .xp' del punto cuyas coordenadas xy son P(2, O). b) Encontrar las coordenadas xy del punto cuyas coordenadas x y son Q( - I , 5).

Solución de a). Las ecuaciones de traslación son

x ' = x - 4 y'=y - 1

de modo que las coordenadas x'y' de P(2, O) son x' = 2 - 4 = -2 y y' = O - 1 = - l .

Solución de b) . Las ecuaciones de traslación en a) se pueden volver a escribir como

x = x ' + 4 y=y'+ 1

de modo que las coordenadas xy de Q son x = - 1 + 4 = 3 y y = 5 + 1 = 6 . A

En el espacio tridimensional, las ecuaciones de traslación son

x ' = x - ~ y ' = y - / z ' = z - ~

donde (k, I, m) son las coordenadas xyz del origen x y z '

EJERCICIOS DE LA SECCIÓN 3.1

l . Trazar un sistema de coordenadas derecho y localizar los puntos cuyas coordenadas son

Page 155: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

S. linconlrar un vector 11 diferente de cero cuyo punto terminal es Q(3, O, -5) tal que a) II tiene la mismn dlrecclón que v = (4, -2, - 1 ). b', II tiene direccibn opuesta a l a de v = (4, -2. - I ) .

6. S C ~ I ~ U = (-3, I , 21, v = (4- O, -8) > w = (6 , - 1, -4). Encontrar las componentes de

a) v "w b) 6 u + 2 v c ) - v + u d) 5 t v - 4 ~ ) e) -3(v-Xw) f) ( 2 ~ - 7 w ) - ( 8 v + U)

7. Sean u, v y w los vcctores del ejercicio 6 . Encontrar las componentes del vector x que satist'acc ¿I 2u - v + x = 7n +- \v.

8. Sean u. v y w los vectores del ejercicio 6. lhcontrar los escalares e l , c2 y c3 tales que

9. Ikmostrar que no existen los cscalares c l . c2 y c3 tales que

C , ( - 2 . 9 , 6 ) - ~ i . L ( - 3 , 2 , 1 ) + C j ( l , 7 , 5 ) = ( 0 , s r 4 )

11. sean t' el punto (2, 3, -2) 1 Q el punto (7, -4, 1). a) Encontrar el punto medio del segmento de recta que une a P y Q. b) Encontrar el punto sobre el segmento de recta que une a P y Q y está a $ de la

dlstancla de P il 0.

12. Suponer que la traslación da u11 sistema de coordenadas se hace para obtener un sistema de coordenadas x!v' cuyo origen O' tiene las coordenadas (2, -3). a) Encontrar las coordenadas x'v' del punto P cuyas coordenadas xy son (7, 5). b) Encontrar las coordenadas x?/ del punto 0 cuyas coordenadas xIv'son ( -3 , 6) c) Trrvar los ejes de coordenadas q~ y ,Y?'? localizar los puntos P 4 Q.

Page 156: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3.2 Norma de un vector: aritmética vectorial / 159

13. Suponer que un sistema de coordenadas xyz se traslada para obtener un sistema de coordenadas x’y’z’. Sea v un vector cuyas componentes son v = (vl , v2, v3) en el sistema xyz. Demostrar que v tiene las mismas componentes en el sistema x‘y‘z‘.

14. Encontrar las componentes de u, Y, u + v y u - v de los vectores que se muestran en la figura 15.

t’

Figura 15

15. Demostrar geométricamente que si v = (vl , K~), entonces kv = ( k v , , kv ) (Limitar la demostración al caso k > O que se ilustra en la figura 8. La demostraclon completa requiere de varios casos que dependen del signo de k y del cuadrante en que se en- cuentra el vector.)

2 :,

3.2 NORMA DE UN VECTOR: ARITMÉTICA VECTORIAL

En esta sección se establecerán las reglas básicas de la aritmética vectorial.

PROPIEDADES En el siguiente teorema se enumeran las propiedades más importantes de los DE LAS vectores en los espacios bidimensional y tridimensional. OPERACIONES VECTORIALES

Teorema 3.2.1. Si u, v y w son vectores en el espacio bidimensional o en el espacio tridimensional y k y I son escalares, entonces se cumplen las siguientes relaciones.

a ) u + v = v + u c) u + o = o + u = u e ) k(lu) = (k1)u g ) ( k + 1)u = ku + Zu

b) ( u + v ) + w = u + ( v + w ) d ) u + ( - u ) = O f ) k<u + v) = ku + kv h) l u = u

I I

Antes de explicar la demostración, se observa que se han desarrollado dos métodos para el estudio de los vectores: el geométrico, en el que los vectores se representan por flechas o segmentos de rectas dirigidos, y el analítico, donde los vectores se

Page 157: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

I60 / Vectores en los espacios bidinlensional y tridimensional

representan por parejas o ternas de números denominados componentes. Como consecuencia, las ecuaciones del teorema 3.2.1 se pueden demostrar geométrica o analíticamente. Para ilustrar este hecho, el inciso 6) se demostrará de ambas formas. Las demás demostraciones se dejan como ejercicio.

Ilemosiración del i txiso a) (analítica). La demostración se hará para vectores en el espacio tridimensional; la demostración para el espacio bidimenslonal es se- mejante. Si u = (u,. u2, u3), v = (vl, v2, v3) y w = (wl, w2, w3), entonces

Denlostrac,,n del itlciso 6) (geométrica). Sean u. v y w cuyas representaciones PQ. QR y RS se muestran en la figura 1 . Entonces "

v + w = Q S - -

y u + ( v + w ) = P S

También.

u + v = P R +

4' ( u + v ) + w = P S -

Por consiguiente.

u + ( v + w ) = ( u + v ) + w

OBSERVACI~N. En vista del inciso b) de este teorema, el símbolo u + v + w está bien definido, ya que la misma suma se obtiene sin importar dónde se escriban paréntesis. Además, si los vectores u, v y w se colocan "punta con cola", entonces la suma u + v + w es el vector que va del punto inicial de u al punto final de w (figura 1).

Figura 1 Los vectores u + (v + w) y (u + v) + w son iguales.

Page 158: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3.2 Norma de un vector: aritmética vectorial / 161

NORMA DE UN La longitud de un vector u a menudo se denomina norma de u y se denota por VECTOR 11u((. De acuerdo con el teorema de Pitágoras se concluye que la norma de un

vector u = (u1, u2) en el espacio bidimensional es

(1)

(Figura 2 4 . Sea u = (ul, u2, u3) un vector en el espacio tridimensional. Usando la figura 2b y dos aplicaciones del teorema de Pitágoras se obtiene

Asi,

Figura 2

f I ’ I

t*

Un vector de norma 1 se denomina vector unitario. Si Pl(xl, y,, zl) y P2(x2, y2 , z2) son dos puntos en el espacio tridimen-

sional, entonces la distancia d entre los puntos es la norma del vector PIP2 (figura 3). Ya que

-

por (2 ) se concluye que

Page 159: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

162 1 Vrctorrs en los rsyacios bidimensional y tridinwnsional

Figura 3 La distancia entre PI y P2 es la norma del vector PIP2 . &

De manera semejante, si P l ( x l , yl) y P,(x,, -y2) son dos puntos en el espacio bidimensional, entonces la distancia entre ellos esta dada por

Ejemplo 1 La norma del vector u = (-3, 2, 1) es

/1ul/ = V( - 3)* + (2)2 + (1 )2 = dii

La distancia d entre los puntos Pl (2 , - 1. -5) y P,(4, - 3 , I ) es

d = V ( 4 - 2 ) 2 + ( - 3 + 1 ) 2 + ( 1 + 5 ) * = m = 2 f l A

Por la definición del producto k u , la longitud del vector ku es k veces la longitud de u. Expresada como ecuación. esta proposición establece que

Esta útil fórmula se aplica tanto en el espacio tridimensional como en el bidimen- sional.

EJERCICIOS DE LA SECCIÓN 3.2

Page 160: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3.2 Norma de un vector: aritmética vectorial / I63

3. Sean u = (2, -2, 3), v = (1, -3 ,4) , w = (3 ,6, -4). En cada inciso evaluar la expresión d a d a .

a) l b + VI1 b) IIUII + IIVII c) I I - 4 1 + 2llull

d) Il3u - 5v + wl\ e) "w 1

llwll

4. Sea v = (- 1,2, 5). Encontrar todos los escalares k tales que 1 1 k v 1 1 = 4

5. Sean u = (7, -3 , l ) , v = (9, 6,6) , w = (2, 1, -S), k = -2 y I = 5. Comprobar que estos vectores y escalares satisfacen las igualdades expresadas en el teorema 3.2. l . a) inciso b). b) inciso e) . c) incison. d) inciso g).

6. a) Demostrar que si v es cualquier vector diferente de cero, entonces

1 "v llvll

es un vector unitario. b) Usar el resultado del inciso a) para encontrar un vector unitario que tenga la misma

c) Usar el resultado del inciso a) para encontrar un vector unitario cuya dirección sea dirección que el vector v = (3,4).

opuesta a la del vector v = (-2, 3 , -6).

7. a) Demostrar que las componentes del vector v = (vl , vz) en la figura 4 son v1 = llvll

b) Scan u y v los vectores de la figura 5. Usar el resultado del inciso a) para encontrar cos 8 y v2 = llvll sen B .

las componentes de 4u - 5v.

AY

,"". , \

Figura 4 Figura 5

x, y , 2). Describir el conjunto de todos los puntos (x, y, z)

9. Demostrar geométricamente que si u y v son vectores en el espacio bidimensional o en el espacio tndimensional, entonces Ilu + vll I llull+ Ilvll.

10. Demostrar analíticamente los incisos a), c ) y e ) del teorema 3.2.1.

Page 161: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

I64 i Vectores en los espacios bidimensional y tridimensional

11. Demostrar analíticamente los incisos d). g ) y h ) del teorema 3.2.1.

12. Demostrar geométricamente el incison del teorema 3.2.1.

3.3 PRODUCTO PUNTO: PROYECCIONES

En esta sección se analizará un método para multiplicar vectores en los espacios bidimensional o tridimensional y se proporcionarán algunas aplicaciones de esta multiplicación a la geometría.

PRODUCTO PUNTO DE VECTORES

Figura P

Sean u y v dos vectores diferentes de cero en el espacio bidimensional o en el espacio trilmensional, y suponer que estos vectores se colocan de modo que sus puntos iniciales coinciden. Por ángulo entre u y v se entiende el ángulo 6 deter- minado por u y v que satisface O I 6 I TC (figura 1).

I EI ángulo O entre u y v satisface a O' S O S n. 1

~

Definición. Si u y v son vectores en el espacio bidimensional o el espacio tridimensional y 8 es el ángulo entre u y v, entonces el producto punto o producto interior euclidiano u . Y se define como

JJull JJvJj cos 6 si u f O y v # O u . v =

s i u = O o v = O

Ejemplo 1 Como se muestra en la figura 2, el ángulo entre los vectores u = (O, O, 1) y v = (O, 2, 2) es 45O. Así,

Page 162: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3.3 Producto punto: proyecciones / 165

Figura 2 Y

FORMULA DE Para efectos de cálculo es deseable contar con una fórmula que exprese el producto LAS punto de dos vectores en términos de las componentes de los vectores. La fórmula COMPONENTES se obtendrá para vectores en el espacio tridimensional; la obtención para vectores PARA EL en el espacio bidimensional es semejante. PRODUCTO Sean u = (ul , u2, u3) y v = (vl, v2, v3) dos vectores diferentes de cero. Si, PUNTQ como se muestra en la figura 3, 8 es el ángulo entre u y v, entonces la ley de los

cosenos da

Figura 3 x/

Como PQ = v - u, (2) se puede volver a escribir como "*

" . .,,". _.

Page 163: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

166 / Vectores en los espacios bidimensional y tridimensional

CÁLCULO DEL

VECTORES ÁNGULO ENTRE

Y

IIV -u112 = (VI -u# + (v2 -u2)2 + (v3 -u3)2

después de simplificar se obtiene

L u v = U I V l + u2v2 + u3v3

Si u = (ul, uz) y v = (vl, v2) son dos vectores en el espacio bidimensional, entonces la fórmula correspondiente es

Si u y v son vectores diferentes de cero, entonces la fórmula (1) se puede escribir como

Ejemplo 2 Considerar los vectores

u = (2, -1, 1) y v = (1, 1, 2)

Encontrar u . v y determinar el ángulo 8 entre u y v.

Solución.

u . v = U I V l + u2v2 + u3v3 = (2)(1) + (1)(2) = 3

Para los vectores dados se tiene IIuII= llvll= & , de modo que por (5)

Así, 8 = 60°. A

Ejemplo 3 Encontrar el ángulo entre una diagonal de un cubo y una de sus aristas.

Solución. Sea k la longtud de UM arista, y se introduce un sistema de coor- denadas como se muestra en la figura 4.

Page 164: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3.3 Producto punto: proyecciones / I67

Si se hace que u1 = (k, O, O), u2 = (O, k, O) y uj = (O, O, k) , entonces el vector

d = (k , k, k ) = u1 + u2 + uj

es una diagonal del cubo. El ángulo 0 entre d y la arista u1 satisface

Así,

El siguiente teorema muestra cómo se puede usar el producto punto para obtener información sobre el ángulo entre dos vectores; también establece una importante relación entre la norma y el producto punto

Teorema 3.3.1. Sean u y v vectores en el espacio bidimensional o el espacio tridimensional. a ) v . v = llv11*; es decir, ( (v(J= (v . v) ' '~ . b ) Si los vectores u y v son diferentes de cero y 0 es el angulo entre ellos, entonces

0 es agudo si y sólo si U ' V > O . 0 es obtuso si y sólo s1 u . v < O . 0 = nf2 si y sólo si u . v = O .

Demostración de a). Como el á n a o 0 entre v y v es O, se tiene

v * v = llvll llvll COS 6 = / / V I / ' COS O = llvlI2

Demostración de b) . Como 8 satisface, 0 1 O 1 n, se concluye que: 0 es agudo si y sólo si cos 0 > O; 0 es obtuso si y sólo si cos < O; y 0 = n l2 si y sólo si cos O = O. Pero cos 0 tiene el mismo signo que u . v ya que u . Y = I(u(( llvll cos O, llull > O y Ilvll> O. Así, se concluye el resultado. @

Page 165: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

I68 / Vectores en los espacios bidimensional y tn'dimensional

VECTORES ORTOGONALES

Ejemplo 4 Si u = (1, -2, 3), v = (-3,4, 2) y w = (3,6, 3), entonces

~ - ~ = ( 1 ) ( - 3 ) + ( - 2 ) ( 4 ) + ( 3 ) ( 2 ) = - 5

v w = ( - 3)(3) + (4)(6) + (2)(3) = 2 1 U w = (1)(3) + ( - 2)(6) + (3)(3) = O

Por consiguiente, u y v forman un ángulo obtuso, v.y w forman un ángulo agudo y u y w son perpendiculares. A

Los vectores perpendiculares también se denominan vectores ortogonales. A la luz del teorema 1.3. lb, dos vectores dqerentes de cero son ortogonales si y sólo si su producto punto es cero. Si se acuerda en considerar a u y v como perpendicu- lares cuando alguno o los dos son cero, entonces se puede afirmar sin excepción que dos vectores u y v son ortogonales (uerpendiculares) si y sólo si u v = O. Para indicar que u y v son vectores ortogonales, se escribe u I v.

Ejemplo 5 Demostrar que en el espacio bidimensional, el vector n = (a, b ) Merente de cero es perpendicular a la recta M: + by + c = O .

Solución. Sean P , ( x l , yl) y P2(x2, yz) dos puntos dferentes que pertenecen a la recta dada, de modo que

ax, + byl + c = O ax2 + by2 + c = o

Como el vector PIP2 = (xz - x,, y2 - y l ) está a lo largo de la recta' (figura 5), basta demostrar que n y q2 son perpendiculares. Pero al restar las ecuaciones en (6) se obtiene

A

que puede representarse en la forma

(a ,b) . (x , -x , , y , -y , )=O o n . P , P 2 = 0 A

Así, n y PIP, son perpendiculares. A -

a x + b y + c = O JY Figura 5

Page 166: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3.3 Producto punto: proyecciones / I69

En el siguiente teorema se enumeran las propiedades más importantes del producto punto. Estas propiedades son de utilidad en los cálculos donde in- tervienen vectores.

Teorema 3.3.2. Si u, Y y w son vectores en el espacio bidimensional o en el espacio tridimensional y k es cualquier escalar, entonces:

a) u . v = v . u b) u . ( v + w ) = u - v + u * w c ) k (u . v ) = ( k u ) . v = u . ( k v ) d ) v . v > O s i v # O , y v . v = O s i v = O

Demostración. Se demostrará c ) para vectores en el espacio tridimensional, y las demás demostraciones se dejan como ejercicio. Sean u = (u1, u2, u3) y v = (vl , v2, v3); entonces

k(u .v) = k(ulvI + U ~ U Z + ~ 3 ~ 3 )

= ( b ) v , + (ku,)v, + (ku3)7J3 = (ku) . v

De manera semejante,

PROYECCIONES En muchas aplicaciones se desea "descomponer" un vector u en una adición de ORTOGONALES dos sumandos, uno paralelo a un vector específico diferente de cero a y el otro

perpendicular a a. Si u y a se colocan de modo que sus puntos iniciales coincidan en un punto (2, entonces es posible descomponer el vector u como sigue (figura 6): Trazar una perpenhcular desde la punta de u hasta la recta que pasa por a, y obtener el vector w 1 que va de Q al pie de esta perpendicular. Luego, formar la diferencia

w2 = u - w1

Figura 6 El vector u es la suma de w, y w2, donde w, es paralelo a a y w2 es perpendicular a a.

Como se indica en la figura 6, el vector w1 es paralelo a a, el vector w2 es per- pendicular a a, y

Page 167: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

I 7 0 / Vectores en los espacios bidimensional y tridimensional

w , + w , = w , + ( u - w w , ) = u

El vector w1 se denomina proyección ortogonal de u sobre a, o algunas veces. componente vectorial de u a lo Largo de a. Se denota por

P'OY, u (7)

El vector w2 se denomina componente vectorial de u ortogonal a a. Como se tiene que w2 = u - w l , este vector se puede escribir en notación (7) como

w2 = u - proy, u

En el siguiente teorema se proporcionan fórmulas para calcular los vectores proy, u y u - proy, u.

Teorema 3.3.3. Si u y a son vectores en el espacio bidimensional o en el espacio tridimensional y si a f O, entonces

(componente vectorial de u a lo largo de a)

u -proya u = u -?a u . a

Itall (componente vectorial de u ortogonal a a)

Demostración. Sean w1 = proy, u y w2 = u - proy, u. Como w1 es paralelo a a, debe ser un múltiplo escalar de a, de modo que se puede escribir en la forma w 1 =

ka. Así,

u = w , + w , = k a + w , (8)

Tomando el producto punto en ambos miembros de (8) con a y aplicando los teoremas 3.3.1 a y 3.3.2 se obtiene

u - a = (ka + w2) a = klJa112 + w2. a (9)

Pero w2 a = O, ya que w2 es perpendicular a a; de modo que (9) produce

u s a k = - lla1I2

Como proya u = w1 = ka, se obtiene

Page 168: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3.3 Producto punto: proyecciones / 171

Ejemplo 6 Sean u = (2, - 1, 3) y v = (4, - 1, 2). Encontrar la componente vectorial de u a lo largo de a y la componente vectorial de u ortogonal a a.

Solución.

u - a = (2)(4) + (- 1)( - 1) + (3)(2) = 15

lla1I2 = 42 + (- 112 + 22 = 21

Así, la componente vectorial de u a lo largo de a es

proya u = y a = g(4, - 1,2) = (y, u - a

llall - 4 'o)

7 3 7

y la componente vectorial de u ortogonal a a es

Como verificación, el lector puede comprobar que los vectores u - proya u y a son perpendiculares si demuestra que su producto punto es cero. A

Una fórmula para calcular la longitud de la componente vectorial de u a lo largo de a se puede obtener escribiendo

con lo que se obtiene

I

Si 8 es el á n a o entre u y a, entonces u . a = 1 1 ~ 1 1 llall cos 8, de modo que (IO) también puede escribirse como

(Comprobar.) UM interpretación geométrica de este resultado se proporciona en la figura 7.

Page 169: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

I72 / Vectores en los espacios bidimensional y tridimensional

Figura 7 7T O S O < - 2

--< e s 7r

2

Como ejemplo, se usarán métodos vectoriales en la obtención de una fórmula para calcular la distancia de un punto en el plano a una recta.

Ejemplo 7 Encontrar una fórmula para calcular la dstancia D entre el punto Po(xo, y,, 2,) y la recta ax + by + c = O.

Solución. Sea Q(x,, y l ) cualquier punto en la recta, y el vector

n = (u, h )

se coloca de modo que su punto inicial esté en Q. Por el ejemplo 5, el vector n es perpendicular a la recta (figura S). Como se

indica en la figura. la distancia D es igual a la longitud de la proyección ortogonal de QPo sobre n; así, por (lo), se tiene que +

Pero

1 ‘ y + b y + c = O ?

Figura 8

de modo que

Page 170: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3.3 Producto punto: proyecciones / I 73

Dado que el punto (I(.,, yl) está sobre la recta, sus coordenadas satisfacen la ecuación de ésta, de modo que

aX1+by1+c=O o bien,

c = -ax1 - by,

Al sustituir esta expresión en (12) se obtiene la fórmula

Ejemplo 8 Por la fórmula (15) se concluye que la distancia D del punto (1, -2) a la recta 3x + 4y - 6 = O es

1(3)(1)+4(-2)-6\ 1-111 11 D = -

d m a 5 A

EJERCICIOS DE LA SECCIÓN 3.3

1. Encontrar u . v.

a) u = (2, 3), v = (5, -7) b) U = ( - 6, - 2), v = (4, O) C) ~ = ( l , - 5 , 4 ) , ~ = ( 3 , 3 , 3 ) d ) ~ = ( - 2 , 2 , 3 ) , ~ = ( 1 , 7 , -4)

2. En cada inciso del ejercicio 1, encontrar el coseno del ángulo entre u y Y

3. Determinar si u y v forman un ángulo agudo, un ángulo obtuso o son ortogonales.

a> u=(6 ,1 ,4) , v=(2 ,0 , -3) b )u=(O,O, - I ) , v = ( l , 1, 1) c>u=(-6 ,0 ,4) , ~ = ( 3 , 1 , 6 ) d ) ~ = ( 2 , 4 , -8), ~ = ( 5 , 3 , 7 )

4. Encontrar la proyección ortogonal de u sobre a. a) u = (6, 2), a = (3, -9) b ) u = ( - 1 , -2), a = ( - 2 , 3 ) c) u = ( 3 , 1 , -7), a = ( l , 0 , 5 ) d)u=(l,O,O), a = ( 4 , 3 , 8 )

5. En cada inciso del ejercicio 4, encontrar la componente vectorial de u ortogonal a a

6. En cada inciso, encontrar Ilproy, u 11. a) u = ( l , -2), a = ( - 4 , - 3 ) b) u = (5, 6), a = (2, - 1) C) u = (3, O, 4), a = (2, 3, 3) d) u = ( 3 , -2, 6), a = ( l , 2, -7)

Page 171: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

I74 / Vectores en los espacios bidimensional y tridimensional

7. Sean u = (5, -2, l), v = (1, 6, 3) y k = -4. Comprobar el teorema 3.3.2 para estas cantidades.

8. a) Demostrar que v = (a, b ) y w = ( 4 , a) son vectores ortogonales. b) Usar el resultado del inciso a) para encontrar dos vectores que sean ortogonales a

c) Encontrar dos vectores unitarios que sean ortogonales a (- 3,4). v = (2, - 3 ) .

9. Sean u = (3,4), v = (5, - 1) y w = (7, 1). Evaluar las expresiones a) - (7v + w) b) Il(u v)wll c) I lUlKV . w > d) (Ilullv)-w

10. Explicar por qué cada una de las siguientes expresiones carece de sentido. a) u (v w) b) (u v) + w c) Ilu - v I I d) k (u + v)

11. Usar vectores para hallar los cosenos de 10s ángulos internos del triángulo cuyos vér- tices son (O, - l ) , (1, -2) y (4, 1).

12. Demostrar que 4 3 , O, 2), B(4, 3, O) y C(8, 1, -1) son los vértices de un triángulo rectángulo. ¿En qué vértice está el ángulo recto?

13. Suponer que a b = a c y a # O. ,$e concluye que b = c? Explicar la respuesta

14. Sean p = (2, k ) y q = (3, 5). Encontrar k ta l que a) p y q sean paralelos. b) p y q sean ortogonales. c) el ángulo entre p y q sea d 3 . d) el ángulo entre p y q sea n/4.

15. Usar la fórmula (1 3) para calcular la distancia entre el punto y la recta. a) 4x+3y+4=0;(-3, 1)

c) 3x+y=5;(1,8) b) y = - 4 ~ + 2; (2, -5)

16. Establecer la identidad Ilu + vJ12 + IIu - v1I2 = 2 llu112 + 2 )l~11~.

17. Establecer la identidad u * v = f 11u + v)12 - f 1111 - ~ 1 1 ~ .

18. Encontrim el ángulo entre una diagonal de un cubo y una de sus caras.

19. Sean i, j y k vectores unitarios a lo largo de los ejes positivos x, y y z de un sistema de coordenadas rectangulares en el espacio tridimensional. Si v = (a, b, c ) es un vector diferente de cero, entonces los ángulos a, f i , y y entre v y los vectores i , j y k, res- pectivamente, se denominan cfngulos directores de v (figura 9), y los números cos a, cos y cos y se denominan cosenos directores de v a) Demostrar que cos a = a/ IIvII. b) Encontrar cos fi y cos y. c) Demostrar que v/llvll= (cos a, cosa , cos y). d) Demostrar que cos2 a + cos2 /3 + cos2 y = l .

Figura 9

Page 172: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3.4 Producto cruz / 175

20. Usar el resultado del ejercicio 19 para calcular, hasta el grado más próximo, los án- gulos que forma una diagonal de una caja de dimensiones 10 cm X 15 cm X 25 cm con las aristas de la caja. [Nota Se requiere una calculadora o tablas trigonométncas.]

21. Con referencia al ejercicio 19, demostrar que v1 y v, son vectores perpendiculares en el espacio tndimensional si y sólo si sus cosenos dlrectores satisfacen

cos 0: cos 4 , + cosp, cos p, + cos y, cos y, = o 1

22. Demostrar que si v es ortogonal tanto a w, como a w2, entonces v es ortogonal a k,wl + k2w2 para todos los escalares k, y k,.

23. Sean u y v vectores diferentes de cero en el espacio bidimensional o en el espacio tridimensional, y sean k = 1 1 ~ 1 1 y I = IIvII. Demostrar que el vector w = lu + kv biseca el ángulo entre u y v.

3.4 PRODUCTO CRUZ

En muchas aplicaciones de vectores a problemas de geometría, fisica e ingeniería es de interés construir en el espacio tridimensional un vector que sea perpen- dicular a dos vectores dados. En esta sección se introducirá un tipo de multipli- cación vectorial con que se obtiene ese vector.

Definición. Si u = (u l , u*, u3) y v = ( v ~ , v2, v3) son vectores en el espacio DE VECToRES tridimensional, entonces el producto cruz u X v es el vector definido por

1 o, en notación de determinantes,

oBsERvACIóN. En vez de memorizar (l), las componentes de u x v se pueden obtener como sigue:

Se forma la matriz 2 X 3

cuyo primer renglón contiene las componentes de u y cuyo segundo ren- glón contiene las componentes de v.

Page 173: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

176 / Vectores en los espacios bidimensional y tridimensional

Para encontrar la primera componente de u X v, eliminar la primera co- lumna y evaluar el determinante; para encontrar la segunda componente, eli- minar la segunda columna y evaluar el negatiTlo del determinante; para encon- trar la tercera componente, eliminar la tercera columna y evaluar el deter- minante.

Ejemplo 1 Encontrar u x v, donde u = (1, 2, -2) y v = ( 3 , O , 1)

Solución

Existe una diferencia importante entre el producto punto y el producto cruz de dos vectores: el producto punto es un escalar y el producto cruz es un vector. El siguiente teorema proporciona algunas relaciones importantes entre el producto punto y el producto cruz, y también muestra que u x v es ortogonal tanto a u como a v.

Teorema 3.4.1, Si u, v y w son vectores en el espacio tridimensional, entonces

a ) u . ( u X v ) = O (u X Y es ortogonal a u)

b) v . ( u X v ) = O (u X v es ortogonul a v) C ) [ / U X V112 = 11U/1* l/v/l2 - ( u ~ v ) ~ (IdentzdaddeLagrunge)* d ) u X (v X w) = (u. w)v - (u. v)w (relucidn entre los productos cruzypunto) e ) (U X V) X w = (u w)v - (V - W)U (relación entre los productos cruz ypunto)

I

*Joseph Louis Lagrunge (1736-1813). Matemático y astrónomo francés-italiano. Lagrange, hijo de un funcionario público, nació en Turin, Italia. (En el registro bautismal su nombre aparece como Giuseppe Lodovico Lagrangia.) Aunque su padre quería que fuese abogado, Lagrange se sintió atraído por las matemáticas y la astronomia después de leer una memoria del astrónomo Halley. A los 16 aAos de edad empezó a estudiar matemáticas por su cuenta y a los 19 h e contratado como profesor en la Royal Artillery School en Turin. El año siguiente resolvió algunos problemas famosos aplicando nuevos métodos que florecieron en una rama de las matemáticas denominada cálculo de variaciones. Estos métodos y las aplicaciones que Lagrange hizo de éstos a problemas de mecánica celeste eran tan monumentales que aproximadamente a los 25 años de edad Lagrange ya era considerado por muchos de sus contemporáneos como el más grande matemático existente. Uno de los trabajos más famosos de Lagrange es un documento denominado Mécunique Anulyflque, en el que reduce la teoría de la mecánica a unas cuantas fórmulas generales a partir de las cuales es posible derivar todas las demás ecuaciones necesarias.

Es históricamente interesante el hecho de que el padre de Lagrange incursionó infruc- tuosamente en varias empresas financieras, de modo que su familia estaba obligada a vivir con bastante modestia. Lagrange mismo afirmó que si su familia tuviera dinero, su vocación no hubieran sido las matemáticas.

Napoleón era un gran admirador de Lagrange y lo cubrió de honores: lo hizo conde, senador y le otorgó la orden de la Legión de Honor. A pesar de su fama, Lagrange siempre fue un hombre tímido y modesto. A su fallecimiento, h e sepultado con honores en El Panteón parkino.

Page 174: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3.4 Producto cruz / 177

Demostración de a). Sean u = (ul, u2, uz) y v = (v,, v2, v3). Entonces

Demostracibn de b). Semejante a la demostración de a).

La demostración se puede completar "multiplicando" los miembros derechos de (2) y (3 j y comprobando su igualdad.

Demostración de d) y e). Ver los ejercicios 26 y 27. 0

Ejemplo 2 Considerar los vectores

u = (1, 2, -2) y v = (3, o, 1)

En el ejemplo 1 se demostró que

u X V = ( ~ , -7 , -6)

Como

Y

u x v es ortogonal tanto a u como a v, como garantiza el teorema 3.4. l . A

En el siguiente teorema se enumeran las principales propiedades aritméticas del producto cruz.

Page 175: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Teorema 3A.2. S i u, v y w son vectores cualesquiera en el espacw tridimen- sional y k P.% cualquier escnlnr. entonces

a) u x v - - ( v X u ) b) U x (Y -1- W ) ( U x Y) f (U X W) 6') (U f V ) x W (,M x W) -t (V x W)

d ) k(u X V) -= ( k ~ ) X v -= U X (kv) e ) u x o = Oxu-o , f ) u x u == o

~ ~ ~ _ I _ _ _ _ _ I _

Las demostraciones se concluyen de inmediato a partir de la fórmula (1) y de las propiedades de los determinantes; por ejemplo, a) puede demostrarse corno:

ílcrrwslmt~lcirl dc a). Al intercambiar u y v en ( I ) se intercaxnbian los renglones de los tres determinantes del miembro derecho de (l) , y por tanto se cambia el signo de cada cornpotlerlte en el producto cruz. Así. u X v = -(Y X u). 0

Las demostraciones de los dem8s incisos se dejan como ejercicio

Ejemplo 3 Considerar los vectores

i = ( I , O, O) j = (O, !, O) k = (O, O, 1 j

Cada uno de estos vectorcs tiene longitud igual a 1 y está a lo largo de un eje de coordenadas (figura 1). Se denominan vectores unitarios normales en el espacio tridimensional. Todo vector v = (v,, v2, v 3 ) en el espacio tridimensional puede expresarse en términos de i, j. k. ya que es posible escribir

Figura 1 vectores unitarios estándares. 1

Por ejemplo,

(2, -- 3, 4) = 2 i - 3 j + 4k

Page 176: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3.4 Producto cruz / I79

A partir de (1) se obtiene

i

k oj Figura 2

FÓRMNLA DEL DETERMINANTE PARA EL PRODUCTO CRUZ

El lector no debe tener ningún problema para obtener los siguientes resulta- dos:

i X i = j X j = k X k = O i x j = k , j X k = i , k x i = j j X i = -k, k x j = -i , i x k = - j

La figura 2 es útil para recordar los resultados anteriores. Con referencia a esta figura, si la circunferencia se recorre en el sentido del movimiento de las maneci- llas del reloj, el producto cruz de dos vectores consecutivos es el siguiente vector que se encuentra, y si se recorre en sentido contrario al movimiento de las mane- cillas del reloj, el producto c m de dos vectores consecutivos es el negativo del siguiente vector que se encuentra.

También vale la pena observar que un producto cruz se puede representar simbóli- camente en forma de un determinante 3 X 3:

Por ejemplo, si u = (1, 2, -2) y v = (3, O, l), entonces

i j k u X v = = 2 i - 7 j - 6 k 1 2 - 2

3 0 1

lo que concuerda con el resultado obtenido en el ejemplo l .

Advertencia. En general, no es cierto que u X (v X w) = (u X v) X w. Por ejemplo,

i X ( j x j ) = i X O = O

Y

( i X , j ) x j = k X j = - i

de modo que

i X ( j ~ j ) # ( i X j ) X j

Por el teorema 3.4.1 se sabe que u X v es ortogonal tanto a u como a v. Si u y v son vectores diferentes de cero, es posible demostrar que la dirección

Page 177: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

180 / Vecto~es en los espacios hidinmvional y tridimensional

de u x v se puede determinar aplicando la siguiente "regla de la mano dere- cha"* (figura 3): Sea 8 el ángulo entre u y v, y suponer que u se hace girar por el ángulo 8 hasta que coincide con v. Si los dedos de la mano derecha se disponen de modo que apunten en la dirección de rotación, entonces el pulgar indica (aproximadamente) la dirección de u X v.

u x v & r " '

Figura 3 u+ v JNTERPRETA- CIÓN GEOMÉ- TRICA DEL PRODUCTO CRUP

EI lector encontrará instructivo practicar esta regla con los productos

i X j = k j X k = i k X i = j

Si u y v son vectores en el espacio tridimensional, entonces la norma de u x v tiene una interpretación geométrica útil. La identidad de Lagrange, proporcionada en el teorema 3.4.1, establece que

Si 8 denota el ángulo entre u y v, entonces u . v = llull llvll cos 8 , de modo que (5) se puede escribir de nuevo como

Así,

Pero llvll sen 8 es la altura del paralelogramo determinado por u y v (figura 4). Por tanto,

*Recordar que en este texto se acordó considerar sólo sistemas de coordenadas derechos. En caso de que se hubieran usado sistemas izquierdos, aquí se hubiera aplicado una "regla de la mano izquierda".

Page 178: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3.4 Producto cruz / 181

por (6), el área A de este paralelogramo está dada por

A = (base)(altura) = llull llvll sen 0 1 / 1 1 x V I ]

Este resultado es correcto inclusive si u y v son colineales, ya que el paralelogramo determinado por u y v tiene área cero y por (6) se sabe que u x v = O porque en este caso 8 = O. Por tanto, se tiene el siguiente teorema.

Teorema 3.4.3. Si u y v son vectores en el espacio tridimensional, entonces u X v es igual al área del paralelogramo determinado por u y v.

Ejemplo 4 Encontrar el área del triángulo determinado por los puntos PIP, 2, o), P2( - 1. o, 2) y P,(O, 4, 3 ) .

Solución. El área 4 del tr$ingulo es 4 del área del paralelogramo determinado por los vectores P I P , y P , P, (figura 5). Usando el método analizado en el ejemplo 2 de la sección 3.1, P I P 2 = (-3, -2, 2) y P I P 3 = (-2, 2, 3). Se concluye que - b

P I P , x P I P 3 = ( - 10,5, - 10)

Figura 5 i x I' Pi (2'2. O)

y en consecuencia,

TRIPLE PRODUCTO ESCALAR

Definición. Si u, v y w son vectores en el espacio tridimensional, entonces

u (v x w)

se denomina triple producto escalar de u, v y w.

El triple producto escalar de u = (u1, u2, u2), v = (v l , v2, v2) y w = (wl, w2, wz) se puede calcular a partir de la fórmula

(7)

WI w:! w3,

Page 179: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

182 / Vectores en los espacios bidimensional y triditnensional

W V x

Figura 6

INTERPRETACI~N GEOMÉTRICA DE LOS DETERMINANTES

Lo anterior se concluye por la fórmula (4), ya que

;3iul -

Ejemplo 5 Calcular el triple producto escalar u (v X w) de los vectores

Solución. Por (7),

3 - 2 - 5 U . ( V X w) =

o 3 2 1 4 - 4

- 6 0 + 4 - 1 5 1 4 9 A

OBSERVACI~X El símbolo (u - v) X w carece de sentido, ya que no es posible formar el producto cruz de un escalar y un vector. Así, no hay ambigüedad si se escribe u v X w en vez de u (v X w). Sin embargo, por claridad en general se conservará el paréntesis.

Por (7) se concluye que

u . ( v x w ) = w . ( u x v ) = v . ( w x u )

ya que los determinantes 3 x 3 que representan estos productos se pueden obtener uno a partir de otro mediante dos intercambios en los renglones. (Comprobar.) Es posible recordar estas relaciones moviendo los vectores u, v y w en el sentido de las manecillas del reloj alrededor de los vértices del triángulo que se muestra en la figura 6.

Page 180: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3.4 Producto cruz 183

Teorema 3.4.4. a ) El valor absoluto del determinante

es igual al área del paralelogramo en el espacio hidimensional dekrtruna do por los vectores u = (id1, u2) y v = (v l , v2). (Ver la,figura 7a.)

6) El valor absoluto del determinante

es igual al volumen del pordelepípeclo en cl espacio tridinwnsional d~ terminado por los \lectores u = (u , . u 2 . z r 3 ) . v = (v,. v2, v3) y w = (w,, w2, wJ. (Ver la$gura 76.)

Demostración de a).La clave de la demostración es aplicar el teorema 3.4.3. Sin embargo. este teorema es válido para vectores en el espacio tridimensional. mientras que u = (u , . u*) y v = (vI . v2). son vectorcs en el espacio bidimensional. Para superar este "problema de dimenslon". u y v se considerarán como vectores en el plano xv de un sistema de coordenadas xyz (figura sa), en cuyo caso estos vectores se expresan como u = (u1. u 2 . O) y v = ( v l . v2, O). Así.

Ahora, por el teorema 3.1.3 y el hecho de que Ilk11 = 1. se concluye quc el área A del paralelogramo determinado por u y v es

Figura 7 u 1

Page 181: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

184 / Vectores en los espacios bidimensional y tridimensional

con lo que se completa la demostración.

Demostración de b). Como se observa en la figura 86, se considera que la base del paralelepípedo determinado por u, v y w es el paralelogramo determinado por u y v. De acuerdo con el teorema 3.4.3 se concluye que el área de la base es IIv X w I I y, como se ilustra en la figura 86, la altura h

I Y

L

Figura 8 nl

del paralelepípedo es la longitud de la proyección ortogonal de u sobre v x w. En consecuencia, por la fórmula (10) de la sección 3 .3 ,

Se concluye que el volumen V del paralelepipedo es

con lo que se completa la demostración. 0

OBSERVACI~N. Si V denota el volumen del paralelepípedo determinado por los vectores u, v y w, entonces por el teorema 3.4.4 y la fórmula (7) se concluye que

Page 182: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3.4 Producto cruz / 185

INDEPENDENCIA DEL PRODUCTO CRUZ Y DE LAS COORDENADAS

volumen del paralelepípedo detemunado por u, v y w 1 = /u (v x w>l

Con base en este hecho y en el teorema 3.3.16 se puede deducir que

u . ( v X w ) = kv

donde el signo + o -resulta si u forma un ángulo agudo U obtuso con v X W.

La fórmula (8) conduce a una prueba útil para averiguar si tres vectores dados son coplanares. Como tres vectores no coplanares determinan un paralele- pípedo de volumen positivo, por (8) se concluye que 1u * (v X w)l = O si y sólo si los vectores u, v y w son coplanares. Así, se tiene el siguiente resultado.

~~ ~~ ~

Teorema 3.4.5. Si los vectores u = ( u l , u2, u3), v = (v l , v2, v3) y w = (wl, w2, w3) tienen el mismo punto inicial, entonces están en el mismo plano si y solo si

Inicialmente, se definió a un vector como un segmento de recta duigido o una flecha en el espacio bidimensional o en el espacio tridimensional; los sistemas de coordenadas y las componentes se introdujeron después para simpllficar los cálculos con vectores. Así, un vector posee "existencia matemática" sin importar si se ha introducido en un sistema de coordenadas. Además, las componentes de un vector no están determinadas solamente por el vector; también dependen del sistema de coordenadas elegido. Por ejemplo, en la figura 9 se indican un vector fijo v en el plano y dos sistemas de coordenadas diferentes. En el sistema de coordenadas x y , las componentes de v son (I, 1) y en el sistema x y , son

Este hecho plantea una cuestión importante sobre la definición de producto cruz. Como el producto cruz u X v se definió en términos de las componentes de u y v y como estas componentes dependen del sistema de coordenadas elegido, parece posible que dos vectoresfjos u y v puedan tener productos cruz distintos en sistemas de coordenadas diferentes. Afortunadamente, no sucede así. Para ver lo anterior, simplemente basta recordar que

( J z , o ).

u X v es perpendicular tanto a u como a v. La orientación de u X v está determinada por la regla de la mano derecha. l b x VI1 = llull llvll sen 8.

Page 183: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

186 / Vectores en los espacios hidimensioml J; tridirnensionul

Estas tres propiedades determinan completamente el vector M X v; las dos primeras propiedades determinan la direccih y la tercera determina la longitud. Como estas propiedades de u X v dependen shlo de las longitudes y posiciones relativas de u y v no del sistema de coordenadas derecho particular que se esté usando, el vector u X v permanece sin cambio si se introduce un sistema de coordenadas derecho diferente. Así, se dice que la definición de M X v es indepen- diente de las coordenadas. Este resultado es importante para los fisicos e ingenie- ros, quienes a menudo trabajan con muchos sistemas de coordenadas en el mismo problema.

Figura 9

Ejemplo 4 Considerar dos vectores perpendiculares u y ti, cada uno de longitud 1 (como se muestra en la figura IOU). Si se introduce un sistema de coordenadas xyz como se muestra en la figura 1 Oh, entonces

de modo que

Sin embargo, si se introduce un sistema de coordenadas rlv'z' como se muestra en la figura 1 Oc. entonces

de modo que

Page 184: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3.4 Producto cruz / 187

u X v = k X i = j = ( O , 1,0)

Pero por las figuras 106 y 1Oc es evidente que el vector (O, O, 1) en el sistema xyz es el mismo que el vector (O, 1, O) en el sistema x'y'z'. Así, se obtiene el mismo vector u x v si los cálculos se realizan con coordenadas del sistema xyz o con coordenadas del sistema x'y'z'. A

EJERCICIOS DE LA SECCIóN 3.4

1. Sean u = (3 ,2, - I ) , v = (O, 2, -3) y w = (2,6,7). Calcular a) v X w b) u X (v X w) c) (u x v) x w d) (u X v) X (v X w) e ) u X (v - 2w) f ) (u X v) - 2w

2. Encontrar un vector que sea ortogonal tanto a u como a v. a) ~ = ( - 6 , 4 , 2 ) , v = ( 3 , 1,5) b) ~ = ( - 2 , 1, 5), ~ = ( 3 , 0 , -3)

3. Encontrar el área del paralelogramo determinado por u y v. a) u = ( l , -1 ,2) , v=(O,3 . 1) b) u = ( 2 , 3 , 0 ) , v = ( - 1 , 2 , - 2 ) C) U = (3, - 1, 4), v = (6, -2, 8)

5. Comprobar el teorema 3.4.1 para los vectores u = (4,2, 1) y v =( -3,2, 7)

6 . Comprobar el teorema 3.4.2 para u = (5, -1 , 2), v = (6, O, -2), w = (1, 2, -1) y k = -5.

7. ¿Cuál es el error en la expresión u x v x w?

8. Encontrar el triple producto escalar u . (v X w). a ) u = ( - l , 2 , 4 ) , v = ( 3 , 4 , -2), w = ( - 1 , 2 , 5 ) b ) u = ( 3 , - 1 , 6 ) , ~ = ( 2 , 4 , 3 ) , ~ = ( 5 , - I , 2 )

9. Suponer que u . (v x w) = 3. Encontrar a) u - ( w X v ) b) ( v X w ) - u C) w - ( u x v ) d) v . ( u x w ) e) ( u x w ) . ~ f ) v . ( w x w )

10. Encontrar el volumen del paralelepípedo cuyos lados son u, Y, y w. a) = (2, -6 , 2), v = (O, 4, -2), w = (2, 2, -4) b) U = (3, I , 2), v = (4, 5 , I ) , w = (1, 2, 4)

11. Determinar si u, v, y w son coplanares cuando se colocan de modo que coincidan sus puntos iniciales. a) u = ( - 1, -2, I ) , v = (3, O, - 2 ) w = (5, -4, O) b ) u = ( 5 , -2, I) , ~ = ( 4 , - I , I ) , w = ( l , - I , O ) C) U =(4, -8, I ) , v = ( 2 , 1, -2), w (3, -4, 12)

12. Encontrar todos los vectores unitarios paralelos al plano xy que son perpendiculares al vector (3, - 1,2).

Page 185: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

I88 / Vectores en los espacios bidimensional y tridimensional

13. Encontrar todos los vectores unitarios en el plano determinado por u = (3, O, 1) y v = (1, - 1, 1 ) que son perpendiculares al vector w = (1,2, O).

14. Sean a = (a,, a2, a3), h = ( b , , h2, h i ) , c = ( c , , c2, C J y d = (di, d,, d3). Demostrar que

( a + d ) . ( b X c ) = = a . ( b X c ) + d - ( b X c )

15. Simplificar (u + v) X (u - v )

16. IJsar el producto cruz para encontrar el seno del ángulo entre los vectores u = (2, 3, -6) y v = (2, 3,6)

17. a ) Encontrar el área del triángulo cuyos vértices son A(1, O, I ) , B(O,2, 3 ) y C(2, 1, O). b) IJsar el resultado del inciso a) para encontrar la longitud de la altura del vértice ¿' al

lado AH.

18. Demostrar que si u es un vector que va de cualquier punto de una recta a un punto 1' que no pertenece a la recta y v es un vector paralelo a Csta, entonces la distancia entre P y la recta está definida por 1111 X vII / Ilvll.

21. Considerar el paralelepípedo con lados u = (3,2, I), v = (1, 1,2) pw = ( I , 3 , 3). a) Encontrar el área de la cara determinada por u y w .

b) Encontrar el ánguio entre u y el plano que contiene la cara determinada por v y w. [Nota El ángulo entre un vector y un plano se define como el Angulo O entre el vector y la nonnal al plano para la que O .c- O S d 2 . 1

22. Encontrar un vector n perpendicular al plano determinado por los puntos A(0, -2, I ) , & I , -1, -2) y (?(--I, 2, O). [Ver la nota del ejercicio 21.1

23. Sean m y n vectores cuyas componentes en el sistema xyz de la figura IO son m = (O, O, 1)y n = ( O , I , O). a) Encontrar las componentes de m y n en el plano xyz' de la figura 1 O. b) Calcular m X n usando las componentes del sistema qz. c) Calcular m X n usando las componentes del sistema xyz'. d) Demostrar que los vectores obtenidos en b) y c) son los mismos.

24. Demostrar las siguientes identidades a) ( u + k v ) ~ v = u X v b) U . ( V X Z ) = " ( u x z ) . ~

25. Sean u, v y w vectores diferentes de cero en el espacio tridimensional que tienen el mismo punto inicial, pero de modo que ningún par de ellos es colineal. Demostrar que a) u X (v X w) está en el plano determinado por v y w. b) (u X v) X w estri en el plano determinado por u y v

Page 186: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3.5 Rectas y planos en el espacio tridimensional / 189

26. Demostrar el inciso 6) del teorema 3.4.1. [Sugerencia Demostrar primero el resultado en el caso en que w = i = (1, O, O), luego cuando w = j = (O, 1, O) y luego cuando w = k = (O, O, 1). Por Cltimo, hacer la demostración para un vector cualesquiera w = (w,, wz, w3) escribiendo w = w,i + wzj + w3k.]

27. Demostrar el inciso e ) del teorema 3.4.1. [Sugerencia Aplicar el inciso a) del teorema 3.4.2 al resultado del inciso d) del teorema 3.4.1.1

28. Sean u = (1, 3, - l) , v = (1, 1,2) y w = (3, -1, 2). Calcular u x (v X W) usando el ejercicio 26; luego, comprobar el resultado efectuando el cálculo directamente.

29. Demostrar: Si a, b, c y d están el mismo plano, entonces (a X b) x (c X d) = O.

30. En geometría de sólidos existe un teorema que establece que el volumen de un tetrae- dro es 1/3(área de la base) * (altura). Usar este resultado para demostrar que el volu- men del tetraedro cuyos lados son los vectores a, b y c es 116 :: . (b X c) (figura 11).

31. Usar el resultado del ejercicio 30 para encontrar el volumen del tetraedro con vértices P, Q, R Y S.

a) P ( - 1, 2, O), Q(2, 1, -31, 4 1 , O, 11, S(3, -2, 3) b) P(0, O, O), Q(1, 2 , - I ) , R(3,4, O), S ( - 1, -3, 4)

32. Demostrar los incisos a) y 6 ) del teorema 3.4.2

33. Demostrar los incisos c) y 6) del teorema 3.4.2.

34. Demostrar los incisos e ) y j ) del teorema 3.4.2

3.5 RECTAS Y PLANOS EN EL ESPACIO TRIDIMENSIONAL

En esta sección se usarán los vectores para obtener ecuaciones de rectas y planos en el espacio tridimensional, y estas ecuaciones se utilizarán para resolver algunos prob lemas de geometría básicos.

PLANOS EN EL En geometría analítica plana, una recta se puede especificar dmdo su pendiente y ESPACIO uno de sus puntos. De manera semejante, un plano en el espacio tridimensional se

SIONAL tos. Un método conveniente para describir la inclinación es especificar un vector TRIDIMEN- puede especificar proporcionando su inclinación y especificando uno de sus pun-

diferente de cero (denominado normal) que es perpendicular al plano.

Page 187: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

I90 / Vectvres en los espacios bidimensiorral y tridinrensisional

Suponer que se desea encontrar la ecuación del plano que pasa por el punto Po(xo, yo, zo) y cuya normal es el vector n = (a, b, e) diferente de cero. De la figura 1 resulta evidente que el plano consta precisamente de los puntos P(x, y , z ) para los cuales el vector PT6 es ortogonal a n; es decir,

n.PoP=O “-----f

Como POP = (x - xo. y - yo, z - zo). la ecuación (1) se puede escribir como 4

La expresión (2) se denomina forma punto-normal de la ecuación de un plano.

Figura 1 x/

Ejemplo 1 Encontrar la ecuación del plano que pasa por el punto ( 3 , - 1, 7) y es perpendicular al vector n = (4, 2. -5).

Multiplicando y agrupando téminos, (2) puede volver a escribirse como

donde a, 6 , c y d son constantes y no todas las constantes u, b y c son iguales a cero. Así, la ecuación en el ejemplo 1 se puede escribir de nuevo como

4x + 2y - 5~ + 25 = O

Como se demuestra en el siguente teorema, toda ecuación de la forma ax + by + cz + d = O representa un plano en el espacio tridimensional.

Page 188: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3.5 Rectas y planos en el espacio nidimensional / 191

Si a, b, c y d son constantes y no todas las constantes a, b y c son iguales a cero, entonces la grájca de la ecuación

1 a x + b y + c z + d = O es un plano cuya normal es el vector n = (a, 6, c).

La ecuación (3) es una ecuación lineal en x, y y z; se denomina forma general de la ecuación del plano.

Demostración. Por hipótesis, no todos los coeficientes a, b y c son iguales a cero. Suponer, por el momento, que a # O. Entonces la ecuación ax + by + cz + d =

O puede escribir de nuevo en la forma a(x + (d/a)) + by + cz = O . Pero esta es una forma punto-normal del plano que pasa por el punto (-d/a, O , O) y cuya normal es n = (a, 6, c).

Si a = O, entonces b # O o c # O. Una modificación directa del razonamiento anterior permite manejar estos otros casos. 0

De la misma manera en que la solución de un sistema de ecuaciones

ax + by = k,

cx + dy = k2

lineales corresponde a los puntos de intersección de las rectas ax + by = k , y cx + dy = k, en el plano x y , así las soluciones de un sistema

ax + by + cz = k, dx + ey + fz = k , gx + hy + iz = k3

(4)

corresponden a los puntos de intersección de los tres planos ax + by + cz = k , , dx + e y + & = k 2 y g x + h y + i z = k 3 .

En la figura 2 se ilustran algunas de las posibilidades geométricas que ocurren cuando (4) no tiene solución, tiene exactamente una solución o tiene infinidad de soluciones.

Ejemplo 2 Encontrar la ecuación del plano que pasa por los puntos Pl(l, 2, - l), P , ( 2 , 3 , 1) y P,(3, - L2) .

Solución. Como los tres puntos están en el plano, sus coordenadas deben satisfacer la ecuación general ax + by + cz + d = O del plano. Así,

a + 2 b - c + d = O 2 a + 3 b + c + d = O 3 ~ - b + 2 c + d = O

Page 189: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

192 / Vectores en los espacios bidimensional y tridimensional

La solución de este sistema es a = -At 1 6 , h = " I t 1 6 , c=&t , d = l

Figura 2 a) No existe solución (3 planos paralelos). 15) No existe solución (2 planos paralelos). c) No existe solución (3 planos sin intersección común). d) Infinidad de soluciones (3 planos coincidentes). e) Infinidad de soluciones (3 planos que se intersecan en una &).A Una solución (3 planos que se cortan en un punto). g) No existe solución (2 planos coincidentes paralelos a un tercer plano). h) hfhdad de soluciones ( 2 planos coincidentes que se intersecan con un tercer plano).

~~

Haciendo t = - 16, por ejemplo, se obtiene la ecuación buscada

9x+y - 5~ - 1 6 = 0

Se observa que con cualquier otra elección de t se obtiene un múltiplo de esta ecuación, de modo que con cualquier valor de t f O también se obtiene una ecua- ción válida del plano.

Otra solucion. Como P l ( l , 2, - l ) , P2(2, 3, 1) y P3(3, -1, 2) pertenecen al plano, entonces los vectores p p = (1, 1, 2) y PIP3 = (2, -3, 3) son paralelos al plano. Por consiguente, PIP2 x P I P , = (9, 1, -5) es normal al plano, ya que es perpendicular a pip; y a p , P,. Con base en este hecho y como P, pertenece al plano, una forma punto-normal para la ecuación del plano es

__f -

u' 2 & -

O

9(x - 1) + ( y - 2) - 5(z + 1) = O

~ x + Y - ~ z - 16-0 A

Page 190: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3.5 Rectas y planos en el espacio tndimensional / I Y3

FORMA La notación vectorial proporciona otra manera útil para escribir la forma VECTORLAL DE punto-normal de la ecuación de un plano; con referencia a la figura 3, sean r LA ECUACI6N = (x, y , z) el vector que va del origen al punto P(x, y , z), r, = (x,, y,, zo) el DE UN PLANO vector que va del origen al punto P,(x,, y,, z,), y n = (u, b, c) un vector

normal al plano (figura 3).

Figura 3 x+’

Entonces PTP = r - r,, de modo que la fórmula (1) se puede volver a escribir como

I n (r - r,,) = O

Esta expresión se denomina forma vectorial de la ecuación de un plano.

Ejemplo 3 La ecuación

es la ecuación vectorial del plano que pasa por el punto (6, 3 . -4) y es per- pendicular al vector u = (- 1, 2, 5). A

RECTAS EN EL A continuación se mostrará cómo obtener ecuaciones de rectas en el espacio ESPACIO tridimensional. SuFoner que 1 es la recta en el espacio tridimensional que TRIDIMENSIO- pasa por el punto Po(xo, y,, z,) y es paralela al vector diferente de cero v = (u,

para los que el vector r P es paralelo a v; es decir, para los que existe un escalar t tal que

NAL b, c). Es evidente (figura 4) que 1 consta precisamente de los puntos P(x, y. z)

Page 191: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

194 / Vectores en 10s espacios bidimensional y tridimensional

En términos de componentes, (6) se puede escribir como

(X - ~ 0 , y -yo, z - zo) = (tu, tb, tc)

de donde se deduce que x - x. = tu, y -yo = tb y z - zo = tc, de modo que

x = x. + tu, y = yo + tb, z = zo + tc

Figura 4

Cuando el parámetro t varía de - CQ a + m. el punto P(x, y, z ) describe la recta 1. Las ecuaciones

x = x 0 + t a , y = y o + t b , z=z0+tc ( - - < t t + - t ) ( 7 ) ~~~~~~~~

se denominan ecuaciones paramétricas de I

Ejemplo 4 La recta que pasa por el punto (1, 2, - 3 ) y es paralela al vector v = (4, 5, -7) tiene las ecuaciones paramétricas

x = 1 + 4t, .v = 2 + 5t, z = - 3 - 7t ( - - < t t + - t ) A

Ejemplo 5

a) Encontrar las ecuaciones paramétricas de la recta I que pasa por los puntos

b) ¿Dónde corta la recta al plano y? P,(2, 4, - 1) y P,(5, o, 7 ) .

Page 192: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3.5 Rectas y planos en el espacio m'dimensional / 195

Solución a). Como el vector P , P , = (3, -4, 8) es paralelo a 1 y P,(2, 4 , - 1) per- tenece a I, entonces la recta 1 está definida por

L

~ = 2 + 3 t , y = 4 - 4 t , Z = - 1 + 8 t (-m<<<++)

Solución b). La recta corta al plano xy en el punto en que z = - 1 + Sf = O , es decir, donde f = 1/8. Sustituyendo este valor de f en las ecuaciones parametricas de 1 se obtiene que el punto de intersección es

Ejemplo 6 Encontrar las ecuaciones paramétricas de la recta de intersección de los planos

Solución. La recta de intersección consta de todos los puntos (x, y, z ) que satisfacen las dos ecuaciones del sistema

3~ + 2y - 42 = 6 x - 3 y - 2 z = 4

Al resolver este sistema se obtiene

X = 2 6 + 1 6 f 11 1 1 , y = - i i - - i i t , z = t 6 2

Por consiguiente, las ecuaciones paramétricas de 1 son

FORMA La notación vectorial da otra forma útil para escribir las ecuaciones paramétricas VECTORIAL DE de una recta; con referencia a la figura 3, sean r = (x, y, z) el vector que va del LA ECUACIóN origen al punto P(x, y , z) , ro = (xo, yo, zo) el vector que va del origen al p u s DE UNA RECTA Po(xo, yo, zo), y v = (a, 6, c) un vector paralelo a la recta (figura 5). Entonces Pop

= r - ro, de modo que la fórmula (6) se puede volver a escribir como

r - r o = t v

Tomando en cuenta el intervalo de variación de los valores I, la fórmula anterior se puede escribir de nuevo como

r = r , + t v ( - m < t < + w )

Esta expresión se denomina forma vectoriaf de fa ecuación de una recta en el es- pacio tridimensional.

Page 193: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

136 / Vectores en los espacios bidimensional y tridimensional

Figura 5 .,/

Ejemplo 7 La ecuación

( . \- ,?:.)=(-2,0,3)+t(4, - 7 , 1) ( - - < t < + - t )

es la ecuación vectorial de la recta que pasa por el punto (-2, O , 3) y es paralela al vector v = (4. -7. 1). A

ALGUNOS Esta sección termina con el estudio de dos "problemas de distancia" bhsicos en el PROBLEMAS espacio tridimensional: DONDE INTERVIENE LA

a) Encontrar la distancia entre un punto y un plano. DISTANCIA Problemas

b) Encontrar la distancia entre dos planos paralelos.

Ambos problemas están relacionados. Si se puede encontrar la distancia entre un punto y un plano, entonces es posible encontrar la distancia entre planos paralelos al calcular la distancia entre uno de los planos y un punto arbitrario Po en el otro plano (figura 6).

Figura 6 La distancia entre los planos paralelos V y Cy es igual a la distancia entre P, v W. 1

Page 194: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3.5 Rectas y planos en el espacio tridimensional / I Y7

laxO + byo + czo + dl I D = ViGK2

Demostración. Sea e(.,, y, , zl) cualquier punto en el plano. El vector normal n = (a, b, c) se coloca de modo que su punto inicial esté en Q. Como se ilustra en la figura 7, la distancia D es igual a la longitud de la proyección ortogonal de Qx sobre n. Así, por (10) de la sección 3 . 3 ,

Pero

Así,

D = 14x0 - x, 1 + @Yo - Y , 1 + &o - z1 ) I d m (10)

Como el punto e@,, yl, z i ) pertenece al plano, sus coordenadas satisfacen la ecuación del plano; entonces

ax, + by, + cz, + d = O

O

d = - ax, - by, - czl

Sustituyendo esta expresión en (IO) se obtiene (9). 0

Page 195: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

198 I Vectores en los espacios hidimensional y tridimensional

OBSEHVACI~N. Nótese la semejanza entre (9) y la fórmula de la distancia entre un punto y una recta en el espacio bidimensional(13) de la sección 3.3.

Ejemplo 8 Encontrar la distancia D entre el punto (1, -4, -3) y el plano 2x - 3y + 6 z = -1.

Solución. Para aplicar (9), primero se vuelve a escribir la ecuación del plano en la forma

2~ - 3 ~ + 6 ~ + 1 = O

Entonces

D = /(2)(1)+(-3)(-4)+6(-3)+1) --=- 1-31 3 A - q 2 2 + (-3>*+ 62 7 7

Dados dos planos, si se cortan, entonces se pregunta por su recta de intersección (como en el ejemplo 61, o si son paralelos, entonces se pregunta por la hstancia entre ellos. El siguiente ejemplo ilustra el segundo problema.

Ejemplo 9 Los planos

x + 2 y - 2 2 = 3 y 2 x + 4 y - 4 z = 7

son paralelos, ya que sus normales (1, 2, -2) y (2, 4, -4) son vectores paralelos. Encontrar la distancia entre estos planos.

Solución. Para encontrar la distancia D entre los planos, se puede elegir un punto arbitrario en uno de los planos y calcular su distancia al otro plano. Haciendo y = z = O en la ecuación x + 2y - 22 = 3 , se obtiene el punto P,(3, O, O) en este plano. Por (9), la distancia entre Po y el plano 2x + 4y - 42 = 7 es

EJERCICIOS DE LA SECCIÓN 35 _ _ ~ ~ ~ ~

1. Encontrar una forma punto-normal de la ecuación del plano que pasa por P y cuya normal es n. a) P ( - l , 3 , -2); n = ( - 2 , 1, -1) b)P(l, 1,4); n = ( l , 9 , 8 ) c ) P(2, O, O); n = (O, O, 2) d) P(0, O, O); n = (1, 2, 3)

2. Escribir en forma general las ecuaciones de los planos del ejercicio l .

Page 196: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3.5 Rectas y planos en el espacio tridimensional / 199

3. Encontrar una forma punto-normal

a) - 3 x + 7 y + 2 z = 10 b) ~ - 4 ~ = 0

4. Encontrar la ecuación del plano que pasa por 10s puntos dados

a) P(-4, - 1, - I ) , Q(-2, O, I ) , R ( - 1, -2, -3) b) P(5,4, 31, Q(4, 3, I ) , R(1, 5, 4)

5. Determinar si los planos son paralelos

a) 4 x - y + 2 z = 5 y 7 ~ - 3 y + 4 2 = 8 b ) x - 4 y - 3 ~ - 2 = 0 y 3 ~ - 1 2 ~ - 9 ~ - 7 = 0 c) 2 y = 8 x - 4 z + 5 y x=+z+ ' 4Y

6 . Determinar si la recta y el plano son paralelos.

a ) x = - 5 - 4 t , y = l - t , z = 3 + 2 t ; x + 2 y + 3 z - 9 = 0 b ) x = 3 t , y = 1 + 2 t , z = 2 - t ; 4 x - y + 2 ~ = 1

7. Determinar si los planos son perpendiculares.

a) 3 x - y + z - 4 = 0 , x + 2 z = - 1 b) x - 2 y + 3 z = 4 , - 2 x + 5 y + 4 z = - 1

8. Determinar si la recta y el plano son perpendiculares

a) x = - 2 - 4 t , y = 3 - 2 r , z = 1 + 2 t ; 2 x + y - z = 5 b ) x = 2 + t , y = l - t , ~ = 5 + 3 t ; 6 ~ + 6 ~ - 7 = 0

9. Encontrar las ecuaciones paramétncas de la recta que pasa por P y es paralela a n.

a) P(3, - 1, 2), n = (2, 1, 3) b) P(-2, 3, -3); n = (6, -6, -2) c) P(2, 2, 6); n = (O, 1, O) d) P(0, O, O); n = (1, - 2, 3)

10. Encontrar las ecuaciones paramétricas de la recta que pasa por los puntos dados

a> (5, -2, 4), (7, 2, - 4) b) (O, O, O>, (2, - 1, - 3)

11. Encontrar las ecuaciones paramétricas de la recta de intersección de los planos dados

a) 7 x - 2 ~ + 3 ~ = -2 y - 3 x + y + 2 z + 5 = 0 b) 2 x + 3 y - 5 ~ = 0 y y = O

12. Encontrar la forma vectorial de la ecuación del plano que pasa por Po y cuya nor- mal es n. a) P 0 ( - l , 2 , 4 ) ; n = ( - 2 , 4 , 1) b) P0(2,0, -5); n = ( - l , 4 , 3 ) c) P0(5, -2, 1); n = ( - I , O, O) d) Po(O, O, O); n = (u, b, c)

13. Determinar si los planos son paralelos

a) ( - l , 2 , 4 ) . ( ~ - 5 , ~ + 3 , ~ - 7 ) = 0 ; (2, -4, - 8 ) - ( ~ + 3 , ~ + 5 , ~ - 9 ) = 0 b ) ( 3 , 0 , - I ) . ( x + I , y - 2 , ~ - 3 ) = 0 ; ( - I , O , ~ ) . ( X + I , ~ - Z , Z - ~ ) = O

14. Determinar si los planos son perpendiculares.

a) ( -2 , l , 4 ) . (x - l , y , z + 3 ) = 0 ; ( I , -2, I ) . ( x + ~ , ~ - ~ , z ) = o b) (3 ,0 , - 2 ) . ( ~ + 4 , ~ - 7 , ~ + 1 ) = O ; (1, I , I) .(x,y,z)=O

15. Encontrar l a forma vectorial de la ecuación de la recta que pasa por p , y es pa- ralela a v.

a) P o ( - l > 2 , 3 ) ; v = ( 7 , - 1 , 5 ) b) Po(2,0, - I ) ; VE(], I , I ) C) Po(L -4, 1); v = (O, O, - 2) d) Po(O, O, O); v = (U, b, C)

Page 197: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

200 / Vertnres en los espacios bidimensionai y tridimensionul

16. 1)t:mostrar. que la recta

,x- = o, y = [ * z - ( -E .<!< +,A)

a ) pertenece al plano hx + 4y - 42 = (J.

11) es paralela al plano 5x - 3y + 3z = 1 y csth por abajo de éste. L) es paralela ai plano 6x + 2y - 22 = 1 y esti por arriba de éste

18. Encontrar la ecuación del a) plano KV. b) piano xz. c) plar~ovz.

19. Encontral. la ecuación del piano que contiene al punto (xo, yo. zo) y es paralelo al a) plano x y . b) plano yz. c) plano xz.

20. t-hcontrar l a ecuacrón del plano que pasa por el origen y es paralelo al plano 7x + 4y - 2 2 + 3 - 0 .

21. Encontrar la ecuación del plano que pasa por el punto (3, -6, 7) y es paralelo al plano 5, - 2y+z - S=().

22. Jhcontrar el punto de intersección de la recta

x - 9 = - s r , y + l - - t , z - 3 = r ( - - c c < t < + m )

y el plano 2x -. 3v + 42 + 7 = O.

23. Encontrar l a ecuación del plano que contiene a la recta x = - I + 3t, y = 5 + 2t, z -= 2 - t y es perpendicular al plano 2x - 4y + 22 = 9.

21. Ilncontrar la ecuación del plano que pasa por (2, 4, - 1) y contiene a la recta de intersección de los planos x - y - 4z = 2 y - 2 x + y + 22 = 3 .

25. Demostrar que los puntos (-1, -2, -3), ( -2 , O, I) , (-4, -1, -1 ) y (2, O, 1) pertenecen al mismo plano.

26. Encontrar las ecuaciones paramétncas de l a recta que pasa por ( -2 , 5 , O) y es paralela a l o s p l a n o s 2 x + y - 4 z = O y - x + 2 y + 3 z + 1 = O .

27. Encontmr la ecuación del plano que pasa por ( -2 , I , S ) y es perpendicular a los planos 4~ - 2 ~ + 2 ~ = - 1 V 3 ~ + 3 y - 6 . ~ ~ 5 .

28. Encontrar la ecuación del plano que pasa por (2, - 1,4) y es perpendicular a la recta de intersección de los planos 4x + 2y + 2z =-1 y 3x + 6y + 32 = 7.

29. Encontrar la ecuación del plano que es perpendicular al plano 8x - 2y + hz = 1 y pasa por los puntos P I ( - i , 2 , S) y P2[2, I , 4).

30. Demostrar que las rectas

Page 198: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3.5 Rectas y planos en el espacio tridimensional / 201

x = 3 - 2 t , y = 4 + r , z = l - t ( - - < < < + + )

Y x = 5 + 2 t , y = l - t , z = 7 + r ( - - < t t + + )

son paralelas y encontrar la ecuación del plano que determinan.

31. Encontrar la ecuación del plano que contiene al punto (1, - 1,2) y a la recta x = t , y = t + l , ~ = -3 +2t.

32. Encontrar la ecuación del plano que contiene a la recta x = 1 + t , y = 3t, z = 2t y es paralelo a la recta de intersección de los planos -x + 2y + z = O y x + z + I= O.

33. Encontrar la ecuación del plano tal que todos sus puntos equidistan de (- 1, -4, -2) y (0 , -2,2).

34. Demostrar que la recta

x - 5 = - t , y + 3 = 2 t , z + 1 = - 5 t ( - - p < t < + ” O )

esparalelaalplano - 3 x + y + z - 9 = 0 .

35. Demostrar que las rectas x - 3 = 4 t , y - 4 = t , z - l = O ( - r n < t < + m )

Y ~ + 1 = 1 2 t , y - 7 = 6 t , ~ - 5 = 3 t ( - x < t < + x )

se cortan y encontrar el punto de intersección

36. Hallar la ecuación del plano que contiene a las rectas del ejercicio 35.

37. Encontrar las ecuaciones paramétricas de la recta de intersección de los planos a) -3x+2,v+z= - 5 and 7 x + 3 y - 2 z = - 2 b) 5 1 - 7y + 2z = O and y = O

38. Demostrar que el plano cuyas coordenadas al origen son x = a, y = b, z = c tiene la ecuación

x y z - + - + - = 1 a b c

en el supuesto de que a, b y c son diferentes de cero,

39. Encontrar la distancia entre el punto y el plano, a) (3, 1, -2); x + 2y - 2z = 4 b ) ( -1 ,2 , I ) ; 2 ~ + 3 ~ - 4 z = 1 C) (0,3, -2); x - Y - z = ~

40. Encontrar la distancia entre los planos paralelos dados a) 3x - 4y + z = 1 y 61 - S,V + 22 = 3 b) - 4 ~ + y - 3 ; = 0 y 8 ~ - 2 , v + 6 z = O c) 2 x - . v + z = 1 y 2 x - y + z = - 1

41. Demostrar que si las constantes a, b y c no son cero, entonces la recta

Page 199: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

202 / Vectores en los espacios bidimensional y tridimensional

x=x ,+a t , y = y , + b t , z = z , + c t (--<<<+-m)

consta de todos los puntos (x, y, z) que satisfacen

x--, - Y - Y o - 2 - % a h c

Estas expresiones se denominan ecuaciones sim&ricas de la recta

42. Encontrar las ecuaciones simétricas de las rectas de los incisos a) y b) del ejercicio 9. [Nota Ver el ejercicio 4 1 respecto a la terminología.]

43. En cada inciso, encontrar las ecuaciones de los dos planos cuya intersección es la recta dada. a ) x = 7 - 4 t , y = - 5 - 2 t , z = 5 + f ( - m < [ < +m)

b ) x = 4 t , ,v=2t, z = 7 t ( - m < t < +m)

[Sugerencia. Cada igualdad en las ecuaciones simétricas de una recta representa un plano que contiene a la recta. Ver el ejercicio 4 1 respecto a la terminología.]

44. Dos planos que se cortan en el espacio tridimensional determinan dos ángulos de intersección: un ángulo agudo (O 5 8 5 90°) y su suplemento 1 SOo - 8 (figura Sa). Si n1 y n2 son normales diferentes de cero a los planos, entonces el ángulo entre nl y nz es 8 o 180° - 8 , dependiendo de las direcciones de las normales (figura 8b). En cada inciso, determinar el ángulo agudo de intersección de los planos, hasta el grado más próximo. a ) x = O y 2 x - y + z - 4 = 0 b ) x + 2 y - 2 2 = 5 y 6 ~ - 3 . ~ + 2 ~ = 8

[Nota Se requiere calculadora.]

Figura 8

45. Encontrar el ángulo agudo de intersección entre el plano x - y - 32 = 5 y la recta x =

2 - t , y = 2t, z = 3t - 1 hasta el grado más próximo. [Sugerencia Ver el ejercicio 44.1

Page 200: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4.1 ESPACIO EUCLIDIAN0 n DIMENSIONAL

La idea de usar parejas de números para localizar puntos en el plano y ternas de números para localizar puntos en el espacio tridimensional fue explicada con claridad por vez primera a mediados del siglo XVII. Al jinal del siglo XIX los matemáticos y losfisicos comenzaron a darse cuenta de que no era necesario detenerse en las ternas. Se reconoció que las cuádruplas de nú- meros (al, a2, a3, a4) podían considerarse como puntos en el espacio de "te- tradimensional", las quíntuplas (a l , a2, . . . , a5) como puntos en el espacio de "pentadimensional", y así sucesivamente. A pesar de que nuestra repre- sentación geométrica se limita al espacio tridimensional, muchos conceptos conocidos se pueden extender más allá del espacio tridimensional trabajan- do con las propiedades analíticas o numéricas de puntos y vectores en vez de hacerlo con las propiedades geométricas. En esta sección se precisarán con más detalle esas ideas.

VECTORES EN EL

DIMENSIONAL sucesión de n números reales (al, a2, . . . , an). El conjunto de todas las n-adas ESPACIO n Definición. Si n es un entero positivo, entonces una n-ada ordenada es una

ordenadas se denomina espacio n dimensional y se denota por R".

203

Page 201: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

204 i Espacios vectoriales euclidianos

Cuando n = 2 o 3, se suelen usar los términos pareja ordenada o terna ordenada, respectivamente, en vez de 2-ada o 3-ada ordenadas. Cuando n = 1, cada n-ada ordenada consta de un número real, de modo que R' se puede considerar como el conjunto de los números reales. Para denotar este conjunto se escribe R en vez de

Quizá el lector observó al estudiar el espacio tridimensional, que el símbolo (al, a2, a3) tiene dos interpretaciones geométricas: se puede interpretar como un punto, en cuyo caso al , a2 y a3 son las coordenadas figura la), o puede interpretarse como un vector, en cuyo caso a l , a2 y a3 son las componentes (figura lb). Se deduce así que una n-ada ordenada (al , a2, . . . , a,) se puede considerar como un "punto generalizado" o como un ''vector generalizado": matemática- mente, la diferencia carece de importancia. Así, la 5-ada (-2, 4, O , 1, 6) se puede describir como un punto en R5 o como un vector en RS.

R'.

Figura [La tema ordenada (al, a2, d3) se puede interpretar geométricamente como un punto o un I I vector. I

Definición. Dos vectores u = (u1, u2, . . . , u,) y v = (vl, v2, . . . , v,) en R" se denominan iguales si

u1 = u , , u2 = V I , . . . f u, = u ,

La suma u + v se define por

u + v = (u, + u,, u2 + u2, . . . , u, +u,)

y si k es cualquier escalar, entonces el múltiplo escalar ku se define por

-1

Page 202: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4.1 Espacio euclidiano n dimensional / 205

Las operaciones de adición y multiplicación escalar en esta definición se denomi- nan operaciones normales sobre R".

El vector cero en R" se denota por O y se define como el vector

o = (O, O, . . . , O)

Si u = (ul , u2, . . . , un) es cualquier vector en R", entonces el negativo o (inverso aditivo) de u se denota por -u y se define por

- u = ( - u , , -u2,. . . , -un)

La diferencia de vectores en R" se define por

v - u = v + ( - u )

o, en términos de las componentes,

v - u = (u, - u,, u2 - 2.42, . . . , U" - u,)

PROPIEDADES En el siguiente teorema se enumeran las propiedades aritméticas más importantes DE LAS de la adición y la multiplicación escalar de vectores en R". Todas las demostracio- OPERACIONES nes son fáciles, por lo que se dejan como ejercicios. VECTORIALES EN EL DIMENSIONAL

Teorema 4.1.1. Si u = (u1 , u2, . . . , un), v = (vl, v2, . . . vfl) y w = (wl, w2, . . . wn> son vectores en R" y k y 1 son escalares, entonces:

a) u + v = v + u ~ 6) u + ( v + w ) = ( u + v ) + w I c) u + o = o + u = u

d ) u + ( - u ) = O ; e s d e c i r , u - u = O e ) k(1u) = (kl)u f ) k ( u + v ) = k u + k v g ) ( k + /)u = ku + lu h ) l u = u

I

Este teorema permite operar vectores R" sin necesidad de expresarlos en términos de las componentes. Por ejemplo, para despejar x en la ecuación vectorial x + u = v, se puede sumar -u a ambos miembros y proceder como sigue:

(X+U)+(") = v + ( - u ) x + ( u - u ) = v - u

x + o = v - u x = v - u

Page 203: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

206 i Espacios vectoriales euclidianos

Es instructivo que el lector mencione los incisos del teorema 4.1.1 que justifcan los tres últimos pasos de este cdculo.

ESPACIO Para extender los conceptos de distancia, norma y ángulo a R", se empieza con la EUCLIDIAN0 n siguiente generalización del producto punto sobre R2 y R3. Fórmula (3) de la sec- DIMENSIONAL ción 3.31.

Definición. Si u = (ul, u2, . . . , un), y v = (v l , v2, . . . vn) son vectores cualesquiera en R", entonces el producto interior euclidiano u v se define por

u.v = U I U , + u*u* + . . . + unvn

Observar que cuando n = 2 o n = 3, el producto interior euclidiano es el producto punto ordinario.

Ejemplo 1 El producto interior euclidiano de los vectores

u = (-1, 3, 5, 7) y v = (5, -4, 7, O )

en R4 es

~ . ~ = ( - 1 ) ( 5 ) + ( 3 ) ( - 4 ) + ( 5 ) ( 7 ) + ( 7 ) ( 0 ) = 1 8 A

Como muchos de los conceptos conocidos de los espacios bidimensional y trilmensional existen en el espacio n dimensional, es común referirse a R", con las operaciones de adición, multiplicación escalar y producto interior euclidiano que se han definido aquí, como espacio euclidiano n dimensional.

En el siguiente teorema se enumeran las cuatro propiedades aritméticas más importantes del producto interior euclidiano.

Teorema 4.1.2. Si u, v y w son vectores en R" y k es cualquier escalar, entonces:

a) u . v = v . u b) ( u + v ) . w = u . w i - v . w c) (ku). v = k(u . v) d ) v.v?O.Además,v-v=O siysólosi v = O .

-

Se demostrarán los incisos b) y d), y las demás demostraciones se dejan como ejercicios.

Page 204: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4.1 Espacio euclidiano n dimensional / 207

Entonces

( u + v ) . w = ( u , +u , ,u ,+u , , . . . , U , + U , ) . ( W l , W 2 , . . . , w,)

= ( U I + U l ) W l + (u2 + u2)w2 -t. . ' + (u, + u,)w, = (ulw, + u*w2 + . ' ' + u,w,) + ( U 1 W , + u2w2 + . . ' + u,w,) = u . w + v . w

Demostración de d). Se tiene v v = v++v#+ ...+v O. Además, la igualdad se cumple si y sólo si v1 = v2 = . . . = v,, = O, es decir, si y sólo si v = O . 0

Ejemplo 2 EL teorema 4.1.2 permite realizar cálculos con productos interiores euclidianos de manera bastante semejante a como se efectúan con productos arit- méticos ordinarios. Por ejemplo,

(3u + 2v) * (4u + v) = (3u) (4u + v) + (2v) - (4u + v) = (3u) (4u) + (3u) v + (2v) (4u) + (2v) * v

= 1 2 ( u . u ) + l I ( u . v ) + 2 ( v . v ) = ~ ~ ( I I - u ) + ~ ( u - v ) + ~ ( v - u ) + ~ ( v - v )

El lector debe determinar qué incisos del teorema 4.1.2 se aplicaron en cada paso. A

NORMA Y Por analogía con las conocidas fórmulas en R2 y R3, la norma euclidiana (o DISTANCIA EN longitud euclidiana) de un vector u = (u1, u2, , . . , U,,) en R" se define por EL ESPACIO EUCLIDIAN0 n DIMENSIONAL (1) 11u11 = (u * = v u : + 2.4'2 + . . . + ut

[Comparar esta fórmula con las fórmulas (1) y (2) de la sección 3.2.1

. . , U,,) y v = (y1, v2, . . . , vn) en R" se define por De manera semejante, la distancia euclidiana entre los puntos u = (ul , uz, .

Ver las fórmulas (3) y (4) de la sección 3.2.

Ejemplo 3 Si u = (1, 3, -2, 7) y v = (O, 7, 2, 2), entonces en el espacio euclidiano R" se tiene que

Y d ( u , v ) = 2 / ( 1 - 0 ) 2 + ( 3 - 7 ) 2 + ( - 2 - 2 ) 2 + ( 7 - 2 ) 2 = f i A

. ... I ..".".

Page 205: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

208 ,' Espacios vectoriales euclidianos

El siguiente teorcrna proporciona una de las desigualdades más importantes del Algebra lineal, la desigualdad de Cauchy-Schwarz*

Teorema 4.1.3. (Desigualdad de Cauchy-Schwarz en R"). Si

son vectores en R", entonces

I o, expresada en términos de las componentes,

*ilugustin Louis Barón de) Cauchy (1789-1857). Matemático francés. Cauchy recibió su primera educación de su padre, abogado y que también era maestro de los clásicos. Cauchy ingresó a la Ecole Polytechnique en 1805 para estudiar ingeniería, pero debido a su quebrantada salud, le recomendaron concentrarsc en las matemáticas. Su trabajo matemático especializado empezó en 181 1 con una serie de brillantes soluciones de algunos prohlemas sobresalientes dificiles.

[ a s contribuciones matemáticas de Cauchy durantc los 35 afioius siguientes fueron brillantes y asombrosas en cantidad, > a que produjo más de 700 articulos que abarcan 26 volúmenes modernos. El trabajo de Cauchy inició la era del análisis moderno, aport6 a In% matemáticas n o m a s de precisión y rigor jamás soñados por matemáticos anteriores a 61.

I,a vida de C;ruchy estuvo ligada de manera inextricable a los aconteclmientos políticos de l a &poca. Fuerte partidario de los Worbones, abandonó a su mujer e hijo en I 830 para seguir al exllio ai rey borbón Carlos X. Debido a su lealtad, el ex-rey lo nombr6 barón. Cauch? volvió finalmentc a Francia pero rehuso aceptar u n puesto universltario. hasta que el gobierno ccdio al requisitc dr: que prestara juramento.

Es dificil tener una imagen clara de la personalidad de Cauchy. Devoto católico, patrocinó obra> dc carldad para madres solteras y criminales, asi como de ayuda a Irlanda Sin embargo. otroz aspectos de su vida lo presentan de manera desfavorable. E 1 matcmitico noruego Abel lo describe co1710 "loco. i~~finitamrnte caiólicn y fanático". Algunos escritores pregonan sus enseñanzas. pero otros aiirman que divagaba incoherenc~as y. según un informe de l a época. una ocasión dedic6 toda una clase a extraer l a raíz cuadrada de 17 a 10 cifras decimales aplicando un metodo bien conocido por SUS estudiantes. En todo caso, Cauchy cs indiscutiblemente una de las grandes luminarias en la historia de la ciencia.

f f e rman .4mandrrs Schwarz 1843.1921). Matemático alemán. Schwarz fue e1 matemático más Importante en ncrlín durante la primera parte del siglo NX. Debido a la devoción que guardaba respecto a s u s deberes académicos ell la IJniversidad de Berlín y a una propensión a tratar con la misma dedicación hechos importantes y hechos triviales, n o public6 en gran i,olumen. Tendía a centrarse en estrechos problemas concretos. pero sus técnicas eran a nrenudo extremadarnents brillantes e influenciaban el trabajo de otros matemiticos. l J n a versión de l a desigualdad que llc\a su nonlbre apareció en un artículo sobre superficies de área minima publicado en 1885

Page 206: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4.1 Espacio euclidiano n dimensional / 209

Por el momento se omite la demostración, ya que después en el texto se demostrará una versión más general de este teorema. Sin embargo, para vectores en R2 y R3, este resultado es una simple consecuencia de la fórmula (1) de la sección 3 . 3 : Si u y v son vectores diferentes de cero en R2 o R3, entonces

lu.vl = I11~11 llvll cos 81 = llull llvll /cos el 5 l lull llvll (5)

y si u = O o v = O , entonces ambos miembros de (3) son cero, de modo que también en este caso se cumple la desigualdad.

En los dos teoremas siguientes se enumeran las propiedades básicas de la longitud y la distancia en el espacio euclidiano n dimensional.

~~

rTeorema 4.1.4. Si u y v son vectores en K" y k es cun!quier escalar, entonces: ~~

I

Se demostrarán los incisos c ) y d), y las demostraciones de a) y 6) se dejan como ejercicios.

Demostración de c). Si u = (u1, u2, . . . , U,), entonces ku = (kul, ku2, . . . , ku,), de modo que

Demostración de d).

( ( u + v ( ( 2 = ( u + v ) . ( u + v ) = ( u . u ) + 2 ( u . v ) + ( v . v ) = ()u/12 + 2(u v) + (/VI12

5 11u112 + 21u * V I + IIVII?

= tllull + //v11~2

Propiedad del valor absoluto

S I ( u ( ( ~ + 2llull ((v(( + ( ( ~ ( 1 ~ Desigualdad de Cauchy-Schwarr. I

El resultado se deduce ahora extrayendo raíz cuadrada a ambos miembros, 0

El inciso c) de este teorema establece que al multiplicar un vector por un escalar k, la longitud del vector se. multiplica por un factor k (figura 2a). El inciso d) de este teorema se conoce como desigualdad del triángulo, ya que generaliza el conocido resultado de la geometría euclidiana el cual establece que la suma de las

Page 207: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

210 2,' I+pacio,s vectariales euclidianos

longitudes de dos lados de un triángulo es mayor o igual que la longitud del tercer lado (figura 2b)

Figura 2

Teorema 4.1.5. Si u, v y w son vectores en R" y k es cualquier escalar, entonces

(Z) d(u, v) 2 o 6) d(u, v) = o SI .v sólo SI u = v c) d(u, v) = d(v, u) d ) d(u, v) 5 d(u, w) + d(w, v) (Desigualdad del trriúngulo)

Los resultados de este teorema son consecuencias inmediatas del teorema 4.1.4 Se demostrará el inciso d) y las demostraciones de los demás incisos se dejan como ejercicios.

Demostración de d). Por (2) y el inciso d) del teorema 4.1.4, se tiene

d(u, v) = \ /u - VI/ = Il(u " w) + (w - v)l/ 5 l j l l - w// + l/w - VI/ = d(u, w) + d(w, v) o

El inciso d) de este teorema, que también se denomina desigualdad del triúngulo, generaliza el conocido resultado de geometría euclidiana que establece que la distancia más corta entre dos puntos es una recta (figura 3 ) .

Page 208: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4.1 Espacio euclidiano n dimensional / 21 1

La fórmula (1) expresa la norma de un vector en términos de un pro- ducto punto. El siguiente teorema útil expresa el producto punto en términos de normas.

Teorema 4.1.6. Si u y v son vectores en R" con producto interior euclidiano, entonces

u . v = +/\u + VI12 - +ilu - VI12 (6)

I 1

Demostración.

a partir de lo cual (6) se concluye por álgebra simple. 0

En los ejercicios se proporcionan algunos problemas numéricos en los que se aplica este teorema.

ORTOGONA- Recordar que en los espacios euclidianos R2 y R3 dos vectores u y v se definen LIDAD como ortogonales perpendculares) si u v = O (sección 3.3). Con esta motivación

se presenta la siguiente definición.

Definición. Dos vectores u y v en R" se denominan ortogonales si u v = O .

Ejemplo 4 En el espacio euclidiano R4, los vectores

u = (-2, 3, 1, 4) y v = (1, 2, o, -1)

son ortogonales, ya que

~ .~=( -2 ) (1 )+ (3 ) (2 )+ (1 ) (0 )+ (4 ) ( -1 )=0 A

Después, en el texto, se analizarán con más detalle las propiedades de los vectores ortogonales, aunque en este momento se observa que muchas de las propiedades conocidas de los vectores ortogonales en los espacios euclidianos R2 y R3 son verdaderas en el espacio euclidiano R". Por ejemplo, si u y v son vectores ortogonales en R2 o en R3, entonces u, v y u + v forman los lados de un triángulo rectángulo (figura 4); así, por el teorema de Pitágoras,

Page 209: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

21 2 I Espacios vectoriaIes euclidianos

Figura 4

OTROS TIPOS DE NOTACIÓN PARA VECTORES EN R"

U

El siguiente teorema muestra que este resultado se extiende a R".

Teorema 4.1.7. (Teorema de Pitágoras para R"). Si u y v son vectores ortogo- nales en R" con el producto interior euclidiano, entonces

1 1 1 1 + V I 2 = 11U1l2 + llvll2

Un vector u = u l , u2, . . . , U,,) en R" también se puede escribir en notación matricial como matriz renglón o matriz columna:

U = [;I o u = [ . , u2 . . . u,]

u,

Lo anterior se justifica porque con las operaciones matriciales

se obtienen los mismos resultados que con las operaciones vectoriales u + v = ( U l , u2,. . . , u,) + (u,, u2 , . . . , u,) = (u1 + u,, u2 + u,,. . . , un + u,)

ku = k ( u , , u2, . . . , u,) = ( k u , , ku,, . . . , ku,)

Page 210: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4.1 Espacio euclidiano n dimensional / 213

La única diferencia es la forma en que se escriben los vectores.

UNA FORMULA Si los vectores se escriben como matrices columna MATRICIAL PARA EL PRODUCTO PUNTO U =

y en las matrices 1 X 1 se omiten los corchetes, entonces se deduce que

Así, para vectores expresados como matrices columna se tiene la siguiente fórmula para el producto interior euclidiano:

Por ejemplo, si

entonces

E3 VTU = u . v

u = [ -;I u . v = v T u = [ 5

Si A es una matriz n X n, entonces por la fórmula (7) y las propiedades de la transpuesta se concluye que

AU v = ~'(Au) = (v'A)u = (A'v)=u = U * A'v u .Av = (Av)Tu = (v=AT)u = vT(ATu) = ATU. v

Page 211: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

214 / Espacios vectoriales euclidianos

constituyen un vínculo importante entre la multiplicación por una matriz A n X n y la multiplicación por AT.

Ejemplo 5 Suponer que

1 - 2 A = [ 2 4

- 1 o Entonces

1

a partir de lo cual se obtiene

..

3 1], .=[-;I, v = [ -p1 1

-: ;][ - ;] = [ 4 -:I[ -;I= [ -; o 1

I 1 - 1.

AU v = 7( - 2) + lO(0) + 5(5) = I 1

u*ATv=( -1 ) ( - -7 )+2(4 )+4( -1 )= 1 1

Así, Au * v = u A%, como garantiza la fórmula (8). Se deja para el lector la comprobación de que (9) también se cumple. A

UN PRODUCTO Los productos punto proporcionan otra forma de entender la multiplicación PUNTO de matrices. Recordar que si A = [a,] es una matriz m X r y B = [b,.] es una CONSIDERADO matriz Y X n, entonces el ij-ésimo elemento de A B es COMO MULTIPLICA- CIÓN MATRICIAL

que es el producto punto del i-ésimo vector renglón de A

y el j-ésimo vector columna de B

Page 212: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4.1 Espacio euciidiano n dimensional / 215

Por tanto, si los vectores renglón de A son r,, r,, . . . , r, y los vectores columna de B son c l , c,, . . . , c,, entonces el producto matricial A B se puede expresar como

AB =

En particular, un sistema lineal Ax = b se puede expresar en forma de producto punto como

r l . x r2 - x

rm - x donde rl, r l , . . . , rm son los vectores renglón de A y b,, b,, . . . , bm son los elementos de b.

Ejemplo 6 A continuación se presenta un ejemplo de un sistema lineal expresado en la forma de producto punto (1 1).

Sistema Forma de producto punto

EJERCICIOS DE LA SECCIÓN 4.1

1. S e a n u = ( - 3 , 2 , l , O ) , v = ( 4 , 7 , - 3 , 2 ) y w = ( 5 , -2, 8, 1). Encontrar a) v - w b) 2~ + 7~ C) "U + (V - 4 ~ ) d) 6(u - 3v) e) - v - w f ) (6v - w) - (4u + v)

2. Sean u, v Y w 10s vectores del ejercicio 1. Hallar el vector x que satisface 5x - 2v = (2w - 5%).

4. Demostrar que no existen escalares cl , c2, c3 y c4 tales que

c,(l, o, 1, 0) + c2(1, o, -2, 1) + c3(2, o, I , 2) = ( I , -2, 2, 3 ) 5. En cada inciso, calcular la norma euclidiana del vector.

a) ( -2 , 5) b) (1,2, -2) c ) (3,4, O, -12) d) (-2, I , I , -3 ,4)

Page 213: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

218 1' Espacios vectoriales euclidianoh

V I = ( U l , o, o, . . . , O), v2 = (O, (I?, o, . . . , O), . . , , v, = ( O , o, o, . . . , a,,)?

b) ¿,Cómo definiría el lector la longitud euclidiana de la "diagond" de la caja en el inciso a)?

4

Figura 5

4.2 TRANSFORMACIONES LINEALES DE P A Ry"

En esta sección se iniciara el estudio de funciones de la forma w = F(x), donde la variable independiente H es un vector en Rn y la variable dependiente w es un vector en N"'. La atención se centrará en una clase especial de tales funciones denominadas "transfonnaciones lineales". Las transformaciones lineales son fundamentales en el estudio del álgebra lineal y tienen muchas aplicaciones importantes en faica, ingeniería, ciencias sociales y diversas ramas de la matemática.

FUNCIONES DE Recordar que una funcidn es una regla f que asocia a cada elemento de un F A R conjunto A uno y sólo un elemento de un conjunto B. Sifasocia el elemento b con

el elemento a, entonces se escribe b =Aa) y se dice que b es la imagen de a bajof, o que f ( a ) es el valor de f e n a. El conjunto A se denomina dominio d e f y el conjunto B se denomina codominio del: El subconjunto de B que consta de todos los valores posibles de f cuando a varía sobre A se denomina recorrido de f: Para las funciones más comunes, A y B son conjuntos de números reales, en cuyo caso f se denomina función con valores reales de una variable real. Otras funciones CO-

munes Ocurren cuando B es un conjunto de números reales y A es un conjunto de vectores en R2, R3 o, más generalmente, en R". En la tabla 1 se muestran algunos ejemplos.

Page 214: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4.2 Transformaciones lineales de R" a Rm / 219

TABLA 1

Fórmula I Ejemplo

f (x> f (x) = x2

Clasificación

Función de valores reales de una variable red

' Función de valores reales de dos variables reales

Función de valores reales de tres variables reales

Descripción ~~~

Función de R a R

Función de R2 a R

Función de R3 a R

Función de valores reales de n variables reales

Función de R" a R

Dos funcionesfi y f2 se consideran iguales, escrito como f l =&, si tienen el mismo dominio y f i ( a ) =&(a) para toda a en el dominio.

FUNCIONES DE Si el dominio de una funciónfes R" y el codominio es Rm (m y n quizá iguales), R" ARm entonces f se denomina transformación de R" a Rm, y se dice que f mapea (aplica

o transforma) R" en Rm. Este hecho se denota escribiendo $ R" -, Rm. Las fun- ciones que se presentan en la tabla 1 son transformaciones para las que m = 1. Para el caso especial en que m = n, la transformación$ R" + R" se denomina ope- rador sobre R". El primer elemento en la columna 2 de la tabla 1 es un operador sobre R.

Para ilustrar una forma importante en que pueden surgir las transformacio- nes, suponer quefl,fi, . . . , fm son funciones con valores reales de n variables rea- les, por ejemplo

Estas m ecuaciones asignan un punto Único (wl , w2, . . . , w,) en Rm a cada punto (x1, x2, . . . , X,,) en R" y, por tanto, definen una transformación de R" a Rm. Si esta transformación se denota por T, entonces T:R" + Rm y

Ejemplo 1 Las ecuaciones w1 = x, + x2 w2 = 3x,x2 wj = x ; - x;

Page 215: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

220 1 Espacios vectoriales euclidianos

definen una transformación T:R2 -+ H3. Con esta transformación, la imagen del punto (xl, xz) es

T(X,, X2) = (11 f X2, 3xlX2, 1: -.X:)

Así, por ejemplo,

T(1, - 2 ) = ( - 1 , -6, - 3 ) A

TRANSFORMA- En el caso especial en que las ecuaciones de (1) son lineales, la trasformación T:Rn CIONES + K" definida por esas ecuaciones se denomina transformación lineal (u ope- LINEALES DE rador lineal si m = n). Así, una transformación lineal T:R" -+ Rm está definida por R " a P ecuaciones de la forma

W ] = a,+] + a,2x2 + ' ' . + a,,x,

o bien, en notación matricial,

o, más brevemente, w = A x

La matriz A = [a. -1 se denomina matriz estrindar de la transformación lineal T y T se denomina muhplicación por A .

Ejemplo 2 La transformación lineal T:R4 + R3 definida por las ecuaciones

W I = 2x1 - 3x2 f X3 - 5x4

w 2 = 4x, + x2 - 2x3 + ,x4

w3 = 5x, - x* + 4x3

se puede expresar en forma matricial como

de modo que la matriz estándar para T es

Page 216: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4.2 Transformaciones lineales de R" a Rm / 221

ALGUNOS COMENTARIOS SOBRE LA NOTACI~N

La imagen de un punto (xl, x2, x3, x4) se puede calcular directamente a partir de las ecuaciones de definición (5) o a partir de (6) por multiplicación de matrices. Por ejemplo, si (xl, x2, x3, x4) = (1, -3, O , 2), entonces al sustituir en (5) se obtiene

w I = l , w2=3, w , = 8

(comprobar) o, alternativamente, a partir de (6)

Si T:R" + Rm es una multiplicación por A , y si es importante recalcar que A es la matriz estándar para T, entonces la transformación lineal TR" "* Rm se denota por TA:R" + Rm. Así,

TA(x) = A x ( 7 )

En esta ecuación se sobrentiende que el vector x en R" se expresa como una matriz columna.

Algunas veces es tedioso introducir una nueva literal para denotar la matriz estándar de una transformación lineal T:R" -+ R". En esos casos, la matriz están- dar.para T se denota por el símbolo [q. Con esta notación, la ecuación (7) asume la forma

T(x) = [ T ] x (8)

Algunas veces se mezclan las dos notaciones para la matriz estándar, en cuyo caso se tiene la relación

(9)

OBSERVACI~N. Entre toda esta notación es importante tener en mente que se ha establecido una correspondencia entre las matrices m X n y las transformaciones lineales de R" a Rm: a cada matriz A le corresponde una transformación lineal T,: (multiplicación por A ) , y a cada transformación lineal T:R" "* Rm le corresponde una matriz [q m X n (la matriz estándar para 7).

Page 217: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

222 ,; Espacios vectoriales euclidianos

GEOMETRÍA DE Dependiendo de si las n-adas se consideran como puntos o como vectores, el LAS TRANSFOR- efecto geométrico de un operador TR" + R" es transformar cada punto (o vector)

LINEALES MACIONES en Rn en algún nuevo punto (o vector) (figura 1).

-

Figura 1

1 "-+ -

T mapea puntos en puntos. T mapea vectores en vectores

Ejemplo 3 Si O es la matriz cero m x n y O es el vector cero en R", entonces para todo vector x en R"

T,(X) = ox = o

de modo que la multiplicación por cero mapea cada vector de R" en el vector cero en R". To se denomina transformación cero de R" a R". Algunas veces la transformación cero se denota por O. Aunque esta e$ la misma notación que se usa para indicar la matriz cero, la interpretación apropiada es evidente a partir del contexto. A

Ejemplo 4 Si Z es la matriz identidad n x n, entonces para todo vector x en R"

T,(x) = zx = x

de modo que la multiplicación por I mapea cada vector de R" en sí mismo. TI se denomina operador identidad sobre R". Algunas veces el operador identidad se denota por Z. Aunque esta es la misma notación que se usa para indicar la matriz identidad, la interpretación apropiada es evidente a partir del contexto. A

Entre los operadores lineales más importantes sobre R2 y R3 están los que producen reflexiones, proyecciones y rotaciones. A continuación se analizarán esos operadores.

OPERADORES Considerar el operador T:R2-R2 que transforma cada vector en su imagen simé-

Si se hace w = T(x), entonces las ecuaciones que relacionan las componentes REFLEXI~N trica con respecto al eje y (figura 2).

dexywson

Page 218: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4.2 Transfornlaciones lineales de Rn a Rm / 223

w, = --x = "x + oy u'2 = y = ox + y

4 Y

Figura 2 l o bien, en forma matricial,

[::I = [-:, Y ] [ :1 Como las ecuaciones en (10) son lineales, T es un operador lineal y por (1 1) se tiene que la matriz estándar para T es

En general, los operadores sobre R2 y R3 que transforman cada vector en su imagen simétrica con respecto a alguna recta o algún plano se denominan opera- dores reflexiidn. Estos operadores son lineales. En las tablas 2 y 3 se enumeran al- gunos de los operadores reflexih comunes.

'ABLA 2

Page 219: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

224 i Espacios vectoriales euclidianos

ABLA 3

Operador

Reflexión respecto al plano xy

Keflexlón respecto al plano xz

Reflexión respecto al plano yz

Ilustración Ecuaciones

w, = x

w2 = y wg = - 2

w , = x

w, = -y

wg = 2

w1= "x

w, = y

w3 = z

Matriz estjadar

OPERADORES Considerar el operador T:R2-.H2 que transforma cada vector en su proyección PROYECCIóN ortogonal sobre el eje x (figura 3).

Figura 3

Page 220: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4.2 Transformaciones lineales de Rn a Rm / 225

Las ecuaciones que relacionan las componentes de x y w = T(x) son

w , = x = x f O y

w* = o = ox + oy

o bien, en forma matricial;

[::I = [:, :][;I Las ecuaciones en (12) son lineales, de modo que T es un operador lineal y por (13) se tiene que la matriz estándar para T es

[ T 1 = [ 0 o] 1 0

En general, un operador proyección (o más precisamente, un operador proyección ortogonal) sobre R2 o R3 es cualquier operador que transforma cada vector en su proyección ortogonal sobre una recta o un plano que pasan por el origen. Es posible demostrar que estos operadores son lineales. En las tablas 4 y 5 se enumeran algunos de los operadores proyección básicos sobre R2 y R3.

MBLA 4

I I Operador Ilustración Ecuaciones

Proyección ortogonal sobre el eje x w, = x

I I

Proyección ortogonal I

Page 221: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

,726 Espacios vectoriales euclidianos

TABLA 5

OPERADORES R O T A C I ~ N

Operador

Proyección ortogonal sobre el plano xv

Proyección ortogonal sobre el plano xz

Proyección ortogonal sobre el plano yz

Ilustración

4'

Y -__t

2

Matriz estándar

Un operador que hace girar todo vector en R2 hasta describir un ángulo fijo se de- nomina operador rotacidn sobre R2. En la tabla 6 se enumeran los dos operadores rotación básicos sobre R2. Para mostrar cómo se obtuvieron los resultados, consi- derar el operador rotación que hace girar en sentido contrario a las manecillas del reloj cada vector por un ángulo positivo fijo 8. Para encontrar ecuaciones que relacionen x y w = T(x) , sea el ángulo del eje x positivo a x, y sea r la longitud común de x y w (figura 4).

.

Figura 4 I Entonces, por trigonometría básica,

x = r cos 4, y = r send

Page 222: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4.2 Transformaciones lineales de Rn a Rm / 227

Por medio de las identidades trigonométricas en (1 5) se llega a

w, = r cos O cos 4 - r sen8sen4 w,=rsenOcos ++reos Osen4

y sustituyendo en (14) se obtiene

w, =.xcos O-ysen8 w 2 = x s e n 8 + y c o s 8

Las ecuaciones en (16) son lineales, por lo que T es un operador lineal; además; con base en estas ecuaciones se concluye que la matriz estándar para í" es

Matriz Operador

de un ángulo 8 Rotación a través

estándar Ilustración Ecuaciones

(w1, w2) W, = X C O S 8 - y e cos O -sen O St- 8 cos 8 1

\ ( & Y )

Ejemplo 5 Si cada vector en R2 se hace girar un ángulo n/6 = (30°), entonces la imagen w de un vector es

Por ejemplo, la imagen del vector

x = [:]

Page 223: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

228 ' Eipacios vectorzales euctidianos

es

Una rotación de vectores en R3 se describe, por lo general, en relación a un rayo que parte del origen, denominado eje de rotación. A medida que un vector se desplaza alrededor del eje de rotación, describe una porción de un cono figura 5a). E: ángulo de rotucidn, que se mide en la base del cono, se describe como "en sentido del movimiento de las manecillas del reloj" o "en sentido contrario al movimiento de las manecillas del reloj" en relación a un punto de vista situado a lo largo del eje de rotación viendo hacia el origen. Por ejemplo, en la figura 5a, el vector w resulta al hacer girar en sentido contrario al movimiento de las manecillas del reloj alrededor del eje 1 el vector x hasta describir un ángulo 8. Así como en R2, los ángulos son positivos si son generados por rotaciones en sentido contrario al movimiento de las manecillas del reloj, y negativos si son generados por rotaciones en sentido del movimiento de las manecillas del reloj.

La forma más común de describir un eje de rotación general es especificando un vector u diferente de cero situado a lo largo del eje de rotación y cuyo punto inicial está en el origen. La dirección en sentido contrario al movimiento de las manecillas del reloj para una rotación alrededor del eje se puede deternlinar enton- ces mediante una "regla de la mano derecha" (figura 56); si el pulgar de la mano derecha apunta en la dirección de u, entonces los demás dedos apuntan en la dirección opuesta al movimiento de las manecillas del reloj.

A " I

Rotacidn en sentido contrario 5 a las manecillas del reloj.

Figura 5 (i I b )

Un operador rotucidn sobre R3 es un operador lineal que hace girar cada vector en R3 alrededor de algún eje de rotación hasta describir un ángdo fijo 8. En la tabla 7 se describen los operadores rotación sobre R3 cuyos ejes de rotación son los ejes de coordenadas positivos. Para cada una de estas rotaciones, la rotación deja sin cambio una de las componentes, y las relaciones entre las otras componentes se pueden obtener con el mismo procedimiento usado para obtener (16). Por ejemplo, en la rotación alrededor del eje z, las componentes z de x y w = T(x) son las mismas, y las componentes x y y están relacionadas como en (16). Esto conduce a las ecuaciones de rotación que se muestran en el último renglón de la tabla 7.

Page 224: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4.2 Transformaciones lineales de R" a Rm / 229

'ABLA 7

Operador

Rotación en sentido contrario al movimiento de las manecillas del reloj a través de un á n a o respecto al eje x positivo.

Rotación en sentido contrario al movimiento de las manecillas del reloj por un ángulo respecto al eje y positivo.

Rotación en sentido Zontrario al movimiento de las manecillas le1 reloj a través le un ángulo lespecto al eje z ~ositivo.

Ilustración

tz

t"

Ecuaciones

w , =x

w2 =ycos 0 -z sen0 w3 = y sen O + z COS O

w 1 = x cos O + z sen0 U'2 = y

= -xsenO+zcosO

w , =xcos 0 -ysen0 w2 =xsenO+ycos 0

wj = z

Matriz estándar

O

cos 8 O sen O

.:@I

cos0 - sen0 O

[se; 0 coi O p]

Por completitud, se observa que la matriz estándar para una rotación en sentido contrario al movimiento de las manecillas del reloj alrededor de un eje en R3 (detenninado por un vector unitario arbitrario u = (a, b, c) cuyo punto inicial está en el origen) por un ángulo 8, es

[ a2(I - cos 8) + cos 8 ab(1 - cos 0) - c sen 0 ac(1 - cos 0) + b sen8 a b ( l - c o s 8 ) + c s e n 8 b2 (1 -cose )+cos8 b c ( l - c o s ~ ) - u s e n 8 ac(1 - cos 0) - b sen O bc(1 - cos O ) + U sen 8 c2(1 - cos 0) + cos O 1

( 1 7 ) L a obtención de este hecho puede consul barse en el libro Yrincipies of Interactive Computer Graphics, de W. M. Newrnan y R. F. Sproull, 'Nueva York, McGra\v-

... . .

Page 225: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

230 Espacios vectoriaies euclidianos

Hill, 1979. Es instructivo que el lector deduzca los resultados de la tabla 7 como casos especiales de este resultado más general.

OPERADORES Si k es un escalar no negativo, entonces el operador T(x) = kx sobre R2 o R3 se DILATACION Y denomina contracción con factor k si O I k 5 1 y dilatacidn con factor k si k 2 CONTRACCIóN 1. El efecto geométrico de una contracción es comprimir cada vector por un factor

k (figura 6 4 , y el efecto de una dilatación es estirar cada vector por un factor k (figura 66). Una contracción comprime R2 o R3 uniformemente hacia el origen desde todas las direcciones, y una dilatación estira R2 o R3 umfonnemente lejos del origen en todas ías direcciones.

Figura 6

U )

O % k < 1

b )

k > 1

La contracción más extrema ocurre cuando k = O, en cuyo caso T(x) = kx se reduce al operador cero T(x) = O, que comprime cada vector a un simple punto el origen). Si k = 1, entonces T(x) = b se reduce al operador identidad T(x) = x, que deja sin cambio cada vector; esto se puede considerar como una contracción o como una dilatación. En las tablas 8 y 9 se enumeran los operadores contracción y Qlatación sobre R2 y R3.

Page 226: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4.2 Transformaciones lineales de R" a Rm / 231

COMPOSICIONES

MACIONES LJNEALES

DE TRANSFOR-

'ABLA 9 Operador

Contracción con factor k sobre R3.

Dilatación con factor k sobre R3.

Ilustración

t"

Ecuaciones

w, = kx

w2 = kY w 3 = kz

w , = kx

w2 = kY w3 = kz

Matriz estándar

0 0 k

Si TA:Rn + Rk y TB:Rk Rm son transformaciones lineales, entonces para todo x en R~ primero se puede calcular lA(x), que es un vector en R ~ , y luego calcular TB(TA(x)), que es un vector en Rm. Así, la aplicación de TA seguida de TB produce una transformación de Rn a Rm. Esta transformación se denomina composición de Ts con TA y se denota por TB 0 TA (y se lee como 'ITA seguida de Tu"). Así,

La composición de TB 0 TA es lineal, ya que

( TB 0 TA)(x) = TB( T,(x)) = B(Ax) = (BA)x (19)

De modo que TB 0 TA es la multiplicación por BA, que es una transformación lineal. La fórmula 19) también establece que la matriz estándar para TB 0 TA es BA. Este hecho se expresa con la fórmula

OBSERVACI~N. La fórmula (20) encierra una idea importante: La multiplicacrón de matrices es equivalente a componer las transformaciones lineales correspon- dientes en orden de derecha a izquierda de los factores.

La fórmula (20) se puede escribir de otra manera: Si T,:R"+Rk y T2:Rk Rm son transformaciones lineales, entonces debido a que la matriz estándar para la composición T, 0 TI es el producto de las matrices estándares para T, y T I , se tiene

Page 227: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

232 / Espacios vectoriales euclidianos

Figura 7

Ejemplo 6 Sean T1:R2 + RZ y T2:R2 + R2 los operadores lineales que hacen girar a los vectores por los ángulos O, y O,, respectivamente. Así, la operación

(T2 O TI )(x> = T,(T,(x))

primero hace girar a x por un ángulo O,, luego hace girar a Tlx) un ángulo O,. Se concluye que el efecto neto de T, o T , es hacer girar cada vector en R2 por el ángulo O, + O , (figura 7).

Así. las matrices estándar para estos operadores lineales son

cos 8, - sen 8, [ T2 1 = [,,,O2 cos 0,

C O S ( O , + O,) -sen(8, + O,) + O,) cos(8, + 8,) 1

Estas matrices deben satisfacer (21). Con auxilio de algunas identidades trigono- métricas básicas se puede demostrar que lo anterior es como sigue:

Page 228: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4.2 Transformaciones lineales de R" a Rm / 233

Figura 8

Ejemplo 7 Sea T,:R2 + R2 el operador reflexión respecto a la recta y = x, y sea T2:H2 + R2 la proyección ortogonal sobre el eje y. En la figura S se ilustra grákamente que T, 0 T2 y T2 0 T , tienen efectos distintos sobre un vector x. Esta misma conclusión se puede obtener mostrando que las matrices estándar para T, y T, no conmutan:

de modo que [ T, 0 TI ] # [ TI 0 T, 1. A

Ejemplo 8 Sea T,:R2 + R2 la reflexión respecto al eje y , y sea T2:R2 + R2 la reflexión respecto al eje x. En este caso, T, 0 T2 y Tz 0 T, son iguales; ambas transforman cada vector x = (x, y ) en su negativo -x = ("x, -y) (figura 9):

t' t'

Figura 9 T , O T2 T2 O T ,

Page 229: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

233 / Espacios vectoriales euclidianos

La igualdad de T , 0 T2 y T2 0 7 , también se puede deducir mostrando que las matrices estándar para TI y T2 conmutan:

E I operador T(x) = "x sobre R2 o se denomina reflexión respecto al origen. Como se muestra con los cálculos anteriores. la matriz estándar para este operador sobre R2 es

COMPOSICIO- Las composiciones se pueden definir para tres o más transformaciones linealcs. NES DE TRES Por ejemplo. considerar las transformaciones lineales o MÁS TRANSFORMA- T,:R"+-R' , T,:Rk-+R', CIONES LINEALES La composición (T3 o T2 0 7,):Rn + R" se define por

(T? " 7,o Ti ) (x) == Ti( Tl( T , ( X ) ) )

ES posible demostrar que esta composición es una transformación lineal, y que la matnz estándar para Tj 0 T, 0 T , está relacionada con las matrices estándar para T I , T, y T3 por

(22)

que es una generalización de (21). Si las matrices estándar para T,, I; 1; se denotan por A , B y C, respectivamente. entonces también se tiene la sigulente generalización de (20):

Solución. La transformación lineal 7 se puede expresar como la composición

Page 230: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4 .2 Transformaciones lineales de Rn a Rm / 235

donde TA es la rotación respecto al eje z, TB es la reflexión con respecto al plano yz y T, es la proyección ortogonal sobre el plano q. De acuerdo con las tablas 3, 5 y 7, las matrices estándar para estas transformaciones lineales son

cos 0 -sen8 O - 1 o o 1 0 0

Así, por (22) la matriz estándar para T es

EJERCICIOS DE LA SECCIÓN 4.2

1. Encontrar el dominio y el codominio de la trasformación defmida por las ecuaciones, y determinar si la trasfonnación es lineal. a) w , = 3x, - 2x, + 4x3 b) W, = ~ x , x , - x2

w, = x, + x2 ~2 = 5x1 - 8x2 + x3 w2 = X I + 3x1x,

C) W , = SX, - x2 + xj d) W , = X: - 3x, + x i - 2x4 w, = -x, + x, + 7x, w, = 3x1 - 4x2 - .x: + xq w j = 2x, - 4x2 - x3

2. Hallar la matriz estándar para la transformación lineal definida por las ecuaciones. a) w, = 2x, - 3x, + x, b) wI = 7x, + 2x2 - 8x,

w2 = 3x, + 5x2 - x, w, = - x2 + 5x, w, = 4x, + 7x2 - x j

c) w1 = -x, + x, d) w, = x I w, = 3x, - 2x2 w, = x , + x2 w3 = Sx, - 7s2 w j = x , +x,+x,

w 4 = x , +x,+x3+x, 3. Determinar la matriz estándar para la transformación lineal TA3 + R3 definida por

w, = 3x, + SX, -x3

w2 = $x, - x2 +x, w3 = 3x, + 2x2 -x,

y calcular T( - 1,2,4) sustituyendo directamente en las ecuaciones y por multiplicación matncial.

Page 231: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

236 / Espacios vectoriales euclidianos

5. Encontrar la matriz estándar para la transformación lineal T definida por la fórmula a) T ( x , , .x2) = (xz, - - S , , xi + 3x,, xI - x2) b) T(x-, , ,x2, ,uj, x4) = (7x, + 2x2 -x3 + .x4, x2 +x,, -.xi) c) T ( x , , x2. X,) = (O, O, O, O, O j d) TCu,, xZr x3, xq) = (x4. x I , xj. x2, .xI -xi)

6. En cada inciso se proporciona la matriz estándar [q de una transformación lineal T. IJsar la matriz para encontrar í"(x). [Expresar la respuesta en forma matricial.]

7. I?n cada mciso, encontrar í"(x) usando la matriz para T, luego, comprobar el resultado calculando directamente T(x). a) T(x , , x , )= ( - x ,+x , , x , ) ; x = ( - 1 , 4 ) b) 7 ' ( ~ , , ~ 2 , X,) = (2x1 - X > + ~ 3 , x2 + ,uj, O); X = (2, 1, - 3)

8. Por medio de la multiplicación matricial hallar la reflexión de ( - 1,2) respecto a a) el ejex. b) el ejey. c) la recta y = x.

9. Usar la multipiicación matricial para encontrar la reflexión de (2, -5, 3 ) respecto al a) planoxy. b) planoxz. c) plano yz.

10. Mediante multiplicaci6n matricial obtener la proyección ortogonal de (2, - 5 ) sobre a) el eje x. b) el ejey.

11. Utilizar la multiplicación matricial para encontrar la proyección ortogonal de ( - 2 , 1, 3) sobre el a) plano x y . b) plano xz. c) plano yz.

12. Usar la multiplicación matricial para encontrar la imagen del vector (3, -4) cuando se hace girar un ángulo de a) 0 = 3 0 O b) 8 = -60' C) 0 = 4 5 O d) 0 = 90°

13. Por medio de la multiplicación matnciai hallar la imagen del vector ( - 2 , 1, 2) si este se hace girar a) 30° en sentido contrario al movimiento de las manecillas del reloj con respecto al

eje x. b) 4 5 O en sentido contrario al movimiento de las manecillas del reloj con respecto al

eje y . c) 90° en sentido contrario al movimiento de las manecillas del reloj con respecto al

eje z.

14. Encontrax la matrrz estándar para el operador lineal que hace girar un vector en R3 en sentido del movimiento de las manecillas del reloj hasta describir un ángulo de -60' con respecto al a) eje x. b) eje y . c) eje z.

Page 232: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4.2 Transformaciones lineales de R" a Rm / 237

15. Usar multiplicación matricial para encontrar la imagen del vector (-2, 1, 2) si éste se hace girar a) -30° en sentido del movimiento de las manecillas del reloj con respecto al eje x. b) -45O en sentido del movimiento de las manecillas del reloj con respecto al eje y . c) -90° en sentido del movimiento de las manecillas del reloj con respecto al eje z.

16. Encontrar la matriz estándar para la composición de operadores lineales sobre R2 que se indica. a) Una rotación de 90° en sentido contrario al movimiento de las manecillas del reloj,

b) Una proyección ortogonal sobre el eje y , seguida de una contracción con factor k =

c) Una reflexión con respecto al eje x, seguida de una dilatación con factor k = 3 .

seguida de una reflexión con respecto a la rectay = x.

- 2 ' 1

17. Encontrar la m a w estándar para la composición de operadores lineales sobre R2 que se indica. a) Una rotación de 60° en sentido contrario al movimiento de las manecillas del reloj,

seguida de una proyección ortogonal sobre el eje x, seguida de una reflexión con respecto a la recta y = x.

b) Una dilatación con factor k = 2, seguida de una rotación de 45O en sentido contrario al movimiento de las manecillas del reloj, seguida de una reflexión con respecto al eje y .

c) Una rotación de 15O en sentido contrario al movimiento de las manecillas del reloj, seguida de una rotación de 105O en sentido contrario al movimiento de las ma- necillas del reloj, seguida de una rotación de 60° en sentido contrario al movi- miento de las manecillas del reloj.

18. Encontrar la malriz estándar para la composición de operadores lindes sobre R3 que se indica. a) Una reflexión respecto al plano yz, seguida de una proyección ortogonal sobre el

b) Una rotación de 45O en sentido contrario al movimiento de las manecillas del reloj plano x z .

respecto al eje y , seguida de una dilatación con factor k = fi .

al plano yz. c) Una proyección ortogonal sobre el plano q, seguida de una reflexión con respecto

19. Encontrar la matriz estándar para la composición de operadores lineales sobre R3 que se indica. a) Una rotación de 30' en sentido contrario al movimiento de las manecillas del

reloj respecto al eje x, seguida de una rotación de 30' en sentido contrario al movimiento de las manecillas del reloj respecto al eje z, seguida por una con- tracción con factor k = +

b) Una reflexión respecto al plano xy, seguida de una reflexión respecto al plano x z ,

seguida de una proyección ortogonal sobre el plano yz. c) IJna rotación de 270' en sentido contrario al movimiento de las manecillas del

reloj respecto al eje x, seguida de una rotación de 90' en sentido contrario al mo- vimiento de las manecillas del reloj respecto al eje y, seguida de una rotación de 180' respecto al eje z.

Page 233: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

,738 Espacios vectoviales euclidianos

20. Determinar si T , U K2 = T, O TI. a) 7, : R' -+ X' es la proyección ortogonal sobre el eje x y T2X2 += R2 es la proyección

ortogonal sobre el eje y . b) 7, . R' += R' es la rotación en sentido contrario al movimiento de las manecillas del

reloj hasta describir un ángulo 8, y Tz : R2 -+ R2 es la rotación en sentido contrario al movimiento de las manecillas del reloj hasta describir un Angulo

c) T I R2 += R2 cs l a reflexión respecto al eje x y 7; : R2 += R2 es la reflexión respecto al eje y .

d) T I : R' + H' es la proyección ortogonal sobre el eje x y T2 : H' -+ R' es la rotación en sentido contrario ai movimiento de las manecillas del reloj hasta describir un Lingulo O.

21. Detenninar si T , o 7; = 1- o 7' 1. a) 7 , : K3 += R 3 cs &a dhatación con factor k y 7, : R 3 + R3 es la rotación en sentido

contrario al movimiento de las manecillas del reloj con respecto al eje z hasta describir un ángulo

b) T , . R' .+ R3 es la rotación con respecto al eje x hasta describir un ángulo 8, y T2 : K' -+ R3 es la rotación con respecto al eje z hasta describir un ángulo O,.

22. En R3, las proyecciones ortogonales sobre el eje x, el eje y y el eje z se definen como

respectivamente. a) Demostrar que las proyecciones ortogonales sobre los ejes de coordenadas son

operadores lineales y encontrar sus matnces estándar. b) Demostrar que si TR3 + R3 es una proyección ortogonal sobre uno de los ejes de

coordenadas, entonces para todo vector x en R3 los vectores T ( x ) y x - T ( x ) son ortogonales.

c) Hacer una figura mostrando x y x - T(x) en el caso en que T es la proyección ortogonal sobre el eje x.

23. A partir de la fórmula (1 7), obtener las matnces estándar para las rotaciones en sentido contrario al movimiento de las manecillas del reloj respecto al eje x, al eje y y al eje z en R3

24. Usar la fórmula (17) para encontrar la matnz estándar de una rotación de 90° en sentido contrario al movimiento de las manecillas del reloj respecto al eje determinado por el vector v = ( 1, 1, 1 ). [Nota La fórmula (1 7) requiere que la longitud del vector que define el eje de rotación sea 1 .]

25. Comprobar la fórmula (21) para las transformaciones lineales dadas.

a) TI@,, x,) = (s i + x , , x I - .y2) y T2(xl, x2) = (3.x,, 2 r I + 4*,) b) T , ( x , . .x2) = (4u1, -2s, +.Y,, -xI - 3x2) y T,(-~l,xz,x3) =(.Y, + 2.r2 - x 3 , 41, -xj) c) T , ( x , , S ? , .x3) = ( -x1 + x2, "Y> + xj, - x 3 + X i ) y T2(.Xl, x 2 , Xj) =

( - 2 . x , , 3x3, - 4x,)

Page 234: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4.3 Propiedades de las transformaciones lineales de Rn a Rm / 239

26. Se puede demostrar que si A es una matriz 2 X 2 con det(A) = 1 y tal que los vectores columna de A son ortogonales y tienen longitud 1, entonces la multiplicación por A es una rotación en sentido contrario al movimiento de las manecillas del reloj hasta describir algún ángulo O. Comprobar que

satisface las condiciones planteadas y encontrar el ángulo de rotación.

27. El resultado del ejercicio 26 también es verdadero en R3: se puede demostrar que si A es una matriz 3 X 3 con det(A) = 1 y tal que los vectores columna de A son ortogonales por parejas y tienen longitud 1, entonces la multiplicación por A es una rotación en sentido contrario al movimiento de las manecillas del reloj con respecto a algún eje de rota- ción hasta describir algún ángulo O. Usar la fórmula (1 7) para demostrar que si A satis- face las condiciones establecidas, entonces el ángulo de rotación satisface la ecuación

cos 0 = ~

tr(A) - 1 2

28. Sea A una matriz 3 X 3 que satisface las condiciones planteadas en el ejercicio 27. Se puede demostrar que si x es cualquier vector en R3, entonces el vector

u = A x + A T x + [ 1 - t r ( ~ ) ] x

determina un eje de rotación cuando u se coloca con su punto inicial en el origen. [Ver The Axis of Rotation: Analysis, Algebra, Geomety , de Dan Kalman, Mathematics Ma- gazine, Vol. 62, No. 4, Oct. 19891. a) Demostrar que la multiplicación por

es una rotación. b) Encontrar un vector de longitud 1 que defina un eje de rotación. c) Usar el resultado del ejercicio 27 para encontrar el ángulo de rotación en sentido

contrario al movimiento de las manecillas del reloj alrededor del eje obtenido en el inciso b).

4.3 PROPIEDADES DE LAS TRANSFORMACIONES LINEALES DE RnA Rm

En esta sección se estudiará la relación entre la invertibilidad de una matriz y las propiedades de la transformación matricial correspondiente. También se obten- drá una representación de las transformaciones lineales de R" a Rm que cons- tituyen la base para transformaciones lineales más generales que se analizarán en secciones ulteriores, y se estudiarán algunas propiedades geométricas de los eigenvectores.

Page 235: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

240 / Espacios vectoriales euclidianos

TRANSFORMA- Las transformaciones lineales que mapean vectores (o puntos) distintos en CIONES vectores (o puntos) distintos revisten especial importancia. Un ejemplo es el LXNEALES UNO operador lineal T:R2 + R2 que hace girar cada vector hasta describir un hngulo B. A UNO Geométricamente resulta evidente que si u y v son vectores distintos en R2,

entonces también los vectoles girados T(u) y T(v) son distintos (figura 1).

A y I *Tív)

Figura 1 I Vectores distintos u Y Y se mueven hacia vectores distintos T(u) Y Tlvl I En contraste, si TR' "* R3 es la proyección ortogonal de R3 sobre el plano

x y , entonces puntos dlstintos sobre la misma recta vertical son mapeados en el mismo punto del plano xy (figura 2).

P

Y

Figura 2 I Los puntos distintos P y Q son mapeados en el mismo punto M. I

Definición. Se dice que una transformación lineal T:R" + R"' es uno a uno si T mapea vectores (puntos) distintos de R" en vectores (puntos) distintos de R"'.

OBSERVACI~N. A partir de esta definición se concluye que para todo vector w en el recorrido de una transformación lineal T uno a uno, existe exactamente un vector x tal que T(x) = w.

Ejemplo 1 En términos de la definición anterior, el operador rotación de la figura 1 es uno a uno, pero el operador proyección ortogonal de la figura 2 no lo es.

Sea A una matriz n x n, y sea TA:R" - R"' la multiplicación por A . A conti- nuación se analizarán las relaciones entre la invertibilidad de A y las propiedades de TA.

Recordar del teorema 2.3.6 (con w en lugar de b) que las siguientes propo- siciones son equivalentes:

Page 236: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4.3 Propiedades de las transformaciones lineales de R" a Rm 1 241

A es invertible Ax = w es consistente para toda matriz w n X 1. Ax = w tiene exactamente una solución para toda matriz w n X 1.

Sin embargo, la última de las proposiciones anteriores es realmente más definitiva que lo necesario. Se puede demostrar que las siguientes proposiciones son equivalentes (ejercicio 24):

A es invertible. Ax = w es consistente para toda matriz w n X 1. Ax = w tiene exactamente una solución cuando el sistema es consistente.

Al traducir lo anterior en proposiciones correspondientes respecto al operador li- neal TA, se deduce que las siguientes proposiciones son equivalentes:

A es invertible. * ' Para todo vector w en R", existe algún vector x en R" tal que TA(x) = w.

Para todo vector w en el recorrido de TA, existe exactamente un vector x Expresado de otra forma, el recorrido de TA es todo R".

en R" tal que TA(x) = w. Planteado de otra forma, TA es uno a uno.

En resumen, se ha establecido el siguiente teorema acerca de los operadores lineales sobre R".

Teorema 4.3.1. Si A es una matriz n X n y TA:R" + Rn es la multiplicación por A, entonces las siguientes proposiciones son equivalentes.

a) A es invertible. b) El recorrido de TA es R". c) TA es uno a uno.

Ejemplo 2 En' el ejemplo 1 se observó que el operador rotación T:R2 --* R2 ilus- trado en la figura 1 es uno a uno. Por el teorema 4.3.1 se concluye que el recomdo de T debe ser todo R2, y que la matriz estándar para T debe ser invertible. Para probar que el recomdo de T es todo R2 es necesario demostrar que todo vector en R2 es la imagen de algún vector x bajo T. Pero claramente este hecho es así, ya que el vector x que se obtiene al hacer girar w hasta describir el ángulo -O lo trans- forma en w cuando se hace girar el ángulo O. Además, por la tabla 6 de la sección 4.2, la matriz estándar para T es

que es invertible, ya que

Page 237: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

,742 Espacios vectoriales euclldianos

Ejemplo 3 En el ejemplo 1 se observó que el operador proyección T:R3 + R3 ilustrado en la figura 2 no es uno a uno. Del teorema 4.3.1 se deduce que el recorrido de T no es todo R3 y que la matriz estándar para T no es invertible. Para mostrar que el recorrido de T no es todo R3, es necesario encontrar un vector w en X3 que no sea la imagen de ningún vector x bajo T. Pero cualquier vector w fuera del plano xy posee esta propiedad, ya que todas las imágenes bajo T están en el plano xy. Además, por la tabla 5 de la sección 4.2, la matriz estándar para T es

que no es invertible. ya que det [g= O. A

INVERSA DE UN Si TA:K" + R" es un operador lineal uno a uno, entonces por el teorema 4.3.1 la OPERADOR matriz A es invertible. Así, TA-':Rn -+ R" por sí mismo es un operador lineal; se LINEAL UNO A denomina inverso de TA. Los operadores lineales TA y TA-, se cancelan entre sí en UNO el sentido de que para todo x en R"

7-,( r, ,(x)) = A'4 - ' x = Ix = x

I ( Tq(x)) = A ' A x = fx = X

o. equivalentemente,

T A o TA-1 == T A A - 1 = TI T A - I 0 T A = T A - 1A = T I

Desde un punto de vista más geométrico, si w es la imagen de x bajo TA, entonces TA-, transforma de vuelta w en x , ya que

__

Figura 3

X " -

I

Page 238: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4.3 Propiedades de las transformaciones lineales de R" a Rm / 243

Antes de presentar un ejemplo, será de utilidad mencionar algo sobre la notación. Cuando un operador lineal uno a uno sobre R" se escribe como ZRn "* R" (en vez de TA:Rn + R"), entonces el inverso del operador T se denota por T " l

(en vez de TA-,). Como la matriz estándar de T" es la inversa de la matriz estándar para T, se tiene

u [ T" ] = [ TI"

Ejemplo 4 Sea T R 2 + R2 el operador que hace girar cada vector de R2 hasta des- cribir el ángulo 0; de modo que por la tabla 6 de la sección 4.2

COS 8 -sen8 [ ' 1 = [seno cos 0 1

Geométricamente es evidente que para deshacer el efecto de T es necesario hacer girar cada vector de R2 por un ángulo -0. Pero esto es exactamente lo que hace el operador T- I , ya que la matriz estándar para T- es

[ T " ] = [ T ] " = cos( - 8) -sen( - 8) sen(- 8) cos( - 8)

(comprobar), que es idéntica a (2), excepto que se sustituye por -0. A

Ejemplo 5 Demostrar que el operador lineal T:R2 + R2 definido por las ecuacio- nes

w , = 2x, + x2 w, = 3x1 + 4x,

es uno a uno, y encontrar T"(W~, w2). Solución. La forma matricial de estas ecuaciones es

de modo que la matriz estándar para T es

Esta matriz es invertible (de modo que T es uno a uno), y la matriz estándar para T" es

Page 239: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

244 Espaclos vectorxales euclidianos

Así,

a partir de lo cual se puede deducir que

T '(M., , ($w, -. 6w2, -?M>, + g w 2 ) A

PROPIEDADES En la sección precedente, una trasformación TR" + R" se definió como lineal si DE LA las ecuaciones que relacionan a x y a w = T(x) son lineales. El siguiente teorema LINEALIDAD proporciona otra representación de la linealidad. Este teorema es fundamental y

constituye la base para extender el concepto de transformación lineal a casos más generales que se presentarán después en el texto.

~~

Teorema 4.3.2. Una trasformación T:R" -+ R" es lineal si y sólo si las si- guientes relaciones se cumplen para todos los vectores u y v en R" y cualquier escalar c. (I) T(u + v ) = T(u) + T(v) h ) T(cu) = cT(u)

~~~ ~~~~

I

Demostración. Primero se supone que T es una transformación lineal, y se hace que A sea la matriz estándar para T. Por las propiedades aritméticas básicas de las matrices se concluye que

T(u + v) = A(u + v) = Au + A v = T(u) + T(v) Y

T(cu) = A(cu) = c('4u) = cT(u)

Recíprocamente, se supone que la trasformación T satisface las propiedades a) y b). Se puede demostrar que 7' es lineal si se encuentra una matriz A con la propiedad

T ( x ) = A x (3 1

para todos los vectores x en R". Con lo anterior se demuestra que T es la multiplicación por A y, en consecuencia, que es lineal. Pero antes de poder obtener esta matriz es necesario observar que la propiedad a) se puede extender a tres o

Page 240: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4.3 Propiedades de las transformaciones lineales de R" a Rm / 245

más términos; por ejemplo, si u, v y w son vectores cualesquiera en R", entonces agrupando primero v y w y aplicando la propiedad u) se obtiene

T(u + v + w) = T(u + (v + w)) = T(u) + T(v + w) = T(u) + T(v) + T(w)

Más generalmente, para vectores cualesquiera Y , , v2, . . . , Vk en R". se tiene

T(v, t v2 + . . ' + V k ) = T(v, ) + T(v,) + . . . + T ( V k )

Luego, para encontrar la matriz A , sean e l , e 2 , . . . , en los vectores

e , = I] , e2 =

y sea A la matriz cuyos vectores columna consecutivos son T(el), T(e2), . . . , T(e,); es decir,

Si

x =

es cualquier vector en R", entonces como se analizó en la sección 1.3, el producto Ax es una combinación lineal de los vectores columna de A con coeficientes de x, de modo que

con lo que se completa la demostración. 0

La Expresión (5) es importante por derecho propio, ya que constituye una fórmula explicita con la cual la matriz esthadar para un operador lineal TR'' -+ Rm se puede expresar en términos de las imágenes de los vectores e,, e2. . . . , e, bajo T. Por razones que serán analizadas después, los vectores el, e2' . . . . e , en (4) se

Page 241: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

246 ,' Espacios vectoriales euclidianos

denominan vectores estándar brisicos para R". En R2 y R3 se trata de los vectores de longitud 1 situados a lo largo de'los ejes de coordenadas (figura 4).

Figura 4 I ase normal para P . 1

Debido a su importancia, la expresión (5) se planteará como teorema para fines de referencias futuras.

Teorema 4.3.3. Si TR" + Rm es una transformación lineal y el, e2, , , . , en son los vectores estrindar. brisicos para R", entonces la matriz estándar para 7 es

La fórmula (6) es un medio eficaz para encontrar matrices estándar y ana- l i za el efecto geométrico de una transformación lineal. Por ejemplo, suponer que T:R3 * R3 es la proyección ortogonal sobre el plano xy . Con referencia a la figura 4, geométricamente es evidente que

de modo que por (6)

[ T I = [ : It] lo que concuerda con el resultado de la tabla 5.

Usando (6) de otra forma, suponer que TA:R3 -+ R2 es la mUltipliCaCiÓn Por

A = [ 3 o 6 1 - 1 2 1

Page 242: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4.3 Propiedades de las transforrnaciones lineales de R” a Km / 247

Las imágenes de los vectores estándar básicos se pueden leer directamente de las columnas de la matriz A :

Ejemplo 6 Sea I la recta en el plano xy que pasa por el origen y forma un ángulo con el eje x positivo, donde O 5 8 < n. Como se ilustra en la figura 5a, sea T:R2 - R2 el operador lineal que transforma cada vector en su proyección ortogonal sobre 1.

a) Encontrar la matriz estándar para T. b) Encontrar la proyección ortogonal del vector x = (1, 5 ) sobre la recta que pasa

por el origen y forma un ángulo 8 = n/6 con el eje x positivo.

Solución de a). De (6),

[ T I = [ í Y e , ) I T(e,)l

donde el y e2 son los vectores estándar básicos para R2. Se considerará el caso en que O 5 8 5 n12; el caso en que n12 < 8 < 7t es semejante. Con referencia a la figura 5b, se tiene IIT(el)ll = cos 8, de modo que

cos2 H

y con referencia a la figura 5c, se tiene IIT(e2)ll= sen 6, de modo que

Así, la matriz estándar para I’ es

Page 243: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

248 1' Icspacios vectoriales euclidianos

[ T I = i cos' H sen O cos sen0 cos O sen2 8 1

Solucicin de b). Como sen nI6 = 112 y cos n/6 = f i I2 , por el inciso a) se con- cluye que la matriz estándar para este operador proyección es

Así, 3 + 5 v 3

f i + 5

4

4

o bien, en notación horizontal.

INTERPRETA- Recuérdese de la sección 2.3 que si A es una matriz n x n, entonces se denomina CIÓN GEOMÉ- eigenvalor de A si existe un vector x diferente de cero tal que TRICA DE LOS EIGENVECTORES Ax = Ax o equivalentemente (AI - A)x = O

Los vectores x diferentes de cero que satisfacen esta ecuación se denominan eigen- vectores de A correspondientes a 1.

Los eigenvalores y eigenvectores también se pueden definir para operadores lineales sobre R"; estas definiciones son paralelas a las definiciones correspon- dientes para matrices.

Definición. Si T:Rn + Rn es un operador lineal, entonces el escalar se denomina eigenvalor de T si en R" existe un x diferente de cero tal que

T(x) = Ax (7)

Los vectores x diferentes de cero que satisfacen esta ecuación se denominan eigenvectores de T correspondientes a 1.

Observar que si il es la matriz estándar para T, entonces (7) se puede escribir como

A X = AX

de donde se deduce que

Page 244: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4.3 Propiedades de las transformaciones lineales de Rn a RIn / 249

Los eigenvalores de T son precisamente los eigenvalores de su matriz

x es un eigenvector de T correspondiente a il si y sólo si x es un eigen- estándar A.

vector de A Correspondiente a A.

Si 1 es un eigenvalor de A y x es un eigenvector correspondiente, entonces A x = Ax, de modo que la multiplicación por A transforma x en un múltiplo escalar de sí mismo. En RZ y R3, esto significa que la multiplicación por A transforma cada eigenvector x en un vector que está sobre la misma recta que x (figura 6).

Figura 6

Recuérdese de la sección 4.2 que si il I O, entonces el operador lineal Ax = 1 x comprime a x por un factor 1 si O I 1 I 1 o estira a x por u11 factor 1 si A 2 1. Si 1 < O , entonces A x = Ax invierte la dirección de x, y comprime el vector invertido por un factor I A I si O I 11 I I 1 o estira el vector invertido por un factor si 1 (figura 7 ) .

Figura 7 o s a s 1 a 2 1 - 1 ~ a s o a s - I

Ejemplo 7 Sea T:R2 + R2 el operador lineal que hace girar cada vector un án- gulo 8. Geométricamente es evidente que a menos de que 8 sea un múltiplo de n, entonces T no transforma ningún vector x uerente de cero sobre la misma recta que x; en consecuencia, T no tiene eigenvalores reales. Pero si 8 es un múltiplo de n, entonces todo vector x diferente de cero es transformado sobre la misma recta que x, de modo que todo vector diferente de cero es un eigenvector de T. A continuación se comprobarán algebraicamente estas observaciones geométricas. La matriz estándar para T es

A = [ cos O -sen0 sen0 cos 8 1

Page 245: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

250 / Espacios vectoriales euclidianos

Como se analizó en la sección 2.3, los eigenvalores de esta matriz son las solucio- nes de la ecuación característica

det(AZ - A ) = A - cos 0 sen 0

-sen 0 A - cos 0

es decir.

(a - COS t sen2 O = O (8)

Pero si 8 no es un múltiplo de n, entonces sen2 8 > O, de modo que esta ecuación no tiene solución real para y, en consecuencia, A no tiene eigenvectores reales.* Si 6 es un múltiplo de n, entonces sen 8 = O y cos 6 = 1 o cos 6 = - 1, de- pendiendo del múltiplo particular de n. En el caso en que sen 8 = O y cos 8 = l , la ecuación característica (8) se vuelve (A - 1)2 = O: de modo que ;1 = 1 es el Único eigenvalor de A. En este caso, la matriz A es

Así, para todo x en R2,

T ( x ) = A x = / x = x

de modo que T transforma todo vector en sí mismo y, por tanto, en la misma recta. En el caso en que sen 6 = O y cos 6 = -1, la ecuación característica (8) se vuelve (A + 1)2 = O, de modo que A = - 1 es el Único eigenvalor de A. En este caso, la matriz de A es

Así, para todo x en R2,

T(x) = i i x = -1x = "x

*Existen aplicaciones que requieren escalares complejos y vectores con componentes complejas. En tales casos son permisibles los eigenvalores complejos y los eigenvectores con componentes complejas. Sin embargo, este hecho carece de importancia geométrica directa aquí. En capítulos ulteriores se analizarán tales eigenvalores y eigenvectores, pero hasta que explícitamente se establezca lo contrario, se supondrá que se considerarán sirlo eigenvalores reales y eigenvectores con componentes reales.

Page 246: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4.3 Propiedades de las transformaciones lineales de R" a Rm / 251

Ejemplo 8 Sea T:R3 -* R3 la proyección ortogonal sobre el plano xy. Los vectores en el plano xy son transformados en sí mismos bajo T, de modo que todo vector diferente de cero en el plano xy es un eigenvector correspondiente al eigenvalor 1 = 1. Todo vector x a lo largo del eje z es transformado en O bajo T, que está en la misma recta que x, de modo que todo vector diferente de cero sobre el eje z es un eigenvector correspondiente al eigenvalor A = O. Los vectores que no están en el plano xy o a lo largo del eje z no son transforma- dos en múltiplos escalares de ellos mismos, de modo que no existen otros eigenvectores o eigenvalores.

Para comprobar algebraicamente estas observaciones geométricas, recordar de la tabla 5 de la sección 4.2 que la matriz estándar para T es

La ecuación característica de A es

det(AZ - A ) =

O

A - 1 o o o a - ] o = o O O h

cuyas soluciones 1 = O y 1 = 1 ya se anticiparon.

pondientes a un eigenvalor A son las soluciones diferentes de cero de Como se analizó en la sección 2.3, los eigenvectores de la matriz A corres-

Si A = O, este sistema es

[ -; -A O :][:;I =[!I 0 x3

cuyas soluciones son x1 = O, x2 = O, x3 = t (comprobar), o bien, en forma matricial,

Como ya se había anticipado, estos son los vectores a lo largo del eje t. Si ,I =' 1, entonces el sistema (9) es

Page 247: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

252 / Espacios vectoriales euclidianos

RESUMEN

cuyas soluciones son x, = S, x2 = t, x3 = O (comprobar), o bien, en forma matricial,

Como ya se había anticipado, estos son los vectores en el plano xy. A

En el teorema 2.3.6 se presentó una lista con seis resultados que son equivalentes a la invertibilidad de una matriz A. Esta sección concluye agregando el teorema 4.3.1 a esa lista, para obtener el siguiente teorema que relaciona todos los temas principales estudiados hasta el momento.

Teorema 4.3.4. Si A es una matriz n x n, y si TA:R" + R" es la multiplicación por A , entonces las siguientes proposiciones son equivalentes.

a) A es invertible. b) A x = O sólo tiene la solución trivial. cf La forma escalonada reducida de A es In. (0 A se puede expresar como un producto de matrices elementales. e) AH = b es consistente para toda matriz b n X 1. 8 AH = b tiene exactamente una solución para toda matriz b n X 1. gj det4) # O . h) El recorrido de TA es R". i ) T, es uno a uno.

1

EJERCICIOS DE LA SECCION 4.3

1. Por inspección, determinar si el operador lineal es uno a uno a) La proyección ortogonal sobre el eje x en R2. b) La reflexión respecto al eje y en R2. c) La reflexión respecto a la rectay = x en R2. d) Una contracción con factor k > O en R2. e) Una rotación alrededor del eje z en R3. f, Una reflexión respecto al plano xy en R3. g) Una dilatación con factor k > O en R3.

2. Encontrar la matriz estándar del operador lineal definido por las ecuaciones y usar el teorema 4.3.1 para determinar si el operador es uno a uno. a) wI = Sx, + 4x2 b) wI = 2x, - 3x, c) wI = -xi + 3x, + 2x3 d) u', = X, + 2x2 + 3x3

w 3 = x! + 3x2 + 6x3 kv3 = x1 + 8x3 w2 = ZX, + x2 w2 = 5x, + x2 w2 = ZX, + 4x3 w 2 = 2x, i- 51, -t 3s3

Page 248: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4.3 Propiedades de las transformaciones lineales de Rn a Rm / 253

3. Demostrar que el recorrido del operador lineal defindo por las ecuaciones

w, = 4x, - 2x2

w2 = 2x, - x2

no es todo de R2, y encontrar ULI vector que no esté en el recorrido

4. Demostrar que e! recorrido del operador lineal definido por las ecuaciones

w, = x, - 2x2+- x3 w2 = 5x, - x2 + 3x, w, = 4x, + x2 + 2x,

no es todo de R3, y encontrar un vector que no esté en el recorrido.

5. Determinar si el operador lineal T : R2 + R2 definido por las ecuaciones es uno a uno; en caso afirmativo, encontrar la matriz estándar para el operador inverso, y encontrar ~ " ( w ~ , wz). a) w, = x, + 2x2 b) w, = 4x, - 6x2 c) w 1 = -x2 d) w, = 3x, w2 = -x, + x2 w2 = - 2x, + 3x2 w2 = -x, w2 = -5x,

6. Deteminar si el operador lineal T : R3 + R3 definido por las ecuaciones es uno a uno, en caso afirmativo, encontrar la matriz estándar para el operador inverso, y encontrar ~ " ( w ~ , w2, w3).

a) w , = x, - 2x2 + 2x, b) w , = x, - 3x2 + 4x, w2 = 2x, + .x2 + x3 w2 = -x, + x2 + xj w j = x, + x2 w, = - 2x2 f 5x3

c) w , = S, + 4x2 - x, d) w , = x, + 2x, + x, w, = 2x, + 7x2 + x, w* = -2x, + x2 + 4x, w3 = x, + 3x2 w3 = 7x, + 4x2 - 5x3

7. Por inspección, determinar el inverso del operador lineal uno a uno dado. a) La reflexion respecto al eje x en R ~ . b) La rotación por un ángulo de x14 en R2. c) La dilatación por un factor de 3 en R2. d) La reflexión respecto al plano yz en R3. e) La contracción por un factor de en R3.

En los ejercicios 8 y 9, aplicar el teorema 4.3.2 para determinar si T : R2 + R2 es un opera- dor lineal.

10. a) T(x,y,z)=(x,x+y+z) b) T ( x , y , z ) = ( l , l )

11. a) T(x, y, z) = (O, O) b) T(x, y, z) = (3x - 4y, 2x - 52)

Page 249: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

254 / Espacios vectoriales euclidianos

12.

13.

14.

15.

16.

17.

18.

En cada inciso, usar el teorema 4.3.3 para encontrar la matriz estándar del operador lineal a partir de las imágenes de los vectores estándar básicos. a) Los operadores reflexión sobre R2 en la tabla 2 de la sección 4.2. b) Los operadores reflexión sobre R3 en la tabla 3 de la sección 4.2. c) Los operadores proyección sobre R2 en la tabla 4 de la sección 4.2. d) Los operadores proyección sobre R3 en la tabla 5 de la sección 4.2. e) Los operadores rotación sobre R2 en la tabla 6 de la sección 4.2. f, Los operadores dilatación y contracción sobre R3 en la tabla 9 de la sección 4.2.

Aplicar el teorema 4.3.3, para encontrar la matriz estándar de TR2 R2 a partir de las Imágenes de los vectores estándar básicos. a) TB2 +. R2 proyecta un vector ortogonalmente sobre el eje x y luego refleja ese

b) T:R2 +. R2 refleja un vector respecto a la recta y = x y luego refleja ese vector

c j 7R2 + R2 dilata un vector por un factor de 3 , luego refleja ese vector respecto a la

vector respecto al ejey.

respecto al eje x.

recta y = x, y luego proyecta ese vector ortogonalmente sobre el eje y.

Aplicar el teorema 4.3.3 para hallar la matriz estándar de TR3 + R3 a partir de las imágenes de los vectores estándar básicos. a) TR3 +. R3 refleja un vector respecto al plano xz y luego contrae ese vector por un

b) 7R3 +. R3 proyecta un vector ortogonalmente sobre el plano xz, y luego proyecta ese

c) TB3 +. R3 refleja un vector respecto al plano xy, luego refleja ese vector respecto al

factor de 1/5.

vector ortogonalmente sobre el plano xy.

plano xz, y luego refleja ese vector respecto al planoyz.

Sea TA R3 + R3 la multiplicación por

y Sean e , , e2 y e3 10s vectores estándar básicos para R3. Encontrar por inspección los siguientes vectores. .a) &(e , ) , U e A y U e 3 ) b) U e , + e2 + e 3 j c) TA(7e3) Determinar si la multiplicación por A es una transformación lineal uno a uno.

Usar el resultado del ejemplo 6 para encontrar la proyección ortogonal de x sobre la recta que pasa por e1 origen y forma un ángulo 8 con el eje x positivo. a) x = ( - l , 2 ) ; 0 = 4 5 " b) x=( l ,O) ; 0=30" c ) x = ( l , 5 ) ; O = 120"

Aplicar el tipo de razonamiento proporcionado en el ejemplo 8 para encontrar los eigenvalores y los eigenvectores correspondientes de T. Verificar las conclusiones calculando los eigenvalores y los eigenvectores correspondientes a partir de la matriz estándar para T. a) TR2 +. R2 es la reflexión respecto al eje x. b) TR2 +. R2 es la reflexión respecto a la recta y = x.

Page 250: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4.3 Propiedades de las transformaciones lineales de R" a Rm / 255

c) TR2 + R2 es la proyección ortogonal sobre el eje x . d) 7'B2 + R2 es la contracción por un factor de .

i9. Seguir las indicaciones del ejercicio 18. a) T:R3 + R3 es la reflexión respecto al plano yz. b) TR3 + R3 es la proyección ortogonal sobre el plano xz. c) TR3 + R3 es la dilatación por un factor de 2. d) T R 3 + R3 es una rotación de 4.5' en sentido contrario al movimiento de las mane-

cillas del reloj alrededor del eje z.

20. a) ¿Es uno a uno la composición de transformaciones lineales uno a uno? Justificar la

b) ¿Es posible que la composición de una transformación lineal uno a uno y una trans- conclusión.

formación lineal no uno a uno sea uno a uno? Justificar la conclusión.

21. Demostrar que T(x, y) = ( O , O) define un operador lineal sobre R2 pero T(x, y ) = (1, 1) no lo hace.

22. Demostrar que si TRn + Rm es una transformación lineal, entonces To) = O; es decir, T transforma el vector cero de Rn en el vector cero de Rm.

23. Sea 1 la recta en el plano xy que pasa por el origen y forma un ángulo con el eje .x positivo, donde O I 8 < Z. Sea TB2 + R2 el operador lineal que refleja cada vector respecto 1 (figura 8).

Figura 8

a) Usar el método del ejemplo 6 para encontrar la matriz estándar para T. b) Encontrar la reflexión del vector x = (1, 5) respecto a la recta 1 que pasa por el

origen y forma un ángulo 8 = 30' con el eje x positivo.

24. Demostrar: Un matriz A n X n es invertible si y sólo si el sistema lineal Ax = w tiene exactamente una solución para todo vector w en Rn para el que el sistema es con- sistente.

Page 251: Inroduccion Algebra lineal Howard Anton 5ta. Edicion
Page 252: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.1 ESPACIOS VECTORIALES REALES

En esta sección se generalizará aún más el concepto de vector. Se enunciará un conjunto de axiomas que, si una clase de objetos hace que se cumplan, permitirá denominar %ectores" a esos objetos. Los axiomas se elegirán abstrayendo las propiedades más importantes de los vectores en Rn; como consecuencia, los vectores en Rn harán que se cumplan de manera automática estos axiomas. Así, el nuevo concepto de vector abarcará a los vectores anteriores y también a muchos vectores nuevos. Estos vectores nuevos incluirán, entre otras cosas, varias clases de matrices y funciones. El trabajo desarrollado en esta sección no es un ejercicio inútil de matemáticas teóricas, ya que proporciona una herramienta poderosa para extender la representación geométrica a una amplia variedad de problemas matemáticos importantes en los que de otra forma no se contaría con la intuición geométrica. Planteada en términos breves, la idea es ésta: Los vectores en R2 y R3 se pueden representar geométricamente como flechas, lo cual permite que la representación fisica o mental ayude a resolver problemas. Como los axiomas que se usarán para crear los nuevos tipos de vectores se basarán en propiedades de los vectores en R2 y R3, estos nuevos vectores poseerán muchas de las propiedades conocidas de los vectores en R2 y R3. Por consiguiente, cuando se quiera resolver un problema en que aparezcan los nuevos tipos de vectores, por ejemplo matrices o funciones, se podrá obtener una base para el problema mediante una geométrica cómo sería el problema crrespondiente en R 2 y R3.

25 7

Page 253: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

256: / Espacios vectorides generales

AXIOMAS DE ESPACIOS VECTORIALES

Definición. Sea V un conjunto cualesquiera no vacío de objetos sobre el que están definidas dos operaciones: la adición y la multiplicación por escalares (números). Por adición se entiende una regla que asocia a cada par de objetos u y v en I' un objeto u + v denominado suma de u y v; por muMplicación escalar se entiende una regla que asocia a cada escalar k y cada objeto u en V un objeto k u , denominada múltplo escalar de u por k. Si los objetos u, v, w en V y los escalares k y 1 satisfacen los siguientes axiomas, entonces V se denomina espacio vectorial, y sus objetos se denominan vectores.

1) Si u y v son objetos en V, entonces u -+ v está en V. 2) u +- v = v + u 3) u + ( v 4- w ) = (u 4- v) + w 4) Existe un objeto O en V, denominado vector cero de V, tal que O + u = u + O

5) Para todo u en T/ cxiste un objeto "u en V, denominado negativo de u, tal

6) Si k es cualquier escalar y u es cualquier objeto en V, entonces ku está en V. 7) k(u + v ) = k u + kv

= u para todo u en V.

que u + (-u) = (-u) +u = O .

8) (x + /)U = k M + ¡U 9) k ( h ) =- (k / ) (u )

10) l u = u

O B S E R V A C I ~ N . Dependiendo de la aplicación, los escalares pueden ser nú- meros reales o complejos. Los espacios vectoriales en que los escalares son núme- ros complejos se denominan espacios vectoriales complejos, y aquéllos donde los escalares deben ser reales se denominan espacios vectoriales reales. En el capítulo 10 se estudiarán los espacios vectoriales complejos; hasta entonces, todos los es- calares considerados serán números reales.

El lector debe tener en mente que la definición de espacio vectorial no especifica la naturaleza de los vectores ni las operaciones. Cualquier tipo de objeto puede ser un vector, y es posible que las operaciones de ahción y multiplicación escalar no guarden ninguna relación o semejanza con las operaciones vectoriales estándar sobre R". El Único requisito es que se cumplan los 10 axiomas en la definición de espacio vectorial. Algunos autores usan las notaciones@y 0 en la adición vectorial y la multiplicación escalar para distinguir estas ope- raciones de la a lc ión y la multiplicación de números reales; a pesar de ello, aquí no se usará esta notación.

EJEMPLOS DE Los siguientes ejemplos ilustran la variedad de espacios vectoriales posibles. En ESPACIOS cada ejemplo se especifica un conjunto no vacío V y dos operaciones: la alción y VECTORIALES la multiplicación escalar; luego se comprobará que se cumplen los 10 axiomas de

espacio vectorial, con lo cual V se puede denominar, con las operaciones especifi- cadas, espacio vectorial.

Ejemplo 1 El conjunto V = R" con las operaciones estándar de adición y multipli- cación escalar, definido en la sección 4.1 es un espacio vectorial. Los axiomas 1 y

Page 254: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.1 Espacios vectoriales reales / 259

6 se deducen de las definiciones de las operaciones estándar sobre R"; .los demás axiomas se deducen del teorema 4.1.1. A

Los tres casos especiales más importantes de R" son R (los números reales), R2 (los vectores en el plano) y R3 (los vectores en el espacio tridimensional).

Ejemplo 2 Demostrar que el conjunto V de todas las matrices 2 x 2 con elemen- tos reales es un espacio vectorial si la ahción vectorial se define como la suma de matrices y la multiplicación escalar vectorial se define como la multiplicación es- calar matricial.

Solución. En este ejemplo resulta conveniente verificar los axiomas en el siguiente orden: 1, 6, 2, 3 , 7 , 8, 9, 4, 5 y 10. Sea

Para probar el axioma 1, es necesario demostrar que u + v es un objeto en V; es decir, debe demostrarse que u + v es una matriz 2 X 2. Pero este hecho se deduce por la definición de ahción de matrices, ya que

De manera semejante, el axioma 6 se cumple porque para cualquier número real k se tiene

de modo que ku es una matriz 2 x 2 y en, consecuencia, es un objeto en V. El axioma 2 se deduce del teorema 1.4. la, ya que

De manera semejante, el axioma 3 se deduce del inciso b) de ese teorema; y los axiomas 7, 8 y 9 se deducen de los incisos h), j ) y f), respectivamente, de ese teo- rema.

Para probar el axioma 4 es necesario encontrar un objeto O en V tal que O + u = u + O = u para todo u en V. Esto puede lograrse al definir a O como

Con esta definición,

Page 255: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

y de manera semejante u + O = u. Para probar el axioma 5 se debe demostrar que cada objeto u en V tiene un negativo "u tal que u + (-u) = O y (-u) + u = O. Esto se puede hacer definiendo el negativo de u como

Con esta definición

y de manera semejante (-u) + u = O . Por último, el axioma 10 es un simple cálculo:

Ejemplo 3 El ejemplo 2 es un caso especial de una clase más general de espacios vectoriales. Los razonamientos de ese ejemplo se pueden adaptar para demostrar que el conjunto Y de todas las matrices m X n con elementos reales, junto con las operaciones de adición de matrices y multiplicación escalar, es un espacio vectorial. La matriz cero m X n es el vector cero O , y si u es la matriz U m X n, entonces la matriz -U es el negativo -u del vector u. Este espacio vectorial se denotará por el símbolo M*,,. A

Ejemplo 4 Sea V el conjunto de las funciones con valores reales definidas sobre toda la recta real (- m, m). Si f =Ax) y g = g(x) son dos de estas funciones y k es cualquier número real, entonces la función suma f + g y el múltiplo escalar kf se definen por

(f + g)(s) = J'(.Y) + g(x)

(kf)(x) = kj'(.x)

En otras palabras, el valor de la función f + g en x se obtiene al sumar entre sí los valores de f y g en x (figura la). De manera semejante, el valor de kf en x es k veces el valor de f en x (figura lb). En los ejercicios se pide al lector demostrar que Y es un espacio vectorial con respecto a estas operaciones. Este espacio vecto- rial se denota por F(- M, m). Si f y g son vectores en este espacio, entonces afk- mar que f = g equivale a decir queAx) = g(x) para toda x en el intervalo (- m, m).

El vector O en F( - m, M) es la función constante que es idénticamente cero para todos los valores de x. La gráfka de esta función es la recta que coincide con el eje x. El negativo de un vector f es la función -f = -Ax). Geométricamente, la gráfka de -f es la reflexión de la gráfka de f con respecto al eje x (figura IC). A

Page 256: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.1 Espacios vectoriales reales 1 261

Figura 1 a l hi C l

OBSERVACI~N. En el ejemplo precedente, la atención se centró en el interva- lo (-m, m). En caso de que la atención se hubiera restringido a algún intervalo cerrado [a, b ] o en algún intervalo abierto (a, b), las funciones definidas en estos intervalos con las operaciones establecidas en el ejemplo también hubieran produ- cido espacios vectoriales. Estos espacios vectoriales se denotan por F [a, b ] y F(a, b) , respectivamente.

Ejemplo 5 Sea V = R2, con las operaciones de adición y multiplicación escalar de- finidas como sigue: Si u = (u1, u2) y v = (vl, v2), entonces se define

u + v = ( u , + u , , u , + u , )

y si k es cualquier número real, entonces se define

ku = ( k u , , O)

Por ejemplo, si u = (2, 4) y v = ( - 3 , 5), y k = 7, entonces

u + v = ( 2 + ( - 3 ) , 4 + 5 ) = ( - 1 , 9 ) ku = 7u = (7 .2 , O) = (14, O)

La operación de adición es la operación de adición estándar sobre R2, pero la multiplicación escalar no es la multiplicación escalar estándar. En los ejercicios se pide al lector demostrar que se cumplen los nueve primeros axiomas de espacio vectorial; sin embargo, existen valores de u para los cuales no se cumple el axioma 10. Por ejemplo, si u = (u,, u2) es tal que u2 # O, entonces

l u = l (u , , u2) = (1 . u , , O) = (u,, O) # u

Por tanto, V no es un espacio vectorial con las operaciones establecidas. A

Ejemplo 6 Sea Vcualquier plano qui: pasa por el ongen en R'. Se demostrara que los puntos en V constituyen u n espacio kectorial bajo las Operaciones estandar de adxión y multiplicación escalar para veclores en I?'. Por el ejemplo I , se sabe que

Page 257: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

262 / Espacios vectoriales genevales

t

R3 mismo es un espacio vectorial bajo estas operaciones. Así, los axiomas 2, 3, 7, 8, 9 y 10 se cumplen para todos los puntos en R3 y en consecuencia, para todos los puntos en el plano V. Por consiguiente, basta demostrar que se cumplen los axiomas 1,4, 5 y 6.

Como el plano Vpasa por el origen, tiene una ecuación de la forma

ax + by + cz = O (1)

(Teorema 3.5.1). Por tanto, si u = (ul, u2, u3) y v = (vl, v2, v3) son puntos en V, entonces aul + bu2 + cu3 = O y a v l + bv2 + cv3 = O. Sumando estas ecuaciones se obtiene

a(u* + U ] ) + b(u, + u 2 ) + c(u3 + u 3 ) = o Esta igualdad establece que las coordenadas del punto

u + v = (U] + u1, u2 + u2, u3 + u 3 )

satisfacen (1); así, u + v está en el plano V. Esto demuestra que se cumple el axioma 1. Las verificaciones de los axiomas 4 y 6 se dejan como ejercicios; sin embargo, se demostrará el axioma 5. AI multiplicar aul + bu2 + cu3 = O por - 1 se obtiene

Así, "u = ( -ul, -u2, -u3) está en I.'. Esto establece el axioma 5. A

Ejemplo 7 Sea V que consta de un solo objeto, el cual se denota por O , y se define

o + o = o kO = O

para todos los escalares k. Es fácil comprobar que se cumplen todos los axiomas de espacio vectorial. Este espacio se denomina espacio vectorial cero. A

ALGUNAS A medida que se avance, se agregarán más ejemplos de espacios vectoriales a la PROPIEDADES lista. Esta sección concluye con un teorema que da una lista útil de propiedades DE LOS vectoriales. VECTORES

Teorema 5.1.1. Sean V un espacio vectorial, u un vector en V y k un escalar; entonces: a) Ou = O b) kO = O

d) If ku = O , entonces k = O o u = O . c) (-I)u= "u

Se demostrarán los incisos a) y c), y las demostraciones de los demás incisos se dejan como ejercicios. -

Page 258: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5. I Espacios vectoriales reales / 263

Demostración de a). Se puede escribir

ou + ou = (O + O)u [Axioma 81

= ou [ Propiedad del número O 1

Por el axioma 5, el vector Ou tiene un negativo: -0u. Al sumar este negativo a ambos miembros de la última e>rpresión se obtiene

O

ou + [Ou -t (-Ou)] = ou + ( - O U ) [Axioma 31

o u + o = o [Axloma 51

ou = o [Axloma 41

Demostración de c). Para probar (- 1)u = “u, es necesario demostrar que u + (- I)u = O . Para ver esto, obsérvese que

u + ( - l ) u = l u + ( - l ) u [Axloma 101

= (1 + ( - 1))u [Axloma 81

= Ou (Propiedad de los números]

= o 0 [ Inciso u)]

EJERCICIOS DE LA SECCIóN 5.1

En los ejercicios del 1 al 13 se da un conjunto de objetos, junto con operaciones de adición y multiplicación escalar. Determinar cuáles conjuntos son espacios vectoriales bajo las ope- raciones dadas. Para aquellos que no sean espacios vectoriales, enumerar los axiomas que no se cumplen.

1. El conjunto de todas las temas de números reales (x, y , z) con las operaciones

(x, y, z) + (x’, y ’ , z ’ ) = (x + x’, y + y’, i + 2 ’ ) y k(x, y , 2) = (kx, ,Y, z )

2. El conjunto de todas las temas de números reales (x, y , z) con las operaciones

(x, y, z) + (x‘, y‘ , z ‘ ) = (x + x’, y +y‘ , 2 + z ‘ ) y k(x, >, z) = (O, o, O)

3. El conjunto de todas las parejas de números reales (x, y) con las operaciones

(x, Y ) f (x’, Y’) = (x + x‘, y +u‘) y k(x, y) = W x , 2ky)

4. El conjunto de todos los números reales x con las operaciones estándar de adición y multiplicación.

5. El conjunto de todas las parejas de números reales de la forma (x, O) con las opera- ciones estándar sobre R2.

Page 259: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

261 / Espacios vectoriales generales

I.

7.

8.

9.

1 o.

11.

12.

13.

14.

15.

16.

17.

IS.

19.

El conjunto de todas las parejas de números reales de ia forma (x, y), donde x 2 O, con las operaciones estándar sobre R2.

El conjunto de todas las n-adas de números reales de la forma ( x , x , . . . , x ) con las operaciones estándar sobre R".

El conjunto de todas las parejas de números reales (x, y ) con las operaciones

(x, y ) + (xf, y ' ) = (x + x' + 1, y f y' + 1) y k ( x , y) = (kx, ky)

El conjunto de todas las matrices 2 X 2 de la forma

[: :I con la adición y la multiplicación escalar de matrices

El conjunto de todas las matrices 2 X 2 de la forma

con la adici6n de matrices y la multiplicación escalar.

El conjunto de todas las t i c ionesycon valores reales definidas en cualquier punto de la recta real y tales quefil) = O, con las operaciones definidas en el ejemplo 4.

El conjunto de todas las matnces 2 X 2 de la forma

con la adicinn y la multiplicación escalar de matrices

El conjunto cuyo Único elemento es la Luna. Las operaciones son Luna + Luna = Luna y k(Luna) = Luna, donde k es un número real.

Demostrar que una recta que pasa por el origen en R3 es un espacio vectorial bajo las operaciones estándar sobre R".

Demostrar que el conjunto de todos los números reales positivos con l a s operaciones

x + y = x y y h=xk

es un espacio vectorial.

Escribir los detalles que faltan en el ejemplo 4

Escribir los detalles que faltan en el ejemplo 6

Demostrar el inciso b ) del teorema 5.1. l .

Demostrar el inciso 6) del teorema 5.1.1

Page 260: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Subespacios /’ 265

20. Demostrar que un espacio vectorial no puede tener más de un vector cero

21. Demostrar que un vector tiene exactamente un negativo.

22. Demostrar que los nueve primeros axiomas de espacio vectorial se cumplen si V = X’ tiene la adición y la multiplicación escalar definidas en el ejemplo 5.

5.2 SUBESPACIOS

Es posible que un espacio vectorial esté contenido en un espacio vectorial más grande. Por ejemplo, en la sección precedente se demostró que los plcnos que pasan por el origen son espacios vectoriales contenidos en el espacio vectorial más grande R3. En esta sección se estudiará con más detalle esta importante idea.

DE

cio de V si W es un espacio vectorial bajo la adición y la multiplicación escalar SUBESPACIO Definici6n.Un subconjunto W de un espacio vectorial V se denomina subespa-

definidas sobre V.

En términos generales, para demostrar que un conjunto W con la adición y la multiplicación escalar forma un espacio vectorial es necesario verificar los 10 axiomas de espacio vectorial. Sin embargo, si W es parte de un conjunto más grande V del que se sabe es un espacio vectorial, entonces no es necesario verificar ciertos axiomas para W porque son “heredadosll de V. Por ejemplo, no es necesario comprobar que u + v = v + u (axioma 2) para W, porque esta relación se cumple para todos los vectores en C’ y, en consecuencia, para todos los vectores en W. Otros axiomas heredados por W de V son los axiomas 3, 7, 8, 9 y 10. Así, para demostrar que un conjunto W es un subespacio de un espacio vectorial V, basta comprobar los axiomas 1, 4, 5 y 6. El siguiente teorema muestra que inclusive se puede prescindir de los axiomas 4 y 5.

Teorema 5.2.1. Si W es un conjunto formado por uno o mús vectores de un espacio vectorial V, entonces W es un subespacio de V si y sólo si se cumplen las siguientes condiciones.

a ) Si u y v son vectores en W, entonces u + v está en W. h ) Si k es cualquier escalar y u es cualquier vector en W, entonces ku está en

W.

Demostración. Si W es un subespacio de V, entonces se cumplen todos los axiomas de espacio vectorial; en particular, se cumplen los axiomas 1 y 6. Peto éstas son precisamente las condiciones a) y 6).

Page 261: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

266 / Espacios vectoriales generales

EJEMPLOS DE SUBESPACIOS

A

Recíprocamente, supóngase que se cumplen las condciones a ) y b). Como estas conlciones son los axiomas 1 y 6 de espacio vectorial, basta demostrar que W satisface los ocho axiomas restantes. Los vectores de W cumplen automática- mente los axiomas 2, 3 , 7, S, 9 y 10, ya que estos axiomas se cumplen para todos los vectores en V. En consecuencia, para completar la demostración, basta verifi- car que los axiomas 4 y 5 se cumplen para vectores en W.

Sea u cualquier vector en W. Por la condición b) , ku está en W para cualquier escalar k. Haciendo k = O, por el teorema 5.1.1 se concluye que Ou = O está en W, y haciendo k = - 1 se concluye que (- l)u = --.u está en W. 0 OBSERVACI~N. Se dice que un conjunto W formado por uno o más vectores de un espacio vectorial Ves cerrado bajo La adición si se cumple la condición a) del teorema 5.2.1, y cerrado bajo la multiplicación escalar si se cumple la condición b). Así, el teorema 5.1.1 establece que W es un subespacio de V si y sólo si W es cerrado bajo la adición y cerrado bajo la multiplicación escalar.

Ejemplo 1 En el ejemplo 6 de la sección 5.1 se comprobaron los 10 axiomas de espacio vectorial para demostrar que los puntos en un p l a o que pasa por el origen de R3 forman un subespacio de R3. En vista del teorema 5.2.1 se puede ver que mucho del trabajo efectuado fue innecesario; hubiera bastado verificar que el plano es cerrado bajo la adción y bajo la multiplicación escalar (axiomas 1 y 6). En la sección 5.1 se comprobaron algebraicamente estos dos axiomas; sin em- bargo, también se pueden demostrar geométricamente como sigue: Sea W cual- quier plano que pasa por el origen, y sean u y v vectores cualesquiera en W. En- tonces u + v debe estar en W porque es la diagonal del paralelogramo determinado por u y v (figura l), y ku debe estar en W para cualquier escalar k porque ku est5 sobre una recta que pasa porw Así, W es cerrado bajo la adición y la multiplica- ción escalar, de modo que es un subespacio de R3. A

Ejemplo 2 Demostrar que una recta que pasa por el origen de R3 es un subespacio de R3.

Solución. Sea W una recta que pasa por el origen de R3. Geométricamente es evidente que la suma de dos vectores sobre esta recta también está sobre la recta, y que un múltiplo escalar de un vector sobre la recta también está sobre la recta (figura 2). Así, W es cerrado bajo la adición y la multiplicación escalar, de modo que es un subespacio de R3. En los ejercicios se pide al lector demostrar algebrai- camente este resultado usando las ecuaciones paramétricas de la recta.

Figura 2 W es cerrado bajo la multiplicación. I I W es cerrado bajo la multiplicación escalar.

Page 262: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.2 Subespacios / 267

Ejemplo 3 Sea W el conjunto de los puntos (x, y ) en R2 tales que x 2 0 Y Y 2 o. Estos son los puntos del primer cuadrante. El conjunto W no es un subespacio de R2, ya que no es cerrado bajo la multiplicación escalar. Por ejemplo, v = (1, 1) está enW,perosunegativo(-l)v=-v=(-l,-l)noestáenW(figura3). A

Todo espacio vectorial V diferente de cero tiene por lo menos dos subes- pacios: Ves un subespacio, y el conjunto {O} que consta sólo del vector cero en V es uil subespacio denominado subespacio cero. Combinando esto con los ejemplos 1 y 2 se obtiene la siguiente lista de subespacios de R2 y R3.

Subespacios de R2 Subespacios de &

{ O } (0) 0 Rectas que pasan por el origen Rectas que pasan por el origen 0 R2 Planos que pasan por el origen

R 3

Después se demostrará que estos son los únicos subespacios de R2 y R3.

Ejemplo 4 Por el teorema 1.7.2, la suma de dos matrices simétricas es una matriz simétrica, y un múltiplo escalar de una matriz simétrica es simétrico. Así, el conjunto de matrices simétricas n x n es un subespacio del espacio vectorial M,, de las matrices n X n. De manera semejante, el conjunto de las matrices triangu- lares superiores n X n, el conjunto de las matrices triangulares inferiores n x n y el conjunto de las matrices diagonales n X n son subespacios de M,,, ya que cada uno de estos conjuntos es cerrado bajo la adición y la multiplicación escalar. A

Ejemplo 5 Sea n un entero positivo y sea W que consta de todas las funciones que pueden expresarse en la forma

p(x) = a0 + a,x + . . ' + a,x" (1)

donde ao, . . . , a, son números reales. Así, W consta de la función cero junto con todos los polinomios reales de grado menor o igual que n. El conjunto W es un subespacio del espacio vectorial de todas las funciones con valores reales que se analizó en el ejemplo 4 de la sección precedente. Para ver esto, sean p y q los polinomios

p(x ) =a, + a,x + . . . + a,x"

Y q(x) =bo + b,x + . . . + b,x"

Entonces

(p + q)(x) = p ( x ) + q(x) = (ao + bo) + ( a l + b , ) x + . . . + (a, + b,)x"

Y (kp)(x) = kp(x) = (ka,) + ( k a , ) x + . . ' + (ka,)x"

Page 263: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

268 / Espacios vectoriales generales

Estas funciones son de la forma indcada en (l), de modo que p + q y kp están en W. El espacio vectorial W de este ejemplo se denotará por el símbolo P,. A

Ejemplo 6 (Para quienes ya estudiaron Cálculo). Recuérdese que si f y g son funciones continuas en el intervalo (- m, m) y k es una constante, entonces f + g y kf también son continuas. Así, ías funciones continuas sobre el intervalo (- m , m) forman un subespacio de F(- m, m), ya que son cerradas bajo la adición y la multiplicación escalar. Este subespacio se denota por C(- 03, m).

De manera semejante, si f y g son funciones derivables, entonces también f + g y hf son derivables. Así, las funciones con primeras derivadas continuas sobre (- m, m) forman un subespacio de F(- m, m). Este subespacio se denota por C1(- m , m), donde el supraíndce 1 se usa para recalcar la primera derivada. Sin embargo, un teorema del Cálculo es que toda función derivable es continua, de modo que C'( - 03, m) es en realidad un subespacio de C(- m, m).

Continuando con lo anterior, para todo entero positivo m las funciones con m-ésimas derivadas continuas sobre (- m, m) forman un subespacio de C'( - CQ, m), así como también las fúnciones que tienen derivadas continuas de todos los órdenes. El subespacio de las funciones con m-ésimas derivadas continuas sobre (- m, m) se denota por P(- m, m), y el subespacio de las funciones que tienen derivadas continuas de todos los órdenes se denota por Cm(- m, m>.

Finalmente, un teorema del Cálculo es que los polinomios tienen derivadas continuas de todos los órdenes, de modo que P, es un subespacio de C m (- m. m).

La jerarquía de los subespacios analizados en este ejemplo se representa en la figura4. A

OBSERVACI~N. En el ejemplo precedente, se atendió al intervalo (- m , m).

En caso de haber atendido al intervalo cerrado [a, 61, entonces los subespacios correspondientes a los espacios vectoriales definidos en el ejemplo se hubieran de- notado por C[a, b], Cm [a, b] y C[a, b ] . De manera semejante, sobre un inter- valo abierto (a, b), esos subespacios se hubieran denotado por C(a, b), ?(u, b) Y cm (a, b).

Page 264: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.2 Subespacios / 269

ESPACIOS Si Ax = b es un sistema de ecuaciones lineales, entonces todo vector x que satis- SOLUCIóN DE face esta ecuación se denomina vector solucidn del sistema. El siguente teorema SISTEMAS muestra que los vectores solución de un sistema lineal homogéneo forman un HOMOGÉNEOS espacio vectorial. que se denomina espacio solución del sistema.

es un sistema lineal homogéneo de m ecuaciones con n incógnitas, entonces el conjunto de vectores solución es un subespacio de R". I I

Demostración. Sea W el conjunto de vectores solución. En W existe por 10 menos un vector, a saber, O . Para probar que W es cerrado bajo la adición y la multiplicación escalar, es necesario demostrar que si x y x' son vectores solución cualesquiera y k es cualquier escalar, entonces x + x' y b también son vectores solución. Pero si x y x' son vectores solución, entonces

A x = O y Ax'=O

a partir de lo cual se deduce que

A ( x + x ' ) = A x + A x ' = O + O = O

Y A ( k x ) = kAx = kO = O

lo que demuestra que x + x' y kg son vectores solución. 0

Ejemplo 7 Considerar los sistemas lineales

a) [i -% j[:l-[B1 b) [ -3 1 - 2 7 -2 4

c) [-i -: -:][!]=[:] d) [O 0 0 0 O O] 0 0 0

Cada uno de estos sistemas contiene tres incógnitas, de modo que las soluciones son subespacios de R3. Geométricamente, esto sigmfka que cada espacio solución debe ser UM recta que pasa por el origen, un plano que pasa por el origen, sólo el origen o todo R3. A continuación se comprobará que así es (se deja para el lector la resolución de los sistemas).

Solución.

a) Las soluciones son

x = 2 s - 3 4 y=s, z = t

a partir de lo cual se concluye que

Page 265: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

270 / Espacios vectoriales generales

x = ~ Y - ~ z O ~ - 2 y + 3 ~ 0

Esta es la ecuación del plano que pasa por el origen con n = (1, -2, 3) como vector normal.

b) Las soluciones son

x = -5t, y = -t, z = t

que son las ecuaciones paramétricas de la recta que pasa por el origen y es paralela al vector v = (-5, - 1, 1).

c) La solución es x = O, y = O , z = O, de modo que el espacio solución es sólo el origen, es decir, { O ) .

d) Las soluciones son

x = r , y = s , z = t

donde r , S y t tienen valores cualesquiera, de modo que el espacio solución es todo R3. A

COMBINACIO- En la sección 1.3 se introdujo el concepto de combinación lineal de vectores NES LINEALES columna. La siguiente definición amplía este concepto a vectores más generales. DE VECTORES

Definición. Un vector w se denomina combinacibn lineal de los vectores vl , v2, . . . , v, si se puede expresar en la forma

w = k , ~ , + kzvr + . ' + k,.v,

donde k,, k,, . . . , k,son escalares.

OBSERVACI~N. Si r = 1, entonces la ecuación de la definición precedente se reduce a w = klvl; es decir, w es una combinación lineal de un solo vector v, si es un múltiplo escalar de v,.

Ejemplo 8 Todo vector v = (a, 6, c) en R3 se puede expresar como una combina- ción lineal de los vectores estándar básicos

i = ( l , O , O ) , j = ( O , 1,0), k=(O.O, l )

Ya que v = (U , h, c ) = ~ ( l , O, O) + h(0, 1, O) + c(0, O, 1) = ai + bj + ck A

Ejemplo 9 Considerar los vectores u = (1, 2, - 1) y v = (6 , 4, 2) en R3. Demostrar que w = (9, 2, 7) es una combinación lineal de u y v, y que w' = ( 4, -1, 8) no es una combinación lineal de u y v.

Solución. Para que w sea una combinación lineal de u y v, deben existir escala- res k , y k2 tales que w = k,u + k2v; es decir,

Page 266: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.2 Subespacios / 271

(9, 2, 7 ) = kI(1, 2, - 1) + k2(6, 4 , 2 )

o bien,

(9, 2 , 7 ) = ( k , + 6k2, 2k1 4 4k,, - k , + 2k2)

Igualando las componentes correspondientes se obtiene

k , + 6k2 = 9

2k , + 4k , = 2 - k , + 2k , = 7

La solución del sistema es k , = -3 , k, = 2, de modo que

w = - ~ u + ~ v

De manera semejante, para que w' sea una combinación lineal de u y v, deben existir escalares k , y k, tales que w' = klu + k,v; es decir,

(4, - 1 , 8 ) = k , ( I , 2 , - l ) + k 2 ( 6 , 4 , 2 ) O

(4, - 1, 8) = ( k , + 6 k 2 , 2 k , + 4k2, - k , + 2 k 2 )

Igualando las componentes correspondientes se obtiene

k , + 6k2 = 4

2 k , + 4k2 = - 1 - k t +2k , = 8

Este sistema de ecuaciones es inconsistente (comprobar), de modo que no existen los escalares k, y k,. En consecuencia, w' no es una combinación lineal de u y v. A

ESPACIO Si vl, v,, . . . , v, son vectores en un espacio vectorial V, entonces en general al- GENERADO gunos vectores en V pueden ser combinaciones lineales de vl , v,, . . . , v, y otros

todos los vectores que es posible expresar como combinaciones lineales de vl, Y,, . . . , v,, entonces W forma un subespacio de V.

(Lw no. El siguiente teorema muestra que si se construye un conjunto W que consta de

Teorema 5.2.3. Si vl, v,, . . . , v, son vectores en un espacio vectorial V, en- tonces: a) El conjunto W de todas las combinaciones lineales de vl , v,, . . . , v, es un

subespacio de V. 6 ) W es el menor subespacio de Y que contiene a v,, v,, . . . , vr, en el sentido

de que cualquier otro subespacio de V que contenga a v,, v,, . . . , v, debe contener a W.

Demostración de a). Para demostrar que W es un subespacio de V, es necesario probar que es cerrado bajo la adición y la multiplicación escalar. En W existe por

Page 267: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

2 72 Espacios vecforiales generales

lo menos un vector, a saber, O , ya que O = Ovl + Ov2 + . . . , + Ov,. Si u y v son vectores en W, entonces

Y

donde el. c2, . . . , c,, k,, k2, . . . , k, son escalares. Por consiguiente.

u + v = ( c , + k , ) v , + ( c 2 + k , )Ir2 + ' ' ' + (cr + kJv,.

y, para cualquier escalar k.

Así, u + v y ku son combinaciones lineales de vl , v2, . . . , v,, y, en consecuencia, están en W. Por tanto, W es cerrado bajo la adición y la multiplicación escalar.

Demostración de b). Cada vector v, es una combinación lineal de v , , v2, . . . , v,, ya que es posible escribir

v, = ov, + ov, f . . + Iv, + ' . ' + ov,.

Por consiguiente, en el subespacio W están todos y cada uno de los vectores v l . v2, . . . , v,. Sea W cualquier otro subespacio que contiene a vl , v2, . . . , v,. COIIAO W' es cerrado bajo la adición y la multiplicación escalar, debe contener todas las combinaciones lineales de v I , v2, , . . , v,. Así, u." contiene a cada vector de W. 0

Se hace la siguiente definición.

Definición. Si S = {v l , v2, . . . , vr} es un conjunto de vectores en un espacio vectorial Y, entonces el subespacio W de Y que consta de todas las com- binaciones lineales de los vectores en S se denomina espacio generado por vl , v2, . . . , v,, y se dice que los vectores v l , v2, . . . , v, generan a W. Para indicar que W es el espacio generado por los vectores del conjunto S = {v l , v2, . . . , v,} se escribe

I W = lin (S) o bien, W = lin { v l , v z , . . . ,vr1 I Ejemplo 10 Si v1 y v2. son vectores no colineales en R3 con puntos iniciales en el origen, entonces lln {v v2} , que consta de las combinaciones lineales kv, + kv,, es el plano determmado por v1 y v (figura 5a). De manera seme- jante, si v es un vector diferente de cero en R o R 3 , entonces lin {v}, que es el conjunto de todos los múltiplos escalares k v , es la recta determinada por v (figura 56). A

1 .' 2

Page 268: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.2 Subespacios / 273

Ejemplo 11 Los polinomios 1, x, x2, . . . , x" generan el espacio Pn definido en el ejemplo 5, ya que todo polinomio p en Pn se puede escribir como

p = a, + a,x + ' . ' + a,x"

que es una combinación lineal de 1, x, x,, . . . , x". Lo anterior se puede denotar Por

P, = Generado { 1, x, x*, . . . , x"} A I

Ejemplo 12 Determinar si v1 = (1, 1,2), v, = (1, O, 1) y v3 = (2, 1, 3) generan el espacio vectorial R3.

Solución. Es necesario determinar si un vector arbitrario b = (b l , b,, b3) en R3 se puede expresar como una combinación lineal

de los vectores vl, v2 y v3. Expresando esta ecuación en términos de las compo- nentes se obtiene

Page 269: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

2 74 Espacios vectoriales generules

El problema se reduce entonces a determinar si este sistema es consistente para todos los valores de b,, b, y b,. Por los incisos a) y e ) del teorema 4.3.4, este sistema es consistente para todo b,, b, y 6, si y sólo si la matriz de coeficientes

es invertible. Pero det(A) = O (comprobar), de modo que A no es invertible; en consecuencia, v, , v2 y v3 no generan R3. A

Los conjuntos generadores no son únicos. Por ejemplo, dos vectores colineales cualesquiera que estén en el plano que se muestra en la figura 5 generan el mismo plano, y cualquier vector diferente de cerc que esté sobre la recta de esa figura genera la misma recta. La demostración del siguiente teorema útil se deja como ejercicio.

Teorema 5.2.4.Si S = {vl, v2, . . . . v,.} y S = {wl , w2, . . . , w, } son dos conjuntos de vectores en un espacio vectorial V, entonces

Generado { v , , Y*. . , . , v,} = Generado { w , , w 2 , . . . , wk}

si y s61o s i iodo vector en S es una combinación lineal de los vectores en S y , veciprocamente, todo vector en S es una combinación lineal de los vectores en I S.

EJERCICIOS DE LA SECCIÓN 5.2

1. Usar el teorema 5.2.1 para determinar cuales de los siguientes conjuntos son subespa- cios de R 3 .

a) Todos los vectores de la forma (a, O, O). b) Todos los vectores de la forma (a, 1, 1). c ) Todos los vectores de l a fonna (a, b, c), donde b = a + c. d) Todos los vectorzs de la fonna (a, b, e), donde h = a + c + 1

2. Usar el teorema 5.2.1 para determinar cuáles de los siguientes conjuntos son subespa- cios a) Todas las matrices 2 X 2 con elementos enteros. b) Todas las matrices

d o n d e a + b + c + d = O . c ) Todas las matnces A 2 X 2 tales que det(il) = O

3. Usar el teorema 5.2.1 para determinar cuáles de los siguientes conjuntos son subespa- cios de P,.

Page 270: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.2 Subespacios / 275

a) Todos los polinomios a. + alx + u$ + a+3 para los que a. = O. b) Los polinomios a0 + alx + a$ + a,$ para los que a. + al + a2 + a3 = o. c) LOS polinomios a. + alx + U.$ + a3x3 para los que ao, a,, a2 y a3 son enteros. d) Los polinomios de la forma a,, + a,x, donde a. y a, son números reales.

4. Usar el teorema 5.2.1 para determinar cuáles de los siguientes conjuntos son subespa- cios del espacio F( - 03, m).

a) Todas lasftales queflx) O para toda x. b) Todas lasftales quefl0) = O. c) Todas lasftales quef(0) = 2. d) Todas las funciones constantes. e) Todas lasfde la forma k , + k, sen x, donde k , y k, son números reales.

5. Usar el teorema 5.2.1 para determinar cuáles de los siguientes conjuntos son subespa- cios de M,,,,. a) Las matrices A n X n tales que tr A ) = O. b) Las matrices A n X n tales que A = -A. c) Las matrices A n X n tales que el sistema lineal Ax = O sólo tiene la solución tnvial.

k

6. Determinar si el espacio solución del sistema Ax = O es una recta que pasa por el origen, un plano que pasa por el origen o sólo es el origen. Si es un plano, encontrar su ecuación; si es una recta, encontrar sus ecuaciones paramétricas.

.)A=[-: -1 1 i] b ) A = [ - 3 1 -2 "1 c) ,4=[2 1 2 3 5 3 1

-4 - 5 - 2 -6 1 0 8

d)A=[! 2 -6 :] e ) A = [ i l!] f, A = [ : 18 - 3 i] 7. ¿Cuáles de los siguientes vectores son combinaciones lineales de u = (O, -2, 2) y v =

(1,3, -l)? a) (2,2,2). b) (3, 1,5). c) (O, 4, 5). d) (0, o, O).

8. Expresar cada uno de los siguientes vectores como combinaciones lineales de u = (2, 1,

a) (-9, -7, -15). b) (6, 11,6). c) (0, o, O). d) (7,8, 9). 4), v = (1, -1,3) y w = (3,2, 5).

9. Expresar cada uno de los siguientes polinomios como una combinación lineal de p, = 2

a) -9 - 7x - 152. b ) 6 + 1 1 x + 6 2 . c) o. d) 7 + 8x+ 9 2 . + x + 4 2 , p 2 = 1 - x + 3 2 y p 3 = 3 + 2 x + 5 2 .

10. ¿Cuáles de las siguientes matrices son combinaciones lineales de

11. En cada inciso, determinar si los vectores dados generan R3

a) vl = (2, 2, 21, v2 = (O, O, 31, v3 = (O, 1, 1)

Page 271: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

13. Ikterminar si los slguientes polinomios generan P,.

p , = I -- x + 3 2 . pz = 3 + x. p, = 5 ~ - x t 4*'. ps = - 2 " 2.u Jr 2 2

14. Sean v, = (2, I , O, 3), v, = (3, - 1, 5, 2) y vj = (- 1, O, 2, 1). LCuáIes de los siguientes vectores están en lin {v, , v2, v3)? a) ( 2 , 3 , - 7 , 3 ) . h) (a, O, o. o) C) ( I , I . I . 1). d) -4,6, -13,4).

IS. hcontrar la ecuación del plano generado por los vectores u = (-- 1 , 1, I ) y v = (3,4.4).

16. Encontrar las ecuaciones paramétricas de la recta generada por el vector u = ( 3 , -2, 5).

17. Demostrar que los vectores solución de un sistema no homogéneo consistente de m ccuaciones linealcs con n incógnitas no forma un subespacio de R".

18. Demostrar el teorema 5.2.4

19. Aplicar el teorema 5 2.4 para demostrar que

v , = ( l . h . 4 ) , v , = ( 2 . 4 , -1). v 3 = ( - l , 2 , 5 )

Y W ! = ( I , - 2 , - 5 ) , WI = ( O . 8, 9)

general el msmo subespacio de R'.

20. llna recta L que pasa por el origen en R3 se puede representar por ecuaciones paramétricas de la forma x = at, y = ht y z = ct. Usar estas ecuaciones para demostrar que L es un subespacio de R3; es decir, si v, = (x,, y , , z,) y v2 = (x2, y,, z2) son puntos en L y k es cualquier número real. entonces k v , y v, + v2 también son puntos en L.

21. (Para quienes ya estudiaron Cdkulo). Demostrar que los siguientes conjuntos de funciones son subespacios de F( - m, m). a) Las funciones que son continuas en todas partes. b) Las funciones que son derivables en todas partes. c ) Idas funciones que son derivables en todas partes y que satisfacen f + 2f = O.

22. (Pura quienes ya estudiaron Cúlculo). Demostrar que el conjunto de funciones conti- nuas f =./(x) sobre [a, bj tales que

f f (x) dx = O

es un subespacio de C [a, h ]

Page 272: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.3 Independencia lineal / 277

5.3 INDEPENDENCIA LINEAL

En la secnbn precedente se aprendió que un conjunto de vectores S = { v ~ , v2, . . . , vr} genera un espacio vectorial I' dado si todo vector en V se puede expresar como una combinación lineal de los vectores en S. En general, puede haber más de una forma de expresar un vector en V conlo una combinación lineal de vectores en un conjunto generador. En esta sección se estudiarán condiciones en las que cada vector en V se puede expresar de manera única como una combina- ción lineal de los vectores generadores. Los conjuntos generadores con esta propiedad son fundamentales en el estudio de los espacios vectoriales.

DEFINICI~N DE INDEPENDENCIA LINEAL

Definición. Si S = {v v , vr> es un conjunto no vacío de vectores, enton- ces la ecuación vectond 1.' 2' ' ' '

k,v, + k2v2 + . . . + k,~, = O

tiene por lo menos una solución, a saber,

k : = O , k , = O , . . . , k , = O

Si esta es la única solución, entonces S se denomina conjunto linealmente inde- pendiente. Si existen otras soluciones, entonces S se denomina conjunto lineal- mente dependiente.

Ejemplo 1 Si v1 = (2, -1, O, 3), v2 = (1, 2, 5, - 1 ) y v3 = (7, - 1, 5 , 8), entonces el conjunto de vectores S = v , , v2, v3 es linealmente dependiente, ya que 3vl + v2 - v3 = O . A

Ejemplo 2 Los polinomios

p, = 1 - x , p2 = 5 +- 3.x " 2 2 , y p3 = 1 + 3 x - x2

forman un conjunto linealmente dependiente en P2, ya que 3p, - pz + 2p, = O. A

Ejemplo 3 Considerar los vectores i = (1, O, O), j = (O, 1, O) y k = (O, O, 1) en R3. En términos de las componentes, la ecuación vectorial

k,i + k2j + k,k = O

se convierte en

k,( 1, o. O) + k,rO, l . O) -L- J"(0, o, 1) = (O, O, 0)

o equivalentemente,

( i t l , IC,> P , ) ~= (0; o * 0 )

- . . .., .

Page 273: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

278 / Espacios vectoriales generales

Lo anterior indica que k, = O, k2 = O y k3 = O, de modo que el conjunto S = {i, j, k} es linealmente independiente. Se puede usar un razonamiento semejante para demostrar que los vectores

e , = ( 1 , 0 , 0 , . . . , O ) , e , = ( O , 1,0, . . . , O), . . . , e ,=(0 ,0 ,0 , . . , , 1)

forman un conjunto linealmente independiente en R". A

Ejemplo 4 Determinar si los vectores

forman un conjunto linealmente dependiente o un conjunto linealmente indepen- diente.

Solución. En términos de las componentes, la ecuación vectorial

k , v , + k2v , + k 3 v , = O

se convierte en

kI(1, - 2, 3 ) + k2(5, 6, - 1 ) + k3(3 , 2, 1) = (O, O, O)

o equivalentemente,

( k , + 5k , + 3k3, - 2k, + 6k , + 2 k 3 , 3kl - k2 + k 3 ) = (O, O, O)

Igualando las componentes correspon&entes se obtiene

k, + 5k, + 3k, = O - 2 k , + 6k2 + 2k3 = O

3k, - k , + k3 = O

Así, v, , v2 y v3 forman un conjunto linealmente dependiente si este sistema tiene una solución no trivial, o forman un conjunto linealmente independiente sólo si el sistema tiene la solución trivial. Resolviendo el sistema se obtiene

k - -1 - n t , k 2 - - -' z t , k , = t

Por tanto; el sistema tiene soluciones no triviales y v l , v2 y v3 forman un conjunto linealmente dependiente. De otra manera, la existencia de soluciones no triviales se podría demostrar sin necesidad de resolver el sistema probando que la matriz de coeficientes tiene un determinante igual a cero y, en consecuencia, que no es in- vertible (comprobar). A

Ejemplo 5 Demostrar que los polinomios

1 , x , x 2 , . . . ) x"

forman un conjunto linealmente independlente de vectores en P,.

Page 274: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.3 Independencia lineal / 279

Solución. Sean

po= I , p1 =x, p2=x2, . . . ) pn=xn

y supóngase que alguna combinación lineal de estos polinomios es igual a cero, por ejemplo

a,p, + alp, + a,p, + ' ' ' + anpn = 0

o equivalentemente,

a o + a , x + a , x 2 + . . . + a , , x " = 0 paratodaxen (-x,") (1)

Es necesario demostrar que

a o = a , = a , = . . . = a , = o

Para ver que así es, recordar que en álgebra un polinomio diferente de cero de grado n tiene cuando mucho n raíces distintas. Pero esto significa que a. = al = a2 = . . . = a,, = O; en caso contrario, por ( I ) se concluiría que a. + a,x + a$ + I ' + a,$' es un polinomio diferente de cero con una infinidad de raíces. A

La expresión "linealmente dependiente" sugiere que los vectores "dependen" entre sí de alguna manera. El siguiente teorema muestra que, de hecho, así es.

Teorema 5.3.1. Un conjunto S con dos o más vectores es: a) Linealmente dependiente si y sólo si por lo menos uno de los vectores en S

puede expresarse como una combinación lineal de los demás vectores en S. b ) Linealmente independiente si y sólo si ningún vector en S se puede expresar

como una combinación lineal de los demás vectores en S.

Se demostrará el inciso a) y la demostración del inciso 6 ) se deja como ejercicio.

Demostración de a). Sea S = {v l , v2, . . . , vr} un conjunto con dos o más vectores. Si se supone que S es linealmente dependiente, entonces existen escalares k , , k,, . . . , k,., no todos iguales a cero, tales que

k , v l + k,v, + . . . + k , ~ , = O (2)

Para ser específícos, supóngase que k , f O. Entonces (1) se puede volver a escribir como

V I = ( - $ + . . . + (-$ que expresa a v1 como una combinación lineal de los demás vectores en S. De manera semejante, si kl # O en (2) para alguna j = 2, 3, . . . , r, entonces v se puede expresar como una combinación lineal de los demás vectores en S.

J

Page 275: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

280 i Espacios vectoriales generales

Recíprocamente, se supone que por lo menos uno de los vcctores en S se puede expresar como una combinación lineal de los demás vectores. En concreto, supóngase que

v , = c2v2 + c3v3 + ' . . + c,v,

de modo que

VI - c2v2 - c3v3 - ' ' ' - crv,. = o Se concluye que S es linealmente dependiente, ya que la ecuación

k , ~ , + k2v2 + ' . . t- k,v,. = O

se satisface por

k, = 1, k, --c2, . . . . k = - r c,.

que no todos son cero. La demostración para el caso en que algún vector diferente de v, se puede expresar como una combinación lineal de los demás vectores en S es semejante. 0

Ejemplo 6 En el ejemplo 1 se vio que los vectores

VI = (2, -1 , O, 3), v2= ( I , 2 , 5 , - l), y v3 = (7 , - 1, 5 , 8)

forman un conjunto linealmente dependiente. Por el teorema 5.3.1. se concluye que por lo menos uno de estos vectores se puede expresar como una combinación lineal de los otros dos. En este ejemplo, cada vector puede expresarse como una combinación lineal de los otros dos, ya que por la ecuación 3vl + v2 - vg = O se concluye (ver el ejemplo 1) que

VI = -+v2 + iv, , v2 = -3v , + v3, Y vi = 3v, + v2 A

Ejemplo 7 En el ejemplo 3 se vio que los vectores i = (1, O, O), j = (O, 1 , O) y k =

(O, O, 1) forman un conjunto linealmente independlente. Así, por el teorema 5.3.1 se concluye que ninguno de estos vectores se puede expresar como una combinación lineal de los otros dos. Para ver directamente que esto es así, supóngase que es posible expresar a k como

k = k,i + k 2 j

Entonces, en términos de las componentes,

(O, O, 1 ) = k l ( l , O, O) -t k,(O, 1, O)

Pero esta ecuación no se cumple para ninguno de los valores de k , y k2, de modo que k no se puede expresar como una combinación lineal de i y j. De manera se-

Page 276: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.; Independencia lineal / 281

mejante, no se puede expresar a i como una combinación lineal de j y k, y no es posible expresar a j como una combinación lineal de i y k. A

El siguiente teorema establece dos hechos sencillos sobre independencia lineal que es importante conocer.

Teorema 5.3.2. a> Un conjtlnto jn i to de vectores que contiene al vector cero es linealmente

dependiente. h) Un conjunto con exactamente dos vectores es linealmente independiente si y

sólo si ninguno de los vectores es un múltiplo escalar del otro.

Se demostrará el inciso a) y la demostración del inciso 6) se deja como ejercicio

Demostración de a). Para vectores cualesquiera v l . v2, . . . , v,, el conjunto S = { v l , v2, . . . , v,, O } es linealmente dependiente, ya que la ecuación

ov, + ov, + . . . + ov,. + l(0) = o expresa a O como una combinación lineal de los vectores en S con coeficientes no todos iguales a cero. 0

Ejemplo 8 Las funciones f, = x y f2 = sen x forman un conjunto linealmente independiente de vectores en F( - 03, m), ya que ninguna de estas funciones es un múltiplo constante de la otra.

INTERPRETA- La independencia lineal posee algunas interpretaciones geométricas útiles en R2 y CIÓN R3. GEOMÉTRICA DE LA o En R2 o R3, un conjunto de dos vectores es linealmente independiente si y INDEPENDEN- sólo si los vectores no están en la misma recta cuando se colocan con sus CIA LINEAL puntos iniciales en el origen (figura 1).

a) b ) C )

Figura 1 Linealmente dependientes. Linedmente dependientes. Linealmente independiente$.

Page 277: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

282 / Espacios vectoriales generales

En R3, un conjunto de tres vectores es linealmente independiente si y sólo si los vectores no están en el mismo plano cuando se colocan con sus puntos iniciales en el origen (figura 2).

a) b ) c )

Figura 2 Linealmente dependienta. Linealmente dependientes. Linealmente independientes.

El primer resultado es una conclusión del hecho de que dos vectores son linealmente independientes si y sólo si ninguno de ellos es un múltiplo escalar del otro. Geométricamente, esto equivale a afrmar que los vectores no están en la misma recta cuando se colocan con sus puntos iniciales en el origen.

El segundo resultado es una conclusión del hecho de que tres vectores son linealmente independientes si y sólo si ninguno de ellos es una combinación lineal de los otros dos. Geométricamente, esto equivale a decir que ninguno de los vectores está en el mismo plano que los otros dos o, de otro modo, que los tres vectores no están en un plano común cuando se colocan con sus puntos iniciales en el origen (¿por qué?).

El siguiente teorema muestra que un conjunto linealmente independiente en R" puede contener cuando mucho n vectores.

Teorema 5.3.3. Sea S (= vk, v2, . , . , v,.} un conjunto de vectores en R". Si r > n, entonces S es linealmente independiente.

Demostración. Se supone que

Considérese la ecuación

k,v, + k2v2 f . . . + k,v, = o

Page 278: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

INDEPENDENCIA LINEAL DE FUNCIONES

5.3 Independencia lineal / 283

Si, como se ilustra en el ejemplo 4, ambos miembros de esta ecuación se expresan en términos de las componentes y después se igualan las componentes correspon- dientes, se obtiene el sistema

Este es un sistema homogéneo de n ecuaciones en l a s r indgnitas k , , k2, . . . , k,. Como Y > n, por el teorema 1.2.1 se concluye que el sistema tiene soluciones no triviales. Por consiguiente, S = {v,, v2, . . . , v,} es un conjunto linealmente dependiente. u OBSERVACI~N. El teorema precedente establece que un conjunto en R2 con más de dos vectores es linealmente dependiente, y que un conjunto en R3 con más de tres vectores es linealmente dependiente.

PARA QUIENES YA ESTUDIARON CÁLCULO

Algunas veces la dependencia lineal de funciones se puede deducir a partir de identidades conocidas. Por ejemplo, las funciones

f, =sen2,, f2 = cos2x y f3 = 5

forman un conjunto linealmente dependiente en F( - a, m), ya que la ecuación

5fl +- 5f2 - f3 = 5 sen2 x + 5 cos2 x - 5 = 5(sen2 x + cos2 x> - 5 = O

O está expresado como una combinación lineal de f,, f2 y f3 con los coeficientes no todos iguales a cero. Sin embargo, tales identidades se pueden aplicar sólo en situaciones especiales. Aunque no existe ningún método general para establecer independencia lineal o dependencia lineal de funciones en F( - m, a), a continua- ción se desarrollará un teorema que algunas veces se puede aplicar para demostrar que un conjunto de funciones dado es linealmente independiente.

Si f, =A(.), f2 =&(x), . . . , f,, =f,(x) son funciones derivables n - 1 veces sobre el intervalo (- m, m), entonces el determinante

Page 279: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

284 Espacios vectoriales generales

Supóngase, por el momento, que f,, f2, . . . , f, son vectores linealmente dependientes en &"')(-m, m). Entonces existen escalares k,, k,, . . , , k,, no todos iguales a cero, tales que

k , f , ( . x ) i k , f , ( s ) + ' ' ' + k,,f',,(s) y= o para toda x en el intervalo (- m, m). AI combinar esta ecuación con las ecuaciones obtenidas al derivar sucesivamente n - 1 veces, se obtiene

Así, la dependencia lineal de f,, f2, . . . , f, indica que el sistema lineal

tiene una solución no trivial para toda x en el intervalo (- m, m). Esto a su vez significa que para toda x en (- m; m) la matriz de coeficientes no es invertible o, de manera equivalente, que su determinante (el wronsluano) es cero para toda x en (- m, m). Por tanto, si el wronskiano no es idénticamente cero sobre (- m, m),

entonces las funciones f,, f2, . . . , f,, deben ser vectores linealmente independien- tes en C("-l)(- m. m). Este es el contenido del siguente teorema:

Teorema 5.3.4. Si las funciones f,, f2, . . . , f,, tienen n - 1 derivadas conti- nuas sobre el intervalo (- 03, m) y si el wronskiano de estas funciones no es idénticamente cero sobre (- m, m), entonces las funciones forman un conjunto linealmente independiente de vectores en &-l)(-m, m).

*Józef Maria Hoetze-Wronski (1776-1853). Matemático y filósofo polaco-francés. Wrónshi recibió su primera educación en Pomán y Varsovia. Sirvió como oficial de artilleros en el ejército prusiano en una sublevación nacional en 1794, fue hecho prisionero por el ejército ruso y una vez liberado estudió filosofia en varias universidades alemanas. Se nacionalizó fiancés en 1800 y terminó por establecerse en París, donde efectuó investigaciones en an&is que lo [levaron a publicar algunos artículos matemáticos polémicos y lo relacionaron con un famoso juicio sobre cuestiones financieras. Varios años después, su propuesta de investigación sobre la detenninación de la longitud en el mar fue rechazada por la British Board of Longitude y Wrónski volvió a sus estudios sobre filosofia mesiánica. En la década de 1830 investigó infructuosamente la factibilidad de que los tractores de oruga compitiesen con el ferrocarril y pasó sus ú h i m o s ~ ~ e n l a p o b r e z a B a s t a r d e d e s u t r a b a j o m a t e n d t i o o e s t a b a ~ & ~ e ~ ~ ~ o n s . p e r o a menudo contenía resultados e ideas aislados valiosas. Algunos autom atribuyen este p a t h de m m n i m t o de toda la vida a tendencias psicótiw y a una e q m x i h de la importarada de su propio trahajo.

Page 280: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.3 Independencia lineal 1 285

Ejemplo 9 Demostrar que f, = x y f2 = sen x forman un conjunto linealmente independiente de vectores en C' (- m, m).

Solución. En el ejemplo 8 se demostró que estos vectores forman un conjunto linealmente independiente al observar que ninguno de ellos es un múltiplo escalar del otro. Sin embargo, para fines ilustrativos, este mismo resultado se obtendrá usando el teorema 5.3.4. El wronskiano es

Esta función e$ diferente de cero para toda x en el intervalo (- m, m) (comprobar), de modo que f, y f2 forman un conjunto linealmente independiente. A

Ejemplo 10 Demostrar que f, = 1, f2 = dc y f3 = e& forman un conjunto linealmente independiente de vectores en C2(- m, m).

Solución. El wronskiano es

1 e-' eZX

w(x> = O ex 4eZX

= 2e3' O ex 2e2'

Esta función es diferente de cero para toda x en el intervalo (- m, m) (comprobar), de modo que f,, f2 y f3 forman un conjunto linealmente independiente. A

OBSERVACI~N. El recíproco del teorema 5.3.4 es falso. Si el wronskiano de f,, f2, . . . , f, es idénticamente cero sobre (- m, m), entonces no es posible llegar a ninguna conclusión respecto a la independencia lineal de {f,, f2, . . . , fn}; este conjunto de vectores puede ser linealmente independiente o linealmente dependiente. Se omiten los detalles de la demostración.

EJERCICIOS DE LA SECCIóN 5.3

1. Explicar por qué los siguientes conjuntos de vectores son linealmente dependientes. (Resolver este problema por inspección.) a) u, = ( - 1, 2, 4) y u' = ( 5 , - 10, -2O)enR' b) uI = (3, - 1). u2 = (4, 5), u) = ( - 4, 7) enR2

c) pl = 3 - 2x + x2 y p2 = 6 - 4x + 2x' enP,

Page 281: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

286 /' Espacios vectoriales generales

a) 2 - x + 4 x 2 , 3 + 6 x + 2 x 2 , 2 + 1 0 x - 4 x 2 b ) 3 + x + x 2 , 2 - x + 5 x 2 , 4 - 3 x 2 C) 6 - x', 1 + X + 4 ~ ' d) 1 + 3x + 3x2, x + 4x2, 5 + 6x + 3x2, 7 + 2x - x2

S. Supóngase que vl, v2 y v3 son vectores en R3 cuyos puntos iniciales están en el origen. En cada inciso, d e t e m a r si los tres vectores son coplanares. a ) v , = ( 2 , - 2 , 0 ) , v 2 = ( 6 , 1 , 4 ) , v , = ( 2 , 0 , - 4 ) b ) v , = ( - 6 , 7 , 2 ) , v 2 = ( 3 , 2 , 4 ) , v , = ( 4 , - 1 , 2 )

6. Supóngase que vI, v2 y v3 son vectores en R3 cuyos puntos iniciales están en el origen. En cada inciso, determlnar si los tres vectores son colineales.

a) v ,= ( -1 ,2 ,3 ) , ~ 2 = ( 2 , -4, -6 ) , v,=(-3,6,0) b) ~ 1 = ( 2 , - 1 , 4 ) , ~ , = ( 4 , 2 , 3 ) , ~ , = ( 2 , 7 , - 6 ) c) V I = (4, 6, 8). v2 = (2, 3 ,4) , vj = ( -2 , -3, -4)

7. a) Demostrar que los vectores vl = (O, 3, 1, - l) , v2 = (6, O, 5, 1) y v3 = (4, -7, 1, 3) forman un conjunto linealmente dependiente en R4.

b) Expresar cada vector como una combinación lineal de los otros dos.

8. ¿,Para qué valores reales de 1 los siguientes vectores forman un conjunto linealmente dependiente en R3?

v, =(a , -1 2. " ;), v2 = ( - L 2. a , " 4). vj = ( -A -+. a)

9. Demostrar que si {vl , v2, v3} es un conjunto de vectores linealmente independiente, entonces también {vi, v2}, {vl, v3}, {v2, v3}, {vl}, {v2} y (v3} son linealmente inde- pendientes.

10. Demostrar que si S = {vl , v2, . . . , vr} es un conjunto de vectores linealmente independiente, entonces también todo subconjunto no vacío de S es linealmente inde- pendiente.

11. Demostrar que si {vl, v2> v3} es un conjunto de vectores linealmente independiente en un espacio vectorial V y v4 es cualquier vector en V, entonces {vl, v2, v3, v4) también es linealmente independiente.

12. Demostrar que si {vl, v2, . . . , vr} es un conjunto linealmente independiente de vectores en un espacio vectorial V y si vrtl, . . . , vn son vectores cualesquiera en V, entonces {vI, v2, . . . , vrtl, . . . , vn} también es linealmente independiente.

13. Demostrar que todo conjunto con más de tres vectores de P2 es linealmente depen- diente.

14. Demostrar que si {vI , vz} es linealmente independiente y v3 no está en lin {vl, vz}, entonces {v,, v2, v3} es linealmente independiente.

15. Demostrar: Para vectores cualesquiera u, v y w, los vectores u - Y, v - w y w - u forman un conjunto linealmente dependiente.

16. Demostrar: El espacio generado por dos vectores en R3 es una recta que pasa por el origen, un plano que pasa por el origen o el origen mismo.

17. ¿En qué condiciones un conjunto con un vector es linealmente independiente?

Page 282: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.4 Base y dimensión / 287

18.

19.

20.

21.

22.

,$on linealmente independientes los vectores v, , v2 y v3 de la figura 3a? ¿Y los de la figura 3b? Explicar las respuestas.

tz

Figura 3

Usando las identidades adecuadas donde sea necesario, determinar cuáles de los siguientes conjuntos de vectores en F( - m , 03) son linealmente dependientes.

a) 6, 3 sen2 x, 2 cos2 x b) x, cos x c) l,senx, sen2x d) cos 2x,sen2 x, cos2 x e) (3 - x)’, x2 - 6x, 5 f ) O, cos3 m , s e n 5 3nx

(Para quienes ya estudiuron C&urO). Usando el wronskiano, demostrar que los siguientes conjuntos de vectores son linealmente independientes.

a) 1, x, ex b) sen x, cos x, x senx c) e’, xe‘, x’eX d) 1, x, x2

Con el inciso a) del teorema 5.3.1, demostrar el inciso b) del mismo teorema.

Demostrar el inciso b ) del teorema 5.3.2

5.4 BASE Y DIMENSI~N

Es común imaginar a una recta como unidimensional, a un plano como bidimensional y al espacio circundante como tridimensional. El objetivo principal de esta sección es hacer precisa esta noción intuitiva de dimensión.

SISTEMAS DE En geometría analítica plana se aprendió a asociar un par de coordenadas (a, b ) COORDENADAS con un punto P en el plano al proyectar P sobre un par de ejes de coordenadas

GULARES asigna un conjunto de coordenadas único y recíprocamente, a cada par de coor- denadas se asocia un punto Único en el plano. Lo anterior se describe afirmando que el sistema de coordenadas establece una correspondencia biunivocu o uno a uno entre puntos en el plano y parejas ordenadas de números reales. Aunque los ejes de coordenadas perpendiculares son los más comunes, para definir un sistema de coordenadas en el plano se puede usar cualquier par de rectas no paralelas. Por ejemplo, en la figura lb, al punto P se han asociado las coordenadas (a, 6 ) al proyectar P en forma paralela a los ejes de coordenadas no perpendiculares. De manera semejante, para defimr un sistema de coordenadas en el espacio tridimensional es posible usar cualquier tema de ejes de coordenadas no coplanares (figura IC).

NO RECTAN- perpendiculares (figura la). Mediante este proceso, a cada punto en el plano se

Page 283: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

2811 Espacios vectoriales generales

a ) b I (' 1

coordenadas no rectangulares en el

El primer objetivo en esta sección es ampliar el concepto de sistema dc coordenadas a espacios vectoriales generales. Para empezar, será de utilidad volver a plantear el concepto de sistema de coordenadas en el espacio bidimensional o en el espacio tridimensional usando vectores en vez de ejes de coordenadas para especificar el sistema de coordenadas. Esto se puede hacer sustituyendo cada eje de coordenadas por un vector de longitud 1 que apunte en la hrección positiva del eje. En la figura 2a, por ejemplo, v1 y v2 son tales vesores. Como se ilustra en esa figura, si P es cualquier punto en el plano, el vector OP se puede escribir como una combinación lineal de v1 y v2 proyectando P en forma paralela a vI y v2 a fin de que OP sea la diagonal del paralelogramo determinado por los vectores mI y bv2. -

OP = av, +- bv, Resulta evidente que los números a y b en esta fórmula vectorial son precisamente las coordenadas de P en el sistema de coordenadas de la figura lb . De manera semejante, las coordenadas (a, b, c) del punto P en la figura IC se pueden obtener al expresar ¿¡? como una combinación lineal de los vectores que se muestran en la figura 26.

Page 284: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.4 Base y dimensión / 289

Las escalas de mdción a lo largo de los ejes de coordenadas son ingrdentes esenciales de cualquier sistema de coordenadas. En términos generales, se intenta usar la misma escala en cada eje y situar los puntos enteros sobre los ejes a una distancia de 1 unidad entre sí. Sin embargo, esto no siempre es práctico o apropiado: para ajustar una gráfica particular sobre una página impresa o para representar cantidades fisicas con varias unidades en el mismo sistema de coordenadas (tiempo en segundos sobre un eje y temperatura en cientos de grados sobre otro eje, por ejemplo) son necesarias escalas desiguales o escalas en que la &stancia entre los puntos enteros sea mayor o menor que 1 unidad. Cuando un sistema de coordenadas se especifica medmte un conjunto de vectores básicos, entonces las longitudes de estos vectores corresponden a las distancias entre puntos enteros consecutivos sobre los ejes de coordenadas (figura 3). Así, lo que define las direcciones positivas de los ejes de coordenadas son las direcciones de los vectores básicos, y lo que establece las escalas de medición son las longitudes de los vectores básicos.

-3 -2 -1

- 3 -?I -1

-2

Escalas diferentes. Ejes perpendiculares.

Figura 3 Escalas iguales. Ejes oblicuos. Escalas dikrentes. Ejes oblicuos.

La siguiente defínición clave hace más precisas los conceptos anteriores y permite ampliar el concepto de sistema de coordenadas a espacios vectoriales generales.

Page 285: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

BASE DE UN ESPACIO VECTORIAL

Definición.Si V es cualquier espacio vectorial y S = {vl, v2, . . . , vn} es un conjunto de vectores en V. entonces S se llama base de V si se cumplen las dos condiciones siguientes:

a) S es linealmente indepenhente. b) S genera a V.

Una base es la generalización de espacio vectorial de un sistema de coordenadas en el espacio bidimensional y en el espacio tridimensional. El si- guiente teorema ayudará a ver por qué es así.

Teorema 5.4.1. S i S = {vl, v2, . . . , vn} es una base de un espacio vectorial V, , entonces todo vector v en V se puede expresar en forma zinica como v == c l v , + c2v2 + . . . I + C,V,?.

d

Demostración. Como S genera a I/', por la definición de conjunto generador se concluye que todo vector v en 1' se puede expresar como una combinación lineal de los vectores en S. Para ver que sólo existe una manera de expresar un vector como una combinación lineal de los vectores en S, supóngase que algún vector v se puede escribir como

v = C l V 1 + c,vz + ' ' . + c,vn

y también como

v = k,v , + k,v, + ' I + knv,

Restando la segunda ecuación de la primera se obtiene

c , - k l = O , c , - k , = Q , . . , , c,--,,=O

es decir. C, = k , , c 2 = k,, . . . , crt = k n

Así. las dos expresiones para v son iguales. U

COORDENADAS Si S = {v l , v2, . , . , vn }es una base para un espacio vectorial V y RESPECTO A UNA BASE v = c ,v , + c*v2 + ' . ' + c,v,

es la expresión que describe un vector v en términos de la base S, entonces los escalares cl , c2, . . . , e,, se denominan coordenadas de v respecto a la base S. El

Page 286: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.4 Base y dimensión / 291

vector (cl, c2, . . . , cn) en R" que se obtiene a partir de estas coordenadas se llama vector de coordenadas de v con respecto a S; se denota por

(v)s = (CI, $ 9 . . ' > c,>

OBSERVACI~N. Se debe notar que los vectores de coordenadas no sólo dependen de la base S, sino también del orden en que se escriben los vectores básfcos; un cambio en el orden de los vectores básicos da por resultado un cambio corres- pondiente en el orden de los elementos en los vectores de coordenadas.

Ejemplo 1 En el ejemplo 3 de la sección precedente se demostró que si

i = ( l , O , O ) , j = ( O , l , O ) , y k=(O,O, 1)

entonces S = {i, j, k} es un conjunto linealmente independiente en R3. Este conjunto también genera a R3, ya que cualquier vector v = (a, b, c) en R3 se puede escribir como

v = (a, b, c) = a(1, O, O) + b(0, 1, O) + c(0, O, 1) = a i + bj + ck (1)

Así, S es una base de R3; se denomina base estándar de R3. Al observar los coeficientes de i , j y k en (1). se concluye que las coordenadas de v respecto a la base estándar son a, b y c, de modo que

(VIS = (a, b, c>

Comparando este resultado con (1) se observa que

v = (VIS

Esta ecuación establece que las componentes de un vector v con respecto a un sistema de coordenadas rectangulares xyz y las coordenadas de v con respecto a la base estándar son las mismas; así, el sistema de coordenadas y la base producen precisamente la misma correspondencia uno a uno entre puntos en el espacio tridimensional y ternas ordenadas de números reales (figura 4). A

Figura 4

Page 287: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Los resu1:ados del ejemplo anterior son un caso especial de los que se presentan en el siguiente ejemplo.

BASE Ejemplo 2 En el ejemplo 3 de la sección precedente se demostró que si ESTANDAR PARA R" e , = (1, O, O, . . . , O), e, = (O, 1 , O , . . . , O), . . . , e,, = (O, O, O, . . . , 1)

entonces

es un conjunto linealmente independiente de R". Este conjunto también genera a R", ya que cualquier vector v = (vl. v2, . . . , vn) en R" se puede escribir como

Así, S es una base de R"; se denomina base estándar de R". Por (2) se con- cluye que las coordenadas de v = (vl, v2, . . . , vn) respecto a la base estándar son v l , v2, . . . , vn, de modo que

(VIS = (u,, u23 ' ' ' 1 u,)

Como en el ejemplo 1, aquí también se tiene que

v = w.7

de modo que un vector v y su vector de coordenadas con respecto a la base estándar de R" son iguales. A

OBSERVACI~N. En otro ejemplo se verá que un vector y su vector de coordenadas no son los mismos; la igualdad observada en los dos ejemplos precedentes es una situación especial que ocurre sólo con la base estándar de R".

OBSERVACI~N. En RZ y en R3, los vectores estándar básicos suelen denotarse por i , j y k, en vez de por e l , e, y e3. Aquí se usarán ambas notaciones, dependiendo de la situación particular.

Ejemplo 3 Sean v1 = (1, 2, l), v2 = (2, 9, O) y v3 = ( 3 , 3, 4). Demostrar que el conjunto S = v l , v,, v3 es una base de R3.

Solución. Para probar que el conjunto S genera a R3 es necesario demostrar que un vector arbitrario b = (bl, b,, b3) se puede expresar como una combinación lineal

b = c i v l + c2v2 + c3v3

Page 288: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.4 Base y dimensión / 293

de los vectores en S. Expresando esta ecuación en términos de las componentes se obtiene

o bien, igualando las componentes correspondientes,

CI + 2c2 + 3c3 = h ,

+ 4c, = b, 2c, + 9c2 + 3c3 = h2

CI

Así, para probar que S genera a R3 es necesario demostrar que el sistema (3) tiene una solución para todas las elecciones de b = (6 ,, t2, 6-J.

Para probar que S es linealmente independlente, se debe demostrar que la única solución de

es c1 = c2 = c3 = O. Como antes, si (4) se expresa en términos de las componentes, entonces la comprobación de la independencia lineal se reduce a demostrar que el sistema homogéneo

sólo tiene la solución trivial. Obsérvese que los sistemas (3) y (5) tienen la misma matriz de coeficientes. Así, por los incisos a), b ) y g) del teorema 4.3.4 se puede probar en forma simultánea que S es linealmente independiente y que genera a H3 al demostrar que en los sistemas (3) y (5) la matriz de coeficientes

1 2 3

1 0 4

posee un determinante diferente de cero. Pero

Page 289: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

294 / Espacios vectoriales generales

de modo que S es una base para R3. A

Ejemplo 4 Sea S = {vl, v2. v3] la base de R3 en el ejemplo precedente.

a) Encontrar el vector de coordenadas de v = ( 5, - 1, 9) con respecto a S. b) Encontrar el vector v en R3 cuyo vector de coordenadas con respecto a la base

Ses ( v ) , ~ = (-1. 3. 2).

Solución de a). Es necesario encontrar escalares cl, c2, c3 tales que

v = c,v, + c2v2 + c3v3

o bien, en términos de las componentes.

( 5 , - I , 9) = c,(l, 2, 1) + c2(2, 9, O ) + c3(3, 3, 2'

Igualando las componentes correspondientes se obtiene

C1 + 2C2 f 3C3 zz 5 2C, + 9C2 + 3C3 = - 1

CI +4c, = 9

Resolviendo este sistema se obtiene c1 = 1, c2 = - 1 , c3 = 2 (comprobar). Por consiguiente,

(v)s = (1, - 1, 2)

Solución de h). Aplicando la definición del vector de coordenadas ( v ) ~ , se obtiene

v = (- l ) ~ , + 3 ~ 2 + 2 ~ 3 =( -1 ) (1 ,2 , 1 )+3(2 ,9 ,0 )+2(3 , 3 ,4 )=(11 ,31 ,7 ) A

Ejemplo 5

a) Demostrar que S = { 1 , x, x*, . . . . x"} es una base para el espacio vectorial Pn

b) Encontrar el vector de coordenadas del polinomio p a. + alx + a2x2 con de polinomios de la forma a. + alx + . . . + a&'.

respecto a la base S = { 1, x, x,} para P,.

Solución de a). En el ejemplo 11 de la sección 5.2 se demostró que S genera a P2, y en el ejemplo 5 de la sección 5.3 se demostró que S es un conjunto linealmente independiente. Así, S es una base para P,; se denomina base estándar para P,.

Solución de a). Las coordenadas de p = a. + a l x + a2x2 son los coeficientes escalares de los vectores básicos 1, x y x2, de modo que = (ao, a l , a,). A

Page 290: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.4 Rase y dimensión 1 295

Ejemplo 6 Sean

DIMENSI~N

El conjunto S = {M1, M,, M3, M4) es una base para el espacio vectorial de matrices 2 x 2. Para constatar que S genera a M,,, obsérvese que un vector (matriz) cualesquiera

se puede escribir como

Para constatar que S es linealmente independiente, supóngase que

aM, + bM2 + CM, + dA4, = O

Es decir,

a[ ' O 0 O]+b[O O 0 ' I + # : ] + d [ o O 0 I ] = [ : :] Se concluye que

Así, a = b = c = d = O, de modo que S es linealmente indepenjiente. La base S en este ejemplo se denomina base estúindar para M2,. De manera más general, la base estándar para Mnn consta de las mn matrices diferentes que tienen un solo 1 y cuyos elementos restantes son ceros. A

Ejemplo 7 Si S = {vl, v,, . . . , vr} es un conjunto linealmente independiente en un espacio vectorial V, entonces S es una base para el subespacio lin (S?, ya que por definicibn de lin ( S ) e! conjunto S genera a lin (S). A

Definición. Se dice que un espacio vectorial Y diferente de cero es de dimensión finita si contiene un conjunto finito de vectores vl, v2, . . . , v,, que forma una base. Si es así, se dice que V es de dimensión infinita. Además, se considera que el espacio vectorial cero es de dimensión finita. A

Ejemplo 8 Por los ejemplos 2, 5 y 6, los espacios vectoriales R", Pn y M,,,, son de dimensión finita. Los espacios vectoriales F(- m , m), C(- m , m), Cm( - m , w) y C" (- m, m) son de dimensión infinita (ejercicio 23). A

Page 291: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

296 ,I Espacios vectoriales generales

El siguiente teorema proporciona la clave del concepto de dimensión

vn} es cualquier base, entonces:

a) Todo conjunto con más de n vectores es linealmente dependiente. 6) Ningún conjunto con menos de n vectores genera a V.

Demostración de a). Sea S = {wl , w2, , , . , wm} cualquier conjunto de m vectores en I,', donde m > n. Se quiere demostrar que S es linealmente dependiente. Como S = {v,, v2, . . . , vn} es una base, todo wi se puede expresar como una combina- ción lineal de los vectores en S, por ejemplo

W l = U , , V , + u21v2 - t . . ' + a,,v, w2 = a12v1 + a2,v2 + . . . + an2v,

w, = Ul,VI + a2,v2 + . . ' + UnmV,

Para demostrar que S es linealmente dependente, es necesario encontrar escalares k , , k,, . . . , k,,, no todos cero, tales que

Usando las ecuaciones en (6), la expresión (7) se puede volver a escribir como

(k ,u , 1 " k,a,2 + ' ' ' + k m U l m ) V ,

+ (k1a,, + k2a,, + . . . + kma2,,,)v2

+ (k,a,, + k2an2 + . . . + ~,u,,,,)v, = O

Así, a partir de la independencia lineal de S, el problema de demostrar que S es un conjunto healmente dependiente se reduce a probar que existen escalares k, , k,, . . . , km, no todos cero, que satisfacen

a,,!%, + a,,k, + ' . . + q m k m = o a, ,k , +- a2,k, + . . . + a,,k, = O

(8)

an,kl + a,2k2 + . . . + anmkm = O

Pero (S) contiene más incbgnitas que &ones, de modo que la demostración está completa, ya que el teorema 1.2.1 garantiza la existencia de soluciones no triviales.

Demostración de b). Sea S = {wl, w,, . . . , wm} cualquier conjunto de m vectores en V, donde m < n. Se quiere demostrar que S no genera a V. La demostración será por contradicción: Se demostrará que suponiendo que S genera a V se llega a una contradicción de la independencia lineal de {vl, v2, . . . , vn}.

Page 292: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.4 Base y dimensión / 297

Si S genera a V, entonces todo vector en V es una combinación lineal de 10s vectores en S. En particular, cada vector básico vi es una combinación lineal de los vectores en S, por ejemplo,

v, = a l l w l + a Z I w 2 + . . . + a , , ~ , v2 = a12wl + a22w2 + . . ' + am2w,

v, = a,,w, + a2nW2 + . . . + c,,w,

Para obtener la contradicción, se demostrará que existen escalares k,, k2, . . . , km, no todos cero, tales que

k , ~ , + k2v2 + . . . + k,v, = O (10)

Pero obsérvese que (9) y (10) son de la misma forma que (6) y (7), excepto que se han intercambiado m y n, así como las w y las v. Por tanto, los cálculos con los que se llegó a (8) ahora producen

a,,k, + aI2k2 + . . . + a&, = O a2,k, + a2,k2 + . . . + a2,k, = O

Este sistema lineal contiene más incógnitas que ecuaciones y por el teorema 1.2.1, posee soluciones no triviales. 0

Del teorema precedente se deduce que si S = {vl, v2, . . . , v,,} es cualquier base para un espacio vectorial V, entonces todos los conjuntos en V que simultáneamente generan a V y son linealmente independientes deben tener preci- samente n vectores. Así, todas las bases de Vdeben tener el mismo número de vec- tores que la base arbitraria S. Esto lleva al siguiente resultado, que es uno de los más importantes en álgebra lineal. 1

Teorema 5.4.3. Todas las bases de un espacio vectorial de dimensión jinita tienen el mismo número de vectores.

Para ver cómo se relaciona este teorema con el concepto de "dimensión", recuérdese que la base estándar para R" tiene n vectores (ejemplo 2). Así, el teorema 5.4.3 indica que todas las bases de R" tienen n vectores . En particular, cualquier base para R3 tiene tres vectores, cualquier base para R2 tiene dos vectores, y cualquier base para R' (R) tiene un vector. Intuitivamente, R3 es tridimensional, R2 (un plano) es bidimensional, y R (una recta) es unidimensional. Así, para espacios vectoriales conocidos, el número de vectores que hay en m a base es igual a la dimensión. Este hecho sugiere la siguiente definición.

Page 293: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

298 / Espacios vectoriales generales

Ejemplo 9

dim@") = n La base estándar tiene n vectores (ejemplo 2). dim(Pn) = n + 1 La base estándar tiene n + 1 vectores (ejemplo 5) dim(Mmn) = mn La base estándar tiene mn vectores (ejemplo 6).

Ejemplo 10 Determinar una base para y la dimensión del espacio solución del sistema homogéneo

2x, + 2x, - x3 +x,=o

- x, - x2 + 2x, - 3x, + x g = o .x1 + x2 - 2x, - .x5 = o

xi + xq + x5 = o

Solución. En el ejemplo 6 de la sección 1.2 se demostró que la solución general del sistema dado es

Por consiguiente, los vectores solución se pueden escribir como

lo cual demuestra que los vectores

" j O

O

generan el espacio solución. Como también son linealmente independientes (com- probar), {vl, va} es una base y el espacio solución es bidimensional. A

Page 294: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.4 Base y dimensión / 299

ALGUNOS El resto de esta sección se dedicará a una serie de teoremas que revelan las sutiles

FUNDAMENTA- dimensión. Estos teoremas no son ejercicios vanos de matemáticas teóricas; por el LES contrario, son esenciales para comprender los espacios vectoriales y muchas apli-

caciones prácticas del álgebra lineal se basan en ellos. El siguiente teorema, que en este libro se denomina Teorema M&/Menos,

establece dos principios básicos en los que se basan la mayoría de los teoremas subsecuentes.

TEOREMAS relaciones que hay entre los conceptos de generación, independencia lineal, base y

Teorema 5.4.4. (Teorema MádMenos). Sea S un conjunto no vacío de vecto- res en un espacio vectorial I/:

a) Si S es un conjunto linealmente independiente y v es un vector en V que no pertenece a [in (SI, entonces el conjunto que se obtiene al incluir v en S aún es linealmente independiente.

6 ) Si v es un vector en S que se puede expresar como una combinación lineal de los demás vectores en S, y si S - {v} denota el conjunto que se obtiene al quitar v de S, entonces S y S - { v) generan el mismo espacio; es decir,

I lin 6s) = lin ( S - {v})

La demostración se pospone hasta el final de la sección para poder estudiar de in- mediato las consecuencias del teorema. Sin embargo, el teorema se puede repre- sentar en R3 como sigue:

a) Un conjunto S de dos vectores linealmente independientes en R3 genera un plano que pasa por el origen. Si S se aumenta insertando cualquier vector v fuera de este plano (figura 5a), entonces el conjunto resultante de tres vectores todavía es linealmente independente, ya que ninguno de los tres vectores está en el mismo plano que los otros dos.

6 ) Si S es un conjunto de tres vectores no colineales en R3 que están en un plano co- mún que pasa por el origen (figura 5b), entonces los tres vectores generan el plano. Sin embargo, si de S se quita cualquier vector v que sea una combinación lineal de los otros dos, entonces el conjunto restante de dos vedores sigue generando el plano.

b )

Ninguno de los tres vectores está en el mismo

Figura 5

". . -. , " . I .. . .

Cualquiera de los vectores se puede eliminar y los dos restantes siguen generando

. ". I

C)

se puede eliminar y los dos restantes

Page 295: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

300 / Espacios vectoriales generales

En general, para probar que un conjunto de vectores {vl, v2, . . . , v,,} es una base de un espacio vectorial V, se debe demostrar que los vectores son linealmente independientes y generan a Y, Sin embargo, si se sabe que la hmensión de Ves n (de modo que {vl, v2, . . . , v,,} contiene el número adecuado de vectores para una base), entonces basta verificar y a sea, la independencia lineal o la generación: la otra condición se cumple automáticamente. Este es el contenido del siguiente teorema.

Teorema 5.4.5. Si V es un espacio vectorial de dimensión n y si S es un conjunto en V con exactamente n vectores, entonces S es una base de I.’ si S genera a V o si S es linealmente independiente.

Demostración. Supóngase que S contiene exactamente n vectores y que genera a C’. Para probar que S es una base es necesario demostrar que S es un conjunto linealmente independiente. Pero si no es así, entonces algún vector v en S es una combinación lineal de los demás vectores. Si este vector se quita de S, entonces por el Teorema MáslMenos (teorema 5.4.46) se concluye que el conjunto restante de n - 1 vectores aún genera a V. Pero esto es imposible, ya que por el teorcma 5.4.26 se deduce que ningún conjunto con menos de n vectores puede generar un espacio vectorial de dimensión n. Así, S es lineal- mente independiente.

Supóngase que S contiene exactamente n vectores y que es un conjunto iinealmente independiente. Para probar que S es una base se debe demostrar que S genera a V. Pero si ésto no es así, entonces en V existe un vector v que no está en lin (S). Si este vector se incluye en S, entonces por el Teorema MásMenos (teorema 5 . 4 . 4 ~ ) se concluye que este conjunto de n + 1 vectores aún es linealmente independiente. Pero esto es imposible, ya que por el teorema 5.4.2a se concluye que ningún conjunto con más de n vectores en un espacio de dimensión n puede ser linealmente independiente. Así, S genera a v. n

Ejemplo 11

Demostrar por inspección que vI = ( - 3 , 7 ) y v2 = (5, 5 ) forman una base para R2. Demostrar por inspección que v 1 = (2, O, - I), v2 = (4 , o, 7) y v3 = (- 1, 1, 4) forman una base para R3.

Solución de a). Como ninguno de los vectores es un múltiplo escalar del otro, los dos vectores forman un conjunto linealmente independiente en el espacio bi&- mensional R2 y, entonces, por el teorema 5.4.5, forman una base.

Solución de 6). Los vectores v1 y v2 forman un conjunto linealmente indepen- diente en el plano xz ($or qué?). El vector v3 está fuera del plano xz, de nlods que

Page 296: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.4 Base y dimensión / 301

el conjunto {vl, v2, v3} también es linealmente independiente. Como R3 es tridimensional, el teorema 5.4.5 indica que {vl, v2, v3} es una base para R3. A

El siguiente teorema muestra que para un espacio vectorial V de dtmensión finita todo conjunto que genera a V contiene una base para V, y que todo conjunto linealmente independiente en V forma parte de alguna base para V.

~~~ ~~~

Teorema 5.4.6. Sea S un conjunto de vectores en un espacio vectorial V de dimensiónjnita. a ) Si S genera a V pero no es una base de V, entonces S se puede reducir a

una base de V quitando de S los vectores adecuados. 6 ) Si S es un conjunto linealmente independiente que y a no es una base para

V , entonces S se puede agrandar hasta constituir una base para V insertando en S los vectores apropiados.

Demostración de a). Si S es un conjunto de vectores que genera a V pero no es una base para V, entonces S es un conjunto linealmente dependiente. Así, algún vector v en S se puede expresar como una combinación lineal de los demás vectores en S. Por el Teorema Máshlenos (teorema 5.4.46), es posible quitar v de S y el conjunto resultante S ' sigue generando a V. Si S ' es lineal- mente independiente, entonces S' es una base para V y ya se ha terminado. Si S es linealmente dependiente, entonces es posible quitar de S ' algún vector adecuado a fin de obtener un conjunto S ' que siga generando a V. Se puede continuar quitando vectores de esta manera hasta que, por último, se llega a un conjunto de vectores en S que sea linealmente independiente y genere a V. Este subconjunto de S es una base para V.

Demostración de 6). Supóngase que dim(Cr) = n. Si S es un conjunto linealmente independiente que no es UM base para V, entonces S no genera a V y existe un vector v en V que no está en lin (S). Pero por el Teorema MásMenos (teorema 5.4.4a), es posible insertar v en S, y el conjunto resultante S aún es linealmente independiente. Si S genera a V, entonces S es una base para V y ya se ha terminado. Si S no genera a V, entonces es posible insertar un vector apropiado en S para obtener un conjunto S' que siga siendo linealmente independente. Es posible continuar insertando vectores de esta manera hasta que se llega a un conjunto con n vectores linealmente independientes en V. Por el teorema 5.4.5, este conjunto es un base para V.

En la siguiente sección se dan ejemplos numéricos que ilustran el teorema precedente.

Esta sección concluye con un teorema que muestra que la dimensión de un subespacio de un espacio vectorial V no puede exceder la dtmensión de V mismo, y que la única forma en que un subespacio puede tener la misma dimensión que Ves cuando el subespacio es todo el espacio vectorial V. En la figura 6 se ilustra esta

.-. . .

Page 297: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

302 ,I Espacios vecloriaies generales

Figura 6

idea para R3. En esa figura se observa que aumenta la dimensión de subespacios sucesivamente más grandes.

Recta que Pasa por el origen 1 (1-unidirnensionalj 1

1 (dimensión O) Origen

I

~~ ~~~ ~~ ~~~ ~ ~~ ~

Teorema 5.4.7. Si W es un subespacio de un espacio vectorial Y de dimensión ,finita. entonces dim( W) 5 dim(l.9; además, si dim(W) = dim(4, entonces W = V.

*

Demostración. Sea S = { wl, w,, . . . , wm} una base para W. S puede ser una base para V o no. Si es así, entonces dim(w = &m(V) = m. Si no es así, entonces, por el teorema 5.4.66, es posible agregar vectores al conjunto linealmente independiente S a fin de convertirlo en una base para Y de modo que dim(JV) < &m( 4. Por tanto, d i m ( q 5 &m(q en todos los casos. Si dim( W) = dim(V), entonces S es un conjunto de m vectores linealmente independientes en el espacio vectorial Vde dimensión m; por tanto, debido al teorema 5.4.5, S es una base para V. Esto signifíca que W = Y (¿por qué?). 0

MÁS DEMOSTRACIONES

Demostración del teorema 5.4.4a Supóngase que S = {y1, v2, . . . , vr} es un con- junto linealmente independiente de vectores en V y que v es un vector en I/’ fuera de lin (S). Para probar que S = {vl, v2, , . . , vr, v} es un conjunto linealmente independiente, es necesario demostrar que los únicos escalares que satisfacen

k,v, + k2v2 + ’ ’ ‘ + k,v, + k,, ,v = o (1 1)

son k , = k , = . . . = k = k r+l = O. Pero se debe tener que k r+l = O; en caso contrario, v se podría despejar en (11) como una combinación lineal de vl, v2, . . . , Y,, contrakciendo la hipótesis de que v es un vector que no pertenece a lin (S). Así, (1 1) se simplifica a

k,v, + k2v2 + . . . + k , ~ , = O (12)

lo cual, debido a la independencia lineal de v,, v,, . . . , vr , sigrufíca que k - k = k = O .

I - 2 -

Page 298: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.4 Base y dimensión / 303

Demostración del teorema 5.4.4b Supóngase que S = {vl, v2, . . . , vr} es un conjunto de vectores en V y, para ser específícos, supóngase que v, es una combinación lineal de vl , v2, . . . , v,- 1, por ejemplo

Se quiere demostrar que si v, se quita de S, entonces el conjunto de vectores restante (vl, v2, . . . , v,.-~} sigue generando a lin (9; es decir, se debe demostrar que todo vector w en lin (S) se puede expresar como una combinación lineal de {y1, v2, . . . , v }. Pero si w está en lin (S), entonces w se puede expresar en la forma

r- 1

o bien, sustituyendo en (1 3)

que expresa a w como una combinación lineal de vl, v2, . . . , vr- u

EJERCICIOS DE LA SECCIóN 5.4

1. Explicar por qué los siguientes conjuntos de vectores no son bases de los espacios vectoriales indicados. (Resolver este problema por inspección.) a) u, = (1, 2), u2 = (O, 3), uj = (2, 7) para R2 b ) u l = ( - 1 , 3 , 2 ) , u ,=(6 ,1 ,1)paraR3 C) pI = 1 + x + x2, p2 = x - 1 para P2

2. LCuAles de los siguientes conjuntos de vectores son bases para R2?

3. ¿Cuáles de los siguientes conjuntos de vectores son bases para R3? a1 (2, 11, (3, 0) b) (4, 11, (-7, -8) C) (0, O), (1, 3) (d) (3,9), (-4, - 12)

a) (1, O, 01, (2,2, O), (3, 3, 3) b) ( 3 , 1, - 4h (2, 5, 6h (1,4, 8) C) (2. - 3 , 11, (4, 1, I ) , (0, -7, 1) d) (1, 6, 41, (2, 4, - 11, ( - 1, 2, 5)

4. ¿Cuáles de los siguientes conjuntos de vectores son bases para P2? a) 1 - 3 X + 2 ~ ~ , 1 + ~ + 4 ~ ~ , 1 - 7 ~ b ) 4 + 6 x + x 2 , - 1 + 4 x + 2 x 2 , 5 + 2 x - x 2 c) 1 + x + x 2 , x + x 2 , 2 d) - 4 + ~ + 3 ~ ~ , 6 + 5 ~ + 2 ~ ~ , 8 + 4 x + x '

5. Demostrar que el siguiente conjunto de vectores es una base paran/iZ2.

[: - 0 6 1 1 [ - Y - : I 9 [-I: 3 [ -; :] 6. Sea Vel conjunto generado por v l = cos2 x, v2 = sen2 x, v3 = cos 2x

a) Demostrar que S = {y1, v2, v3} no es una base para V. b) Determinar una base para V.

7. Encontrar el vector de coordenadas de w con respecto a la base S = {u] , u2}para R2

Page 299: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

304 ,I Espacios vecforiales generales

a) u l = ( l , O ) . u ~ ~ ( O , I ) ; ~ = ( 3 , - 7 ) b) U , = ( 2 , -4), ~ , = ( 3 , 8 ) ; w = ( l , 1) c) u, = ( I , I ) , u, = ( O , 2); w = (u, h )

8. Hallar el vector de coordenadas de v con respecto a la base S = {v, , v2, vi} a) v = (2, - I , 3 ) ; V I = ( I , O, O), v, = (2, 2, O), v3 = ( 3 , 3, 3) b ) v = ( 5 . - -12,3); ~ , = ( 1 , 2 , 3 ) , v 2 = ( - 4 , 5 , 6 ) , v 3 = ( 7 , -8 .9)

Y. Encontrar el vector de coordenadas de p con respecto a la base S = { pl , p2, p3}. a) p = 4 - 3x + x * ; p, = 1, p2 =x, p3 = x2 b) p = 2 - X + x'; pI = 1 +X, pz = 1 + x2, p1 = X + X'

10. Determinar el vector de coordenadas de A con respecto a la base S = {A,, A,, A,, A4}.

En los ejercicios del 1 1 al 16, determinar la dimensión y una base para el espacio solución del sistema. 11. x , +x, - xi = o 12. 3r, +x, +x, +x4 = o 13. x , - 4x, + 3x3 - x4 = o

- 2x, - x, + 2x3 = o 5x, - x, + xj - x4 = o 2 ~ , - 8x2 + 6x3 - 2x4 O - x , + x, = o

14. X, - 3x, + x3 = O 15. 2x, +x, + 3x3 = O 16. x + y+ z = O 2x, - 6x2 + 2 ~ , = O x, + 5x, = o 3 x + 2 y - 2 z = O 3x, - 9x, -t 3x, = o x, + xj = o 4 x f 3 y - z = o

6 x + 5 y + z = O

17. Determinar bases para los siguientes subespacios de R3. a) El plano 3x - 2y+ 5z = O. b) El plano X - = O. c) Larectax=2t ,y=-t ,z=4t . d) Todos los vectores de la forma (u, 6 , e), donde b = u + c

18. Dar las dimensiones de los siguientes subespacios de p. a) Todos los vectores de la forma (a, b, c, O). b) Todos los vectores de la forma (a, b, c, d), donde d = a + b y c = u - b. c) Todos los vectores de la forma (u, b, c, d), donde u = b = c = d.

20. Encontrar un vector estándar básico que se pueda agregar al conjunto {v , , vz} para obtener una base para R3. a ) v , = ( - 1 , 2 , 3 ) , v , = ( l , - 2 , - 2 ) b ) v , = ( l , - l , O ) , v z = ( 3 , 1 , - 2 )

21. Encontrar vectores estándar básicos que se puedan agregar al conjunto {vi , v2} para obtener una base para p.

v , = ( l , -4 ,2 , -3), ~ , = ( - 3 , 8 , -4,6)

22. Sea { v I , v2, vj} una base de un espacio vectorial V. Demostrar que {ui, u2, u3} tam- bién es una base, donde u1 = Y , , u2 = v i + v2 y u3 = v, + v2 + v3.

Page 300: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.4 Base y dimensión / 305

23. a) Demostrar que para todo entero positivo n, en F( - m , m ) se puede hallar n + 1 vec-

b) Usar el resultado del inciso a) para demostrar que F( -m, m) es de dimensión

c) Demostrar que C( - m , m), Cm( - m , m) y C (- m , m) son espacios vectoriales de

tores linealmente independientes. [Sugerencia Buscar polinomios.]

mfihita.

dimensión m f i i t a .

24. Sea S una base de un espacio vectorial V de dimensión n. Demostrar que si vl , v2, . . . vr forman un conjunto linealmente independiente de vectores en V, entonces los vec- tores de coordenadas ( v ~ ) ~ (vJS, . . . , (v& forman un conjunto linealmente indepen- diente en R" y recíprocamente.

25. Usando la notación del ejercicio 24, demostrar que si v l , v2, . . . vr generan a V, entonces los vectores de coordenadas ( v ~ ) ~ , (v,& . . , , ( v ~ ) ~ generan a R" y recípro- camente.

26.

21.

28.

Encontrar una base para el subespacio de P2 generado por los vectores dados. a) - 1 + x - 2x2, 3 + 3x + 6 2 , 9 b) 1 +x, x2, -2 +2x2, -3x

[Sugerencia Sea S la base estándar para P2 y trabájese con los vectores de coordenadas relativos a S; consultar los ejercicios 24 y 25.1

C) 1 + X - 3x2, 2 + 2~ - 6x2, 3 + 3~ - 9x2

En la figura 7 se muestran un sistema de coordenadas rectangulares xy y un sistema de coordenadas x)' con ejes oblicuos. Suponiendo que en todos los ejes la escala mide 1 unidad, encontrar las coordenadas xy de los puntos cuyas coordenadas xy se propor- cionan. a> (1, 1). b) (1,O). c) (O, 1). d) (a, b).

X'

Figura 7

En la figura 8 se muestran un sistema de coordenadas rectangulares xy determinado por los vectores unitarios básicos i y j y un sistema de coordenadas xy determinado por los vectores unitarios básicos u1 y u2. Encontrar las coordenadas xy de los puntos cuyas coordenadas xy se proporcionan.

Page 301: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.5 ESPACIO RENGLÓN, ESPACIO COLUMNA Y ESPACIO NULO

Se enipezard con algunas definiciones.

VECTORES

VECTORES COLUMNA

R E N G L ~ N Y Definicidn. Para una matriz m X n

r

los vectores

-=: [%! ' ' . U,,,? 3 :II Rn formados a partir de los renglones de A se denomin 1, y los vectores

ores renglón de

:n R m fonuados a partir de las columnas de 11 se denominan vedores columna IcA.

I

Ejemplo I Sea

' "i " I 4

los vectores renglón de A son r , = [ 2 I O ] y r , = [ 3 - 1 4 1

Page 302: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.5 Espacio renglón, espacio columna y espacio nulo / 307

ESPACIO COLUMNA, ESPACIO RENGLÓN Y ESPACIO NULO

y los vectores columna de A son

La siguiente definición caracteriza tres espacios vectoriales importantes aso- ciados con una matriz.

~~~~

Definición. Si A es una matriz m x n, entonces el subespacio de R" generado por los vectores renglón de A se denomina espacio renglón de .4, y el subespacio de R"' generado por los vectores columna de A se denomina espacio columna de A. El espacio solución del sistema de ecuaciones homogéneo A x = O , que es un subespacio de R", se denomina espacio nulo de A.

En esta sección y en la siguiente se abordarán las siguientes preguntas generales:

¿Qué relaciones existen entre las soluciones de un sistema lineal A x = b y el espacio renglón, el espacio columna y el espacio nulo de la matriz de coeficientes A ? ¿Qué relaciones existen entre el espacio renglón, el espacio columna y el espacio nulo de una matriz?

Para investigar la primera de tales preguntas, supóngase que

Por la fórmula (7) de la sección 1.3 se concluye que si cl, c2, . . . . c, denotan los vectores columna de A, entonces el producto A x se puede expresar como una combinación lineal de estos-vectores columna con coeficientes de x; es decir,

A x = x , c I + x2c2 + . . . + X,C,

A s í , un sistema lined Ax = b de m ecuaciones con n inujgnitas se puede escribir como

(1 )

xlcI + x2c2 + . . . + X,C, = b ( 2 )

de donde se concluye que A x = b es consistente si y sblo si b se puede expresar como una combinación lineal de los vectores columna de A o, equivalentemente, si y sólo si b está en el espacio columna de A . Lo anterior conduce al siguiente teorema.

Teorema 5.5.1. Un sistema de ecuaciones lineales Ax = b es consistente si y sólo si b está en el espacio columna de A .

Page 303: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Ejemplo 2 Sea Ax = b el sistema lineal

Demostrar que b está en el espacio columna de A , y expresar b como una combinación lineal de los veclores columna de A.

Solución. Resolviendo el sistema por eliminación gaussiana se obtiene (comprobar)

x, = 2 , x2 = - 1, x3 = 3

Como el sistema es consistente, b está en el espacio columna de A , además, por ( 2 ) y la solución obtenida, se concluye que

RELACIQN El siguiente teorema establece una relación fundamental entre las soluciones de un ENTRE LAS sistema lineal no homogéneo Ax = b y las del sistema lineal homogéneo SOLUCIONES DE correspondiente Ax = 0 con la misma matriz de coeficientes. Ax = O Y LAS SOLUCIONES DE A x = b

spacio nulo de A, es decir, el espacio solución del sistema homogéneo A x = O. ntonces toda solución de Ax = b se puede expresar en la forma

x = X" + C l V l + c2vz + ' ' ' + CkVk

y , recíprocamente, para todas las elecciones de los escalares c l , c2, . . . , ck, el vector x en esta fórmula es una solución de Ax = b.

Demostración. Supóngase que x. es cualquier solución fija de Ax = b, y que X es una solución cualesquiera. Entonces

Ax,= b y A x = b

Al restar estas ecuaciones se obtiene

Ax -Ax , = o O

A(x - xo) = o

Page 304: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.5 Espacio renglón, espacio columna y espacio nulo / 309

lo cual indica que x - x. es una solución del sistema homogéneo A x = O. Como vl, v2, . . . , vk es una base para el espacio solución de este sistema, entonces x - x. se puede expresar como una combinación lineal de estos vectores, por ejemplo

x - X" = C , V , + c2v2 + ' ' ' + CkVk

Por tanto,

x = xg + CIY] CZVz ' ' ' + CkVk

lo que demuestra la primera parte del teorema. Recíprocamente, para todas las elecciones de los escalares cl , c2, . . . , ck en (3) se tiene

A x = A ( x , + C l V i + c2v2 + ' ' ' t CkVk)

O

Ax = Ax, + c,(Av,) 3- C2(AV2) + . ' . + C k ( A V k )

Pero x. es una solución del sistema no homogéneo y v l , v2, ~ . . , vk son soluciones del sistema homogéneo, de modo que la idtima ecuación lndlca que

lo cual muestra que x es una solución de Ax = h. 0

OBSERVACI~N. Hay cierta terminología asociada con la fórmula ( 3 ) . El vector x. se denomina solución particular de Ax =La expresión x. + c lv l + c2v2 f . . . , + ckvk se llama solución general de A x = b, y la expresión clvl + c2v2 + . . . , + ckvk se conoce como solución general de A x = O. Con esta terminología, la fórmula (3) establece que la solución general de A x = b es la suma de cualquier solución particular de A x = b y la solución general de As = O .

Para sistemas lineales con dos o tres incógnitas, el teorema 5.5.2 posee una interpretación geométrica interesante en R2 y en R3. Por ejemplo, considérese el caso en que A x = O y Ax = b son sistemas lineales con dos incógnitas. Las soluciones de Ax = O forman un subespacio de R2 y, por tanto constituyen una recta que pasa por el origen, sólo el origen o todo R2. Por el teorema 5.5.2, las soluciones de A x = b se pueden obtener sumando cualquier solución particular de Ax = b, por ejemplo xo, a las soluciones de A x = O . Suponiendo que x. está colocado con su punto inicial en el origen, esto tiene el efecto geométrico de trasladar el espacio solución de Ax = O de modo que el punto en el origen se mueve hacia la punta de x. (figura 1). Esto significa que los vectores solución de A x = b forman una recta que pasa por la punta de ~0. el punto en la punta de x*, o todo R2. (¿Puede el lector imaginar el Ú h m raso?! De marma semtjante. prrra sistemas lineales con tres incligl'hits, I;I: so!ucioms de A x -= b constituyen un plano que pasa por la punta de cuaicyjier scllnci6rr $. ~.lZicuHsr x*. una recta que pasa por la punta de x0? o todo R3.

Page 305: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

310 ,/ Espacios vectoriales generales

Figura 1

I Espacio solución d e A x = O

Ejemplo 3 En el ejemplo 3 de la sección 1.2 se resolvió el sistema lineal no homogéneo

x, 3- 3x, " 2x, t 2x5 = o Lx, + 6x2 - 5x3 - 2x4 + 4x5 - 3x6 = - 1

(4) 5x, + lox, + 15x6 = 5

2x1 + 6x2 + 8x4 + 4x, + 18x6 = 6

y se obtuvo

Este resultado se puede escribir en forma vectorial como

- 3r - 4s - 2t

que es la solución general de (4). Al comparar con (3), el vector

es una solución particular de (4) y

Page 306: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.5 Espacio rengldn, espacio columna y espacio nulo / 31 1

I- -

x = r

-

- ”

3 r - 4 1

O O O O 1 O

- 2 O O

+ S + t

- ” -

- 2

: I O O 1

es la solución general del sistema homogéneo

(comprobar). A

BASES PARA Primero se designaron las operaciones elementales en los renglones para resolver ESPACIOS sistemas lineales y, por ese trabajo. se sabe que al efectuar una operación

ESPACIOS lución dei sistema lineal correspondiente. Se concluye que realizar una operación COLUMNA Y elemental en los renglones de una matriz A no modifica el conjunto solución del ESPACIOS sistema lineal correspondiente A x = O o, expresado de otra forma, no cambia el NULOS espacio nulo de A . Así, se tiene el siguiente teorema.

R E N G L ~ N , elemental en los renglones de una matriz aumentada no cambia el conjunto so-

Teorema 5.5.3. Las operaciones elementales en los rengr,:nes no camhrrrn el espacio nulo de una matriz. 1

Ejemplo 4 Encontrar una base para el espacio nulo de

2 2 - 1 o 1

A = [ -iJ -iJ -; -p -:] Solución. El espacio nulo de A es el espacio solución del sistema homogéneo

2x, + 2x2 - x3 + x , = o ” X ] - x2 + 2x, - 3x4 + .xg = 0

x1 + x* - 2x, -xg = o x3 + x4 + xg = o

En el ejemplo 10 de la sección 5.4 se demostró que los vectores

Page 307: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3 12 i Espacios vectoriales generales

1 - 1 1

v, = O O O I - - 1

O - 1

O 1

forman una base para este espacio. A

El siguiente teorema es el correlativo del teorema 5.5.3.

Teorema 5.5.4. Las operaciones elementales en los renglones no cambian el espacio renglón de una matriz.

Demostración. Supóngase que los vectores renglón de una matriz A son r l , r2, . . . , rm y sea B la matriz que se obtiene al efectuar una operación ele- mental en los renglones de A . Se demostrará que todo vector en el espacio renglón de R también está en el espacio renglón de A y recíprocamente, que todo vector en el espacio renglón de A está en el espacio renglón de B. Es posible concluir entonces que A y B tienen el mismo espacio renglón.

Considerar las posibilidades: Si la operación en los renglones es un intercambio de renglones, entonces B y A tienen los mismos vectores renglón y, en consecuencia, tienen el mismo espacio renglón. Si la operación en los renglones es la multiplicación de un renglón por un escalar diferente de cero o es la adición de un múltiplo de un renglón a otro renglón, entonces los vectores renglón q,r2 ,..., rk de B son combinaciones lineales de rl, r2, . . . , rmj así, están en el espacio renglón de A. Como un espacio vectorial es cerrado baJo la adición y la multiplicación escalar, todas las combinaciones lineales de ri, r;, ..., rh también están en el espacio renglón de A. Por consiguiente, todo vector en el espacio renglón de B está en el espacio renglón de A.

Como B se obtiene a partir de A al efectuar una operación en los renglones, A se puede obtener de B al efectuar la operación inversa (sección 1.5). Así, el razonamiento anterior muestra que el espacio renglón de A está contenido en el espacio renglón de B. 0

e 1

En vista de los teoremas 5.5.3 y 5.5.4 se podría anticipar que las operaciones elementales en los renglones no deben cambiar el espacio columna de una matriz. Sin embargo, esto no es así: las operaciones elementales en los renglones pueden modificar el espacio columna. Por ejemplo, considérese la matriz

La segunda columna es un mliltiplo escalar de la primera, de modo que el espacio columna de A consta de todos los múltiplos escalares del primer vector columna. Sin embargo, si se suma -2 veces el primer renglón de A al segundo renglón, se obtiene

Page 308: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.5 Espacio renglón, espacio columna y espacio nulo i 313

Aquí nuevamente la segunda columna es un múltiplo escalar de la primera, de modo que el espacio columna de B consta de todos los múltiplos escalares del primer vector columna. Este espacio columna no es el mismo que el espacio columna de A .

Aunque las operaciones elementales en los renglones pueden cambiar el espacio columna de una matriz, se demostrará que no importa cuáles sean las relaciones de independencia o dependencia lineal existentes entre los vectores columna antes de la ejecución de una operación en los renglones. esas relaciones también se cumplen para las columnas correspondientes de la matriz que se ob- tiene al realizar esa operación. Para precisar más este hecho, supóngase que una matriz B se obtiene al efectuar una operación elemental en los renglones de una matrizA m x n. Por el teorema 5.5.3, los dos sistemas lineales homogéneos

A x = O y B x = O

tienen el mismo conjunto solución. Así, el primer sistema tiene una solución no trivial si y sólo si lo mismo se cumple para el segundo sistema. Pero si los vectores columna de A y B, respectivamente, son

C ] , c2,. . . 9 cn Y c1, c2,. . . , c:, I ,

entonces por (2) ambos sistemas se pueden volver a escribir como

Y

X,Cl + x2c2 + ' . ' +X$, = o

xlc; + x2c; + ' . ' +X$:, = o

Así, (5) tiene una solución no trivial para xl, x*, . . . , x, si y sólo si lo mismo es cierto para (6) . Esto indica que los vectores columna de A son linealmente inde- pendientes si y sólo si lo mismo es cierto para B. Aunque se omitirá la demostra- ción, esta conclusión también es d i d a para cualquier subconjunto de los vectores columna. Así, se tiene el siguiente resultado.

Teorema 5.5.5. Si A y B son matrices equivalentes por renglones, entonces

a ) Un conjunto dado de vectores columna de A es linealmente independiente si y sólo si los vectores columna correspondientes de B son linealmente inde- pendientes.

b ) Un conjunto dado de vectores columna de A forma una base para el espacio columna de A si y sólo si los vectores columna correspondientes de B for- man una base para el espacio columna de B.

El siguiente teorema hace posible encontrar por inspección bases para lps espacios renglón y columna de una matriz en forma escalonada.

Page 309: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

314 Espacios vectoriales generales

r i Teorema 5.5.6. Si una matriz R esfh en ,forma escalonada. entonces los vectores renglón con los unos prixipales (rs decir, k m vectnres rengkbc; dferentes de cero) forman una base para el espacio renglón de N, y L L Y

vectores columna con los unos principales de ios vectores renglón forman u m base para el espacio columna de R.

Como este resultado es casi evidente cuando se consideran ejemplos numkricos. se omitirá la demostración; Csta requiere algo más que el análisis de las posiciones de los ceros y los unos de R.

Ejemplo 5 La matriz

I O o O

R =

. 7

l o O

está escrita en forma escalonada. Por el teorema 5.5.6. los vectores

f i .= [ ! - 2 5 o 3 1

‘ ? = [ o 1 3 o 0 1

rj = 0 o o I O

forman una base para el espacio renglbn de R, y los vectores

forman una base para el espacio columna de R . A

Ejemplo 6 Encontrar bases para los espacios renglón y columna de

A =

-

1 - 3 2 - 4 2 - 6 1 3 -

4 - 2 9 - 1 9 -1

- 4 2 -

5 S 9 - 5 -

4 2 7

. 4

Solución. Como las operaciones elementales en los renglones no cambian el espacio renglón de una matriz, es posible hallar una base para el espacio renglón

Page 310: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.5 Espacio renglón, espacio columna y espacio nulo 1 315

de A determinando una base para el espacio renglón de cualquier forma escalona- da de A. Reduciendo A a forma escalonada se obtiene (comprobar)

Por el teorema 5.5.6, los vectores renglón diferentes de cero de R forman una base para el espacio renglón de R y, por tanto, forman una base para el espacio renglón de A. Estos vectores básicos son

' , = [ I - 3 4 - 2 5 4 1

r , = [ O O 1 3 -2 -61 r , = [ O O O O 1 5 1

Teniendo en cuenta que A y R pueden tener espacios columna diferentes, no es posible encontrar una base para el espacio columna de A directamente a partir de los vectores columna de R. Sin embargo, por el teorema 5.5.56 se concluye que si se puede hallar un conjunto de vectores columna de R que formen una base para el espacio columna de R, entonces los vectores columna correspondientes de A formarán una base para el espacio columna de A .

Las columnas primera, tercera y quinta de R contienen los unos principales de los vectores renglón, de modo que

forman una base para el espacio columna de R; así, los vectores columna corres- pondientes de A, a saber

c, = [ - 1 11, %=[ - 4 j], ;[ -5 I] forman una base para el espacio columna de A . A

Ejemplo 7 Encontrar una base para el espacio generado por los vectores

Page 311: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

316 Espacios vectoriales generales

v I = ( 1 , -2 ,0 ,0 ,3) , ~ , = ( 2 , -5, -3, -2 ,6 ) , v3=(0 ,5 , 15, l O , O ) , v4 = (2, 6, 18, 8, 6 )

Solución. Salvo por una variación en la notación, el espacio generado por estos vectores es el espacio renglón de la matriz

1 - 2 o o 3 2 - 5 -3 - 2 6 O 5 15 10 Ó 2 6 1 8 8 6

Reduciendo esta matriz a la forma escalonada se obtiene

I 1 - O 0 O

- 2 1

O O _J O O

Los vectores renglón diferentes de cero en esta matriz son

WI = ( l , -2,0,0,3), w,=(O, 1 ,3 ,2 ,0 ) , w3=(0 ,O , 1, 1,O)

Estos vectores forman una base para el espacio renglón y por tanto forman una base para el subespacio de R5 generado por vl, v2, v3 y v4. A

Obsérvese que en el ejemplo 6 los vectores básicos obtenidos para el espacio columna de A consistían en los vectores columna de A , pero los vectores básicos obtenidos para el espacio renglón de A no eran todos los vectores renglón de A . El siguiente ejemplo ilustra un procedimiento para encontrar una base del espacio renglón de una matriz A que consta completamente de vectores renglón de A .

Ejemplo 8 Encontrar una base para el espacio renglón de

A = [ -; y; ;; ;] - 2 o o

que conste completamente de vectores renglón de A .

Solución. Se transpondrá A , convirtiendo así el espacio renglón de A en el espacio columna de AT; luego se aplicará el método del ejemplo 6 para encontrar una base del espacio columna de AT; y luego se transpondrá nuevamente a fin de convertir los vectores columna de nuevo en vectores renglón. Al transponer A se obtiene

Page 312: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.5 Espacio renglón, espacio columna y espacio nulo / 31 7

I 1 2 O 2 - 2 - 5 5 6

A T = O -3 15 18 o - 2 10 8 3 6 O 6

Reduciendo esta matriz a forma escalonada se obtiene

O - 5 -

O O O

I;] O

O

Las columnas primera, segunda y cuarta contienen los unos principales, de modo que los vectores columna correspondientes en AT forman una base para el espacio columna de AT; éstos son

c , =

i

'-;I O

3

Y

c ~ = l i ] 2

Transponiendo de nuevo y ajustando correctamente la notación se obtienen los vectores básicos

r l = [ 1 -2 O O 31, r 2 = [ 2 -5 -3 - 2 61,

Y r 4 = [ 2 6 18 8 6 1

para el espacio renglón de A . A

Por el teorema 5.5.5 se sabe que las operaciones elementales en los renglo- nes no modifican las relaciones de independencia lineal o dependencia lineal entre los vectores columna; sin embargo, las fórmulas (5) y (6) indican un resultado incluso más profundo. Debido a que estas fórmulas tienen en realidad los mismos coeficientes escalares xl, xz, . . . , xn, se concluye que las operaciones elementales en los renglones no modifícan l a s fórmulas (combinaciones lineales) que relacionan vectores columna linealmente dependientes. Se omite la demostración formal.

Ejemplo 9

a) Encontrar un subconjunto de los vectores

Page 313: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3 IN 1 Espacios vectoriales generales

que forme una base para el espacio generado por estos vectores.

de los vectores básicos. b) Expresar los vectores que no pertenecen a la base como una combinación lineal

Solución de u). Se empezará por construir una matriz que tenga a v l , vz, . . . , v5 como sus vectores columna:

i~ 1 2 O 2 5 - 2 - 5 I - 1 "8

o - 3 3 4 1 3 6 o - 7 2 -

T 1

\ ; \, \ ; \, \ <

La primera parte del problema se puede resolver encontrando una base para el espacio columna de esta matriz. Al reducir la matriz a la forma escalonada y denotar los vectores columna de la matriz resultante por wl, w2, w3, w4 y w5 se obtiene

1 o 2 o 1 - 1 o 0 0 1 1 i: o 0 O 0 ~1

Los unos principales aparecen en las columnas 1, 2 y 4, de modo que por el teorema 5.5.6

íw,, w2> w4)

es una base para el espacio columna de (8) y en consecuencia

es una base para el espacio columna de (7)

Solución de 6). Se empezará por expresar w3 y w5 como combinaciones lineales de los vectores básicos w,, w2, w4. La forma más sencilla de hacer lo anterior es expresando w3 y wj en términos de los vectores básicos que tengan los subíndlces más pequefios. Así, w3 se expresará como una combinación lineal de w1 y w2, y

Page 314: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.5 Espacio rengldn, espacio columna y espacio nulo 319

w5 se expresara corno una combinación lineal de wl, w2 y w4. Por inspección de (S), estas combinaciones lineales son

W? = 2w, - W?

wj = w, + w2 + wq

Las expresiones anteriores se denominan ecuaciones de dependencia. Las relaciones correspondientes en (7) son

v3 = 2v, - V?

v5 = v i + v2 + vq A

El método ilustrado en el ejemplo precedente es tan importante que a conti- nuación se resumen los pasos:

Dado un conjunto de vectores S -- {vl, v2, . . . , vk} en R" con el s ipen te pro- cedimiento se obtiene un subconjunto de estos vectores que forma una base para lin (S) y expresa los vectores de S que no pertenecen a la base como una combinación lineal de los vectores básicos.

Paso 1. Formar la matriz A que tiene a vl , v2, . . . , vk como sus vectores columna.

Paso 2. Expresar la matriz A en su forma escalonada reducida R, y sean wl, w2, . , , , wk los vectores columna de R.

Paso 3. Identificar las columnas que contienen a los unos principales en R. Los vectores columna correspondientes de A son los vectores básicos para lin (S).

Paso 4. Expresar cada vector columna de R que no contenga un uno principal como combinación lineal de los vectores columna precedentes que contengan unos principales. (Esto se puede hacer por inspección.) Así, se obtiene un conjunto de ecuaciones de dependencia que incluyen a los vectores columna de R. Las ecuaciones correspondientes para los vectores columna de A expresan los vectores que no pertenecen a la base como combinaciones lineales de los vectores básicos.

EJERCICIOS DE LA SECCIÓN 5.5

1. Enumerar los vectores renglón y los vectores columna de la matnz

Page 315: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

320 Espacios vectoriales generales

2. Expresar el producto Ax como una combinación lineal de los vectores c o l m m de A

3. Determinar si b está en el espacio columna de A y, en caso afirmativo, expresar b como ma combinación lineal de loa vectores columna de A .

4. Supóngase que x, = - 1, x = 2, x3 = 4 , x4 = -3 es una solución de un sistema lineal no homogeneo Ax = b, y que el conjunto solución del sistema homogéneo Ax = O está definido por las fórmulas

2

x, = -3r + 4s- x ? = r - S, x, = r, x 4 = S

a) Encontrar la forma vectorial de la solución general de Ax = O . b) Encontrar la fonna vectorial de la solución general de Ax = b.

5. Encontrar la forma vectorial de la solución general del sistema lineal dado A x = b; luego, usar el resultado para encontrar la forma vectorial de la solución general de Ax = O. a) x I - 3x, = 1 b) x 1 + x, + 2x, = 5

2xI - 6x2 = 2 X I + x, = - 2 2x, + x, + 3x, = 3

C) .xI - 2 ~ , + X, + 2 x 4 = - 1 d) .xI + 2x, - 3x3 + x4 = 4 2xI - 4x, + 2x3 + 4x, = -2 - 2 x , + x, +2x, + x, = - 1

- x , + 2x, - x3 - 2x4 = 1 -x1 + 3x, - x3 + 2x, = 3 3x, - 6x, + 3x3 + 6x4 = -3 4x, - l x , - 5x4 = -5

6. Encontrar una base para el espacio nulo de A .

- 1 0 -

Page 316: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.5 Espacio renglón, espacio columna y espacio nulo / 321

7. En cada inciso se proporciona una matriz en forma escalonada. Por inspección, Rallar las bases de los espacios renglón y columna de A .

1 2 4 5

c) [: O 0 0 1 A -; --:I d) [" ' O - 7 :] O 0 0 0

O 0

8. Para las matnces del ejercicio 6, encontrar una base para el espacio renglón de A redu- ciendo la matnz a la forma escalonada.

9. Para las matnces del ejercicio 6, encontrar una base para el espacio columna de A .

10. Para las matrices del ejercicio 6, encontrar una base para el espacio renglón de A que conste completamente de vectores renglón de A .

11. Encontrar una base para el subespacio de I? generado por los vectores dados. a) (1, 1, -4, -31, (2, O, 2, -21, (2, - 1, 3,2) (b) ( - 1, 1, -2, O), (3,3, 6, O), (9, 0, 0, 3) c) (1, 1, o, O), (0, o, 1, 11, (-2, o, 2,2), (O, -3, o, 3)

12. Determinar un subconjunto de los vectores que formen una base para el espacio generado por los vectores; luego, expresar cada vector que no pertenezca a la base como una com- binación lineal de los vectores básicos. a )v l= ( l ,O , l , l ) , v ,= ( -3 ,3 ,7 ,1 ) , v ,= ( -1 ,3 ,9 ,3 ) , v4=( -5 ,3 ,5 , -1) b ) v , = ( 1 , - 2 , 0 , 3 ) , ~ , = ( 2 , - 4 , 0 , 6 ) , v 3 = ( - 1 , 1 , 2 , 0 ) , ~ , = ( O , - l , 2 , 3 ) ~ ) ~ 1 = ( 1 , - 1 , 5 , 2 ) , ~ ,= ( -2 ,3 ,1 ,0 ) ,~ ,= (4 , -5 ,9 ,4 ) ,~ ,= (0 ,4 ,2 , -3 ) ,~ ,= ( -7 ,18 ,2 , -8 )

13. Demostrar que los vectores renglón de una mabiz invertible A n X n fomm una base para R".

14. a) Sea

A = [ ! i] y considérese un sistema de coordenadas rectangulares xyz en el espacio tndimensional. Demostrar que el espacio nulo de A consta de todos los puntos del eje z y que el espacio columna consta de todos los puntos en el plano v.

t' 1 Espacio nulo de A

Y

Page 317: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.6 RANGO Y N

LQS CUATRO ESPACIOS MATRIClALES FUNDA- MENTALES

EL ESPACIO RENGLóN Y EL ESPACIO COLUMNA TIENEN LA MISMA D I M E N S I ~ N

Si se consideran juntas una matriz A y su transpuesta A': entonces existen seis espacios vectoriales de intcrds:

espacio renglón de A espacio renglón de A T

espacio colunlna de '4 espacio columna de AT espacio nulo de .4 espacio nulo de A'

Sin embargo, al transponer una matriz sus vectores renglón se convierten en vcc- tores columna y sus vectores columna se convierten en vectores renglón, de modo quc, excepto por una diferencia en la notación, el espacio renglón de A T es el mismo que el espacio columna de A, y el espacio columna de AT es el mismo que el espacio renglón de "l. Así, quedan cuatro espacios vectoriales de interés:

espacio renglón de A espacio columna de A espacio nulo de A espacio nulo de Ai'

Estos se denominan espacios matriciales fundamentales asociados con A . Si A es una matraz 171 X n. entonces el espacio renglón de A y el espacio nulo de A son subespdcios de R" y el espacio columna dc A y cl espacio nulo de AT son sub- espacios dc Km. El objetivo principal en esta sección es establecer las relaciones que hay entre las dimensiones de estos cuatro espacios vectoriales.

En el ejemplo 6 de la seccibn 5.5 se encontró que el espacio renglón y el espacio columna de la matriy

Page 318: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

RANGO Y NULIDAD

5.6 Rango y nulidad / 323

tienen, cada uno, tres vectores; es decir, ambos espacios son tridimensionales. NO es fortuito que estas dimensiones sean iguales; es una consecuencia del siguiente resultado general.

Teorema 5.6.1. Si A es cualquier matriz, entonces el espacio renglón y el espacio columna de A tienen la misma dimensión.

Demostracion. Sea R la farma escalonada reducida de A.Por el teorema 5.5.4 se deduce que

dim(espacio renglón de A) = dim(espacio renglón de R )

y, por el teorema 5.534 se concluye que

dim(espacio columna de A) = dim(espacio columna de R )

Así, la demostración estará completa si se puede probar que el espacio renglón y el espacio columna de R tienen la misma dimensión. Pero la dimensión del espacio renglón de R es el número de vectores Merentes de cero y la dimensión del espa- cio columna de R es el número de columnas que contienen unos principales (teo- rema 5.5.6). Sin embargo, los renglones diferentes de cero son precisamente los renglones en que aparecen los unos principales, de modo que el número de éstos y el número de renglones diferentes de cero es el mismo. Esto demuestra que el es- pacio renglón y el espacio columna de R tienen la misma dimensión. 0

Las dmensiones de los espacios renglón, columna y nulo de una matriz son nú- meros tan importantes que existen notación y terminología especiales asociadas con ellos.

Definición. La &mensión común del espacio renglón y del espacio columna de una matriz A se denomina rango de A y se denota por rango@); la dimensión del espacio nulo de A se denomina nulidad de A y se denota por nulidad(A).

Ejemplo 1 Encontrar el rango y la nulidad de la matriz

r - l o

1 4 "9 2 - 4 - 4

Soluciói:. La forma escalonada reducida de A es

1 O - 4 -28 -37 O 1 -2 -12 -16 O 0 0 O O O 0 0 O O

-:I 7 1

Page 319: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

324 Espacios vectoriales generales

(comprobar). Como existen dos renglones diferentes de cero (o, equivalentemente. dos unos principales), el espacio renglón y el espacio columna, ambos, son bi- dimensionales, de modo que rango(A) = 2. Para encontrar la nulidad de A es necesario determinar la dimensión del espacio solución del sistema lineal A x = O . Este sistema se puede resolver expresando la matriz aumentada en la forma escalonada reducida. L,a matriz resultante es idéntica a (l), excepto que contiene una liltima columna adicional de ceros y el sistema de ecuaciones correspondente es

x, - 4x, " 28x, - 37x, + 13x, = o x2 - 2x3 - 12x4 - 16x5 + 5x6 = O

o bien, despejando las variables principales,

.Y, = 4 ~ , + 28x4 + 37x5 - I ~ x , ,y2 = 2x3 + 12x4 i 16x5 - 5x6

Se concluye que la solución general del sistema es

X, = 4r + 28s + 37t - 1 3 ~ x2 = 2r + 12s + 16t - 5u "€3 = Y

x4 = S

X $ = t

X6 = u

o bien, de manera equivalente,

+ S

28 12

O 1 O O

t l

37 16

O O 1

O

+ U

- 13

-1 O O 1

Los cuatro vectores del miembro derecho de (3) forman una base para el espacio solución. de modo que nulidad(A) = 4. A

El siguiente teorema muestra que una matriz y su transpuesta tienen el mismo rango.

I Teorema 5.6.2. Si A es cualquier matriz, entonces rango@) = rango(AT). I Demostración.

rango(A) = dim(espacio renglón de A ) = dm(espacio columna de AT) = ran- SOCAT>. o

Page 320: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.6 Rango y nulidad / 325

El siguiente teorema establece una relación importante entre el rango y la nulidad de una matriz

TEOREMA DE LA Teorema 5.6.3. (Teorema de la dimensión para matrices). Si A es una matriz DIMENSI~N con n columnas, entonces - rungo ( A ) + nulidad ( A ) = n

I

Demostración. Como A tiene n columnas, el sistema lineal homogéneo A x = O tiene n incógnitas (variables), que se clasifican en dos categorías: principales y libres.

Asl.

número de variables principales variables libres

Pero el número de variables principales es el mismo que el número de unos principales en la forma escalonada reducida de A , que es el rango de A . Por tanto,

número de libres 1

El número de variables libres es igual a la nulidad de A . Esto es así porque la nulidad de A es la dimensión del espacio solución de A x = O, que es igual al número de parámetros que hay en la solución general véase (3), por ejemplo , que es igual al número de variables libres. Así,

rango ( A ) + nulidad ( A ) = n 0

La demostración del teorema precedente contiene dos resultados importantes de suyo.

Teorema 5.6.4. Si A es una matriz n X n, entonces:

a) Rango(A) = Número de variables principales que hay en la solución de A s

b) Nulidad(A) = Nzimero de parúmeíros que hay en la solución de As = O . = o.

Page 321: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

.726 ,/' Espacios vectorides genernics

Ejemplo 2 La matriz

'4 =

- 1 2 O 4 5 - 3 3 - 7 2 o 1 4 2 - 5 2 4 6 1 4 - 9 2 " 4 " 4 7 -

tiene seis columnas, de modo que

rango@) + nulidad@) = 6

Lo anterior es consistente con el ejemplo 1, donde se demostró que rango(A) = 2 y nulidad@) = 4. A

Ejemplo 3 Encontrar el número de parámetros que hay en el conjunto solución de Ax = O siA es una matriz 5 x 7 de rango 3 .

nulidad(A) = n - rango(A) = 7 - 3 = 4

Así, existen cuatro parámetros. A

Ahora supóngase que A es una matriz m X n de rango r ; por el teorema 5.5.2 se concluye que AT' es una matriz n X m de rango r . Aplicando el teore- ma 5.6.3 a A y A' se obtiene

nulidad@) = n - r , nulidad(AT) = m - r

a partir de lo cual se deduce la siguiente tabla que relaciona las dmensiones de los cuatro espacios fundamentales de una matriz A de rango r.

(Espacioental Dimensión

I Espacio renglón den I r I

VALOR MÁXIMO Si A es una matriz m x n, entonces los vectores renglón están en R" y los vectores PARA EL RANGO columna están en Rm. Esto signrfica que el espacio renglón de A es cuando mucho

de hmensión n y que el espacio columna de A es cuando mucho de dimensión m. Como los espacios renglón y columna tiene la m i s m a dimensión (el rango de A ) , se debe concluir que si m = n, entonces el rango de A es menor o igual al mínimo de m y n. Este hecho se indica escribiendo

Page 322: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.6 Uav1go y nulidad 1' 327

rango 04) 5 nlín (m, n) ( 5 )

donde mín(m. n) denota el menor de los números m y n si m f n o su valor coniún si m = 11.

Ejemplo 4 Si A es una matriz 7 x 4, entonces el rango de A es menor o igual que 4 y, en consecuencia, los siete vectores renglón deben ser linealmente dependientes. Si A es una matriz 4 X 7, entonces nuevamente el rango de A es menor o igual que 4 y. por tanto, 10s siete vectores columna deben ser linealmente dependientes. A

SISTEMAS En secciones anteriores se obtuvo una amplia gama de teoremas relacionados con LINEALES DE m sistemas lineales de n ecuaciones con n incógnitas (véase el teorema 4.3.4). Ahora ECUACIONES la atención se dirigirá a sistemas lineales de m ecuaciones cn n incógnitas en los CON n cuales m y n no necesariamente SQII iguales. LNC~GNITAS El siguiente teorema establece condiciones en las que se garantiza que un sis-

tema lineal de w z ecuaciones con n incógnitas es consistente.

Demostración. Basta demostrar las equivalencias a e h y b 9 c. ya que enton- ces por lógica se concluye que a e c.

a 9 h . Véase el teorema 5.5.1

h e c. Se demostrar5 que si b a t á en el espacio columna de A, entonces los espacios columna de A y de [..I ' b] son iguales en realidad, a partir de lo cual se concluir6 que estas dos matrices tienen el mismo rango.

Por definición. el espacio columna de una matriz es el espacio generado por sus vectores columna, de modo que los espacios columna de A y de 1'4 I b l se pueden expresar c0m0

Generado { c, , c2, . . . , c, } y generado ( c , , c2, . . . , c,, b }

respectivamente. Si b está en el espacio columna de A , entonces cada vector en el conjunto {cl, c2, , . . , c,, b } es una combinación lineal de los vectores en {c,, c2, . . . , cn} y recíprocamente (¿por qué?). Así, por, el teorema 5.2.4, el es- pacio columna de A y el espacio columna de [A ! b] son iguales.

Page 323: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

328 1 Espacios vectoriales generales

c b Supóngase que A y [A b] tienen el mismo rango Y . Por el teorema 5.4.4, existe algún subconjunto de los vectores columna de A que forman una base para el espacio columna de A . Supóngase que estos vectores columna son

I I C ] I c2,. . ’ , c:

Estos Y vectores básicos también pertenecen al espacio columna de dimensión r de [A I b]; por tanto, según el teorema 5.4.6a, también forman una base para el espacio columna de [A b]. Esto significa que b se puede expresar como una combinación lineal de ci ,c i , ... ,c; , y, en consecuencia, b está en el espacio columna de A . 0

No es dificil imaginar por qué este teorema es verdadero si el rango de una matriz se considera como el número de renglones diferentes de cero que hay en su forma escalonada reducida. Por ejemplo, la matriz aumentada del sistema

x, - 2x, - 3x, + 2x4 = -4

2x, - 5x2 + 4x, - 3x, = 7

- 3 X , +7X2- X,+ X,= - 3

- 3x, + 6x2 + 9x3 - 6x4 = - 1

es

I 1 - - 3

2 - - 3

- 2 -

7 - .S 6

- 3 - 1 4 - 9 -

2 1

- 3 - 6 I:J - 1 7

que tiene la siguiente forma escalonada reducida (comprobar):

10 O O O i O

Debido al renglón

0 0 0 0 1

se observa que el sistema es inconsistente. Sin embargo, también es debido a este renglón que la forma escalonada reducida de la matriz aumentada tiene menos renglones cero que la forma escalonada reducida de la matriz de coeficientes. Esto hace que la matriz de coeficientes y la matriz aumentada del sistema tengan ran- gos distintos.

Ei teorema de consistencia trata sobre las condiciones en las cuales un sis- tema lineal Ax = b es consistente para un vector espedfico b. El siguiente teore- ma tiene que ver con las condiciones en que un sistema lineal es consistente para todas las elecciones posibles de b.

Page 324: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.6 Rango y nulidad / 329

- Teorema 5.6.6. Si A x = b es un sistema lineal de m ecuaciones Con n incog- nitas, entonces las siguientes proposiciones son equivalentes.

a ) A x = b es consistente para toda matriz b m X 1. b) Los vectores columna de A generan a R". c) rango(A) = m.

Demostración. Basta probar las equivalencias a * b y a * c, ya que entonces por lógica se concluye que b e c.

a e b. Por la fórmula (2) de la sección 5.5, el sistema A x = b se puede expresar como

X , C , + x2c2 + . . . + X,C, = b

del cual se concluye que A x = b es consistente para toda matriz b m X 1 si y sólo si b se puede expresar como una combinación lineal de los vectores columna cl, c2, . . . , c, o, equivalentemente, si y sólo si estos vectores columna generan a Rm.

a e c Por la hipótesis de que A x = b es consistente para toda matriz b m X 1, y por los incisos a) y b) del teorema de consistencia (teorema 5.6.5), se concluye que todo vector b en R" está en el espacio columna de A ; es decir, el espacio columna de A es todo R". Así, rango(A) = dim(R'") = m.

c e a Por la hipótesis de que rango(A) = m, se concluye que el espacio columna de A es un subespacio de R" de dlmensión m, y debido al inciso 6 ) del teorema 5.4.7, debe ser todo R". Ahora, por los incisos a) y 6 ) del teorema de consistencia (teorema 5.6.5) se concluye que A x = b es consistente para todo vector b en Rm , ya que b está en el espacio columna de A . [7

Se dice que un sistema lineal con más ecuaciones que incógnitas es un sistema lineal sobredeterminado. Si Ax = b es un sistema lineal sobredeterminado de m ecuaciones con n incógnitas (de modo que m > n), entonces los vectores columna de A no pueden generar a R" (¿por qué?); por el último teorema se concluye que un sistema lineal sobredeterminado A x = b no puede ser consistente para ningún b posible.

Ejemplo 5 El sistema lineal

x1 - 2x2 = b, X I - x2 = b, x, + x2 = b, x, + 2x2 = b, x1 + 3x2 = b,

Page 325: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

es sobredeterminado, de modo que no puede ser consistente para ninguno de IPS valores posibles de h, , h,, b,, 5, y b,. La resolución del sistema lineal por climinación de Gauss-Jordan da las condiciones exactas en que el sistema cs consistente. Se deja para el lector demostrar que la roma escalonada reducida rle l a matriz aurncntada es (1 Entonces, el sistema es consistente s i y sólo si hi. h,, b,. h, y h , satisfacen las condiciones

7_h! - 3h2 -5 h, - 0 3h, -- 4h2 -C b,% ~= o 4b, - 5h2 + h, = li

o bien, resolviendo este sistema lineal hornogdnco,

donde Y y S son arbitrarios A

En la fórmula (3) del teorema 5 5.2, 10s escalares cI, c2. . . . ck son parámetros cualesquiera presentes en las soluciones generales dc A x = h y de A H =

O. Así, estos dos sistemas tienen el mismo número de parámetros en stus soluciones generales. Además, por el inciso h ) del teorema 5.6.4 se concluye que el nimero de tales parámetros es nulidad(A). Este hecho y el teorema de la dimensión para matrices (teorema 5.6.3) conducen a! siguiente teorema.

En secciones anteriores se obtuvo una amplia gama de condiciones en las que se garantiza que un sistema lineal homogknel: A H = O de n ecuacioncs con n incógnitas sólo tiene la solución trivial (véase el teorema 4.3.4. j Con el siguiente teorema se obtienen algunos resultados correspondientes para siste- mas de ecuaciones de m ecuacioraes con p? incógnitas. donde m y n pueden ser diferentes

Page 326: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.6 Rango y nulidad / 331

Teorema 5.6.8. Si A es una matriz m X n, entonces las siguientes prOpOSiCi0- nes son equivalentes. a ) A x = O sólo tiene la solución trivial. b ) Los vectores columna de A son linealmente independientes. c) A x = b tiene cuando mucho una solución (ninguna o una) para toda matriz

b m x l .

Demostración. Basta probar las equivalencias a 0 b y a e c, ya que entonces por lógica se concluye que b e. c.

a e b. Si cl, c2, . . . , c, son los vectores columna de A, entonces el sistema lineal A x = O se puede escribir como

X , C , + x*c2 + ' ' ' + X$,, = o (6)

Si cl, c2, . . . , c, son linealmente independientes, entonces la ecuación anterior se cumple sólo para x1 = x2 = . . . = xn = O , lo cual sigmfica que A x = O sólo tiene la solución trivial. Recíprocamente, si A x = O sólo tiene la solución trivial, entonces (6) se cumple sólo para x1 = x2 = ' ' ' = x, = O, lo cual significa que cl, c2, . . . , cn son linealmente independientes.

a e c. Supóngase que A x = O sólo tiene la solución trivial. Ax = b es consistente o no lo es. En caso de que no sea consistente, no existen soluciones de A x = b y ya se ha terminado. Si Ax = b es consistente, sea x. cualquier solución. Por la observación enunciada después del teorema 5.5.2 y el hecho de que A x = O sólo tiene la solución trivial, se concluye que la solución general de A x = b es x. + O = xo. Así, la única solución de A x = b es x,,.

c e a. Supóngase que A x = b tiene cuando mucho una solución para toda matriz b m X 1. Entonces, en particular Ax = O tiene cuando mucho una solución. Así, A x = O sólo tiene la solución trivial. 0

Un sistema lineal con más incógnitas que ecuaciones se denomina sistema fineaf subdeterminado. Si Ax = b es un sistema lineal subdeterminado consistente de m ecuaciones con n incógnitas (de modo que m < n), entonces por el teorema 5.6.7 se concluye que la solución general tiene por lo menos un parámetro (¿por qué?); por tanto, un sistema lineal subdeterminado consistente debe tener inJni- dad de soluciones. Además, si A x = b es cualquier sistema lineal subdeteminado, entonces los vectores columna de A no pueden ser linealmente independientes (¿por qué?); por el teorema 5.6.3 se concluye que para un sistema lineal subdeterminado Ax = b existe alguna b para la cual el sistema tiene infinidad de soluciones.

OBSERVACI~N. Por el teorema 5.6.3 también se concluye que un sistema lineal homogéneo subdeterminado tiene infinidad de soluciones; aunque este hecho ya se demostró en el capítulo 1 (teorema 1.2.1).

Page 327: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

332 ,/ Espacios vectoriales generales

Ejemplo 7 SiA es una matriz 5 x 7, entonces para toda matriz b 7 x 1 el sistema lineal Ax = b es subdeterminado. Así, A x = b debe ser consistente para alguna b, y para toda b asi la solución general debe tener 7 - r parámetros, donde r es el rango de A. A

RESUMEN En el teorema 4.3.4 se enumeraron ocho resultados que son equivalentes a la invertibilidad de una matriz A. Esta sección concluye agregando ocho resultados más a la lista, a fin de obtener el siguiente teorema que relaciona los temas prin- cipales que se han estudiado hasta el momento.

Teorema 5.6.9. Si A es una matriz n x n, y si TA:Rn + R" es la multiplicación por A , entonces las siguientes proposiciones son equivalentes.

a ) A es invertible. b ) Ax = O sdlo tiene la solución trivial. c) La forma escalonada reducida de A es 1,. d, A se puede escribir corno un producto de matrices elementales. e ) A x = b es consistente para toda matriz b n X l . f i A x = b tiene exactamente una solución para toda matriz b n x l . g> det(A) f O . h) El rango de Zp, es Rn. I) TA es uno a uno. j ) Los vectores columna de A son linealmente independientes. k ) Los vectores renglón de A son linealmente independientes. 0 Los vectores columna de A generan a R". m ) Los vectores renglón de A generan a R". n ) Los vectores columna de A forman una base para R". o> Los vectores renglón de A ,forman una base para R". p ) El rango de A es n. q) La nulidad de A es O .

Demostración. Por el teorema 4.3.4, se sabe que las proposiciones de la a) a la i ) son equivalentes. Para completar la demostración se probará que las proposiciones de la j ) a la q) son equivalentes a h), al demostrar la sucesión de implicaciones b * j * k * l * m * n * o * p * q * b .

b * j . Si A x = O sólo tiene la solución trivial, entonces por el teorema 5.6.8 los vectores columna de A son linealmente independientes.

j * k * 1 * m * n * o. Esto se concluye por el teorema 5.4.5 y el hecho de que R" es un espacio vectorial de dimensión n. (Los detalles se dejan como ejercicio.)

o * p . Si los n vectores renglón de A forman una base para R", entonces el espacio renglón de A es de dimensión n y el rango de A es n.

p * q. Este hecho se concluye por el teorema de la dimensión (teorema 5.6.3).

Page 328: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5.6 Rango y nulidad / 333

q b. Si la nulidad de A es O , entonces el espacio solución de Ax = O tiene dimensión O , lo cual significa que sólo contiene al vector cero. Por tanto, Ax = O sólo tiene la solución trivial. 0

EJERCICIOS DE LA SECCIÓY 5.6

1. Comprobar que rango(A) = rango(AT).

1 2. Encontrar el rango y la nulidad de la matriz; luego, comprobar que los valores

obtenidos satisfacen la fórmula (4) del teorema de la dimensión.

o - 1 a) A = [ ! Id -!I b) A = [ : -a] c ) A =

1 4 5 6 3 - 2 1 4

- 1 o - 1 - 2 2 3 5 7

d) A =

1 4 5 2 2 1 3 , ]

, - I 3 2 2

6 O - 3 '1 1 -3 o 3

- 1

- 2 9 2 -4 -5

3. En cada inciso del ejercicio (2), usar los resultados obtenidos para encontrar el número de variables principales y el número de parámetros que hay en la solución de Ax = O sin resolver el sistema.

4. En cada inciso, usar la información que se proporciona en la tabla para encontrar la dimensión del espacio renglón de A, del espacio columna de A, del espacio nulo de A y del espacio nulo de AT.

a) 8) 0 e) d) C b) - TamañodeA

2 O 2 2 1 2 3 Rango de A 6 x 2 4 x 4 9 x 5 5 x 9 3 x 3 3 x 3 3 x 3

5. En cada inciso, encontrar el valor máximo posible para el rango de A y el valor mínimo posible para la nulidad de A. a) A es 4 X 4. b ) A e s 3 X 5. c) A es 5 X 3.

6. Si A es una matriz m X n, ¿cuál es el valor máximo posible para su rango y cuál es el valor mínimo posible para su nulidad? [Sugerencia. Ver el ejercicio 5.1

7. En cada inciso, usar la información que se proporciona en la tabla para determinar si el sistema lineal Ax = b es consistente. En caso afirmativo, escribir el número de pará- metros que hay en su solución general.

Page 329: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

334 Espacios vectoriales generar’es

8. Para cada una de las matrices del ejercicio 7, encontrar la nulidad de A y determinar el niunero de parámetros que hay en la solución general del sistema lineal homogéneo Ax = o

9. ¿,Quk condiciones deben satisfacer b , , b,. b,, b, y b, para que el sistema lineal sobredeterminado

X -- 3 , ~ ~ = h ; x1 - 21, = h2 S ) i- X? = 11, .yl - 4x2 = h, x, + 5 . ~ ~ = h,

sea consistente‘!

10. Sea

A = “ 2 2 “21

Demostrar que el rango de A es 2 si y sólo si uno o más de los siguientes determinantes

“ 2 , 0 2 2 “ 2 1 ‘23 “22 “23

es diferente de cero.

11. Supóngase que A es una matriz 3 X 3 cuyo espacio nulo es una recta que pasa por el origen en el espacio tndimensional. ¿Es posible que el espacio renglón o el espacio columna de A también sea una recta que pasa por el origen? Explicar la respuesta.

12. Analizar cómo el rango de A varía con t .

a ) A = [ ; l i t ; b ) A = [ - i -: -:] t 3 -

13. ¿Existen valores de r y S para los cuales el rango de

O o [; y +] sea uno o dos? En caso afirmativo, encontrar los valores

Page 330: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Ejercicios complementarios / 335

14. Supóngase que A es una matnz 3 X 3 cuyo espacio columna es un plano que pasa por el origen en el espacio tridimensional. ¿Es posible que el espacio nulo sea un plano que pasa por el origen? ¿Es posible que el espacio renglón sea un plano que pasa por el origen? Explicar las respuestas.

15. a) Demostrar: Si A es una m a h z 3 X 5, entonces los vectores columna de A son

b) Demostrar: Si A es una matriz 5 X 3 , entonces los vectores rengl6n de A son linealmente dependientes.

linealmente dependientes.

16. Demostrar: Si A es una matrlz no cuadrada, entonces los vectores renglón de A o los vectores zolumna de A son linealmente dependientes. [Sugerencia Ver el ejercicio 15.;

17. Usar el resultado del ejercicio 10 para demostrar que el conjunto de puntos (x, y, z) en R3 para el que la matriz

tiene rango 1 es la curva con ecuaciones paramétricas x = t , y = 3, z = t 3 .

18. Demostrar: Si k # 0, entonces A y kA tienen el mismo rango

-OS COMPLEMENTARIOS

1. En cada inciso, el espacio solución es un subespacio de R", por lo que debe ser una recta que pasa por el origen, 'un plano que pasa por el origen, todo R3 o sólo el origen. Para cada sistema, determinar cuál es el caso. Si el subespacio es un plano, encontrar una ecuación para é1 y si es una recta, encontrar las ecuaciones paramétricas. d) Ox + O y + Oz = O b) 2x - 3v +- z == O c) x - 2y + 7z = O d) x i 4y + 82 = O

6~ - 9 , ~ + 32 = O - 4 ~ + 8 y + 5 z = O 2x + Sy + 62 = O -4xt-6.v-2z-O 2x - 43' + 32 = o 3 X + y - 4 2 ~ 0

2. ¿Para qué valores de S el espacio solucicn de

X I + x2 + sx3 = O

x, + sx2 + Xj = O

SXI i x2 i xj = O

es una recta que pasa por el origen, un plano que pasa por el origen, sólo el origen o todo R3?

3. a) Expresar (4a, a - b, a + 26) como una combinación lineal de (4, 1, 1) y (O, - 1,2). b) Expresar (3a + b + 3c, -a + 46 - c, 2a + b + 2c) como una combinación lineal de

(3, - 1 , 2 ) ~ ( 1 , 4 , 1 ) .

Page 331: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

336 i Espacios vectoriales generales

c) Expresar (2a - h + 4c, 3a - c, 4h + c ) como una combinación lineal de tres vectores diferentes de cero.

4. Sea W el espacio generado por f = sen x y g = cos x.

a) Demostrar que para cualquier valor de O , f, = sen (x + O ) y g, = cos (x + O ) son

b) Demostrar que f, y g, forman una base para W. vectores en W.

S. a) Expresar v = ( 1, 1) como una combillación lineal de v, = (1, - l), v2 = (3 , O), vg = (2, 1) en dos formas distintas.

b) Demostrar que el resultado del inciso anterior no viola el teorema 5.4.1.

6. Sea A una matriz n X n, y sean v , , v2, . . . , vn vectores linealmente independientes en 12" expresados como matrices n X I . ¿Que debe cumplir A a fin de que Av,, Av,, . . . , Avn sean linealmente independientes?

7. ¿Una base para Pn debe cor,tener un polinomio de grado k para todo k = O, 1 ,2 , . . . , n? Justificar la respuesta.

8. Para efectos de este problema, una "matriz en tablero de ajedrez" se defmirá como una matriz cuadrada A = [ a . .] tal que

{ II

1 si i + j es par O si i + j es impar a,, =

Encontrar el rango y la nulidad de las siguientes matrices en tablero de ajedrez: La matriz 3 X 3 . b) La matriz 4 X 4. c) La matriz n X n .

9. Para efectos de este ejercicio, una "matriz en X" se d e f i á como una matriz cuadrada con un número impar de renglones y de columnas que contiene ceros en todas partes, excepto en las dos diagonales, donde tiene unos. Encontrar el rango y la nulidad de las siguientes matrices en X

p O 0 O 11

LO. En cada inciso, demostrar que el conjunto de polinomios es un subespacio de Pn y encontrar una base para éste. a) Todos los polinomios en Pn tales que p( -x) = p(x) . b) Todos los polinomios en Pn tales quep(0) = O.

11. (Pata quienes ya esfudiaton Cdculo.) Demostrar que el conjunto de todos los polinomios en Pn que tienen una tangente horizontal en x = O es un subespacio de Pn. Encontrar una base para este subespacio.

12. En algebra lineal avanzada se demuestra el siguiente criterio de determinante para el rango: El rango de una matriz A es r si y sólo si A contiene alguna submatriz r X r con determinante d$erente de cero y todas las submatrices cuadradas de tamaño su-

Page 332: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Ejercicios complementarios / 33 7

penor tienen determinante igual a cero. (Una submatriz de A es cualquier matriz que se obtiene al eliminar renglones o columnas de A . La matriz A en sí también se consi- dera como una submatriz de A , ) En cada inciso, aplicar este criterio para encontrar el rango de la matriz.

13. Usando el resultado del ejercicio 12, encontrar los rangos posibles para las matrices de la forma

14. Demostrar: Si S es una base para un espacio vectorial V, entonces para cualesquiera vectores u y v en V y cualquier escalar k se cumplen las siguientes relaciones: a) " + v), = (u), + (v>,. b) ( W , = k ( q .

Page 333: Inroduccion Algebra lineal Howard Anton 5ta. Edicion
Page 334: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.1 PRODUCTOS INTERIORES

En la sección 4.1 se definió el producto interior euclidiano sobre R” y se usó para extender los conceptos de longitud y distancia al espacio euclidiano n dimensional. En esta sección se usarán como axiomas las propiedades más importantes del producto interior euclidiano para definir el concepto general de producto interior; luego se demostrará cómo los productos interiores se pueden utilizar para definir las ideas de longitud y distancia en espacios vectoriales diferentes a R”.

PRODUCTOS En la sección 4.1, el producto interior euclidiano de dos vectores en R” se denotó INTERIORES por u v. En esta sección será conveniente introducir la otra notación (u, v) para GENERALES denotar este producto interior. Con esta notación, las propiedades fundamentales

del producto interior euclidiano enumeradas en el teorema 4.1.2 son precisamente los axiomas de la siguiente definición

Definición. Un producto interior sobre un espacio vectorial real V es una fun- ción que asocia un número real {u, v) a cada pareja de vectores u y v en V de forma que los siguientes axiomas se cumplen para los vectores u, v y w en V y los escalares k.

(1) (u, v > = (v, u) [Axioma de simetría] (2) (u + v, w) = (u, w ) + { v, w) [Axioma de ahtividad]

339

Page 335: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

340 / Espacios con producto interior

(3) ( k u , v ) = k( u, v ) [Axioma de homogeneidad] (4) (v, v ) 2 o [Axloma de positividad]

donde (v , v } = O si y sólo si v = O

Un espacio vectorial real con un producto interior se denomina espacio real con producto interior.

OBSERVACI~N. En el capítulo 10 se estudiarán productos interiores complejos; es decir, productos interiores cuyos valores son números complejos. Hasta ese momento se usará la expresión "espacio con producto interior" para indmr que se trata de un "espacio real con producto interior".

Debido a que los axiomas del producto interior se basan en las propiedades del producto interior eucliciiano, éste satisface de forma automática los axiomas; este es el contenido del siguiente ejemplo.

Ejemplo 1 Si u = (u l , u2, . . . . un) y v = (vl, vz, . . . , v,J son vectores en R", entonces la fórmula

( u , v } = U . v = U ~ U , + U 2 U * + ~ ~ ~ + U , u , '

define a (u, v) como el producto interior euclidiano sobre R". Los cuatro axiomas del producto interior se cumplen debido al teorema 4.1.2. A

El producto interior euclidtmo es el producto interior más importante sobre R". Sin embargo, existen varias aplicaciones en las que resulta conveniente modi- ficar el producto interior euclidiano ponderando sus términos de manera Iferente. En pocas palabras. si

son números reales positivos, que se denominaránpesos, y si u = (u, , u2, . . . , un) y v = (vl, v2, . . . , vn) son vectores en R", entonces se puede demostrar (ejercicio 26) que la fórmula

define un producto interior sobre R"; se denomina producto interior euclidiano ponderado con pesos wI, w2, . . . , wn.

Para ver una forma en que puede surgir un producto interior euclidiano ponderado, supóngase que en algún experimento fisico puede obtenerse cualquiera de n valores numéricos

Page 336: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6. I Productos interiores 1 341

y que m repeticiones del experimento producen estos valores con varias fre- cuencias; es decir, x1 ocurrefi veces, x2 ocurre& veces, etc. Como en total hay m repeticiones del experimento,

f l +- f 2 + . . + f n = m

Así, el promedio aritmético o la media de los valores numéricos observados (que se denota por X) es

x = (f, x ) = W I f 1x1 + w 2 f 2 x 2 + ' ' . + W,f,X,

OBSERVACI~N. Siempre se supondrá que R" tiene el producto interior euclidia- no, a menos de que explícitamente se especlfique que tiene algún otro producto interior. Como se definió en la sección 4.1, R" con el producto interior euclidiano se denomina espacio euclidiano n dimensional.

Ejemplo 2 Sean u = (u1, u2) y v = (vl, v2) vectores en R2. Comprobar que el producto interior euclidmno ponderado

(u, v) = 3 u , u , + 2 u 9 2

satisface los cuatro axiomas de producto interior.

Solución. Primero, obsérvese que si en esta ecuación se intercambian u y v, el miembro derecho permanece igual. Por consiguiente,

Si w = (wl , w2), entonces

con lo que se establece el segundo axioma.

Page 337: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

342 / Ffspacios con producto interior

Luego,

con lo que se establece el tercer axioma Finalmente,

Resulta evidente que (v, v} = 3v + 2v 3 O. Además, (v, v} = 3v f + 2v 3 = O si y sólo si v1 = v2 = O , es decir, si y sólo si v = (vl, v2) = O. Asi, se cumple el cuarto axioma. A

LONGITVD Y Antes de analizar más ejemplos de productos interiores, se hará una pausa y se DISTANCIA EN explicará cómo se usan los productos interiores para introducir los conceptos de ESPACIOS CON longitud y distancia en espacios con producto interior. Recuérdese que en el PRODUCTO espacio euclidiano n dimensional la longitud euclidiana de un vector u = (u1, u2, INTERIOR . . , un) se puede expresar en términos del producto interior euclidiano como

l/uil = (u -u)'/?

y la distancia euclidiana entre dos puntos cualesquiera u = (u1, u2, . . . , un) y v =

(vi, v2, . . . . vn) se puede expresar como

d(u, v) = /Iu - v i / = [(u - V ) . ( r r " v)]':

[Véanse las fórmulas (1) y (2) de la sección 4.1 .] Tomando como motivación estas fórmulas, se hace la siguiente definición

Definición. Si V es un espacio con producto interior, entonces la norma (o longitud) de un vector \\u!/ en V se denota por u y se define como

!bI ! = (u, u)1'2

La distancia entre dos puntos (vectores) u y v se denota por d(u, v) y se define como

X(u, v) = ¡/u - VI/

Ejemplo 3 Si u = (u,: y 2 , . . . , U,,) y v = (v,, v2, . . . , vn) son vectores en R3 con el producto interior euchdlano, entonces

/lul/ = (u, U)I'* = ( u . u)1/2 = f l u ; + I ' ' + u; -___

Page 338: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.1 Productos interiores / 343

Y

d(u, v) = //u - VI/ = (u - v, u - v)l’2 = [(u - v ) . (u - v ) y

= V ( U , - U l ) 2 + (u* - u 2 ) 2 + ‘ ’ . + ( u , - u,)l

Obsérvese que las expresiones anteriores son simplemente las fórmulas estándar para la norma y la distancia euclidianas que se analizaron en la sección 4.1 [véan- se las fórmulas (1) y (2) de esa sección.] A

Ejemplo 4 Es importante tener en mente que la norma y la distancia de- penden del producto interior que se esté usando. Si se cambia el producto in- terior, entonces también cambian las normas y las distancias entre vectores. Por ejemplo, para los vectores u = (1, O) y v = (O, 1) en R2 con el producto in- terior euclidiano se tiene

11u11 = v?TT = 1

d(u, v) = I/u - VI/ = /1(1, - 1)/1 = v,m = v5 Y

Sin embargo, si se cambia al producto interior euclidiano ponderado

(u, v ) = 3U,U, + 2u,u,

entonces se obtiene

//u// = (u, u)’’’ = [ 3(1)(1) + 2(0)(0)]1’2 = fi Y

d(u, v) = //u - V I / = ((1, - l ) , ( l , - 1))1’2 = [ 3 ( 1 ) ( 1 ) + 2 ( - 1 ) ( - 1 ) ] ’ ~ 2 = ~ A

CIRCUNFEREN- Si Ves un espacio con producto interior, entonces el conjunto de puntos en V que CIAS Y ESFERAS satisfacen UNITARIAS EN ESPACIOS CON I I ~ I I = 1 PRODUCTO INTERIOR se denomina egera unitaria o algunas veces circunferencia unitaria en I/. En R2

y R3, estos son los puntos cuya distancia al origen es igual a l.

Ejemplo 5

a) Trazar la circunferencia unitaria en un sistema de coordenadas en R2 usan-

b) Trazar la circunferencia unitaria en un sistema de coordenadas xyz en R3 usan- do el producto interior euclidiano (u, v) = ulvl + u2v2.

do el producto interior euclidiano ponderado (u, v) = $ ulv l + $ u2v2.

Solución de u). Si u = (x, y), entonces llull = (u, u ) ~ ’ ~ = ,/-, de modo que la ecuación de la circunferencia unitaria es ,/- = 1 o bien, elevando al cua- drado ambos miembros,

Page 339: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

344 i Espacios con producto interior

Como se esperaba, la gráfka de esta ecuación es una circunferencia de radio 1 con centro en el origen (figura la).

t "

4

Figura 1 Circunferencia unitaria con norma Circunferencia unitaria con

norma 11u11= d m

Solución de 6). Si u = (x, y), entonces 1 /u/ j = (u, u)li2 = ,/+x2 +$y2 , de modo

que la ecuación de la circunferencia unitaria es Lx2 + l y 2 = 1 o bien, elevando

al cuadrado ambos miembros, 6-7

x2 y2 - + " = 1 9 4

La gráfica de esta ecuación es la elipse que se muestra en la figura 16. A

Sería razonable que el lector se sienta incómodo con los resultados obtenidos en el último ejemplo. Aun cuando las definiciones de longitud y distancia se reducen a las definiciones estándar cuando se aplican a R2 con el producto interior euclidiano, es necesario recurrir a la imaginación para pen- sar que l a "circunferencia" unitaria tiene forma elíptica. Sin embargo, aunque los productos interiores no estándar distorsionan los espacios conocidos y con- ducen a valores extraños de longitudes y distancias, muchos de los teoremas básicos de la geometría euclidiana aún son válidos en estos espacios poco comunes. Por ejemplo, es un hecho básico de la geometría euclidiana es que la suma de las longitudes de dos de los lados de un triángulo es por lo menos tan grande como la longitud del tercer lado (figura 2a). Después se verá que este resultado se cumple en todos los espacios con producto interior, sin importar cuán poco común pueda ser el producto interior. Como otro ejemplo, re- cuérdese el teorema de la geometría euclidiana que establece que la suma de los cuadrados de las diagonales de un paralelogramo es igual a la suma de los cuadrados de los cuatro lados (figura 26). Este resultado también es válido en

Page 340: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.1 Productos interiores / 345

todos los espacios con producto interior, sin importar cuál sea el producto in- terior (ejercicio 20).

a) b)

Figura 2 11" + V/I /1u/1 + b'l/ Ilu + V/12 + l/u - V/ l2 = 2(/lu1I2 + /lV1l2)

PRODUCTOS El producto interior euclidiano y el producto interior euclidiano ponderado son INTERIORES Casos especiales de una clase general de productos interiores sobre R", que se GENERADOS describirán a continuación. Sean POR MATRICES

U = [q y v = [ q

Un un

vectores en R" (expresados como matrices n X l), y sea A una matriz invertible n x n. Se puede demostrar (ejercicio 30) que si u v es el producto interior euclidiano sobre R", entonces la fórmula

u u, v) = Au .Av

define un producto interior; se llama producto interior sobre R" generado por A . Si se recuerda que el producto interior euclidiano u - v puede escribirse como

el producto matricial v'u [véase (7) en la sección 4.11, se concluye que otra forma de escribir (3) es

(u, v ) = (AV)T'4U

o bien, de manera equivalente,

Ejemplo 6 El producto interior sobre R" generado por la matriz identidad n X n es el producto interior euclidiano, ya que al sustituir A = I en (3) se obtiene

(u, v) = Iu.Iv = u . v

El producto interior euclidiano ponderado (u, v) = 3ulvl + 23v2 que se analiz6,en el ejemplo 2 es el producto interior sobre R2 generado por

Page 341: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

346 Espacios con producto interior

debido a que al sustituir esta matriz en (4) se obtiene

= 3u,u , + 2u2u2

En general, el producto interior euclidiano ponderado

{u , v ) = "IU1L'! + W7U2U2 f ' ' + W,U,U, es el producto interior sobre R" generado por

1 0 \ $ O A - . 0 1

(comprobar). A

En los siguientes ejemplos se describirán algunos productos interiores sobre espacios vectoriales Qferentes a R".

Ejemplo 7 Si

son dos matrices cualesquiera 2 X 2, entonces la siguiente fórmula define un pro- ducto interior sobre M22 (comprobarlo):

Por ejemplo, si

entonces

( U , V ) = 1( - I ) + 2(0) + 3(3) + 4(2) = 16

Page 342: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6. I Productos interiores / 347

Ejemplo 8 Si

p = a. + a,x -1 u2x2 and q = bo + b,x + b2x2

son dos vectores cualesquiera en P,, entonces la siguiente fórmula define un producto interior sobre P, (comprobar):

( P > S> = aobo + a,b, + 4 9

La norma del polinomio p con respecto a este producto interior es

llPll = (P , P Y = VGF2-G y la esfera unitaria en este espacio consta de todos los polinomios p en P, cuyos coeficientes satisfacen la ecuación I I pI I = 1, que elevada al cuadrado queda como

Ejemplo 9 (Para quienes ya estudiaron Cúlculo). Sean f =Ax) y g = g(x) dos funciones continuas en C [a, b ] , y se define

Se demostrará que esta fórmula define un producto interior sobre C [a, 61 al comprobar los cuatro axiomas de producto interior para las funciones f =Ax), g = g(x) y S = s(x) en C [a, b]:

b

(1) ( f 9 g ) = i, f ( x M 4 dx = [ g(x)f@) dx = (g, f )

lo cual demuestra que se cumple el axioma l .

b

(2) ( f + g, S ) = I, cf(x> + g(x))s(x) dx

b b

= f ( x > W dx + I, g(x)s(xl dx

= (f, S > + (g, S >

Page 343: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

348 / Espacios con producto interior

esto demuestra que el axioma 2 es válido.

(3) ( k t g> = j6 m ) g ( X ) dx = k f(n)g(x) dx = k(f, g) Jab con lo que queda demostrado que se cumple el axioma 3 . (4) Si f =Ax) es cualquier función en C [a, b] , entoncesf(x) 2 O para todo x en

[a, b ] ; por consiguiente,

Además, debido a que$(x) 2 O y f =Ax> es continua sobre la, 61, se conclu- ye que 1,” fZ(x)dx = si y sólo si Ax) = O para todo x en [a , 61. Por tanto, se tiene que (f, f ) = 1,” fZ(x>dx = O si y sólo si f = O . Así se demuestra que se cumple el axioma 4. A

Ejemplo 10 (Para quienesya esfudiaron Cálculo). Si C [a, b ] tiene el producto interior definido en el ejemplo precedente, entonces la norma de una función f =

Ax) con respecto a este producto interior es

y la esfera unitaria en este espacio consta de todas las funciones f en C [a, b] que satisfacen la ecuación llfll= 1, que cuando se eleva al cuadrado queda como

lUbf2(x) dx = 1 A

OBSERVACI~N. (Para quienes ya estudiaron Cálculo). Como los polinomios son funciones continuas sobre (-m, m) entonces son continuas sobre cual- quier intervalo cerrado [a, 61. Así, para todos estos intervalos el espacio vec- torial P, es un subespacio de C [a, bj , y la fórmula (6) define un producto in- terior sobre P,.

OBSERVACI~N. (Para quienes ya estudiaron Cálculo). Recordar que en Cálculo la longitud de ara de una curva y =Ax) sobre un intervalo [a, b] está definida por la fórmula

L =

Este concepto de longtud de arco no se debe confundir con Ilfll, que es la longitud (norma) de f cuando f se considera como un vector en C [a, b]. Las fórmulas (7) y (8) son bastante diferentes.

Page 344: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.1 Productos interiores / 349

ALGUNAS En el siguiente teorema se enumeran algunas propiedades algebraicas básicas de PROPIEDADES los productos interiores. DE LOS PRODUCTOS INTERIORES

Teorema 6.1.1. Si u, v y w son vectores en un espacio real con producto in- terior y k es cualquier escalar, entonces:

a) (O, v) = (v, O ) = O b) (u, v + w ) = (u, v) + (u, w) c) (u, kv) = k( u, v) d ) (u - v, w) = (u, w) - (v, w ) e) (u, v - w ) = (u, v) - (u, w )

I

Demostración. Se demostrará el inciso 6) y la demostración de los demás inci- sos se deja como ejercicio.

(u, v + w) = (v + w, u) [por simetría]

= (v, u) + (w, u) [por aditividad] = (u, v) + (u, w) por simetría] 0

El siguiente ejemplo ilustra d m o se pueden usar el teorema 6.1.1 y las propie- dades que definen los productos interiores para efectuar cálculos algebraicos con éstos. A medida que se estudie el ejemplo, será instructivo que el lector justifique los pasos.

Ejemplo 11

( u - ?v, 3u + 4v) = (u, 3u + 4v) - (2v, 3u + 4v) = (u, 3u) + (u, 4v) - (2v, 3u) - (2v, 4v) = 3(u, U) + 4( U, V ) - 6 ( ~ , U ) - 8 ( ~ , V)

= 311~11~ + 4(u, V ) - 6 ( ~ , V ) - 8 ( ( ~ / ( ~ 3(lu112 - 2(u, V ) - 811vI12 A

Como el teorema 6. l. 1 es un resultado general, se tiene la garantía de que se cumple para fodos los espacios reales con producto interior. Este es el verdadero poder del desarrollo axiomático de los espacios vectoriales y los productos interio- res: un sólo teorema demuestra una multitud de resultados de una vez. Por ejem- plo, sin necesidad de ninguna demostración adicional se tiene la garantía de que las cinco propiedades dadas en el teorema 6.1.1 son verdaderas para el producto interior sobre R" generado por cualquier matriz A [fórmula (3)]. Por ejemplo, para este producto interior se comprobará el inciso b) del teorema 6. l . 1 :

(u, v + w ) = (v + w)TATAu = (VT + wT)ATAu [Propiedad de la transpuesta]

= (V'A~AU) + (w'A 9 ~ ) [Propiedad de la multiplicación de matrices]

= (u, v) + (u, w )

Page 345: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

350 Espacios con producto interior

Será instructivo para el lector comprobar los demás incisos del teorema 6.1.1 para este producto interior.

EJERCICIOS DE LA SECCIóN 6.1

1. Sea (u, v) el producto interior euclidiano sobre R2, y sean u = (3, -2), v = (4, 5), w=(-1 ,6)yk=-4 ,Encont rar a) (u, v ) = (v, U) b ) ( u + v . w ) = ( u , w ) + ( v , w j (c) ( I I , V + W ) = ( U , V ) + ( U , W )

d ) ( k u , v ) = k ( u , v ) = ( u , k v ) e ) ( O . v } = ( v , O ) = O

2. Repetir el ejercicio 1 para el producto interior euclidiano ponderado (u, v) = 4u,v, + 5U2V2.

3. Calcular (u, v) usando el producto interior del ejemplo 7

4. Calcular (p, q) usando el producto interior del ejemplo 8. a) p = - 2 + x + 3 x 2 , q = 4 - 7 x 2 b) p = - 5 + 2 x + x 2 , q = 3 + 2 x - 4 x 2

5. a) Usando la fórmula (7), demostrar que (u, v) = 9u,vl + 4u2v2 es el producto interior sobre R2 generado por

b) Con el producto interior del inciso a), calcular (u, v) si u = ( -? ,2) y v = ( I , 7).

6 a) 7Jsar la fórmula (3), para demostrar que (u, v) = Su,vi - u,v2 - u2vl + 10u2v2 es el producto interior sobre R2 generado por

b) Usando el producto interior del inciso a), calcular (U, v) si U = (o, -3) y v = (6,2).

7. Sean u = ( u , , u2) y v = ( Y , , v2). En cada inciso, la expresión dada es un producto in- terior sobre R2. Encontrar una matriz que lo genere. a) (u, v ) = 3u,u, + 5u2u2 b) (u , v ) = 4u,u, + 6 u p 2

8. Sean u = (U,, U*) y v = (v,, v2). Comprobando que se cumplen los axiomas de producto in- terior, demostrar que las siguientes expresiones definen productos interiorcs sobre R2. a) (u. v ) = 3u,u, + 5 1 y 2 b) ( U , v ) = 4u,u, + u2ul + u lu2 + 4u:Uz

9. Sean U = (u , , u2, u2) y v = (v,, v , vJ. Determinar cuáles de las siguientes expresiones son productos intenores sobre R S . Para las que no 10 sean, enumerar 10s aXiomas que no se cumplen.

Page 346: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.1 Productos interiores / 351

a) (u , v ) = ulul + u3u3 b) (u, v ) = .:u: + + U$: C) (U , V ) = ~ u , u , + u2u2 + ~ u , u , d) ( U , V ) = u I u I - u2u2 + ~ 3 ~ 3

10. En cada inciso, usando el producto interior sobre R2, encontrar llwll donde w = (- 1, 3 ) . a) El producto interior euclidiano. b) El producto interior euclidiano ponderado (u, v) = 3u,v, 4- 2u2v2, donde u = (u,, u2)

c) El producto mterior generado por la matriz Y v = (VI > v,).

A = [ - 1 '1 3

11. Con los productos interiores del ejercicio 10, hallar d(u, v) para u = (- 1,2) y v = (2,5).

13. SeaMz2 con el producto interior del ejemplo 7. En cada inciso, encontrar lv11.

14. Sea P, con el producto interior del ejemplo 8. Hallar d(p, 9).

p = 3 - x + x * , q = 2 + 5 x *

15. SeaMZ2 con el producto interior del ejemplo 7. Encontrar d(A, B).

16. Supóngase que u, v y w son vectores tales que

(u, v ) = 2, (v , w ) = -3 , (u , w) = 5, I I ~ I I = 1, IIVII = 2, llwll= 7

Evaluar la expresión dada.

a) ( u + v , v + w ) b ) ( 2 ~ - ~ , 3 ~ + 2 ~ ) C) ( u - v - ~ w , ~ u + v ) 4 IIU + VI1 e) I12w - vll f ) j l u - 2v + 4w/l

17. (Para quienes ya estudiaron CcUCurO). Sea el espacio vectorial P, con el producto interior

( P, 9 ) = J: p(x)q(x) dx

a) Determinar llpll para p = 1, p =x y p = 2. b) Encontrar d(p, q) si p = 1 y q =x.

18. Trazar la circunferencia unitaria en R2 usando el producto interior dado. a) (u , v ) = $u,u, + &u2u2 b) ( u , v ) = 2u,u, + u2u2

19. Encontrar un producto interior euclidiano ponderado sobre R2 para el cual la circun- ferencia unitaria sea la elipse que se muestra en la figura 3 .

Page 347: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

352 1' Espacios con producto interior

"c">ii Figura 3

20.

21.

22.

23.

24.

25.

26.

27.

Demostrar que la siguiente identidad se cumple para vectores en cualquier espacio con producto interior.

//u + VI/* + //u - V/IZ = 2//U1l2 + 21jv112 Demostrar que la siguiente identidad se cumple para vectores en cualquier espacio con producto interior.

(u, v ) = +l/u + vil2 - allu - vil2

Demostrar que (U, = ulvl + u2v3 + u3v2 + u4v4 no es un producto interior sobre M2,.

Sean p = p ( x ) y q = q(x) polinomios en P,. Demostrar que

(P? 9) =p(O)q(O) + P ( M % ) +p(l)q(l)

es un producto interior sobre P,

Demostrar: Si (u, v) es un producto interior euclidiano sobre R" y si A es una matnz n X n, entonces

(u, .4v) = ( A T U , V )

[Sugerencia Usar el hecho de que (u, v) = u . v = vTu.]

Comprobar el resultado del ejercicio 24 para el producto interior euclidiano sobre R3 y

Sean u = (u1, u,, . . . , un) y v = (y1, v2, . . . , v,). Demostrar que

( u , v ) = W I U I U , + W2U2U* + ' ' ' + w,u,u,

es un producto interior sobre R" si wl, w2, . . . , wn son números reales positivos.

calcular (p, q) para los vectores p =p(x) y q = q(x) en P3. a) p = 1 - x + x x z + 5 x 3 q = x - 3 x 2 b ) p = x - 5 x 3 q = 2 + 8x2

Page 348: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.2 Ángulo y ortogonalidad en espacios con producto interior / 353

28. (Para quienes ya estudiaron C6lculo). En cada inciso, usar el producto interior

(f, g) = Io1 f(x)g(x) dx

para calcular (f, g) de los vectores f =Ax) y g = g(x) en C [O, 11 .

a) f = c o s 2 m , g = s e n 2 m b) f = x , g=e" C) f=tan-x , g = 1 Tr

4

29. Demostrar que el producto interior del ejemplo 7 se puede escribir como (U, =

tr( U%).

30. Demostrar que la fórmula (3) define un producto interior sobre R". [Sugerencia Usar la otra versión de la fórmula (3), definida por (4).]

31. Demostrar que la matriz (5) genera el producto interior euclidiano ponderado

(u, v ) = w l u l u l + w2u2u2 + ' ' + w,u,u, sobre R".

32. Demostrar los incisos a) y d) del teorema 6. l . l.

33. Demostrar los incisos c) y e ) del teorema 6. l . l.

6.2 ÁNGULO Y ORTOGONALIDAD EN ESPACIOS CON PRODUCTO INTERIOR

En esta sección se definirá el concepto de ángulo entre dos vectores en un espa- cio con producto interior, y esta idea se usará para obtener algunas relaciones básicas entre vectores en un espacio con producto interior, incluyendo una rela- cibn geométrica fundamental entre el espacio nulo y el espacio columna de una matriz.

DESIGUALDAD Recuérdese por la fórmula (1) de la sección 3.3 que si u y v son dos vectores dife- DE CAUCHY- rentes de cero en R2 o en R3 y 8 es el ángulo entre estos vectores, entonces SCHWARZ

u v = llull llvll cos o (1)

o bien, de otra manera,

cos o = - u . v

llull llvll En el primer objetivo de esta sección es definir el concepto de ángulo entre

dos vectores en un espacio general con producto interior. Para que la definición sea razonable, sería bueno que fuese consistente con la fórmula (2) cuando se apli- que al caso especial de R2 y R3 con el producto interior euclidiano. A s í , se quiere que la definición del ángulo 8 entre dos vectores diferentes de cero en un espacio con producto interior cumpla la relación

Page 349: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

354 1 Espacios con producto interror

Sin embargo, debido a que /cos 8 1 5 1, no hay ninguna posibilidad de que ( 3 ) se cumpla, a menos de que se tenga la certeza de que toda pareja de vectores dife- rentes de cero en un espacio con producto interior satisface la desigualdad

Afortunadamente será posible demostrar que así es, usando la siguente generali zación del la desigualdad de Cauchy-Schwarz (véase el teorema 4.1.3).

Teorema 6.2.1, Desigualdad de Cauchy-Schwarz). Si u y v son vectores en un espacio real con producto interior, entonces

Demostración. De antemano se advierte a lector que la demostración aquí presentada depende de una argucia sutil que no es fácil motivar. Si u = O , entonces (u. v) = (u, u) = O, de modo que los dos miembros de (4) son iguales. Supóngase ahora que u f O . Sean a = (u, u), b = 2(u, v). c = (v, v) y sea t cualquier número real. Por el axioma de positividad, el producto interior de cualquier vector consigo mismo siempre es positivo. Por consiguiente,

o 5 ((tu + v), (tu + v)) = (u, u)t2 + 2(u, v)t + ( v , v ) = at2 + bt + c

Esta desigualdad indica que el polinomio cuadrático at2 + bt + c no tiene raíces reales o tiene una raíz real repetida. En consecuencia, su discriminante debe satis- facer la desigualdad b2 - 4ac 5 O. Expresando los coeficientes a, b y c en térmi- nos de los vectores u y v se obtiene 4(u, v)’ - 4(u, U)(., v) 5 O o bien, de manera cquivalente,

(u , 5 (u , u) (v , v?

Extrayendo raíz cuadrada a ambos miembros y aplicando el hecho de que (u, u) y (v. v) son no negativos se obtiene

l(u, v)l 5: (u, u)”2(v, Y)”?

I ( K v)l 5 llull llvll

o bien, de manera equivalente,

Page 350: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.2 Angulo y ortogonalidad en espacios con producto interior / 355

con lo que se completa la demostración. U

Para referencia, se observa que la desigualdad de Cauchy-Schwarz se puede escribir de otras dos formas:

p T Z K T - 1 (5)

m[ (6)

La primera de estas fórmulas se obtuvo en la demostración del teorema 6.2.1, y la segunda se obtiene de la primera aplicando el hecho de que llull2 = (u , u) y llV1l2 = (v, v).

Ejemplo 1 La desigualdad de Cauchy-Schwarz para R" (teorema 4.1.3) se con- cluye como un caso especial del teorema 6.2.1 tomando a (u, v) como el producto interior euclidiano u v. A

PROPIEDADES Los dos teoremas siguientes demuestran que las propiedades básicas de la longitud DE LA y la distancia establecidas en los teoremas 4.1.4 y 4.1.5 para vectores en el espacio LONGITUD Y LA euclidiarro n dimensional son válidas en espacios generales con producto interior. DISTANCIA EN Este hecho es una evidencia de que las definiciones de producto interior, longitud ESPACIOS CON y &stancia están bien elegidas. PRODUCTO INTERIOR Teorema 6.2.2. Si u y v son vectores en un espacio V con producto interior y

si k es cualquier escalar, entonces:

a) llull 2 0

c) llkull = Ikl llull

b) llull = O si y sólo si u = O

d ) I ~ u + 5 ~~u~~ + Ilvll (Desigualdad del triúngulo)

Teorema 6.2.3. Si u, v y w son vectores en un espacio V con producto interior y si k es cualquier escalar, entonces:

a) d(u, v) 2 O b) d (u , v )=Os iysó los iu=v c) d(u, v) = d(v, U ) d; d(u, V ) 5 d(u, W ) + d(w , v ) (Desigualdad del triángulo)

~ ~~~~

1 I

Se demostrará el inciso d) del teorema 6.2.2 y la demostración de los demás in- cisos de este teorema, así como la demostración del teorema 6.2.3, se dejan como ejercicio.

Page 351: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

356 / Espacios con producto interior

Demostración del teorema 6.2.2d Por definición,

llu + VI12 = ( u + v, u + v )

= (u, u ) + 2(u, v ) + (v, v )

9 (u, u ) + 2/(u, v)l + (v, v ) [Propiedad del valor absoluto]

5 (u, u > + ~ l l ~ l l l l ~ l l + (v, v> [ ~ o r ( 4 ) 1

= llU1l2 + 2llull I b ! l + 11vIl2

= (llull + /lv11)2

Extrayendo raíz cuadrada se obtiene

l b + VI1 I llull + llvll 0 ÁNGULO ENTRE A continuación se mostrará cómo se puede usar la desigualdad de Cauchy- VECTORES Schwarz para definir hgulos en espacios generales con producto interior. Supón-

gase que u y v son vectores diferentes de cero en un espacio V con producto inte- rior. Si ambos miembros de la fórmula (6) se dividen entre llull llvll ', se obtiene

o bien, de manera equivalente,

Luego, si 8 es un ángulo cuya medida en radianes varía de O a x, entonces cos 8 asume todos los valores entre - 1 y 1 (inclusive) exactamente una vez (figura 1).

Así, por (7) existe un h g d o 8 único tal que

Se define a 8 como el ángulo entre u y v. Obsérvese que en R2 o en R3 con el pro- ducto interior euclidiano, la expresión (8) concuerda con la fórmula usual para el cosen3 del ángulo entre dos vectores diferentes de cero fórmula (2).

Page 352: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.2Ángulo y ortogonalidad en espacios con producto interior / 357

Ejemplo 2 Sea R4 con el producto interior euclidiano. Encontrar el coseno del ángulo 0 entre los vectores u = (4, 3, 1, -2) y v = (-2, 1, 2, 3).

Solución. Se deja para el lector comprobar que

I(u(/ = m, jlvll = m, y ( u , v ) = -9

(u, v ) - 9 3 I I~IIIIVII - mm = 2 f i

de modo que

cos o = - - " A

ORTOGONA- El ejemplo 2 es en esencia un ejercicio matemático, ya que hay relativamente poca LIDAD necesidad de encontrar ángulos entre vectores, excepto en R2 o en R3 con el

producto interior eucli&ano. Sin embargo, un problema de importancia capital en todos los espacios con producto interior es determinar si dos vectores son ortogonales; es decir, si el ángulo entre ellos es 0 = n/2.

Por (8) se concluye que si u y v son vectores dferentes de cero en un espacio con producto interior y 0 es el ángulo entre ellos, entonces cos 0 = O si y sólo si (u,

v) = O. De manera equivalente, para vectores diferentes de cero se tiene 0 = n/2 si y sólo si (u, v) = O. Si por acuerdo se considera el ángulo entre u y v como n/2 cuando uno de los vectores es O o ambos vectores son O, entonces se puede afirmar sin excepción que el ángulo entre u y v es n/2 si y sólo si (u, v) = O. Este hecho sugiere la sigwente definición.

Definición. Dos vectores u y v en un espacio con producto interior se denomi- nan ortogonales si (u, v) = O.

Obsérvese que en el caso especial en que (u, v) = u v es el producto interior euclidia- no sobre R", la definición anterior se reduce a la definición de ortogonalidad en el es- pacto euclidlano n dunensional proporcionada en la sección 4. l. También se hace notar que la ortogonalidad depende del producto interior; dos vectores pueden ser ortogonales con respecto a un producto interior pero pueden no serlo con respecto a otro.

Ejemplo 3 Si M,, tiene el producto interior del ejemplo 7 de la sección precedente, entonces las matrices

son ortogonales, ya que ( U , V ) = 1(O) + O(2) + 1(O) + 1(O) = O A

Ejemplo 4 (Para quienes ya estudiaron Cálculo). Sea Pz con el producto interior

Page 353: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

358 / Espacios con producto interior

y sea

p = x , q = x 2

Entonces

Debido a que (p, q) = O, los vectores p = x y q = x2 son ortogonales con respecto al producto interior dado. A

En la sección 4.1 se demostró el teorema de Pitágoras para vectores en el espacio euclidiano de dimensión n. El siguiente teorema amplía este resultado a vectores en cualquier espacio con producto interior.

Teorema 6.2.4. (Teorema de Hfágoras generalizado). Si u y v son vectores ortogonales en un espacio con producto interior, entonces

IlU + V I 2 = lIU1l2 + llv112

Demostración. La ortogonalidad de u y v indica que (u, v) = O, de modo que

Ejemplo 5 (Para quienes ya estudiaron Cálculo). En el ejemplo 4 se demostró que p = x y q = x2 son ortogonales con respecto al producto interior

I

sobre P2. Por el teorema de Pitágoras se concluye que

IIP + 9!12 = llP112 + 1I41l2

Así, por los cálculos en el ejemplo 4 se tiene

Page 354: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.2 Ángulo y ortogonalidad en espacios con producto interior / 359

COMPLEMENTOS ORTOGONALES

Este resultado se puede comprobar por integración directa:

Si Ves un plano que pasa por el origen de R3 con el producto interior euclidianc, entonces el conjunto de todos los vectores que son ortogonales a cada vector en V forman la recta L que pasa por el origen y es perpendicular a V (figura 2) . En términos de álgebra lineal, se dice que la recta y el plano son complementos ortogonales entre sí. La siguiente definición amplía este concepto a espacios generales con producto interior.

Figura 2 todo vector en V. I

Definición. Sea W un subespacio de un espacio V con producto interior. Se dice que un vector u en Ves ortogonal a W si es ortogonal a todo vector en W, y el conjunto de todos los vectores en V que son ortogonales a W se denomina complemento ortogonal de W.

Recuérdese que en geometría el símbolo I se usa para indicar perpen- dicularidad. En álgebra lineal, el complemento ortogonal de un subespacio IV se denota por W*(que se lee como " W perpendicular"). En el siguiente teorema se enumeran las propiedades básicas de los complementos ortogonales.

Teorema 6.2.5. Si W es un subespacio de un espacio V de dimensión finita con producto interior, entonces

a) W' es un subespacio de V. b ) El Único vector común a W y WL es O . c) El complemento ortogonal de WL es W; es decir, ( WL)I = W.

Page 355: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

360 Espacios con producto interior

RELACI~N GEOMÉTRICA ENTRE EL ESPACIO NULO Y EL ESPACIO RENGLÓN

Se demostrará el inciso a) , y la demostración de los demás incisos se deja como ejercicio.

Demostración de a). Primero obsérvese que ( O , w) = O para todo vector w en W , de modo que WL contiene por lo menos al vector cero. Se quiere demostrar que WL es cerrado bajo la adición y la multiplicación escalar; es decir, se quiere demostrar que la suma de dos vectores en WL es ortogonal a todo vector en W y que cualquier múltiplo escalar de un vector en W" es ortogonal a todo vector en W. Sean u y v dos vectores cualesquiera en W L , sea k cualquier escalar y sea w cualquier vector en W. Entonces por la definición de W" se tiene (u, w) = O y (v, w) = O. Usando las propiedades básicas del producto interior se tiene

( u + v , w ) = ( u , w ) + ( v , w ) = 0 + 0 = 0 (ku, w ) = k(u, w ) = k(0) = o

lo cual demuestra que u + v y ku estjn en W" . 0

OBSERVACI~N. Debido a que por el inciso c) del teorema precedente W y W'- son complementos ortogonales entre s í , se dirá que W y WL son complementos orto- gonales.

El siguente teorema fundamental establece un vínculo geométrico entre el espacio nulo y el espacio renglón de una matriz.

Teorema 6.2.6. Si A es una matriz m X n, entonces:

a ) El espacio nulo de A y el espacio renglón de A son complementos ortogona-

b ) El espacio nulo de A T y el espacio columna de A son complementos ortogo- les en R" con respecto al producto interior euclidiano.

nales en Rm con respecto al producto interior euclidiano.

Demostración de a). Se desea demostrar que el complemento ortogonal del espacio renglón de A es el espacio nulo de A . Para lograr esto es necesario demostrar que si un vector v es ortogonal a todo vector en el espacio renglón, entonces Av = O y, recíprocamente, si Av = O , entonces v es ortogonal a todo vector en el espacio ren- glón.

Supóngase primero que v es ortogonal a todo vector en el espacio renglón de A . Entonces, en particular v es ortogonal a los veetores renglón r,, r2, . . . , rn de A: es decir

Pero por la fórmula (1 1) de la sección 4.1, el sistema lineal Ax = O se puede ex- presar en notación de producto punto como

Page 356: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.2 Ángulo y ortogonalidad en espacios con producto interior 1 361

de modo que por (9), v es una solución de este sistema y, por tanto, está en el espacio nulo de A .

Recíprocamente, supóngase que v es un vector en el espacio nulo de A , de modo que Av = O . Por (10) se concluye que

r l . v = r2.y =1.. . = r,.v = O

Pero si r es cualquier vector en el espacio renglón de A , entonces r se puede expresar como una combinación lineal de los vectores renglón de A , por ejemplo

r = c,r, + c2r2 + . ' . + c,r,

Por tanto,

r - v = (cIrI + c2r2 + . . . + c,r,)-v = c l ( r I . v) + c2(r2. v) + . . . + c,(r, - v) = o + o + . . . + o = o

con lo cual se demuestra que v es ortogonal a todo vector en el espacio renglón de A .

Demostración de b). Como el espacio columna de A es el espacio renglón de AT (excepto por alguna diferencia en la notación), esta demostración se concluye al aplicar el resultado del inciso a ) a A T. 0

El ejemplo siguiente muestra cómo se puede usar el teorema 6.2.6 a fin de encontrar una base para el complemento ortogonal de un subespacio del espacio euclidiano de dimensión n o n dmensional.

Ejemplo 6 Sea W el subespacio de R5 generado por los vectcres

w1 = (2, 2, - 1, o, 11, w* = (- 1, - 1, 2, -3, l), w , = ( l , 1, -2 ,0 , " l ) , w 4 = ( 0 , 0 , 1 , 1, 1)

Encontrar una base para el complemento ortogonal de W.

Solución. El espacio Wgenerado por wl, w2, w3 y w4 es el mismo que el espacio renglón de la matriz

Page 357: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

362 Espacios con producto interior

- l - 3 '

2 2 - 1 o 1

1 1 - 2 o - 1 O 0 1 1 1

L

y, por el inciso a) del teorema 6.2.6, el espacio nulo de A es el complemento ortogonal de W. En el ejemplo 4 de la sección 5.5 se demostró que

O ] 0

forman una base para este espacio nulo. Expresando estos vectores en la misma notación que wl, w2, w3 y w4 se concluye que los vectores

" I = i- 1, 1, o, o, 0) y v 2 = ( - l , O , -1,o, 1)

forman una base para el complemento ortogonal de W. Como comprobación, calculando los productos punto necesarios, el lector puede veniicar que v1 y v2 son ortogonales awl , w2, w3 y w4. A

Teorema 6.2.7. Si A es una matriz n X n, y si TA 1 R" +. R" es la multiplicación por A , entonces las siguientes proposiciones son equivalentes. a ) A es invertible. b ) Ax = O sólo tiene la solución trivial. c ) La forma escalonada reducida de A es I,, d) A se puede escribir como un producto de matrices elementales, e ) if x = b es consistente para toda matriz b n X 1. f i A x = b tiene exactamente una solución para toda matriz b n X 1.

h) Id rango de 7> es Rn. i ) TA es uno a uno. j ) Los vecfores columna de A son linealmente independientes. k) Los vectores renglón de A son linealmente independientes. I) Los vectores columna de A generan a R". m) Los vectores renglón de A generan a Rn. n) Los vectores columna de A forman una base para R". o) Los vectores renglón de A forman una base para R". p) El rango de A es n. q) La nulidad de A es O . r) El complemento ortogonal del espacio nulo de A es Rn. S) El complemento ortogonal del espacio renglón de A es ( O ) .

S> deffJ f o.

Page 358: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.2 Ángulo y ortogonalidad en espacios con producto interior 363

Este teorema relaciona todos los temas principales estudiados hasta el momento.

RESUMEN Se deja como ejercicio para el lector demostrar que en cualquier espacio V con producto interior, el espacio cero { O ) y todo el espacio V son complementos ortogonales. Entonces, si A es una matriz n X n, afirmar que Ax = O sólo tiene la solución trivial es equivalente a decir que el complemento ortogonal del espacio nulo de A es todo R" o, de manera equivalente, que el espacio renglón de A es todo R". Este hecho permite agregar dos nuevos resultados a los 17 resultados mencio- nados en el teorema 5.6.9.

EJERCICIOS DE LA SECCIóN 6.2

1. En cada inciso, determinar si los vectores dados son ortogonales con respecto al producto interior euclidiano. a) u = ( - 1 , 3, 2), v = (4, 2, - 1) b ) u = ( - 2 , - 2 , - 2 ) , v = ( l , 1, 1)

e) u=(O, 3, -2, I ) , v = ( 5 , 2, -1, O) f ) u =(a, b), v = ( - b , a) c) = ( U l , U 2 r Uj), v = (O, O, 0) d ) u = ( - 4 , 6 , -10, l), ~ = ( 2 , 1, - 2 , 9 )

2. Sea @ con el producto interior euclidiano, y sea u = (- 1, 1, O, 2). Determinar si el vector u es ortogonal al conjunto de vectores W = {w,, w2, w3), donde w, = ( O , O, O, O), w2 = (1, - 1,3J y w3 = (4, O, 9,2) .

3. Sean R2, R3 y @ con el producto interior euclidiano. En cada inciso, hallar el coseno del ángulo entre u y v. a) u = ( I , -3), v = (2, 4) b) U = ( - I , O), v = ( 3 , 8)

e ) u = ( l , O , l,O), v = ( - 3 , -3, -3, -3) f ) u = ( 2 , 1, 7, - I ) , v = ( 4 , 0 , 0 , 0 )

4. Sea P2 con el producto interior del ejemplo 8 en la sección 6.1. Encontrar el coseno del

c) u = ( - 1 , 5 , 2), v = (2, 4, -9) d) U = (4, 1 , 8), v = (1, O, - 3 )

ángulo entre p y q. a) p = - 1 + 5x + 2x2, q = 2 + 4x - 9x2 b) p = X - x2, q = 7 + 3x + 3x2

5. Demostrar que p = 1 - x + 2x2 y q = 2x + .? son ortogonales con respecto al producto interior del ejercicio 4.

6. Sea M22 con el producto interior del ejemplo 7 en la sección 6. l . Encontrar el coseno del ángulo entre A y B.

7. Sea

A = [ - 1 3 '1

Page 359: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

364 / Espacios con producto interior

¿Cuáles de las siguientes matrices son ortogonales a A con respecto al producto interior del ejercicio 6?

8. Sea R3 con el producto interior euclidiano. ¿Para qué valores de k son ortogonales u y v? a) u=(2 ,1 ,3 ) , v = ( l , 7 , k ) b) u = ( k , k , l ) , v = ( k , 5 , 6 )

9. Sea con el producto interior euclidiano. Encontrar dos vectores de norma 1 que sean ortogonales a los tres vectores u = (2, 1, -4, O), Y = (- 1, - 1,2,2) y w = (3,2,5,4).

10. En cada inciso, con el producto interior euclidiano comprobar que la desigualdad de Cauchy-Schwarz se cumple para los vectores dados. a) u = (3, 2), v = (4, - 1) b ) ~ = ( - 3 , 1 , 0 ) , ~ = ( 2 , - 1 , 3 ) C) ~ = ( - 4 , 2 , I ) , v = ( 8 , -4 , -2) d) u = ( O , - 2 , 2 , I ) , v = ( - l , - 1 , 1, I )

11. En cada inciso, comprobar que la desigualdad de Cauchy-Schwarz se cumple para los vectores dados. a) u = (-2, 1) y v = (1, O), usando el producto interior del ejemplo 2 en la sección 6. l .

usando el producto interior del ejemplo 7 en la sección 6.1.

la sección 6.1, c) p = - 1 + 2x + 2 y q = 2 - 4 2 usando el producto interior dado en el ejemplo 8 de

12. Sea W la recta en R2 cuya ecuación es y = 2x. Encontrar una ecuación para WL

13. a) Sea W el plano en R3 cuya ecuación es x - 2y - 32 = O. Encontrar las ecuaciones paramétricas para WL

b) Sea Wla recta en R3 con ecuaciones paramétricas

n = 2 t , J '" - s t , z = 4 t ("<<<E)

D e t e m ~ a r una ecuación para WL

14. Sea 2 - 1 2

A = [ : a] a) Encontrar bases para el espacio renglón y el espacio nulo de A . b) Comprobar que todo vector en el espacio renglón es ortogonal a todo vector en el

espacio nulo (como garantiza el teorema 6 . 2 . 6 ~ ) .

15. Sea A la matriz1 ejercicio 14. a) Encontrar bases para el espacio columna de A y el espacio nulo de AT b) Comprobar que todo vector en el espacio columna de A es ortogonal a todo vector en

el espacio nulo de AT (como garantiza el teorema 6.2.6b).

Page 360: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.2 Ángulo y ortogonalidad en espacios con producto interior / 365

16. Encontrar una base para el complemento ortogonal del subespacio de R" generado por los vectores a) vI = (1, - 1, 3), v2 = (5, -4, -4), v3 = (7 . -.6, 2 1 b) V I = (2, O, - l), vZ = (4, O, -2) c ) v , = ( l , 4 , 5 , 2 ) , v 2 = ( 2 , 1 , 3 , 0 ) , v 3 = ( - 1 , 3 , 2 , 2 ) d ) ~ , = ( l , 4 , 5 , 6 , 9 ) , ~ ~ = ( 3 , - 2 , 1 ~ 4 , - 1 ) , ~ ~ = ( - I , 0 , - 1 , - 2 , - 1 ) ,

v4 = (2, 3, 5, 7, 8)

17. Sea V un espacio con producto interior. Demostrar que si u y v son vectores ortogonales en Vtales que llull= llvll= 1, entonces ~ l u - V I I = a.

18. Sea V un espacio con producto interior. Demostrar que si w es ortogonal tanto a u, como a u2, entonces es ortogonal a k,u, + k2u2 para todos los escalares k , y k2. Interpretar geométricamente este resultado para el caso en que V es R3 con el producto interior euclidiano.

19. Sea V un espacio con producto interior. Demostrar que si w es ortogonal a cada uno de los vectores u,, u2, . . . , u,, entonces es ortogonal a todo vector en lin {u,, u2, . . . , u ,} .

20. Sea {v,, v2, . . . , v,} una base para un espacio V con producto interior. Demostrar que el vector cero es el Úmco vector en V que es ortogonal a todos los vectores básicos.

21. Sea {w,, w2, . . . , w,}una base para un subespacio CV de V. Demostrar que WL consta de todos los vectores en V que son ortogonales a todos los vectores básicos.

22. Demostrar la siguiente generalización del teorema 6.2.4. Si v, , v2, . . . , Y, son vectores ortogonales por parejas en un espacio V con producto interior, entonces

23. Demostrar los siguientes incisos del teorema 6.2.2: a) Inciso a). b) Inciso b). c) Inciso e).

24. Demostrar los siguientes incisos del teorema 6.2.3: a) Inciso 4). b) Inciso b). c) Inciso c). d) Inciso S,

25. Demostrar el inciso b) del teorema 6.2.5.

26. Demostrar: Si u y v son matrices n X 1 y A es una matriz invertible n X n, entonces

[vTATAu]2 5 (urATAu)(v*A*Av)

27. Por medio de la desigualdad de Cauchy-Schwm, demostrar que para todos los valores reales de a, b y 8 ,

Page 361: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

366 i Espacios con producto interior

29.

30.

31.

32.

Demostrar que la igualdad se cumple en la desigualdad de Cauchy-Schwarz si y sólo si u y v son linealmente dependientes.

(Para quienes ya estudiaron Ccilculo). Sea C [O, x] con el producto interiol

( f , g) = i h d x ) dx

Y sea f, = cos nx ( n = O , 1, 2, . . . ). Demostrar que si k # I, entonces fk y fi son ortogonales con respecto al producto interior dado.

(Para quienes ya estudiaron Chkulo). Seanfix) y g(x) funciones continuas sobre [O, 11 . Demostrar:

[Sugerencia Usar la desigualdad de Cauchy-Schwarz.]

Mediante métodos vectoriales, demostrar que el triángulo inscrito en una circunferencia, de modo que uno de sus lados es el diámetro de la circunferencia, debe ser un triángulo rectángulo. [Sugerencia Expresar los vectores AB y BC de la figura 3 en términos de u y v. 1

33. Con respecto al producto interior euclidiano, la norma de los vectores u = (1, a) y v = (- 1, 3 ) es igual a 2, y el ángulo entre u y v mide 60° (figura 4). Encontrar un pro- ducto interior euclidiano ponderado con respecto al cual u y v sean vectores unitanos orto- gonales.

Figura 4

Page 362: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.3 Bases ortonormales; proceso de Gram-Schmidt; descomposición QR / 367

6.3 BASES ORTONORMALES; PROCESO DE GRAM-SCHMIDT; DESCOMPOSICIóN QR

En muchos problemas con espacios vectoriales, quien resuelve el problema puede elegir cualquier base que juzgue pertinente para el espacio vectorial. En espacios con producto interior, la solución de un problema a menudo se simplGca bastante al elegir una base en la que los vectores sean ortogonales entre sí. En esta sección se mostrará cómo es posible obtener las bases.

BASES

conjunto son ortogonales. Un conjunto ortogonal en el que cada vector tiene Y ORTONORMA- denomina conjunto ortogonal si todas las parejas de vectores distintos en el ORTOGONALES DefinicMn.Un conjunto de vectores en un espacio con producto interior se

LES norma 1 se denomina conjunto ortonormal.

Ejemplo 1 Sean

u1 = ( O , 1,0), u,=( l ,O, l), u , = ( l , O , -1)

y supóngase que R3 tiene el producto interior euclidiano. Se concluye que el conjunto de vectores S = {ul, u2, u3} es ortogonal, ya que (u1, u2) = (ul, u3) = (u2, u3) = O. A

Si v es un vector no nulo en un espacio con producto interior, entonces por el inciso c) del teorema 6.2.2 el vector

1 mv tiene norma 1, ya que

El proceso de multiplicar un vector v diferente de cero por el recíproco de su longitud para obtener un vector de norma 1 se denomina normalizacidn de v. Un conjunto ortogonal de vectores no nulos siempre se puede convertir en un conjunto ortonormal al normalizar cada uno de sus vectores.

Ejemplo 2 Las normas euclidianas de los vectores en el ejemplo 1 son

I I Y I I = 1 , IIu211 = f i 9 11~311 = u5 En consecuencia, al normalizar u u2 y u3 se obtiene

Page 363: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

36% í Espacios con producto interior

El lector debe comprobar que el conjunto S = {vl, v2, v3> es ortonormal, al de- mostrar que

(v,, v2) = ( V I , v3) = ( v 2 , v3) = 0

IlVlll = llvzll = llv3ll = 1 A En un espacio con producto interior, una base que consta de vectores orto-

normales se denomina base ortonormal, y una base que consta de vectores ortogo- nales se denomina base ortogonal. Un ejemplo conocido de una base ortonormal es la base estándar para R3 con el producto interior euclidiano:

i = ( l , O , O ) , j = ( O , l , O ) , k=(O,O, 1)

Esta es la base asociada con los sistemas de coordenadas rectangulares (figura 4 de la sección 5.4). En términos más generales, en R" con el producto interior eucli- diano, la base estándar

e , =(1,0,0, . . . , O), e2=(0 , 1,0, . . . , O), . . . , e,=(0,0,0, . . . , 1)

es ortonormal.

COORDENADAS El interés de encontrar bases ortonormales para espacios con producto interior es RELATIVAS A motivada en parte por el siguiente teorema, que muestra cuán excepcionalmente BASES sencillo es expresar un vector en términos de una base ortonomal. ORTONOR- MALES

u = (u, V , > V l + (u, v& + . . . + (u, v,)v,

Demostracion. Como S = {vl, v2, . . . , vn> es una base, un vector u se puede ex- presar como

La demostración se completará probando que k, = (u, vi) para i = 1, 2, . . . , n. Para todo vector vi en S se tiene

Page 364: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.3 Bases ortonormales; proceso de Gram-Schmidt; descomposición QR / 369

(u, V i ) = (k,v, + k2V2 + . . . + kv,, Vi>

= k,(v,, v,) + k2(v2, vi) + . . . + k,,(v,, v,)

Como S = {vl, v2, . . . , v,,} es un conjunto ortonormal, se tiene

(v,, vi) = llv,l12 = 1 y (v,, vi) = 0 i f j # z

Por consiguiente, la expresión anterior para (u, vi) se simpllfica a

Usando la terminología y la notación presentadas en la sección 5.4, los escalares

(u, v,), (u, v,), . . f , (u, vn>

en el teorema 6.3.1 son las coordenadas de u con respecto a la base ortonormal S =

{VI' V2' . . ' i V n > Y

(u)s = ((u, VI ), (u, v,), . ' ' , (u, vn))

es el vector de coordenadas de u con respecto a esta base.

Ejemplo 3 Sean

VI = ( O , 1, O), v2 = ( -4 57 o 9 3 51, v3 = (& o, 6, Es fácil comprobar que S = {vl, vz, v3} es una base ortonormal para R3 con el pro- ducto interior euclidiano. Expresar el vector u = (1, 1, 1) como una combinación lineal de los vectores en S y hallar el vector de coordenadas (u),.

Solución.

Por consigmente, debido al teorema 6.3.1, se tiene

u = V I -kv, + %v3

es decir,

OBSERVACI~N. La utilidad del teorema 6.3.1 debe resultar evidente a partir de este ejemplo si se considera que para bases no ortonormales suele ser necesario resolver un sistema de ecuaciones a fin de expresar un vector en términos de la base.

Page 365: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Las bases oflonormales para espacios con producto interior son Convenientes porque, C O I ~ O se muestra en ei siguiente teorema. muchas fórmulas conocidas se cumplen para csas bases

~~~~ ~

La demostración se deja para los ejercicios

OBSERVXCIQN. N6tese que el miembro derecho de la igualdad en el inciso a) es la norma del vector de coordenadas ( u ) ~ con respecto al producto interior ewclidiano sobre H", y que el miembro derecho de la igualdad en el inciso c) es el producto interior euclidiano de (u), y ( v ) ~ . Así, trabajando con bases ortonormales. el cálculo de normas y productos interiores generales se puede reducir al cálculo de normas y productos interiores euclidianos de los vectores de coordenadas.

Ejemplo 4 Si R' tiene el producto interior euclidiano, entonces la norma del vector u = ( I , 1, 1) es

I/u// = (u u) ' 1 , d m = \ , ? Sin embargo, si se hace que R' tenga la base ortonormal S del ejemplo anterior, entonces por ese ejemplo se sabe que el vector de coordenadas de u con respecto a S es

(a ) ,5 = ( 1 " X , k) 1 -

Ea norma de u también se puede calcular a partir de este vector usando el inciso a ) del teorema 6.3.2. Así, se obtiene

COORDENADAS Si S = (v l . va. . . . . vn) es una base ortogonu1 para un espacio vectorial V. RELATIVAS A entonces al normalizar cada uno de sus vectores se obtiene la base ortonormal BASES ORTOGONALES

Page 366: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.3 Bases ortonormales; proceso de Gram-Schmidt; descomposición QR / 371

Así, si u es cualquier vector en V, por el teorema 6.3.1 se concluye que

que, debido al inciso c) del teorema 6. l . 1 se puede volver a escribir como

Esta fórmula expresa u como una combinación lineal de los vectores en la base ortogonal S. En los ejercicios se dan algunos problemas que requieren el empleo de esta fórmula.

Es evidente que si v,, vz y v3 son tres vectores diferentes de cero mutua- mente perpendiculares en R3, entonces ninguno de los vectores está en el mismo plano que los otros dos; es decir, los vectores son linealmente independientes. El siguiente teorema generaliza este resultado.

Teorema 6.3.3. Si 5' = (v,, v,, . . . , v,) es un conjunto ortogonal de vectores no nulos en un espacio con producto interior, entonces S es linealmente independiente.

Demostración. Supóngase que

k , ~ , + k2vz + I . . + k,v, = O (2)

Para demostrar que S = (vl, v2, . . . , vn} es linealmente independiente, es necesa- rio probar que k , = k, = ' . . = k, = O.

Para todo vi en S, por (2) se concluye que

(k,v, + k2v2 + . . . + k,v,, v,) = ( O , v,) = O

o, de manera equivalente,

Por la ortogonalidad de S se concluye que <vi, vi> = O cuando j f i , de modo que esta ecuación se reduce a

k,(v,, V I ) = O

Como se supone que los vectores en S son diferentes de cero, entonces <(¡, vi) f O por el axioma de positividad en la definición de producto interior. Por con- siguiente, k , = O. Como el subíndice i es arbitrario, se tiene k , = k, = . . . = kn = O; así, S es linealmente independiente. 0

Page 367: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3 72 I Espacios con producto interior

Ejemplo 5 En el ejemplo 2 se demostró que los vectores

forman un conjunto ortonormal con respecto al producto interior euclidiano sobre R3. Por el teorema 6 . 3 . 3 , estos vectores forman un conjunto linealmente inde- pendiente, y como R3 es tridimensional, entonces por el teorema 5.4.6a se tiene que S = {vI. v2, v3} es una base ortonormal para R3. A

PROYECCIONES A continuación se desarrollarán algunos resultados que serán de utilidad para ob- ORTOGONALES tener bases ortogonales y bases ortonormales para espacios con producto interior.

En R2 o R3 con el producto interior euclidiano, geométricamente resulta obvio que si W es una recta o un plano que pasa por el origen, entonces todo vector u en el espacio se puede expresar como UM suma

u = w, + w2

donde w1 está en W y w2 es perpendicular a W (figura 1). Este resultado es un caso especial del sigwente teorema general cuya demostración se da a final de esta sección

r ~

Teorema 6.3.4. (Teorema de proyección). Si W es un subespacio de dimensión j n i t a en un espacio V con producto interior, entonces todo vector u en V se puede expresar de manera única como

~~~ ~~~~

u = w , + w ,

donde w I está en W y w2 está en W L .

El vector w en el teorema precedente se denomina proyección ortogonal de u sobre W y se denota por proy, u. El vector w2 se denomina componente de u ortogonal a W y se denota por proywl u. Así, la fórmula (3) en el teorema de proyección se puede expresar como

Como w2 = u - w se concluye que

Page 368: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.3 Bases ortonormales; proceso de Gram-Schmidt; descomposicidn QR I' 3 73

Figura 2

El siguiente teorema, cuya demostración se pide en los ejercicios, propor- ciona fórmulas para calcular proyecciones ortogonales.

I 6) Si {vl, vz, . . . , vr} es una base ortogonal para W y u es cualquier vector en V, entonces

Ejemplo 6 Sea R3 con el producto interior euclidiano, y sea W el subespacio generado por los vectores ortonormales v1 = ( O , 1, O) y vz = (-+,O,$). Por (6), la proyección ortogonal de u = (1, 1, 1) sobre W es

ProY u = (u, v, )v, + (u, v2)v2 = (1)(0. 1, 0) + (-6)(-9, o, g) -(" - 1 "&

25, 3 2 5 )

La componente de u ortogonal a W es

proy,, u = u -proy,.u = (1, 1, 1) - (&, 1, --&) = (+&, t?, gj

ObsCrvese que p royp u es ortogonal tanto a vi como a v2, de modo que este vector es ortogonal a todo vector en el espacio W generado por v1 y v2, como debe ser. A

Page 369: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

374 /’ Espacios con producto interior

DETERMINA- Se ha visto que las bases ortonormales poseen varias propiedades útiles. El CIÓN DE BASES siguiente teorema, que es el resultado principal de esta sección, muestra que todo ORTOGONALES espacio vectorial no nulo y de dimensión finita tiene una base ortonormal. La de- Y BASES mostración de este resultado es muy importante, ya que proporciona un algorit- ORTONORMALES mo, o método, para convertir una base arbitraria en una base ortonormal.

~~ ~~~~ ~~~

Teorema 6.3.6. Todo espacio no nulo de dimensión finita con producto inte- rior tiene una base ortonormal.

Demostración. Sea T’ cualquier espacio no nulo de hmensión finita con pro- ducto interior, y sea (u1, u2. . . . , un} cualquier base de V. Basta demostrar que Y tiene una base ortogonal, ya que los vectores en la base ortogonal se pueden normalizar a fin de obtener una base ortonormal para V. La siguiente serie de pasos produce una base ortogonal {vl, v2, . . . , v,} para V

Paso 1. Sea v1 = ul.

Paso 2. Como se ilustra en la figura 3, se puede obtener un vector v2 que sea ortogonal a vI calculando la componente de u2 que sea ortogonal al es- pacio Wl generado por vl . Se aplica la fórmula (7):

/ \

(U2’VI)

llV1I2 v2= u2 - proyw, u2 = u2-

Por supuesto, si vz = O, entonces v2 no es un vector básico. Pero ést0 no puede suceder, ya que por la fórmula precedente para v2 se concluiría que

la cual establece que u2 es un múltiplo de ul, contradiciendo la inde- pendencia lineal de la base S = {u1, u2, . . . , U,,).

Paso 3. Para obtener un vector v3 que sea ortogonal tanto a v, como a v2, se calcula la componente de u3 ortogonal al espacio W2 generado por v1 y v2 (figura 4). Por (7),

(u3’v1) vl- (u3’v2) v2 v3= u3 - proyw, u3 = ug - IF112 P2u2

Como en el paso 2, la independencia lineal de ul , u2, . . . , u, asegura que v3 # O. Los detalles se dejan como ejercicio.

Paso 4. Para determinar un vector v4 que sea ortogonal a v, , v2 y v3, se calcula la componente de u4 ortogonal al espacio W3 generado por vl , v2 y vj. Por (71,

Page 370: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.3 Bases ortonormales; proceso de Gram-Schmidt; descomposición QR /I 3 75

v4= u4 - proyw u4 = u4- 3 v2 -

' Figura 4

Continuando de esta manera. después de n pasos se obtiene un conjunto ortogonal de vectores, {vl , v2, . . . , vn). Como la dimensión de V e s I? y todo con- junto ortogonal es linealmente independiente, el conjunto (v l , v2, . . . , vn} es una base ortogonal para V. 0

La construcción precedente paso a paso para convertir una base cualesquiera en una base ortogonal se denomina proceso de Gram-Schmidt*(página 376).

Ejemplo 7 Considérese el espacio vectorial R3 con el producto interior euclidiano. Aplicar el proceso de Gram-Schrmdt para transformar los vectores básicos u = (1, 1, l), u2 = ( O , 1, 1) y u3 = (O, O , 1) en una base ortogonal {v l , v2, v3}; luego. normalizar los vectores básicos ortogonales para obtener una base ortonormal { q Q2. q31.

Solución.

Page 371: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3 76 Espacios con producto interior

(U3'vl) (u3'y2) Paso 3. v3= u3 - proyw, u3 = u3- P12 P2I2

= (0, o, 1) - f (1, 1, 1) = # [--$+,*)

Así,

2' 2

forma una base ortogonal para R3. Las normas de estos vectores son

de modo que una base ortonormal para R3 es

*Jiirgen Pederson G r m (189-1916) h e un actuario dank. Recibió su primera instmw5ón en escuelas pubhcas, complementada con tutores particulares. Despub de terminar el bachillerato obtuvo la maestría en makmáticas con apecializacion en álgebra modema, que estaba en pleno &sa~~ollo. Gram trabajó & p ~ & como actuario para la H&a Lifi Insurance Company, donde desa~rolló l o s cimientos matemálicos de los seguros contra accjdemte para la compañía Skjold Fue miembro de la junta d i v a de H&a y dirigió la conpñía Skjold basa 1910, cuando se convirtió en director de la Danish Insurance bard Durante el tiempo que trabajó como actuario obtuvo el Doctorado en Filosofia con base en su tesis "On Serie Development Utilizing the M Squares Method". Fue en esta tesis que plantaí por primera vez sus contribuciones al proceso de Gram-Schmidt C m terminb por interesarse en teoría ab&acta de okmeros y h e galardonado con la medalla de oro concedida por la Royal Danish Society of Scienca and L , e t í a s debido a SILS investigaciones en ese c a m p . Sin embargo, durante toda su vida también mantuvo un interés sobre la interacción entre las maiemáticas teinicas y las matemáticas aplicadas, cuyo resuitado fueron cuatro tratados sobre administracón de bosques daneses. Gram falleció una tarde en un choque en bicicleta cuando se dirigía a una reunión de la Royal Danish Society.

*ErhmdtSchmidt (1876-1959) h e un m a k d c o alemán. En 1905 Schmidt recibió su grado de doctor en la universidad de Gotinga, donde estudió bajo la asesoría de uno de los grandes matemáticos: David Hilbert En 1917 decidió S a dar clases en la Univasidad de krlín, ciudad en la que permaneció por el resto de su vida Schmidt realizó importanks contribuciones a varios campos makmáticos, pero es más conocido por haber *pado muchas de las ideas dispersas de Hilbert en un concepto general (denominado espacio de Hilbert), que es iündamzntal en el estudio de espacios vedonales de dimensión idmita. Schmidt dsrribió por primera vez el proceso que lleva su nombre en un articulo sobre ecuaciones integrales publicado en 1907.

Page 372: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.3 Bases ortonormales; proceso de Gram-Schmidt; descomposición QR 1 377

OBSERVACI~N. En el ejemplo precedente se usó el proceso de Gram-Schmidt para obtener una base ortogonal; luego, una vez que se obtuvo la base ortogonal, se normalizó para obtener una base ortonormal. De otra manera, es posible nor- malizar cada vector básico de la base ortogonal en cuanto se obtiene generando, así, paso a paso la base ortonormal. Sin embargo, este método presenta la ligera desventaja de producir más raíces cuadradas que manejar.

El proceso de Gram-Schmidt con normalización ulterior no sólo convierte una base cualesquiera {u1 , ~2, . . . , U,} en una base ortonormal {Sl, q,, . . . , q,}, sino que también lo hace de modo que para k 2 2 se cumplan las siguientes relaciones:

{ q,, q,, . . . , qk} es una base ortonormal para el espacio generado por {u1,

qk es ortogonal a { u l , u 2 , . . . , Uk-l} .

U p . . . > Uk}.

Se omiten las demostraciones, pero estos hechos deben ser evidentes después de un análisis profundo de la demostración del teorema 6.3.6.

DESCOMPOSI- Se plantea el siguiente problema. CIÓN QR

Problema. Si A es una matriz m X n con vectores columna linealmente inde- pendientes, y si Q es la matriz con vectores columna ortonormales que se obtienen al aplicar el proceso de Gram-Schdt a los vectores columna de A , ¿qué relación, en caso de haber alguna, existe entre A y Q?

Para resolver este problema, supóngase que los vectores columna de A son ul, %, . . . , u,, y que los vectores columna ortonormales de Q son q,, q2, . . . , 9,; así,

A = [ u l I u 2 I ' . . I U,] y Q = [ q , 1 9 2 I ' . . I S,]

Por el teorema 6.3.1 se concluye que ul, u,, . . . , u, se pueden expresar en térmi- nos de q,, q,, . . . , q, como

u1 = ( U I > q,)q, + ( U I > 9 2 h 2 + ' . . + (u13 q,)q,

u2 = ( U 2 > 91)91 + (u23 9 2 h 2 + ' ' ' + ( u 2 , q,h,

u, = (un , q1)91 + (u,, q 2 h 2 + . . . + ( u , , q,)q,

Recordando de la sección 1.3 que el j-ésimo vector columna de un producto de matrices es una combinación lineal de los vectores columna del primer factor con coeficientes provenientes de laj-ésima columna de segundo factor, se concluye que estas relaciones se pueden expresar en forma matricial como

Page 373: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3 78 1 Espacios con producto interior

o, más brevemente, como

Sin embargo, una propiedad del proceso de Gram-Schmidt es que paraj 2 2, el vector qj es ortogonal a ul, u*, . . . , u.- . así, los elementos abajo de la diagonal principal de R son cero.

J 1'

Se deja como ejercicio demostrar que los elementos de la diagonal de R son diferentes de cero, de modo que R es invertible. Así, (S) es una factorización de A en el producto de una matriz Q con vectores columna ortonormales y una matriz triangular superior invertible R. La expresión (8) se denomina descomposición QR de A . En resumen, se tiene el siguiente teorema.

Teorema 6.3.7. (Descomposición QR). Si A es una matriz m X n con vectores columna linealmente independientes, entonces A se puede factorizar como

A = QR

donde Q es una matriz m X n con vectores columna ortonormales y R es una matriz triangular superior invertible n X n.

OBSERVACI~N. Recuérdese por el teorema 6.2.7 que si A es una matriz n x n, entonces la invertibilidad de A equivale a la independencia lineal de los vectores columna; así, toda matriz invertible posee una descomposición QR.

E.jemplo 8 Encontrar la descomposición QR de

Solución. Los vectores columna de A son

Aplicando el proceso de Gram-Schmidt con normalización ulterior a estos vectores columna se obtienen los vectores ortonormales (véase el ejemplo 7)

Page 374: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.3 Bases ortonormales; proceso de Gram-Schmidt: descomposición QR / 3 79

FUNCIÓN DE LA

CIÓN QR EN ÁLGEBRA

DESCOMPOSI-

LINEAL

y por (9), la matriz R es

A

En años recientes, la descomposición QR ha adquirido una importancia cada vez mayor como fundamento matemático de una amplia gama de algoritmos numéri- cos prácticos, incluyendo un algoritmo bastante usado para calcular eigenvalores de matrices grandes. Los algoritmos se analizan en libros de texto relacionados con los métodos numéricos del álgebra lineal.

DEMOSTRACI~N ADICIONAL

Demostración del teorema 6.3.4. La demostración se efectúa en dos partes. Primero es necesario encontrar vectores w1 y w2 con las propiedades enunciadas y luego demostrar que estos vectores son únicos.

Por el proceso de Gram-Schmidt, existe una base ortonormal { vl , v2, . . . , vn} para W. Sean

W ] = (u, V I b , + (u, v2)v2 + ' . . + (u, v,)v, (10)

Y

w2=u-w1 (11)

Se concluye que w1 + w2 = w1 + (u - wl) = u, de modo que queda por demostrar que w1 está en W y que w2 es ortogonal a W. Pero w1 está en W porque es una combinación lineal de los vectores básicos para W. Para demostrar que w2 es ortogonal a W es necesario probar que (wz, w) = O para todo vector w en W. Pero si w es cualquier vector en W, se puede expresar como una combinación lineal

w = k,v , + k2v2 + . . . + knvn

Page 375: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

380 ./ Espacios con producto interior

de los vectores básicos v, v2, . . . , v,. Así,

(w2, W) = (U - w,, W) = ( U , W) - {w]. w j

Pero (u, w) = (U, k , ~ , + k2v2 + . . . f k , ~ , , )

= k ! ( U , V I > + k 2 ( U , v2) + ‘ . . + k,(U, Vil)

y por el inciso c) del teorema 6.3.2

(w,, w) = (u, v, )k, + (u. v2)k, + ’ ’ ’ + (u, v,)k,

Así, (u, w} y (wl, w) son iguales, de modo que (12) produce (w2, w) = O, que es lo que quería probarse.

Para ver que (IO) y (1 1) son los únicos vectores con las propiedades enun- ciadas en el teorema, supóngase que también es posible escribir

donde w i está en W y w i .es ortogonal a W. Si de (13) se resta la ecuación

se obtiene

u = w , + w ,

o = (w; - wl) + (w; - w2)

o bien, w1 - w; = w; - w? (14)

Como w2 y wi son ortogonales a W, su diferencia también es ortogonal a W, ya que para cualquier vector w en W se puede escribir

(w, w; - w2> = (w, w;) - (w, w2) = o - 0 = o

Pero w; - w2 es un vector en W. ya que por (14) es la diferencia de los dos vectores w1 y W; que están en el subespacio W. Así, w; - w2 debe ser ortogonal a sí mismo; es decir,

(w; - w2, w; - w2) = o

Pero esto significa que w i - w2 = O por el axioma 4 en la definición de producto interior. Así, w; = w2 y, por (14), w; = w l . O

EJERCICIOS DE LA SECCION 6.3

1. ¿Cuáles de los siguientes conjuntos de vectores son ortogonales con respecto al pro- ducto interior euclidiano sobre R2?

Page 376: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.3 Bases ortonormales; proceso de Gram-Schmidt; descomposición QR 1 381

a) (0,I). (2,O) b) ( - l /V% I / f i ) , l / d ) C) ( - I/\‘% - I / f i ) , (l /V‘Z l / d ? ) d) (0,O). (O, 1)

2. ¿Cuáles de los conjuntos del ejercicio 1 son ortonormales con respecto al producto interior euclidiano sobre R2?

3. ¿Cuáles de los siguientes conjuntos de vectores son ortogonales con respecto al pro- ducto interior euclidiano sobre R3?

4. ¿Cuáles de los conjuntos del ejercicio 3 son ortononnales con respecto al producto interior euclidiano sobre R3?

5. ¿Cuáles de los siguientes conjuntos de polinomios son ortononnales con respecto al producto interior sobre P2 que se analizó en el ejemplo 8 de la sección 6. l ?

a) $ - f x + + x 2 , $ + Q x - $ x ’ , $ + $ x + $ x 2 b) 1 , -x + -x2, x2 I 1

v 5 v 5 6. ¿Cuáles de los siguientes conjuntos de matrices son ortononnales con respecto al pro-

ducto interior sobre M22 que se analizó en el ejemplo 7 de la sección 6. l?

a) [:, 3 [; -4 [-: 3 5 !]> [: 3 5 !] b, [; [bi [P PI. [ Y -;I

7. Comprobar que el conjunto de vectores dado es ortogonal con respecto al producto in- terior euclidiano; luego, normalizando los vectores convertirlo en un conjunto ortonor- mal. a) ( - 1, 21, (6, 3) b) -11, (2, 0, 21, (0, 5, 0) C) (i, & i), ( - f , b O), ($,$, - f )

Demostrar que {x, y}es ortononnal sí R2 tiene el producto interior (u, v) = 3u,vl + 2u2v2, pero que no es ortononnal sí R2 tiene el producto interior euclidiano.

9. Comprobar que los vectores v, = (-+,4,0),v2 =($,$,O ), v2 = (O, O , 1)foman una

base ortonomal para R3 con el producto interior euclidiano; luego, mediante el teo- rema 6.3.1, expresar cada uno de los siguientes vectores como una combinación lineal

a) (1, - 1, 2) b) (3, -7 , 4) C) (+, - % $ I de V,’ v2 Y v3.

10. Comprobar que los vectores

VI=(^, -1323 -11, ~ , = ( - 2 , 2 , 3 , 2 ) , v , = ( l , 2 , 0 , - I ) , v,=(I ,O,O, 1)

Page 377: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

3817 1 Espacios con producto interior

11.

12.

13.

14.

IS.

16.

17.

18.

Sea I? con el producto interior euclidiano, y sea S = {M I , w?] la base ortonormal con

a)l Deternlinar los vectores u y v cuyos vectores de coordenadas son (u), = (1, 1) y (v),

b) Calcular Ilull, d(u. v) y {u, v) aplicando e1 teorema 6.3.2 a los vectores de coordenadas

w = (++j , w = (5.4) 2 > >

=(-1,4).

(u), y (v)& luego, comprobar los resultados mediante cálculos directos sobre u y v.

Sea H' con el producto interior euclidimo, y sea S = {w), w,, w3} la base ortononnal con w, = (O, - ((),-I,*), IV, = (1, O, 0 ) y w3 = (O,y,y). a ) Encontrar los vectores u, v y w cuyos vectores de coordenadas son (u), = (-2, 1 , 2) ,

b) Calcular 1 1 ~ 1 1 , d(u, W) y (w, v} aplicando el teorema 6.3.2 a los vectores de coorde- nadas (u) , (v).~ y (w)& luego, comprobar los resultados mediante cálculos directos sobre u y v.

4 3 ' I F '.

(v), = (3, o, - 2 ) v (w), = ( S , -4, 1).

En cada inciso, S representa alguna base ortotlorma1 de u11 espacio tetradimensional con producto interior IJsar la información que se proporciona para encontrar IIuII, IIv - WII, IIv + w11 Y (v, w). a) (u), = ( - 1. 2, I , 3 ) , (vjS = (0, -3 , I , 5), ( w ) ~ = ( - 2. - 4. 3, 1) b) (U), = (O. O. - 1. - l ) , (v),, = (5, 5. - 2, -2). (w),, = (3, O. " 3 . O)

a) Demostrar que los vectoresv, = (1, -2, 3, -4), v2 = (2. I, -4, -3) , Y? = (-3, 4, I , - 2) y v4 = (4, 3, 2, I foinan una base ortogonal para R;' con el piducto kt&or cuclidlano.

b) Usando ( 1 ), expresar u = (- 1,2,3, 7 ) como una conlbinaclón lineal de los vectores cn el inciso a).

Sea R2 con el producto interior euclidiano. Usando el proceso de Gram-Schmidt, trans- fonnar Is base (u,, u2} en una base ortonormal. a! u , = ( I . -3L u 2 = ( 2 . 2 ) b) u , = ( l . O ) , u 2 = ( 3 . - 5 )

Sea H' con el producto interior euclidiano. Con el proceso de Gram-Schmidt, trans- formar la base { u I . u,, u3} en una base ortononnal. a) u , = ( 1 , I , I ) , u Z = ( - 1 , 1.0). u,=(1,2. I ) b ) u , = ( I . O , O ) . ~ 2 = ( - 3 , 7 , -2). u ; = ( O . ~ . I )

Sea R4 con el producto interior euclidiano. Usando el proceso de Gram-Schmidt, trans- formar la base {u1, u,, u3, u4} en una base ortononnal

Page 378: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.3 Bases ortonormales; proceso de Gram-Schmidt; descomposición QR / 383

u , = ( O , 2 , 1 , 0 ) , & = ( I , -1 ,O ,O) , u 3 - ( l , 2 , O , - l ) , u 4 = ( 1 , 0 , 0 , 1 )

19. Sea R3 con el producto interior euclidiano. Encontrar una base ortonormal para el subespaciogeneradopor(0, 1,2),(-1,0, l)y(-1, 1,3).

20. Sea R3 con el producto interior u, v = ulv! + 2u2v2 + 3u3v3. Con el proceso de Gram- Schrmdt,transformarul=(1,1,1),~=(1,1,0),~=(1,0,O)enunabaseortonormal.

21. El subespacio de R3 generado por los vectores u1 = (+,O,-+) y u2 = (O, 1, O) es un plano que pasa por el origen. Expresar w = (1,2, 3 ) en la forma w = w I + w2, donde w1 está en el plano y w2 es perpendicular al plano.

22. Repetir el ejercicio 21 con u1 = (1, 1, 1) y u2 = (2, O, - 1).

23. Sea con el producto interior euclidiano. Expresar w = (- I , 2, 6, O) en la fonna w =

wl+w,,dondewlestáenelespacioWgeneradoporul=(-1,O,1,2)yu2=(O,1,O, I) , y w2 es ortogonal a W.

24. Encontrar la descomposición QR de la matnz

a) [: -:I 1 0 2

1 2 0

1 2 1

o 3 1 O [

1 0 1 - 1 1 1

1 0 1 - 1 1 1

25. Sea {vI, v2, v3) una base ortonormal para un espacio V con producto interior. Demos- trar que si w es un vector en V, entonces llw112 = (w, v1)2 + (w, v2)2 + (w, v ~ ) ~ .

26. Sea {vl, v2,. . . , vn} una base ortonormal de un espacio Vcon producto interior. Demos- trar que si w es un vector en Y, entonces llw112 = (w, vl)' + (w, vJ2 + . . . + (w, v ~ ) ~ .

27. En el paso 3 de la demostración del teorema 6.3.6, se afirmó que "la independencia li- neal de {u1, u*,. . . , u,,} asegura que v3 # O". Demostrar esta afirmación.

28. Demostrar que los elementos en la diagonal de R en la fórmula (9) son difaentes de cero.

Aplicando el proceso de Gram-Schmidt, transformar la base estándar S = { I , x, 2) en una base ortonormal. (Los polinomios en la base resultante son los tres primeros po- linomios normalizados de Legendre.)

Page 379: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

381 ' Espacios con producto interior

30. (Para quienes ya estudiaron Crslculo). llsando el teorema 6.3.1, expresar los si- guientes polinomios como una combinación lineal de los tres polinomios normalizados de Legendre (ejercicio 29). a) I + x + 4x4. b) 2 - 7x2 c) 4 + 3x.

31. (Para quienes ya estudiaron Crslculo). Sea P 2 con el producto interior

( P , 4) = J, P ( X ) Y ( X ) & c '

Aplicando el proceso de Gram-Schmidt, transformar la base estándar S = { 1, x, 2) en una base ortonomal

32. Demostrar el teorema 6.3.5

33. Demostrar el teorema 6 . 3 . 2 ~

34. Demostrar el teorema 6.3.26.

35. Demostrar el teorema 6 . 3 . 2 ~

6.4 MEJOR APROXIMACIóN; MíNIMOS CUADRADOS

En esta sección se mostrara la manera de utilizar las proyecciones ortogonales para resolver ciertos problemas de aproximación. Los resultados obtenidos en esta sección titnen aplicaciones diversas tanto en matemáticas como en ciencias.

PROYECCIONES Si P es un punto en el espacio tridimensional ordinario y W es un plano que pasa ORTOGONALES por el origen, entonces el punto Q en W más próximo a P se ob-tiene al trazar una CONSIDERADAS perpendicular de P a W (figura la). Por tanto, si se hace u = UP, la &stancia entre COMO P y Westá definida por APROXIMA- CIONES l b - P'OY, UII

En otras palabras, de todos los vectores w en W, el vector w = proy, u minimiza la distancia IIu - wll (figura lb).

(It h)

Figura 1 Q es el punto en N más próximo a P. 11u - wli es minimizada por w = proywu.

Page 380: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.4 Mejor aproximación; mínimos cuadrados / 385

Hay otra forma de pensar esta idea. Considerar que u es un vector fijo cuya aproximación se desea obtener por medio de un vector en W. Cualquier aproxima- ción w de este tipo dará por resultado un "vector de error"

u - w

el cual, a menos de que u esté en W, no se puede hacer igual a O . Sin embargo, eligiendo

w =proyw u

es posible hacer que la longtud del vector de error

Ilu - wll = l b - ProY, UII

sea tan pequeña como se quiera. Así, w = proy, u se puede describir como la ''mejor aproximación" para u por medio de vectores en W. El siguiente teorema precisará estas ideas intuitivas.

Teorema 6.4.1. (Teorema de la mejor aproximación). Si W es un subespacio de dimensión jni ta de un espacio V con producto interior, y si u es un vector en V, entonces proy, u es la mejor aproximación para u desde W en el sentido de que

Ilu -ProY, UII < 1 1 1 1 - WII

para todo vector w en W diferente de proy, u.

Demostración. Para todo vector w en W se puede escribir

u - w = (u -proyw u) + (proy, u - w) (1)

Pero proyw u - w, por ser una diferencia de vectores en W, está en W, y u - proy, u es ortogonal a W, de modo que los dos términos en el miembro derecho de (1) son ortogonales. Así, por el teorema de Pitágoras (teorema 6.2.4),

Ilu - wl12 = 11u -pray, u1I2 + Ilproy~ u - w1I2

si w f proyw u, entonces el segundo término de esta suma es positivo, de modo que

o, de manera equivalente,

11u - WII > 11u - pray, 4 1 o Después, se proporcionarán aplicaciones de este teorema.

Page 381: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

386 , Espacios con producto interior

SOLUCIóN DE Hasta ahora se han tratado principalmente sistenlas de ecuciones lineales consistentes. SISTEMAS Sin embargo. los sistemas lineales inconsistentes también son importantes en LZNEALES POR aplicaciones fisicas. Una situación común es que algún problema fisico conduzca a un

CUADMDQS aunque no lo es debido a que "errores de medición" en los elementos de A y b perturban bastante al sisten~a para hacerlo inconsistente. En situaciones como éstas se brlsca un valor de x que esté "Io n h próximo posible" de ser una solución en el sentido de que redczca el valor de jbgx = bll con respecto al producto interior euclidiano. La cantidad Ib4x = bll se puede considerar como una medida del "error" que resulta al considerar a x como una solucibn aproximada del sistema lineal A x = b. Si el sistema es consistente y x es una solución exacta, entonces el error es cero. ya que (PIX -= bjl 1 1 0 1 1 = O. En general, mientras más grande sea el valor de 1c4x =

bjl, mas deficiente será la aproximación de x a una solución del sistema.

MÍNLMOS sistema 'lincal A x = b que desde un punto de vista teórico debe ser consistente.

Problema de mínimos cuadrados. Dado un sistema lineal A x = b de m ecua- ciones con 17 incógnitas. encontrar un vcctor x. si es posible. que reduzca a 1C.l~ = $ 1 1 con rcspcct~ al producto interior euclidiano sobre I?'". El \rector se denomina solucibn por mínimos cuadrudos de A x = b.

~ ~ ~~ ~ ~~~~~~~

o f u m < \ ~ . % < * H h ~ Para comprender el origcn dc la expresión t~inirnos c!mlrudos.

sea e 7- ..I x - ir. que se puede considerar como un hector de error que se obtiene de

la aprosinmcim x. Si e = ( e , . e2. . . c,,~), entonces una solución por minimos

cu;i&ados rnminum a llell =- ( ~ f t e $ 1 por tanto, también minimia a

-:- cf + P t . . t e 2 . de donde proviene la cspresión r n i m m m cuadrdoa.

Para resolver e1 problema de mínimos cuadrados, sea I f ' el espacio columI-ta de .A Para toda nlatri/: n X 1 . el producto - { X es una combinación lineal de los xzcctorcs crrlunrna dc ..! h i . cuando x \,aria sobre !?n. el vector .'Zx varía sobre todas las combinacroncs 1:nealcs posibles dc los \'cctorcs columna de ; 1 ; es decir. . la \.aria sobrc lodo cl cspacio columna il'. Geométricamente, resolver el problema dc mínimos cuadrados equivale a encontrar u11 vector S en R n tal que <.lx sea el Lector CPI i f . mis prbxiino a b ( f i g m 2).

)?I

t71

Una solucicin por mínimos cuadrados x produce el m i s próximo a b.

Por el teorema de la mejor aproximación (teorema 6.4.1) se concluye que el vector en W mis próximo a b es la proyección ortogonal de b sobre M.'. Así, para

Page 382: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.4 Mejor aproximación, mínimos cuadrados /’ 387

que un vector x sea una solución por mínimos cuadrados de Ax = b, este vector debe satisfacer

Ax = proy, b (2)

Se podría intentar determinar soluciones por mínimos cuadrados de Ax = b calculando primero el vector proyw b y luego resolviendo (2); sin embargo, existe un método mejor: Por el teorema de proyección (teorema 6.3.4) y la fórmula (5) de la sección 6.3 se concluye que

b - A x = b -proywb

es ortogonal a W. Pero W es el espacio columna de A , de modo que por el teorema 6.2.6 se concluye que b - Ax está en el espacio nulo de A T . Por consiguiente, una solución por mínimos cuadrados de Ax = b debe satisfacer

ATx(b - A X ) = O

o, de manera equivalente,

ATAx = ATb ( 3 )

Esta expresión se denomina sistema normal asociado con Ax = b y las ecuaciones individuales se denominan ecuaciones normales asociadas con Ax = b. Así, el problema de hallar una solución por mínimos cuadrados de Ax = b se ha reducido al problema de encontrar una solución exacta del sistema normal asociado.

Nótense las siguientes observaciones sobre el sistema normal:

En el sistema normal hay n ecuaciones con n incógnitas (comprobar). El sistema normal es consistente, ya que se satisface con una solución por

El sistema normal puede tener infinidad de soluciones, en cuyo caso to- mínimos cuadrados de Ax = b.

das éstas son soluciones por mínimos cuadrados de Ax = b.

Con base en estas observaciones y la fórmula (2) se tiene el siguiente teorema.

Teorema 6.4.2. Para cualquier sistema lineal Ax = b, el sistema normal aso- ciado

ATAx = ATb

es consistenle y todas las soluciones del sistema normal son soluciones por mínimos cuadrados de Ax = b. Además, si W es el espacio columna de A y x es cualquier solución por mínimos cuadrados de Ax = b, entonces la pro-yección ortogonal de b sobre W es

proy, b = A x

Page 383: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

UNICIDAD DE LAS SOLUCIONES

CUADRADOS POR M~NIMOS

Antes de ardizar algunos ejemplos numéricos, se establecerán condiciones que garantizan que un sistema lineal tiene sólo una solución por mínimos cuadrados. Sc nccesitari el siguienic tcorema

Teorema 6.4.3. S'¡ '4 es una matriz tt1 X n, entonces las siguientes proposicio- nes son equivalentf~s.

c ) A tiene vectores columna linealmente independientes d) ATA es invertible.

llerrmsfracicin. Se demostrará que a 3 h y h 3 a.

a 3 h : Supóngase que los vectores columna de A son linealmente independientes. La matriz A',I es de tamaño n x n, de modo que, para demostrar que esta matriz cs invertible, sc debe probar que el sistema lineal A'Ax = O sólo tiene la solución trivial. Pero si x es cualquier solución de este sistema, entonces A x está en el es- pacio nulo de A 7 ' y también está en el espacio columna de A . Por el teorema 6.2.6 los espacios son complementos ortogonales. de modo que el inciso b) del teorenla 6.2.5 indica que A x = O . Pero -4 tiene vectores columna linealmente independien- tes. de modo que x = O por el teorema 5.6.8.

b 3 a : Supóngase que ATA es invertible. Para demostrar que A tiene vectores columna linealmente independientes, por el teorema 5.6.8. basta probar que Ax =

O sólo tiene la solución trivial. Pero si x es cualquier solución de A x = O , entonces A ?,I x = A TO = O. de modo que x = O debido a la invertibilidad de A 'A. 0

El siguiente teorema es una consecuencia directa de los teoremas 6.4.2 y 6.4.3. Se omiten los detalles.

Teorema 6.4.1. (Unicidad de las soluciones por mínimos cuadrados). Si A es una matriz 111 X n con vectores columna linealmente independientes, entonces para toda tnatrrz b de n X 1 e l sistenm lineal A x = b frene una sola solucibn por lt1íniv1o.s cundrados. E.sta solucicin est6 dada por

I

ORSERVACI~N. Las fórmulas (4) y ( 5 ) poseen varias aplicaciones teóricas, pero no son eficaces para efectuar cálculos numéricos. Las soluciones por mínimos cuadrados de A x = b se calculan mejor usando eliminación gaussiana o elimina- ción de Gauss-Jordan para resolver las ecuaciones normales: la proyección orto-

Page 384: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.4 Mejor aproximación, mínimos cuadrados /' 389

gonal de L sobre el espacio columna de A se obtiene calculando Ax, donde x es la solución por mínimos cuadrados de A x = b.

y encontrar la proyección ortogonal de b sobre el espacio columna de A

Solución. Aquí,

Obsérvese que A tiene vectores columna linealmente independientes, de modo que de antemano se sabe que existe una solución por mínimos cuadrados única.

de modo que en este caso el sistema normal ATAx = A*b es

Resolviendo este sistema se obtiene la solución por mínimos cuadrados

Por ( 9 , la proyección ortogonal de b sobre el espacio columna de A es

Ejemplo 2 Encontrar la proyección ortogonal del vector u .= ("3, " 3 , 8, 9) sobrc el subespacio de R4 generado por los vectores

Page 385: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

390 1 Espacios con producto interior

Solucidn. Para resolver este problema se aplica primero el proceso de Gram- Schmidt con el fin de convertir { u l , u2, u3} en una base ortonormal y luego se aplica el método usado en el ejemplo 6 de la sección 6.3. Sin embargo, el siguiente método es mejor.

El subespacio W de R4 generado por u l , u2 y u3 es el espacio columna de la matriz

A = [ 3

o 1

2 - 1 -1

Entonces, si u se expresa como un vector columna, es posible determinar la pro- yección ortogonal de u sobre W encontrando una solución por mínimos cuadrados del sistema A x = u y, luego, calculando proy, u = Ax a partir de la solución por mínimos cuadrados. Los cálculos son como sigue: El sistema Ax = u es

de modo que

3 A T A = 1

[ - 1

ATu =

3 1

- 1

3 1 O 1

1 0 2 1 O 2

1 0 2 1 0 2

1 1

" i

I 1

- 1

3 1

O 1

-3 - 3

8 9

En este caso, el sistema normal ATAx = A es

11 6 -4 6 7 0

- 4 O 6

-4 10

Page 386: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.4 Mejor aproximacibn, mínimos cuadrados / 391

Resolviendo este sistema se obtiene que la solución por mínimos cuadrados de A x = u es

(comprobarj, de modo que

o bien, en notación horizontal (lo cual es consistente con el planteamiento original del problema), proy,u = (-2, 3, 4. O). A

OPERADORES En la sección 4.2 se analizaron algunos operadores proyección ortogonal básicos sobre PROYECCIóN R2 y R3 (tablas 4 y 5 ). El concepto de operador proyección ortogonal se puede extender ORTOGONAL a espacios generales con producto interior como se muestra enseguida.

Definición. Si W es un subespacio de Rm. entonces la transformación P:Rm + W que aplica cada vector x en Rm en su proyección ortogonal proy, x en W se denomina proyección ortogonal de Rm sobre W.

Se deja como ejercicio demostrar que las proyecciones ortogonales son operadores lineales. Por la fórmula (5) se concluye que la matriz estándar para la proyección ortogonal de Rm sobre IV es

[ P 1 = A ( A 'A) ~ ' 4 ' ( 6 )

donde A se obtiene usando cualquier base para W como sus vectores columna

Ejemplo 3 En la tabla 5 de la sección 4.2 se demostró que la matriz estándar para la proyección ortogonal de R3 sobre el plano xy es

Para darse cuenta de que lo anterior es consistente con la fórmula (6), considé- rense los vectores unitarios a lo largo de los ejes x y y positivos como base para el plano xy, de modo que

A = [i e]

Page 387: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

392 3 Espacios con producto interior

Se deja para el lector comprobar que ATA es la matriz identidad 2 x 2; así, (6) se simplifica a

[ P ] - A A T = [: o :][I 1 O o]=[: "1 0 1 0 o 0 0

lo cual concuerda con (7). A

Ejemplo 4 Hallar la matriz estándar para la proyección ortogonal P de R2 sobre la recta 1 que pasa por el origen y forma un ángulo 8 con el eje x positivo.

Solución. La recta I es un subespacio unidimensional de R2. Como se ilustra en la figura 3, se puede tomar v = (cos 8 , sen 8 ) como una base para este subespacio, de modo que

Se deja para el lector comprobar que ATA es la matriz identidad 1 x 1; así, (6) se simplifica a

[ P I = A A T = [i:: :] [ cos e sen 6 1 = [ 1. cos2 e sen o COS e sen e cos 6 sen2 8

7'; ,p P I X )

1L + Figura 3

RESUMEN El teorema 6.4.3 permite agregar un resultado adicional al teorema 6.2.7.

Teorema 6.4.5. Si A es una matriz n X n, y si TA:R" -+ R" es la multiplicación por A , entonces las siguientes proposiciones son equivalentes.

a ) A es invertible. b ) Ax = O sólo tiene la solución trivial. c ) La forma escalonada reducida de A es I,,, d) A puede escribirse como un producto de matrices elementales, e ) Ax = b es consistente para toda matriz b n X 1, f,l A H = b tiene exactamente una solución para toda matriz b n X 1. g ) det(A) f O .

Page 388: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.4 Mejor aproximación, mínimos cuadrados / 393

h) El rango de TA es R". i) TA es uno a uno. j ) Los vectores columna de A son linealmente independientes. k) Los vectores renglón de A son linealmente independientes. r) Los vectores columna de A generan a R". m) Los vectores renglón de A generan a R". n ) Los vectores columna de A forman una base para R". o) Los vectores renglón de A forman una base para R". p ) El rango de A es n. q) La nulidad de A es O . r ) El complemento ortogonal del espacio nulo de A es R". S ) El complemento ortogonal del espacio renglón de A es (O). t) ATA es invertible.

Este teorema relaciona los temas más importantes estudiados hasta el momento.

EJERCICIOS DE LA SECCIÓN 6.4

1. Hallar el sistema normal asociado con el sistema lineal dado.

2. En cada inciso, encontrar det(ATA) y aplicando el teorema 6.4.3, determinar si A tiene vectores columna linealmente independientes.

3. Encontrar la solución por mínimos cuadrados del sistema lineal Ax = b y hallar la proyección ortogonal de b sobre el espacio columna de A .

4. Determinar la proyección ortogonal de u sobre el subespacio de R3 generado por los vectores v, y v2. a) u = (2, 1, 3); v1 = (1, 1, O), v2 = (1, 2, 1) b ) u = ( l , - 6 , l ) ; ~ , = ( - 1 , 2 , 1 ) , v 2 = ( 2 , 2 , 4 )

Page 389: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

394 / Espacios con producto interior

5. Encontrar la proyección ortogonal de u sobre el subespacio de I? generado por los vec- tores v,, v2 y vj.

a) ~ = ( 6 , 3 , 9 , 6 ) ; ~ , = ( 2 , I , I , I ) , ~ ~ ~ ~ ( l . O , l , I ) , ~ , = ( - 2 . -1 .0. - I ) b)u=( -2 ,0 ,2 ,4 ) ; v , - ( l , l . 3 , 0 ) , v,=(-2, - I , -2,1), V , - ( - 3 . " I , 1,3)

6. Hallar la proyección ortogonal de u = (5, 6, 7 , 2) sobre el espacio solución de sistema lineal homogéneo

7. Usando la fórmula (6) y el método del ejemplo 3, encontrar la matriz estándar de la proyección ortogonal P:K2 -+ U' sobrc a) el eje x. b) el ejey. [Nota Comparar los resultados con la tabla 4 de La sección 4.2.1

8. Por medio de la fórmula (6) y el método del ejemplo 3 , determinar la matriz estándar de la proyección ortogonal P r R 3 -+ R3 sobre a) el plano x z . b) el planoyz. [Nofa Comparar los resultados con la tabla 5 de la secci6n 4.2.1

9. Sea We1 plano con ecuación 5x - 3y + I = O a) Encontrar una base para W. b) Con la fórmula (6); encontrar la matriz estándar para la proyección ortogonal sobrc

c) Usar la matriz obtenida en el inciso b) para determinar la proyección ortogonal de

d) Encontrar la distancia entre el punto P&l , -2, 4) y el piano W, y comprobar el

W.

un punto Po(xo, y,,, z,,) sobre W.

resultado mediante el teorema 3 .5 -2

10. Sea Cz, la recta con ecuaciones paramktricas

a) Encontrar m a base para W. b j Por medio de la fórmula (6), encontrar la matriz estándar para la proyección orto-

c) Usar la matriz obtenida en el inciso b) para encontrar la proyecci6n ortogonal de un

d) Hallar la distancia entre el punto Po(2, 1, - 3 ) y la recta W.

gonal sobre W.

punto Po(xo, yo, zo) sobre W.

11. Para los sistemas lineales del ejercicio 3, comprobar que ei vector de error AY - b que resulta de la solución por mínimos cuadrados F es ortogonal al espacio columna de A.

12. Demostrar: Si A tiene vectores columna linealmente independientes y si Ax = b es con- sistente, entonces la solución por mínimos cuadrados de Ax = b y la solución exacta de Ax = b son iguales.

Page 390: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.5 Matrices ortogonales; cambio de base 1 395

13. Demostrar: Si A tiene vectores columna linealmente independientes y si b es ortogonal al espacio columna de A, entonces la solución por mínimos cuadrados de Ax = b es x = O.

14. Sea PB" + W la proyección ortogonal de R" sobre un subespacio W. a) Demostrar que [PI2 = [PI . b) ¿Qué indica el resultado del inciso a) con respecto a la composición P o P? c) Demostrar que [PI es simétrica. d) Comprobar que las matnces en las tablas 4 y 5 de la sección 4.2 tienen las pro-

piedades indicadas en los incisos a) y c).

15. Sea A una matriz m X n con vectores renglol linealmente independientes. Encontrar una matnz estándar para la proyección ortogonal de Rn sobre el espacio renglón de A . [Sugerencia Empezar con la fórmula (6).]

6.5 MATRICES ORTOGONALES; CAMBIO DE BASE

Una base que es adecuada para un problema puede no ser para otro, de modo que en el estudio de los espacios vectoriales un proceso común es cambiar de una base a otra. Debido a que una base es la generalización a espacios vectoriales de un sistema de coordenadas, el cambio de base es semejante a cambiar de ejes de coordenadas en R2 y R3. En esta sección se estudiarán varios problemas relacionados con el cambio de base. También se obtendrán propiedades de las matrices cuadradas que tienen vectores columna ortonormales. Estas matrices surgen en diversos contextos, incluyendo problemas en los que hay un cambio de una base ortonormal a otra.

MATRICES Las matrices cuyas inversas se pueden obtener por transposiciones son tan im- ORTOGONALES portantes que existe una terminología asociada con ellas.

Definición. Una matriz cuadrada A con la propiedad

A-l'AT

se denomina matriz ortogonal.

Por la definición anterior se concluye que una matriz cuadrada A es ortogonal si y sólo si

A A ~ = A ~ A = I (1 )

De hecho, por el teorema 1.6.3 se concluye que una matriz cuadrada A es ortogonal si A A T = I, o bien, A TA = I.

Page 391: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

396 / Espacios con producto interior

Ejemplo 1 La matriz

1 0 0 " "1 =[O 1 0~ A

7 0 0 1

Ejemplo 2 Recordar que en la tabla 6 de la sección 4.2, la matriz estándar para la rotación de R2 en sentido contrario a las manecillas del reloj por un ángulo 8, es

COS O -sen0 sen0 cos 0 1 A = [

Esta matriz es ortogonal para todas las elecciones de 8 , ya que

De hecho, es fácil comprobar que todas las "matrices de reflexión" en las tablas 2 y 3 y todas las "matrices de rotación" en las tablas 6 y 7 de la sección 4.2 son matrices ortogonales. A

Obsérvese que para las matrices ortogonales en los ejemplos 1 y 2, tanto los vectores renglón como los vectores columna forman conjuntos ortonormales con respecto al producto interior euclidlano (comprobar). Este hecho no es fortuito; es una consecuencia del siguiente teorema.

Teorema 6.5.1. Las siguientes proposiciones son equivalentes para una matriz A n x n.

a) A es ortogonal. b) Los vectores renglón de A forman un conjunto ortonormal en R" con el pro-

c ) Los vectores columna de A forman un conjunto ortonormal en R" con el ducto interior euclidiano.

producto interior euclidiano.

Demostración. Se probará la equivalencia de a) y b), y la equivalencia de a) y c ) se deja como ejercicio para el lector.

a e b: El elemento en el i-ésinlo renglón y la j-ésima columna del producto matricial A A T es el producto punto del i-ésimo vector renglón de A y el j -

Page 392: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.5 Matrices ortogonales; cambio de base i 397

ALGUNAS PROPIEDADES BASICAS DE LAS MATRICES ORTOGONALES

MATRICES ORTOGONALES

DORES LINEALES COMO OPERA-

Por tanto, A A ~ = I si y sólo si

r l - r l = r 2 . r 2 = . . . = rn-rn = 1

Y ri-rj=O CuandoiZj

que son verdaderas si y sólo si rl, r2, . . . , rn es un conjunto ortonormal en R". 0

OBSERVACI~N. En vista del teorema 6.5.1 parece más apropiado denominar matrices ortonormales a las matrices ortogonales. Sin embargo, no se hará así por respeto a la tradición histórica.

En el siguiente teorema se enumeran algunas propiedades básicas adicionales de las matrices ortogonales. Las demostraciones son directas y se dejan para el lector.

Teorema 6.5.2. a) La inversa de una matriz ortogonal es ortogonal. b) Un producto de matrices ortogonales es ortogonal. c) S i A es ortogonal, entonces det(A) = 1 o det(A) = - 1.

Ejemplo 3 La matriz

es ortogonal, ya que sus vectores renglón (y columna) forman conjuntos ortonormales en R2. Se deja para el lector verificar que det(A) = 1. Intercambiando los renglones se obtiene una matriz ortogonal para la cual det(A) = - 1. A

En el ejemplo 2 se vio que las matrices estándar para los operadores reflexión y rotación básicos sobre R2 y R3 son ortogonales. El siguiente teorema ayudará a explicar este hecho

Page 393: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

398 i Espacios con producto interior

Teorema 6.5.3. S; A es una matriz n X n, entonces las SigUienteS proposiciones son equivalentes.

a ) A es ortogonal. h ) &4xll = llxll para todo x en R". c ) A x . A y = x . y p a r a t o d o x y y e n R " .

Demostración. Se probará la serie de implicaciones a * b * c * a.

a 3 b: Supóngase que A es ortogonal, de modo que ATA = I. Entonces por la fórmula (8) de la sección 4.1,

b 3 c: Supóngase que A x = x para todo x en H". Por el teorema 4.1.6 se tiene

c 3 a: Supóngase que A x * Ay = x * y para todo x y y en R". Entonces por la fórmula (8) de la sección 4.1 se tiene

que se puede volver a escribir como

x . ( A ~ A Y - ~ ) = o O X . ( A ~ A - q Y = o

Como la expresión anterior es verdadera para todo x en R", en particular se cumple si

x = (A 7A - 1)y

de modo que

( A ' A - I)y - (A 'A - /)Y = O

a partir de lo cual se puede concluir que

(¿por qué?). Así, (2) es un sistema homogéneo de ecuaciones lineales que se cumple para todo y en R". Pero esto significa que la matriz coeficientes debe ser cero (¿por qué?), de modo que ATA = I y, en consecuencia, A es ortogonal. 0

Si T:R" 4 R" es la multiplicación por una matriz ortogonal A, entonces T se denomina operador ortogonal sobre R". Por los incisos a) y 6) del teorema precedente se concluye que los operadores ortogonales sobre R" son precisamente

Page 394: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.5 Matrices ortogonales; cambio de base / 399

los operadores que no modifican las longitudes de todos los vectores. Como las reflexiones y las rotaciones de R2 y R3 tienen esta propiedad, este hecho explica la observación en el ejemplo 2 de que las matrices estándar para las reflexiones y ro- taciones básicas de R2 y R3 son ortogonales.

MATRICES DE Recordar por el teorema 5.4.1 que si S = {vl, v,, . . . , vn} es una base para un es- COORDENADAS pacio vectorial V, entonces todo vector v en V se puede expresar de manera única

como una combinación lineal de los vectores básicos, por ejemplo,

v = k,v, + k2v2 + . . . + k,V,

Los escalares k, , k,, . . . , kn son las coordenadas de v con respecto a S, y el vector

(v)s = (k,, k2, ' ' ' > k,)

es el vector de coordenadas de v con respecto a S. En esta sección será conveniente enumerar las coordenadas como elementos de una matriz n x l . Así, la matriz

se define como la matriz de coordenadas de v con respecto a S.

CAMBIO DE En las aplicaciones es común trabajar con más de un sistema de coordenadas, y BASE suele ser necesario conocer la relación entre las coordenadas de un punto o vector

fijo y los diversos sistemas de coordenadas. Como el concepto de base es la gene- ralización de un sistema de coordenadas a espacios vectoriales, se llega a conside- rar el siguiente problema.

Problema del cambio de base. Si la base de un espacio vectorial se cambia de cierta base inicial B a una base nueva B', j d m o está relacionada la matriz de coor- denadas inicial [vlB de un vector v con la nueva matriz de coordenadas [ v ] ~ , ?

1

Por sencillez, este problema se resolverá para espacios bidimensionales. La solución para espacios n dimensionales es semejante y se deja al lector. Sean

B = {U,, U*} y B' = {u;, u;}

las bases inicial y nueva, respectivamente. Serán necesarias las matrices de coor- denadas para los nuevos vectores básicos con respecto a la base inicial. Supóngase que las matrices son

Page 395: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

400 / Espacios con producto interior

Es decir,

u; = "U1 + bu,

u; = cu l + d U 2

Ahora, sea v cualquier vector en V y sea

la nueva matriz de coordenadas, de modo que

Para determinar las coordenadas iniciales de v es necesario expresar v en términos de la base inicial B. Esto se logra al sustituir (4) en (6) . Así se obtiene

O

v = k, (au, + bu, j + k,(CU, + d U 2 )

v = (k," + k,c)u, + (k,b + k,d)U2

Entonces, la matriz de coordenadas inicial para v es

['IB = i"'" k,b + + k,d k2c1 que se puede escribir como

o bien, por ( 9 ,

Esta ecuación establece que la matriz de coordenadas inicial [VI, se obtiene al multiplicar la nueva matriz de coordenadas [vIBt por la izquierda por la matriz

Las columnas de esta matriz son las coordenadas de los nuevos vectores básicos con respecto a la base inicial [véase (3)]. Así, se tiene la siguiente solución para el problema del cambio de base.

Page 396: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.5 Matrices ortogonales; cambio de base / 401

Sulución delproblema del cambio de base. Si se cambia la base para un espacio vectorial, V de una base inicial B = {u1, u2, . . . , U,,} a una base nueva B' = {u;& ,...,un] entonces la matriz de coordenadas inicial [VI, de un vector [VI está relacionada con la nueva matriz de coordenadas [ V ] ~ ' del mismo vector v por medio de la ecuación

[VIB = P[VI/?' ( 7 )

donde las columnas de P son las matrices de coordenadas de los nuevos vectores básicos con respecto a la base inicial; es decir, los vectores columna de P son

]E, [uilE, ' ' ' > [ u A I B

MATRICES DE La matriz P se denomina matriz de transición de B' a B y se puede expresar en TRANSICI~N términos de sus vectores columna como

Ejemplo 4 Considerar las bases B = {u1, u2} y B' = {u;,ui} paraR2, donde

u1 = (1, O); u2 = (O, 1); U'(1, 1); u' = (2, 1)

a) Encontrar la matriz de transición de B' a B b) Por medio de (7), hallar [vIB si

Solución de a), Primero es necesario encontrar las matrices de coordenadas de 10s nuevos vectores básicos u1 y u2 con respecto a la base inicial B. Por inspección,

I ,

u; = u, + u2

u; = 2u, + u2 de modo que

Así, la matriz de transición de B' a B es

Page 397: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

402 / Espacios con producto interior

Solución de b). Mdante (7) y la matriz de transición determinada en el inciso a),

Como comprobación, debe ser posible recuperar el vector v a partir de [vIB o de [ V ] ~ ' . Se al lector demostrar que - 3 u; + 5 u; = u; + 2 u; = v = (7, 2). A

Ejemplo 5 Considerar los vectores u1 = ( 1 , O ) , u2 = (O, I), u; = (1, l), u;,= (2, 1). En el ejemplo 4 se encontró la matriz de transición de la base B' = { ul, u; } para R2 a la base B = (u1 ~ u*>. Sin embargo, también se podría pedir la matriz de transición de B a B'. Para obtener esta matriz, simplemente se cam- bia el punto de vista y se considera a B' como la base inicial y a B como la base nueva. Como de costumbre, las columnas de la matriz de transición son las coor- denadas de los nuevos vectores básicos con respecto a la base inicial.

Igualando las componentes correspondientes y resolviendo el sistema lineal resultante, el lector debe poder demostrar que

u, = - u ; + u; u2 = 2u; - u;

de modo que

Así, la matriz de transición de B a B' es

Si se multiplican entre sí la matriz de transición de B' a B obtenida en el ejemplo 4 y la matriz de transición de B a B' obtenida en el ejemplo 5, se encuentra

lo cual muestra que Q = P- l . El siguiente teorema demuestra que este hecho no es fortuito.

Teorema 6.5.4. Si P es la matriz de transición de una base B' a una base B, entonces:

a) P es invertible. b ) P- es la matriz de transición de B a B'.

Demostración. Sea Q la matriz de transición de B a B'. Se probará que PQ = I y entonces se concluirá que Q = P" para completar la demostración.

Page 398: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.5 Matrices ortogonales; cambio de base / 403

Suponer que B = {ul, u2, . . . , U,} y que

PQ =

C l I

C2 I

. .

. .

. . Cnn -:I

Por (7)

r x 1 B = p[xlB'

Y

[ X I B , = Q [ x I B

para todo x en V. Multiplicando la ecuación inferior por P por la izquierda y sustituyendo la ecuación superior se obtiene

1 x 1 ~ = ~ Q [ X ] B (9)

para todo x en V. Con x = u1 en (9) se obtiene

O

De manera semejante, la sustitución sucesiva de x = u2, . . . , u, en (9) da

. , . . .

'.( O

Por consiguiente, PQ =I.

entonces para todo vector v se cumplen las siguientes relaciones: En resumen, si P es la matriz de transición de una base B' a una base B,

."I ... . .

Page 399: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

404 I Espacios con producto interior

CAMBIO DE BASE ORTONORMAL

El siguiente teorema muestra que c.11 un espacio con producto interior, la matriz de transición de una base ortonormal a otra es o; togonal.

ROTACIóN DE EJES COORDENADOS

Teorema 6-55. Si P es la maMz de lransición de una base ortonormal a otra base ortorzormal para un espacio con producto interior, entonces I-' es una matriz ortogonal; es decir,

Demostración. Suponer que Ves un espacio n dimensional con producto interior y que P es la matriz de transición de una base ortonormal B' a una base ortonormal R. Para demostrar que P es ortogonal se aplicará el teorema 6.5.36 y se probará que llPxll = llxll para todo vector x en R".

Recordar por el teorema 6 . 3 . 2 ~ que para cualquier base ortonormal de V, la norma de cualquier vector u en Ves igual a la norma de su vector de coordenadas en R" con respecto al producto interior euclidiano. Así. para cualquier vector u en I se tiene

donde la primera norma es con respecto al producto interior sobre V y las normas segunda y tercera son con respecto al producto interior euclidiano sobre R".

Ahora. sea x cualquier vector en R", y sea u el vector en V cuya matriz de coordenadas con respecto a la base B' es x: es decir, = x. Así, por (12),

liull = I I X I I = ilPxll

con lo que se demuestra que P es ortogonal 0

Ejemplo 6 (Aplicación a la rotación de ejes de coordenados.) En muchos pro- blemas se proporciona un sistema de coordenadas rectangulares x y , y al mover este sistema en sentido contrario a las manecillas del reloj alrededor del origen por un ángulo se obtiene un nuevo sistema de coordenadas rectangulares x". Cuando se hace lo anterior, cada punto Q en el plano posee dos conjuntos de coordenadas: las coordenadas (x, y ) con respecto al sistema xy y las coordenadas (xt, Y ' ) con respecto al sistema x" (figura la).

AI introducir los vectores unitarios u, y u2 a lo largo de los ejes x y y positivos y los vectores unitarios uly u2 a lo largo de los ejes x' y y' positivos, esta rotación se puede considerar como un cambio de una base inicial B = {u1, u*} a una base nueva B' = { u;, u; } (figura l b ) . Así, las nuevas coordenadas (x'. y ' ) y las coordenadas anteriores (x, y ) de un punto Q están relacionadas por medio de

1 ,

Page 400: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.5 Matrices ortogonales; cambio de base / 405

[;:I = p"[ ;]

\ "

I'

Y

Figura 1

Y

\ d)

[u; I R = [sen cos H

De manera semejante, por la figura Id, se observa que las componentes de u; en la base inicial son cos (O + n12) = -sen O y sen (O + n12) = cos 8, de modo que

[ 4 l S = 1 cos - sen e

Así, la matriz de transici6rl de H ' a E cs

COS 0 -sen 0 sen H cos 8 I

Page 401: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

406 1 Espacios con producto interior

Observar que P es una matriz ortogonal, como se esperaba, ya que B' y B son bases ortonormales. Así,

p-1 = p r = cos O sen 0 -sen O cos O 1

de modo que (1 3) produce

o bien, de manera equivalente,

x' = x cos O + y sen 9

y' = "x senO+ycos 8

Por ejemplo, si los ejes se hacen girar 8 = n14, entonces como

7T % - 1 sen: = cos - = -

4 v 5 4

la ecuación (14) se convierte en

[;:I =

Por tanto, si las coordenadas iniciales de un punto Q son (x, y) = (2, - l), entonces

de modo que las nuevas coordenadas de Q son (x', y') = (11 A- 3 1 a). A

OBSERVACI~N. Nótese que la matriz de coeficientes en (14) es igual a la matriz estándar para el operador lineal que hace girar los vectores en R2 por un ángulo -8 (tabla 6 de la sección 4.2). Este hecho era de esperarse, ya que la rotación de los ejes de coordenadas por un ángulo 8 con los vectores de R2 fijos tiene el mismo efecto que hacen girar los vectores por un ángulo -8 con los ejes fijos.

Page 402: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.5 Matrices ortogonales; cambio de base / 407

Figura 2

Y

Ejemplo 7 (Aplicación a la rotación de los ejes de coordenadas en el espa- cio tridimensional.) Suponer que un sistema de coordenadas rectangulares xyz se hace girar alrededor de su eje z en sentido contrario a las manecillas del reloj (mirando sobre el eje z positivo) por un ángulo 9 (figura 2). Si se in- troducen los vectores unitarios u, , u2 y u 3 a lo largo de los ejes x, y y z positi- vos, y los vectores unitarios ul, u2 y u3 a lo largo de los ejes x!, y' y z' posi- tivos, la rotación se puede considerar como el cambio de la base anterior B =

{ul, u2: u3} a la base nueva B' = { u;, u;, u; >. En vista del ejemplo 6 debe ser obvro que

D 1

Además, como u\ se alarga 1 unidad sobre el eje z' positivo,

LU;lB = [!] Por tanto, la matriz de transición de B' a B es

cos 6 -sen8 O P = [sei0 co; 8 y ]

y la matriz de transición de B a B' es

cos 8 sen 8 O

(comprobar). Así, las nuevas coordenadas ( X I , y', z') de un punto Q se pueden calcular a partir de sus coordenadas anteriores (x, y , z ) por medio de

Page 403: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

408 1; Lspacios con producto interior

cos 0 sen H O -sen8 cos 8 O

O o 1

EJERCICIOS DE LA SECCIóN 6.5

1. Demostrar que

1 2 " 16 25 5 25

es una matriz ortogonal, a) calculando ATA. b) usando el inciso b ) del teorema 6.5. l . c) usando el inciso c ) del teorema 6.5.1.

2. Encontrar la inversa de la matriz del ejercicio l .

3. Determinar cuáles de las siguientes matnces son ortogonales. Para las que sí sean, en- contrar la inversa

O O

O 1/%6 112 O

4. Comprobar que las matrices de rotación y las matrlces de reflexión en las tablas 2 y 3 de la sección 4.2 son ortogonaies.

5. IIallar la matriz de coordenadas de w con respecto a la base S = {u,. u2} para R2. a) u I = (1, O), u2 = (O, I ) ; w = (3, -7 ) b) u , = (2, -4), u2 = (3, 8); w = (1, 1) c) 11, = (1 , l ) , u: == (O, 2); w = (a, 6)

6. Encontrar la matriz de coordenadas de v con respecto a la base S = {v,, v2, v3}

a) v = (2, - I . 3 ) ; v i = (I, O. O), v2 = ( 2 , 2. O), v3 = ( 3 , 3 , 3) b) v (5, - 12, 3); V , == ( 1 , 2, 3), v 2 z. ( "4. 5. 6), ~3 = (7, - S , 9)

7. determinar la matnz de coordenadas de p con respecto a S = {p i , p,, p,} a) p = 4 - 3x + x L ; p I = I , p2 = X , p3 = x2 b ) p = 2 - - x + x 2 ; p l = l + x , p 2 = I + x 2 , p 3 = ~ x + x 2

8. Encontrar la matriz de coordenadas para A con respecto a S = {A, , A, , A, , A 4 j

Page 404: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.5 Matrices ortogonales; cambio de base /' 409

9. Considerar las matrices de coordenadas

a) Hallar w si S es la base del ejercicio 6(a). b) Encontrar q si S es la base del ejercicio 7(a) c) Determinar B si S es la base del ejercicio 8.

10. Considerar las bases B = {U,, u2} y B' = {vl, v2} para R2, donde

a) Hallar la matriz de transición de B' a B. b) Encontrar la matriz de transición de B a B'. c) Determinar la matriz de coordenadas [w],, donde

y usando (1 I) , calcular W ~ I .

d) Comprobar las respuestas mediante el cálculo directo de [w],~

11. Repetir las instrucciones del ejercicio 10 con

12. Considerar las bases B = {u,, u2, u3} y B' = {vI, v2, v3) para R3, donde

ul=[;a]. u 2 = [ ;;I, +I, .+], .;=[ 3 v j =

a) Encontrar la matriz de transición de B' a B. b) Determinar la matnz de coordenadas [w],, donde

w=[;!]

y usando (1 1 ), calcular [wlBt. c) Comprobar las respuestas mediante el cálculo directo de [w],,.

13. Repetir las instrucciones del ejercicio 12 con el mismo vector w, pero con

"1 l

Page 405: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

410 / Espaclos con producto interior

a> Hallar la matriz de transición de B' a B. b) Encontrar la matriz de transición de B a B'. c) Calcular la matriz de coordenadas [pIR, donde p = -4 + x, y usando

b1," d) Comprobar las respuestas calculando directamente [p],~.

15. Sea Vel espacio generado por f, = sen x y f, = cos x. a) Demostrar que g, = 2 sen x + cos x y g, = 3 cos x forman una base par b) Determinar la matriz de transición de B' = {g,, g2) a B = {fl, f,} . c) Encontrar la matnz de transición de B a B .

1 l), calcular

V.

d) Calcular la matnz de coordenadas [h], , donde h = 2 sen x - 5 cos x, y usando

e) Comprobar las respuestas calculando directamente [h],~ (1 l), calcular [h],~.

16. Sea un sistema de coordenadas rectangulares x)' obtenido al girar un sistema de coor- denadas rectangulares xy en sentido contrario a las manecillas del reloj por un ángulo 0 = 3 ~ 1 4 . a) Determinar las coordenadas x y del punto cuyas coordenadas xy son (-2,6). b) Encontrar las coordenadas xy del punto cuyas coordenadas x'y' son (5,2).

17. Repetir el ejercicio 16 con O = x13

18. Sea un sistema de coordenadas rectangulares xyz' obtenido al girar un sistema de coordenadas rectangulares xyz en sentido contrario a las manecillas del reloj alrededor del eje z (mirando sobre el eje z) por un ángulo 6 = d 4 . a) Encontrar las coordenadas x'y!z' del punto cuyas coordenadas xyz son (- 1,2,5). b) Determinar las coordenadas xyz del punto cuyas coordenadas xyz' son (1,6, - 3).

19. Repetir el ejercicio 18 para una rotación de 0 = z13 en sentido contrario a las maneci- llas del reloj alrededor del eje y (mirando a lo largo del eje y positivo hacia el origen).

20. Repetir el ejercicio 18 para una rotación de B = 3 ~ 1 4 en sentido contrario a las ma- necillas del reloj alrededor del eje x (mirando a lo largo del eje x positivo hacia el origen).

21. a) Un sistema de coordenadas rectangulares x'y'z' se obtiene al girar un sistema de coordenadas xyz en sentido contrario a las manecillas del reloj alrededor del eje y por un ángulo O (mirando a lo largo del eje y positivo hacia el origen). Encontrar una matriz A tal que

donde (x, y , z) y ( 2 , y', z') son las coordenadas del mismo punto en los sistemas xyz y x'y'z', respectivamente.

b) Repetir el inciso a) para una rotación alrededor del eje x.

Page 406: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6.5 Matrices ortogonales; cambio de base I' 41 1

22. Un sistema de coordenadas rectangulares x'lyIIz'' se obtiene al girar primero un sistema de coordenadas xyz en sentido contrario a las manecillas del reloj alrededor del eje z por un ángulo'de 60° (mirando a lo largo del eje z positivo hacia el origen) para obtener un sistema de, coordenadas xyz', y luego al girar el sistema de coordenadas xyz' en sentido contrario a las manecillas del reloj alrededor del eje y por un ángulo de 4 5 O (mirando a lo largo del eje y positivo hacia el origen). Encontrar una matriz A tal que

donde (x, y , z) y (x", y", z") son las coordenadas q z y x"y"z" y del mismo punto, respectivamente.

23. ¿Qué condiciones deben cumplir a y b para que la matriz

[ z z ] sea ortogonal?

24. Demostrar que una matriz ortogonal A tiene una de las dos formas posibles:

cos 0 - sen0 1 o A = [ cos 0 -senO] A = [sen 0 cos 0 -sen 0 - cos 0

donde O S 8 < h. [Sugerencia. Empezar con una matriz general A = (a. .) 2 X 2, y aplicar el hecho de que los vectores columna forman un conjunto ortogonal en R'.] I)

25. a) Aplicar el resultado del ejercicio 24 para demostrar que la multiplicación por una matriz ortogonal2 X 2 es una rotación o una rotación seguida de una reflexión alre- dedor del eje x.

b) Demostrar que la multiplicación por A es una rotación si det(A) = 1 y una rotación seguida de una reflexión si det(A) = - l .

26. Usar el resultado del ejercicio 25 para determinar si la multiplicación por A es una rotación o una rotación seguida de una reflexión. En cada caso, encontrar el ángulo de rotación.

27. El resultado del ejercicio 25 tiene un análogo para matrices ortogonales 3 X 3: se puede demostrar que la multiplicación por una matriz ortogonal A 3 X 3 es una rota- ción alrededor de algún eje fijo si deyA) = 1 y que es una rotación alrededor de algún eje fijo seguida de una reflexión con respecto a algún plano de coordenadas si det(A) = - l . Determinar si la multiplicación por A es una rotación o es una rotación seguida de una reflexión.

3 2

Page 407: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

412 i Espacios con producto interior

28. Con el resultado del ejercicio 27 y el inciso b ) del teorema 6.5.2, demostrar que una composición de rotaciones siempre se puede efectuar mediante una simple rotación con respecto a algún eje idbneo.

29. Demostrar la equivalencia de las proposiciones u) y c) del teorema 6.5.1

1 EJERCICIOS COMPLEMENTARIOS 1 1. Sea con el producto interior euclidiano.

a) Obtener un vector d que sea ortogonal a u1 = ( I , O, O, O) y a u4 = (O, O, O, 1) y forme ángulos iguales COR u2 = (O, 1, O, O) y u3 = (O, O, 1 O).

b) Encontrar un vector x = (x,, x*, x3, x4) de longitud 1 que sea ortogonal a los vectores u1 y u4 del inciso a) y tal que el coseno del ángulo entre x y u2 sea el doble del coseno del ángulo entre x y u3.

2. llemostrar que si x es un vector diferente de cero en Rn, entonces la matriz n X n

es ortogu:;al y simétrica.

3. Sea A x = O un sistema de m ecuaciones con n inc,ógnitas. Demostrar que

es una soluci6n del sistema si y sólo si el vector x = (x,, xz, . . . , x,) es ortogonal a lodo vector renglón de A con el producto interior euclidiano sobre R".

4. Aplicar la desigualdad de Cauchy-Schwarz para demostrar que si a l , u2, . . . , a, son números reales positivos, entonces

5. Demostrar que si x y y son vectores en un espacio con producto interior y c es cualquier escalar, entonces

i/cx + y y = (.2I/xjlZ + 2c( x, y ) + I/y/l2

6. Sea R3 con el producto interior euclidiano. Encontrar dos vectores de longitud 1 que sean ortogonales a todos y cada uno de los vectores u , = (1, 1, - I ), u2 = (-2, - 1,2) y u3 = ( - 1 , o, X ) .

Page 408: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Ejercicios complemenfarios i 413

7. Encontrar un producto interior euclidiano ponderado sobre Rn tal que los vectores v , = ( l , O , O , . . . ) O) v , = ( O , ~ , O , . . . , O ) vi = (O, O, v?, . . . , O)

v, = (O, O, o , . . . , d i )

formen un conjunto ortonormal.

8. ¿Existe algún producto interior euclidiano ponderado sobre R2 para el que los vectores (1,2) y (3 , - 1) formen un conjunto ortonormal? Justificar la respuesta.

9. Demostrar: Si Q es una matriz ortogonal, entonces cada elemento de Q es igual a su cofactor si det(Q) = 1 y es el negativo de su cofactor si det(Q) = - l .

10. SI u y v son vectores en un espacio V con producto interior, entonces u, v y u - v se pueden considerar como los lados de un "triángulo" en V (figura 1). Demostrar que la ley de los cosenos se cumple para cualquiera de estos triángulos; es decir, IJu - vil2 = llul12 + llv112 - 2llull llvll cos 8, donde 0 es el ángulo entre u v v.

11. a) En R3, los vectores (k, O, O), (O, k, O) y (O, O, k) forman las aristas de un cubo con diagonal ( k , k, k ) (figura 4 de la sección 3.3) . De manera semejante, en Rn, los vectores

se pueden considerar como las aristas de un "cubo" con diagonal (k, k, . . . , k). De- mostrar que cada una de las aristas anteriores forma un ángulo igual a Q con la dia- gonal, donde cos 0 = l 1 6 .

b) (Para quienes ya estudiaron Crilculo.) ¿Qué sucede con el ángulo Q en el inciso a) cuando la dimensión de Rn tiende a infinito?

12. Sean u y v vectores en un espacio con producto interior. a) Demostrar que llull = Ilvll si y sólo si u + v y u - v son ortogonales. b) Proporcionar una interpretación geométnca del resultado anterior en R2 con el pro-

ducto interior euclidiano.

13. Sea u un vector en un espacio V con producto interior, y sea {v, , v2, . . . , vn) una base ortonormal para V. Demostrar que si ai es el ángulo entre u + vi, entonces

cos2 a, + cos2 ff2 + ' ' ' + cos2 a, = 1

14. Demostrar: Si (u, v ) ~ y (u, v)* son dos productos interiores sobre un espacio vet- torial V, entonces la cantidad (u, v) = (u, Y), + (u, también es un producto in- terior.

Page 409: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

41 4 Espacios con producto interior

15. Demostrar que el producto interior sobre Rn generado por cualquier matriz ortogonal es el producto interior euclidiano.

16. hcon t ra r a, b y c tales que la matriz

sea ortogonal. ¿Son únicos los valores de a, b y c? Explicar la respuesta

17. Demostrar el inciso c) del teorema 6.2.5.

Page 410: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

CAPITULO 7

EIGENVALORES, EIGENVECTORES

7.1 EIGENVALORES Y EIGENVECTORES

Figura 1

REPASO DE

TORES Y EIGENVALORES

EIGENVEC-

Si A es una matriz n X n y x es un vector en R", entonces no hay ninguna relación geométrica general entre el vector x y el vector Ax vgura la). Sin embargo, a menudo existen ciertos vectores x diferentes de cero tales que x y Ax son múl- tiples escalares entre si yigura lb). Estos vectores surgen de manera natural en el estudio de vibraciones, sistemas eléctricos, genética, reacciones químicas, me- cánica cuántica, esfuerzo mecánico, economía y geometria. En esta sección se mostrará cómo encontrar estos vectores y , en secciones posteriores, se abordarán algunas de sus aplicaciones.

AX AX

Se empezará con un repaso de algunos conceptos mencionados en las secciones 2.3. y 4.3.

R" se denomina eigenvector de A si Ax es un múltiplo escalar de x; es decir,

Ax= Ax

para algún escalar A. El escalar A se denomina eigenvalor de A, y se dice que x es un eigenvector de A correspondiente a A.

415

Page 411: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4 I6 " Eigenvalores, eigenvectores

En R2 y H 3 , la multiplicación por A mapea cada eigenvector x de A (en caso de haber alguno) sobre la misma recta que pasa por el origen que x. Dependiendo del signo y la magnitud del eigenvalor A correspondiente a x, el operador lineal A x = Ax hace que x se comprima o alargue por un factor A, con un cambio de direc- ción en caso de que sea R negativo (figura 2).

Ejemplo 1 El vector x = es un eigenvector de [:I

correspondiente al eigenvalor ,I = 3 , ya que

Para encontrar los eigenvalores de una matriz A n X n, A x = Ax se vuelve a escri- bir como

Ax = d l x

o bien, de manera equivalente.

Para que A sea un eigenvalor, debe existir una solución diferente de cero para esta ecuación. Sin embargo, por el teorema 6.2.7, la ecuación (1) tiene una solución Merente de cero si y sólo si

Esta expresión se denomina ecuaciún caracteristica de A ; los escalares que satis- facen esta ecuación son los eigenvalores de A . Al desarrollar det(A1 - A ) se obtie- ne un polinomio en A, denominadopolinomio característico de A .

Page 412: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

7. I Eigenvalores y eigenvectores / 41 7

Se puede demostrar (ejercicio 15) que si A es una matriz n X n, enton- ces el polinomio característico de A es de grado n y el coeficiente de 1" es 1; es decir, el polinomio característico de una matriz n x n es de la forma

Por el teorema fundamental del álgebra, la ecuación característica

tiene cuando mucho n soluciones &stintas, por lo que una matriz n X n tiene a lo sumo n eigenvalores distintos.

Sería conveniente que el lector revise el ejemplo 6 de la sección 2.3, donde se encontraron los eigenvalores de una matriz 2 X 2 resolviendo la ecuación característica. En el siguiente ejemplo se usa una matriz 3 X 3 .

Ejemplo 2 Encontrar los eigenvalores de

Solución. El polinomio característico de A es

A - 1 o det(A1-A) = det[ O A - 1 ] = A3 - 8A2 + 17A- 4

-4 17 A - 8

Por consigwente, los eigenvalores de A deben satisfacer la ecuación cúbica

Para resolver esta ecuación se empezará buscando soluciones enteras. Esta tarea se puede simplificar bastante aprovechando el hecho de que todas las so- luciones enteras (en caso de que haya) de una ecuación polinomial con coefi- cientes enteros

A* + C,A" + . . ' + c, = o

deben ser divisores del término constante, cn. Así, las únicas soluciones enteras posibles de (2) son los divisores de -4, es decir, +1, 22, +_4. Sustituyendo sucesivamente estos valores en (2) se observa que 1 = 4 es una solución entera. En consecuencia, 1 -4 debe ser un factor del miembro izquierdo de (2). Divi- diendo 1 -4 entre A3 -%I2 + 171 -4 se observa que (2) se puede volver a escri- bir como

Page 413: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

418 Bigenvalores. tigenvectores

( A - 4 ) @ - 4 A + 1 ) = 0

Así. las otras soluciones de (2) satisfacen la ecuación de segundo grado que se

puede resolver aplicando la fórmula cuadrática. Así, los eigenvalores de A son

EIGENVALORES Ejemplo 3 Encontrar los eigenvalores de la matriz triangular superior DE MATFUCES TRIANGULARES

A = [ 0 u22 0 2 3 a24

Solucicin. Recordando que el determinante de una matriz triangular es el produc- to de los elementos de la diagonal principal (teorema 2.2.2), se obtiene

det(A1 -

= ( A - “ 1 1 ) ( A - “ 2 2 ) ( A - ajj ) ( A - U4. l )

Así, la ecuación característica es

( A - - u , ~ ) ( ~ ~ - ~ ~ ~ ~ ~ ( A ~ 1 1 ~ 3 ) ( A “ a , ~ ) = o

y los eigenvalores son

i, = u, , . A = u:?, A = 1133, A = UJJ

que son precisamente los elementos de la diagonal de A . A

El siguiente teorema general debe ser evidente a partir de 10s cálculos efectuados en el ejemplo precedente.

Teorema 7.1.1. Si A es una matriz triangular (triangular superior, triangular inferior o diagonal) n X n, entonces los eigenvalores de A son los elementos de la diagonal principal de A .

Page 414: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

7.1 Eigenvalores y eigenvectores / 41 9

Ejemplo 4 Por inspección, los eigenvalores de la matriz triangular inferior

OBSERVACI~N. En problemas reales, la matriz A a menudo es tan grande que el cálculo de la ecuación característica no es práctico. Como resultado, para obtener eigenvalores se aplican varios métodos de aproximación.

EIGENVALORES Es posible que la ecuación caracteristica de una matriz con elementos reales tenga COMPLEJOS soluciones complejas. Por ejemplo, el polinomio característico de la matriz

es

de modo que la ecuación característica es A2 + 1 = O, cuyas soluciones son los números imaginarios 1 = i y 1 = -i. Así, es forzoso considerar eigenvalores complejos, inclusive para matrices reales. Esto, a su vez, conduce a considerar la posibilidad de espacios vectoriales complejos; es decir, espacios vectoriales en que se permite que los escalares asuman valores complejos. Estos espacios vectoriales se analizarán en el capítulo 10. Por ahora se permitirán eigenvalores complejos, pero el análisis de eigenvectores se limitará a matrices con eigenvalores reales.

El siguiente teorema resume el análisis realizado hasta el momento.

Teorema 7.1.2. Si A es una matriz n X n y 1 es un número real, entonces las siguientes proposiciones son equivalentes

a) A es un eigenvalor de A : 6) El sistema de ecuaciones @I - A)x = O tiene soluciones no triviales c) En R” existe un vector x diferente de cero tal que Ax = Ax. 6) A es una solución de la ecuación característica det(AI - A ) = O .

DETJCRMINA- Ahora que ya se sabe cómo obtener los eigenvalores, se abordará el problema de CIÓN DE BASES determinar eigenvectores. Los eigenvectores de A correspondientes a un

EIGENESPACIOS equivalente, los eigenvectores correspondientes a 1 son los vectores Werentes de cero en el espacio solución de (AI - A)x = O . Este espacio solución se denomina eigenespacio de A correspondiente a A.

PARA eigenvalor son los vectores x diferentes de cero que satisfacen A x = Ax. De manera

Page 415: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

420 Eigenvalores, eigenvectores

Ejemplo 5 Encontrar bases para los elgenespacios de

Solucion. LA ecuación característica de A es A3 - 5A2 + SA - 4 = O o bien, en forma factorizada, ( A - 1)(A - 2)2 = O (comprobar); así los eigenvalores de -4 son A = 1 y I, = 2, de modo que existen dos eigenespacios de A .

Por definición,

es un eigenvector de A correspondiente a A si y sólo si x es una solución no trivial de (11 - A)x = O ; es decir, de

Si A = 2, entonces ( 3 ) se convierte en

Resolviendo este sistema se obtiene (comprobar)

x, = "S, x2 = t , x 3 = S

Así, los eigenvectores de A corresponhentes a 1 = 2 son los vectores diferentes de cero de la forma

x=[-;]=[-!]+[;];.[ -Y 1

Como

son linealmente independientes, estos vectores forman una base para el eigenespa- cio correspondiente a A = 2.

Si 1 = 1, entonces ( 3 ) se convierte en

Page 416: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

7.1 Eigenvalores y eigenvectores / 421

Resolviendo este sistema se obtiene (comprobar)

de modo que

[";I =.y[ -; 1

[ -T] es una base para el eigenespacio correspondiente a L = l. A

EIGENVALORES Una vez que se han determinado los eigenvalores y los eigenvectores de una DE LAS matriz A , es fácil encontrar los eigenvalores y los eigenvectores de cualquier POTENCIAS DE potencia entera positiva de A ; por ejemplo, si 1 es un eigenvalor de .4 y x es un UN MATRIZ eigenvector correspondiente, entonces

A2x = A ( A x ) = A(Ax) = A(Ax) = i l (dx) = A2x

lo cual demuestra que L2 es un eigenvalor de A 2 y que x es un eigenvector corres- pondiente. En general, se tiene el siguiente resultado

Teorema 7.1.3. Si k es un entero positivo, 1 es un eigenvalor de una matriz A y x es un eigenvector correspondiente, entonces Lk es un eigenvalor de A k y x es un eigenvector correspondiente.

Ejemplo 6 En el ejemplo 5 se demostró que los eigenvalores de

son 1 = 2 y L x 1 , de modo que por el teorema 7.1.3 tanto L = 27 := 128 como 1 =

l7 = 1 SOR eigenvalores deA7. TambiCn se demostró que

Page 417: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

122 1 Eigenvalores, eigenvectores

son eigenvectores de A correspondientes al eigenvalor A = 2, de modo que por el teorema 7.1.3 también son eigenvectores de A7 correspondientes a 1 = 27 = 128, De manera semejante, el eigenvector

de A correspondiente al eigenvalor A = 1 también es un eigenvector de A7 corres- pondiente a A = l7 = 1. A

EIGENVALORES El siguiente teorema establece una relación entre los eigenvalores y la invertibili- E dad de una matriz. INVERTIBILIDAD

Teorema 7.1.4. Una matriz cuadrada A es invertible sí y sólo si 1 = O no es un eigenvalor de A .

Demostración. Supóngase que A es una matriz n X n y obsérvese primero que A = O es una solución de la ecuación característica

si y sólo si el término constante c, es cero. Así, basta demostrar que A es in- vertible si y sólo si cn f O. Pero

o bien, haciendo 1 = O,

det(-A)=c,, o (-l)”det(A)=c,

Por la última ecuación se concluye que det(A) = O si y sólo si c, = O, y esto a su vez significa que A es invertible si y sólo si c, f O. 0

Ejemplo 7 La matriz A del ejemplo 5 es invertible, ya que tiene eigenvalores A = 1 y 1 = 2, ninguno de los cuales es cero. Se deja que el lector verifique esta conclusión demostrando que det(A) Z O. A

Page 418: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

7.1 Eigenvalores y eigenvectores / 423

RESUMEN El teorema 7.1.4 permite agregar otro resultado al teorema 6.4.5.

Teorema 7.1.5. Si A es una matriz n X n, y si TA:Un + R" es la multiplicacrbn por A , entonces las siguientes poposiciones son equivalentes.

a) A es Invertible. b ) Ax = O sólo tiene la solución trivial. c ) La forma escalonada reducida de A es In , d) A se puede escribir como un producto de matrices elementales. e ) A x = b es consistente para toda matriz b n X 1. f i A x = b tiene exactamente una solución para toda matriz b n X 1 . g ) de@!) f O . h) El rango de TA es R". i ) TA es uno a uno. j> Los vectores columna de A son linealmente independientes. k ) Los vectores renglón de A son linealmente independientes. I) Los vectores columna de A generan a U". m ) Los vectores renglón de A generan a R". n ) Los vectores columna de A forman una base para R". o ) Los vectores renglón de A forman una base para R". p ) El rango de A es n. q ) La nulidad de A es O . r ) El complemento ortogonal del espacio nulo de A es R". S) El complemento ortogonal del espacio renglón de A es ( O 1. t) A'A es invertible. u ) A = O no es un eigenvalor de A .

Este teorema relaciona los temas más importantes estudiados hasta el momento

EJERCICIOS DE LA SECCIóN 7.1

1. Encontrar las ecuaciones caracteristicas de las siguientes matnces:

2. Encontrar los eigenvalores de las matrices del ejercicio 1

3. Encontrar bases para los eigenespacios de las matnces del ejercicio 1

4. Determinar las ecuaciones características de las siguientes matrices.

a) - 2 1 O L: 1 1 1

Page 419: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

424 Eigenvalores, eigenvectores

- 4 - 2

5. Obtener los eigenvalores de las matrices del ejercicio 4.

6. Hallar las bases de los eigenespacios de las matnces del ejercicio 4.

7. Encontrar las ecuaciones características de las siguientes matrices:

8. Determinar los eigenvalores de las matrices del ejercicio 7.

9. Encontrar las bases de los eigenespacios de las matrices del ejercicio 7

10. Por inspección, hallar los eigenvalores de las siguientes matrices:

11. Encontrar los eigenvalores de A' para

3 7 1 1

O 0 0 O 0 0

12. Encontrar los eigenvalores y bases para los eigenespacios de A25 para

- 1 -2 - 2

A = [ - ; - f I] 13. Sea A una matnz 2 X 2. La recta que pasa por el origen de R2 es inwuiante bajo A si

Ax está sobre la recta cuando x también lo está. Encontrar las ecuaciones de las rectas en R2, en caso de haberlas, que son invariantes bajo la m a w dada.

14. Encontrar det(A) dado que A tiene ap@) como su polinomio característico a) p(a) = a3 - 2a2 + l. + 5 b) p(a) = a4 - l3 + 7 [Sugerencia Véase la demostración del teorema 7.1.4.1

15. Sea A una matriz n X n. a) Demostrar que el polinomio característico de A es de grado n. b) Demostrar que el coeficiente de 1'' en el polinomio Característico es 1.

Page 420: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

7.1 Eigenvalores y eigenvectores / 425

16. Demostrar que la ecuación característica de una matriz A 2 X 2 se puede expresar como A2 - tr(A)1, + det(A) = O, donde tr(A) es la traza de A.

17. Usando el resultado del ejercicio 16, demostrar que si

entonces las soluciones de la ecuación característica de A son

(u + d ) t v ( u - d)' + 4bc I Usando el resultado anterior, demostrar que A a) tiene dos eigenvalores reales distintos si (a - d)2 + 4bc > O b) tiene un eigenvalor real si (a - d)2 + 4bc = O. c) no tiene eigenvalores reales si (a - q2 + 4bc < O .

18. Sea A la matriz del ejercicio 17. Demostrar que si (a - d)2 + 4bc > O y b f O, entonces los eigenvectores de A correspondientes a los eigenvalores

A l = $ [ ( u + d ) + v ( u - d ) 2 + 4bc ] y /I2 = [(u + d ) - d ( u - d)2 + 4bc

son

respectivamente.

19. Demostrar: Si a, b, c y d son enteros tales que a + b = c + d, entonces

tiene eigenvalores enteros, a saber, 1, = a + b y L2 = a - c. [Sugerencia Vease el ejercicio 17.1

20. Demostrar: Si 1 es un eigenvalor de una matnz invertible A y x es un eigenvector co- rrespondiente, entonces 111 es un eigenvalor de A" y x es un eigenvector correspon- diente.

21. Demostrar: Si 1 es un eigenvalor de A, x es un eigenvector correspondiente y S es un escalar, entonces 1 - S es un eigenvalor de A - SZ y x es un eigenvector correspon- diente.

22. Encontrar los eigenvalores y bases para los eigenespacios de

Luego, usando 10s ejercicios 20 y 21, encontrar los eigenvalores y bases para 10s eigenespacios de a) A-'. b) A - 31. c) A + 21.

Page 421: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

326 ,/ Eigenvalores, eigenvectores

23. a) Demostrar que si A es una matriz cuadrada, entonces A y AT tienen los mismos eigenvalores. [Sugerencia Considerar la ecuación característica det(A.1 - A) = O.]

b) Demostrar que A y AT no necesariamente tienen los mismos elgenespacios. [Suge- rencia IJsando el resultado del ejercicio 18, encontrar una matnz 2 X 2 para la cual A y AT tengan eigenespaclos diferentes. I

7.2 DIAGONALIZACI~N

En esta sección se vera cómo encontrar un base para R" integrada por eigenvec- tores de una matpiz dada A n x n. Las bases se pueden usar para estudiar las propiedades geométricas de A y para simplrficar varios cálculos numéricos donde aparece A . Estas bases también revisten importanciaJsica en una amplia gama de aplicaciones, algunas de las cuales serán consideradas después en este texto.

EL PROBLEMA DE LA DIAGONALIZA- CIÓN DE MATRICES

El objetivo principal de esta sección es mostrar que los dos problemas siguientes, que a simplc vista parecen muy diferentes, en realidad son equivalentes.

Problema del eigenvector. Dada una matriz A n X n, jexiste una base para R" integrada por eigcnvectores de A?

Problema de diagonalización (Forma matriciag. Dada una matriz A n X n, jexiste una matriz invertible P tal que P-IAP sea una matriz diagonal?

El segundo problema sugiere la siguiente terminología.

Definición. Se dice que una matriz cuadrada A es diagonalizable si existe una matriz invertible P tal que P"AP es una matriz diagonal; se &ce que la matriz P diagonaliza a A ,

El siguiente teorema muestra que el problema del eigenvector y el problema de diagonalización son equivalentes.

Teorema 7.2.1. Si .-I es una matriz n X n. entonces las siguientes proposiciones s o n equivalentcs.

a ) A es diagona/izahle. h ) '4 l ime n eigenvectores linealrnente independientes.

Demostración de a +- 6): Como se supone que A es diagonalizable, entonces existe una matriz invertible

Page 422: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

7.2 Diagonalización / 427

PI1 P I 2 ' . . P21 P 2 2 . . . P =

Pnl P n 2 ' ' '

tal que P-lAP es diagonal, por ejemplo, P- 'AP = D, donde

D =

Por la fórmula P-'AP = D se deduce que A P = PD; es decir,

Si ahora p,, p,, . . . , p, denotan los vectores columna de P, entonces por ( I ) las columnas sucesivas de A P son Alpl, A,p,, . . . , Anp,. Sin embargo, por la fórmula ( 3 ) de la sección 1.3 , las columnas sucesivas de AP son Ap,, Ap,, . . . , Ap,. Así, se debe tener

A P , = alp, , AP, = il2p-2, . . 3 AP, Anpn (2 1 7

Como P es invertible, no todos sus vectores columna son cero; así, por (2) se concluye que A,, A,, . . . , A, son eigenvalores de A, y que pl , p,, . . . , p, son los eigenvectores correspondientes. Como P es invertible, por el teorema 7.1.5 se concluye que pl , p,, . . . , p, son linealmente independientes. Por tanto, A tiene n eigenvectores linealmente independientes.

b * a: Supóngase que A tiene n eigenvectores linealmente independientes, p, , p2, . . . . , p,, con los eigenvalores correspondientes A,, A,, . . . , A,, y sea

PI1 PI2 ' . '

P2l P 2 2 . ' '

P ~ I P n 2 ' " P n n

la matriz cuyos vectores columna son p,, p,, . . . , p,. Por la fórmula ( 3 ) de la sección 1.3 , los vectores columna del producto A P son

Page 423: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

428 Eigenvalores, eigenvectores

Pero

PRQCEDI- MIENTO PARA DIAGONALEAR UNA MATRIZ

de modo que

AP =

donde D es la matriz diagonal que tiene los eigenvalores A,, A 2 , . . . , A, sobre la diagonal principal. Como los vectores columna de P son linealmente indepen- dientes, P es invertible; así, (3) se puede volver a escribir como P-lAP = D; es decir, A es diagonalizable. u El teorema precedente garantiza que una matriz A n X n con n eigenvectores linealmente independientes es diagonalizable, y la demostración proporciona el siguiente método para diagonalizar a A .

I Paso 1. Encontrar n eigenvectores linealmente independientes de A, por

Paso 2. Formar la matriz P con pl, p2, . _. . , p, como sus vectores columna. Paso 3. Entonces, la matriz P"A P será diagonal con A l , A,, . . . , A, como

sus elementos diagonales sucesivos, donde A, es el eigenvalor corres- pondiente a p, para i = 1, 2, . . . , n.

ejemplo, pl, P,, . .. . , P,.

Para efectuar el paso 1 de este procedmiento, primero es necesario determinar si una matriz dada A n x n tiene n eigenvectores linealmente indepen- lentes, y luego se requiere un método para encontrarlos. Ambos problemas se pueden manejar a la vez determinando las bases de los eigenespacios de A . Des- pués, en esta sección se mostrará que los vectores básicos, como conjunto combi- nado, son linealmente independientes, de modo que si en total hay n vectores así, entonces A es diagonalizable y los n vectores básicos se pueden usar como los vec- tores columna de la matriz de diagonalización P. Si hay menos de n vectores bh- sicos, entonces la matriz A no es diagonalizable.

Page 424: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

7 . 2 Diagonalización / 429

Ejemplo 1 Encontrar una matriz P que diagonalice a

Solución. En el ejemplo 5 de la sección precedente, se encontró que la ecuación característica de A es

(A - l ) (A - 2)* = o

y se determinaron las siguientes bases para los eigenespacios:

L = 2 : p, =[-;I, p2=[;]

En total hay tres vectores básicos, de modo que la matriz A es diagonalizable y

diagonaliza a A . Como comprobación, el lector debe verificar que

1 o 2 0 0 - 2 - 1 0 - 2 2 0 0

p - l A p = [ - : - ~ ] [ ~ ; :I[ ; :I=[:: ; ;]A

No existe ningún orden de preferencia para el orden de las columnas de P. Como el i-ésimo elemento de la diagonal de P-lAP es un eigenvalor para el i- ésimo vector columna de P, al cambiar el orden de las columnas de P simplemente se cambia el orden de los eigenvalores sobre la diagonal de P-lAP. Entonces, si en el ejemplo 1 se hubiera escrito

P = [ ; ;] - 1 - 2 o

En el ejemplo 1 se hubiera obtenido

Page 425: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

430 Eigenvalores, eigenvectores

2 o o

Ejemplo 2 Encontrar una matriz P que diagonalice a

Solución. El polinomio característico de A es

A - 1 o O

det(A.l-~A)= = ( A - l ) (A-2 )2 - 1 A - 2 O 3 -5 1 - 2

de modo que la ecuación característica es

( A - 1 ) ( A - 2)* = o

Así, los eigenvalores de A son il = 1 y 1 = 2. Se deja para el lector demostrar que bases para los eigenespacios son

Como A es una matriz 3 X 3 y en total sólo hay dos vectores básicos, entonces A no es diagonalizable.

Otra solución. Si sólo se quiere determinar si una matriz es diagonalizable y no importa determinar realmente una matriz de diagonalización P, entonces no es necesario calcular las bases de los eigenespacios; basta encontrar las dimensiones de los eigenespacios. Para este ejemplo, el eigenespacio correspondiente a A = 1 es el espacio solución del sistema

La matriz de coeficientes tiene rango 2 (comprobar). Así, la nulidad de esta matriz es 1 y, por el teorema 5.6.4, el espacio solución es unidimensional.

El eigenespacio correspondente a il = 2 es el espacio solución del sistema

Page 426: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

7.2 Diagonalización / 431

Esta matriz de coeficientes también tiene rango 2 y nulidad 1 (comprobar), de modo que el eigenespacio correspondiente a A = 2 también es unidimensional. Como los eigenespacios producen un total de dos vectores básicos, la matriz A no es diagonalizable. A

En el ejemplo 1 se establece la hipótesis de que los vectores columna de P, que están integrados por vectores básicos de los distintos eigenespacios de A , son linealmente independientes. En el siguiente teorema se aborda esta cuestión.

Teorema 7.2.2. Si v l , v,, . . , , vk son eigenvectores de A correspondientes a eigenvalores distintos A,, A,, , . . , A,, entonces { v ~ , v,, . , , , vk} es un conjunto linealmente independiente.

Demostración. Sean vl, v,, . . . , vk los eigenvectores de A correspondientes a eigenvalores distintos A,, A,, . . . , A,. Se supondrá que v19 v,, . . . , vk son linealmente dependientes y se llegará a una contradicción. Entonces la conclusión será que v l , v,, . . . , vk son linealmente independientes.

Como por definición un eigenvector es diferente de cero, {vl }es linealmente independiente. Sea r el mayor entero tal que {v , , v,, . . . , vr} sea linealmente in- dependiente. Como se está suponiendo que {vl, v,, . . . , vk} es linealmente de- pendiente, r satisface 15 r < k. Además, por la definición de r, { v l , v,, . . . , vr+,} es linealmente dependiente. Así, existen escalares c,, c,, . . . , c,.+~, no todos iguales a cero, tales que

C I V l + c2v* + ' ' ' + e,.+ ]V,..+ I = o (4)

Multiplicando por A ambos miembros de (4) y usando

se obtiene

C l A 1 V , + c2A,v, + ' ' ' + cy+ lAr+ ]V,+ 1 = o (5)

Multiplicando por Ar+, ambos miembros de (4) y restando de (5) la ecuación resultante, se obtiene

Como { v l , v,, . . . , vr} es un conjunto linealmente independiente, esta ecuación indica que

Page 427: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

132 Eigenvalores, eigenvectores

y como A l , A 2 , . . . , son distintos, se concluye que

c , = " z = " ' = c r = ( )

Sustituyendo estos valores en (4) se obtiene

Como el eigenvector v,.+~ es diferente de cero, se concluye que

Las ecuaciones (6) y (7) contradicen el hecho de que no todos los c l , c2 , . . . , c,+,, son cero; esto completa la demostración. 0

OBSERVACI~N. El teorema 7.2.2 es un caso especial de un resultado más general: Supóngase que A,, ,I2, . . . ,,I, son eigenvalores distintos y que en cada uno de los eigenespacios correspondientes se elige un conjunto linealmente independiente. Si después estos vectores se unen en un solo conjunto, el resultado aún es un conjunto linealmente independiente. Por ejemplo, si se eligen tres vectores linealmente independientes de un eigenespacio y dos vectores linealmente independientes de otro, entonces los cinco vectores forman un conjunto linealmente independiente. Se omite la demostración.

Como una consecuencia del teorema 7.2.2 se obtiene el siguiente resultado importante.

Teorema 7.2.3. Si una matriz A n X n tiene n eigenvalores distintos, entonces A es diagonalizable.

Demostración. Si vl , v2, . . . , v, son los eigenvectores correspon&entes a los eigenvalores distintos Al, A,, . . . , An, entonces por el teorema 7.2.2 se tiene que vl, v2, . . . , v, son linealmente independientes. Así, A es diagonalizable debido al teorema 7.2.1. 0

Ejemplo 3 En el ejemplo 2 de la sección precedente se vio que

tiene tres eigenvalores distintos, A = 4, A = 2 + f i , A = 2 - A. Por consiguiente, A es diagonalizable. Además,

Page 428: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

7.2 Diagonalización / 433

4 0

o o 2 - v 3 : I para alguna matriz invertible P. Si se desea, la matriz P puede determinarse usando el metodo del ejemplo 1 de esta sección. A

Ejemplo 4 Por el teorema 7.1.1, los eigenvalores de una matriz triangular son los elementos de su diagonal principal. Así, una matriz triangular con elementos distintos en la diagonal principal es diagonalizable. Por ejemplo,

-

A = [

- 2

es una matriz diagonalizable. A

MULTIPLICI- El teorema 7.2.3 no determina completamente el problema de diagonalización, ya DAD que es posible que una matriz A n X n sea diagonalizable sin tener n eigenvalores GEOMÉTRICA Y distintos. En el ejemplo 1 se vio esto, donde la matriz dada 3 X 3 tenía sólo dos

DAD importa para que una matriz sea diagonalizable son las dimensiones de los ALGEBRAICA eigenespacios: la suma de estas dimensiones debe ser cuando mucho n a fin de que

una matriz n X n sea diagonalizable. Los ejemplos 1 y 2 ilustran este hecho, las matrices de estos ejemplos tienen la misma ecuación característica y los mismos eigenvalores, pero la matriz del ejemplo 1 es diagonalizable porque la suma de las dimensiones de los eigenespacios es 3, y la matriz del ejemplo 2 no es diago- nalizable porque la suma de las dimensiones de los eigenespacios sólo es igual a 2.

La profundización en el estudio de las condiciones para diagonalización se deja para cursos más avanzados, aunque se mencionará un teorema importante que dará una comprensión más completa de las condiciones. Se puede demostrar que si A. es un eigenvalor de A , entonces la dimensión del eigenespacio que corres- ponde a Ao.no puede exceder el número de veces que A - io aparece como factor en el polinomio característico de A . Así, en los ejemplos 1 y 2 el polinomio característico es

MULTIPLICI- eigenvalores distintos, a pesar de lo cual era diagonalizable. Lo que realmente

(A - ])(A - 2)2

Por tanto, el eigenespacio correspondiente a A = 1 es cuando mucho (y, por tanto, exactamente) unidimensional y el eigenespacio correspondiente a A= 2 es a lo sumo bidimensional. En e! ejemplo 1, el eigenespacio correspondiente a A = 2 en realidad es de dimensión 2, lo cual da por resultado condiciones para la diagonali- zación, pero en el ejemplo 2 el eigenespacio sólo es de dimensión 1, lo cual indica que no hay condiciones para la diagonalización.

Existe una terminología que relaciona las ideas anteriores. Si A. es un eigenvalor de una matriz A n X n, entonces la dimensión del eigenespacio corres-

Page 429: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

434 ,' Eigenvalores, eigenvectores

pondiente a ,lo se denomina multiplicidad geométrica de A,, y el número de veces que A - ,lo aparece como factor en el polinomio característico de A se denomina mulfiplicidad algebraica de A . El siguiente teorema, que se enuncia sin demos- tración, resume el análisis precedente.

Teorema 7.2.4. Si A es una matriz cuadrada, entonces:

a) Para todo eigenvalor de A la multiplicidad geométrica es menor o igual

6 ) A es diagonalizable si y sólo si la multiplicidad geométrica es igual a la que la multiplicidad algebraica.

multiplicidad algebraica para todo eigenvalor.

CÁLCULO DE En matematicas aplicadas se presentan muchos problemas en los que es necesario LAS POTENCIAS calcular potencias grandes de una matriz cuadrada. Esta sección concluirá mos- DE UNA MATRIZ trando cómo se puede usar la diagonalización para simplificar los cálculos.

Si A es una matriz n X n y P es una matriz invertible, entonces

(P"AP)2 = P"APP"AP = P - ' A M P = P"A2P

De manera más general, para cualquier entero positivo k

(P- 'AP)k = P- 'AkP (8)

Por la ecuación (8) se concluye que si A es diagonalizable y P-lAP = D es una matriz diagonal, entonces

P- 'AkP = (P lAP)k = di (9)

Despejando A k de esta ecuación se obtiene

I I

La última ecuación expresa la k-ésima potencia de A en términos de la k-ésima potencia de la matriz diagonal D. Pero calcular dc es fácil; por ejemplo, si

O

4

O . . .

entonces

Page 430: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

7.2 Diagonalización / 435

Ejemplo 5 Usando (lo), encontrar A 13, donde

A = [ ! o -2 i] Solución. En el ejemplo 1 se mostró que la matriz A es diagonalizada por

: :I -1 o - 2

D=P"..=[: 2 0 0 y ]

Así, por (lo),

o -2 213 o o 1 0 2 A'3=PD13P" = [ -p A :l[: :3 :'.I[ -: 1 I ]

0 -1 (11) - 8190 O -16382

= [ 8191 O 16383 8191 8192

OBSERVACI~N. Con el método del ejemplo precedente casi todo el trabajo con- siste en diagonalizar A . Una vez hecho ésto, se puede usar para calcular cualquier potencia de A . Así, para calcular A loo0 basta cambiar el exponente de 13 a 1000 en la expresión (1 1).

EJERCICIOS DE LA SECCION 7.2

1. Sea A una matriz 6 X 6 con ecuación característica 12(1 - 1 )(A - 2)3 = O. ¿Cuáles son las dimensiones posibles para los eigenespacios de A?

2. Sea

Page 431: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

a) krlxwnlrar los eigellvalores de 11. b) Para cada eigenvalor 1, determinar el rango de la matriz111 - <4 c) ¿,Es diagonalizable A? Justificar In respuesta.

En los qercicios del 8 al 1 1. hallar una matriz P que diagonalice a A, y determinar P" AP.

cncontrar una matri7 P que diagonalice a A , y determinar P"AP

18. Con el mktodo del ejercicio 5 , calcular A", donde

19. Usar el metodo del ejercicio 5 para calcular A", donde

A = [ - A : -"] o 15 - 2

20. En cada inciso, calcular la potencia indicada de

21. Encontrar 4 " SI II es un entero positlvo y

3

'I o 3

3 - 1 o 4 j

Page 432: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

7.3 Diagonalización ortogonal / 43 7

22. Sea

Demostrar las siguientes proposiciones: a) A es diagonalizable si (a - -+ 4hc > O. b) A no es diagonalizable si (a - 4' + 4hc < O. [Sugerencia. Véanse los ejercicios 17 y 18 de la sección 7.1 . ]

23. En el caso en que la matnz A del ejercicio 22 es diagonalizable, encontrar una matriz P

24. Demostrar que si A es una matriz diagonalizable, entonces el rango de A es el número que diagonalice a A.

de eigenvalores diferentes de cero de .4.

25. Demostrar: Si A es invertible y diagonalizable, entonces A" es diagonalizable y una matriz P que diagonalice a A también diagonaliza a A".

7.3 DIAGONALIZACIÓN ORTOGONAL

En esta sección se abordará el problema de determinar una base ortonormal para R" con el producto interior euclidiano, integrada por eigenvectores de una matriz dada A n x n. El trabajo ya realizado sobre matrices simétricas y matrices ortogonales desempeñará un papel importante aquí.

PROBLEMA DE El primer objetivo de esta sección es demostrar que los dos problemas siguientes LA DIAGONA- son equivalentes.

ORTOGoNAL DE UNA MATRIZ

Problema del eigenvector ortonormal Cada una matriz A de n x n, ¿existe

eigenvectores de A? una base ortonormal para R" con el producto interior euclidiano integrada por

LIZACION

~~~~ ~~

Problema de la diagonalización ortogonal vorma matricial). Dada una matriz A n X n, ¿existe una matriz ortogonal P tal que la matriz P"AP = PTAP es diagonal? En caso de que exista la matriz. entonces se dice que A es dia- gonalizable ortogonalmente, y se dice que P diagonaliza ortogonalmente a A .

Para el segundo problema es necesario considerar dos preguntas'

e ¿Qué matrices son diagonalrmbles ortogonalmente? o LCómo encontrar una matriz ortogonal a fin de efectuar la diagonaliza-

ción?

Page 433: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

438 / Eigenvalores, eigenvectores

Con respecto a la primera pregunta, se observa que no hay ninguna posibili- dad de diagonalizar ortogonalmente una matriz A a menos de que A sea simétrica (es decir, A =AT). Para darse cuenta de este hecho, supóngase que

P'AP = D (1)

donde P es una matriz ortogonal y D es una matriz diagonal. Como P es ortogonal, PPT = PTP = I, de modo que (1) se puede escribir como

Como D es una matriz diagonal, se tiene D = DT, de modo que al transponer ambos miembros de (2) se obtiene

A T = (PDPT)T = (PT)TDTPT = PDPT = A

así que A debe ser simétrica.

CONDICIONES El siguiente teorema muestra que toda matriz simétrica es, de hecho, diago- PARA DIAGO- nalizable ortogonalmente. En este teorema, y durante el resto de esta sección, NALIZACI~N ortogonal sigruficará ortogonal con respecto al producto interior euclidiano sobre ORTOGONAL R"

Teorema 7.3.1. Si A es una matriz n x n, entonces las siguientes proposicio- nes son equivalentes.

a) A es diagonalizable ortogonalmente. b) A tiene un conjunto ortonormal de n eigenvectores. c> A es simétrica.

Demostración de a * 6: Como A es diagonalizable ortogonalmente, existe una matriz ortogonal P tal que P"AP es diagonal. Como se vio en la demostración del teorema 7.2.1, los n vectores columna de P son eigenvectores de A . Puesto que P es ortogonal, estos vectores columna son ortonormales (véase el teorema 6.5.1), de modo que A tiene n eigenvectores ortonormales.

b * a Supóngase que A tiene un conjunto ortonormal de n eigenvectores { p p2, . .. . , p,}. Como se vio en la demostración del teorema 7.2.1, la matriz P con estos eigenvectores como columnas diagonaliza a A. Debido a que estos eigen- vectores son ortonormales, P es ortogonal y, por tanto, diagonaliza ortogonalmente aA.

a * c) En la demostración de a * b se probó que una matriz A n x n diago- nalizable ortogonalmente es dagonalizada ortogonalmente por una matriz P n X

n cuyas columnas forman un conjunto ortonormal de eigenvectores de A. Sea D la matriz diagonal

Page 434: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

7.3 Diagonalización ortogonal / 439

D = P “AP

Así,

A = PDP-]

o bien, ya que P es ortogonal,

A = PDPT

Por consiguiente,

A T = (POPT)’= PDTPT = PDPT = A

lo cual demuestra que A es simétrica.

c + a ) La demostración de esta parte rebasa el alcance de este texto, por lo que se omitirá. 0

ALGUNAS El siguiente objetivo es establecer un procedimiento para diagonalizar ortogonal- PROPIEDADES mente una matriz simétrica, pero antes de hacerlo se requiere un teorema crucial DE LAS sobre eigenvalores y eigenvectores de matrices simétricas. MATRICES SIMÉTRICAS Teorema 7.3.2. Si A es una matriz simétrica, entonces:

a ) Todos los eigenvalores de A son números reales. 6) Eigenvectores de eigenespacios diferentes son ortogonales.

Demostración de a). La demostración del inciso a) , que requiere resultados sobre espacios vectoriales complejos, se analizará en la sección 10.6.

Demostración de 6). Sean v1 y v2 eigenvectores correspondientes a eigenvalores distintos A , y A, de la matriz A . Se quiere demostrar que v, v, = O. La demostra- ción de este hecho requiere empezar con la expresión Av, * v,. Por la fórmula (8) de la sección 4.1 y la simetría de A se concluye que

Pero v, es un eigenvector de A correspondiente a A l y v2 es un eigenvector de A corresponhente a A,, de modo que (3) produce la relación

A , V ] . v2 = V ] A*vz

que se puede volver a escribir como

Page 435: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

-130 Eigenvalores, eigenvectores

( A - A 2 ) ( V I . v 2 ) =o (4)

Pero A l - 1, f O, ya que se supone que A, y A2 son distintos. Así, por (4) se concluye que v1 + v2 = O. 0

O B S E R V A C I ~ N . El lector debe recordar que hasta el momento se ha supuesto que todas las matrices tienen elementos reales. De hecho, en el capitulo 10 se verá que el inciso a) del teorema 7.3.2 es falso para matrices con elementos complejos.

DIAGONALIZA- Como una consecuencia del teorema precedente se obtiene el siguiente procedi- CION DE miento para diagonalizar ortogonalmente una matriz simétrica. MATRICES SIMÉTRICAS Paso 1. Encontrar una base para cada eigenespacio de A .

Baso 2. Aplicar el proceso de Gram-Schmidt a cada una de estas bases a fin de obtener una base ortonormal para cada eigenespacio.

Paso 3. Formar la matriz P cuyas columnas son los vectores básicos obtenidos en el paso 2; esta matriz diagonaliza ortogonalmente a A .

La justificación de este procedimiento debe ser evidente: El teorema 7.3.2 asegura que los eigenvectores de eigenespacios drferenfes son ortogonales, mientras que la aplicación del proceso de Gram-Schmidt asegura que los eigenvectores obtenidos del murno eigenespacio son ortonormales. Así, todo el conjunto de eigenvectores obtenidos con este procedimiento es ortonormal.

Ejemplo 1 Encontrar una matriz ortogonal P que diagonalice a

Soluci6n. La ecuación característica de A es

det(A1-A)=det - 2 A - 4 - 2 =(A-2)2(A-8)=0 ["-: 1: Así, los eigenvalores de A son A = 2 y il = S. Por el método usado en el ejemplo S de la sección 7.1, se puede demostrar que

u F [ - ; ] y % = [ -;]

Page 436: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

7.3 Diagonalizacidn ortogonal / 441

forman una base para el eigenespacio correspondiente a X = 2. Aplicando el pro- ceso de Gram-Schmidt a {u1, u2$ se obtienen los siguientes eigenvectores orto- normales (comprobar):

- l / v ? v , = [ l/ofi] y v 2 =

El eigenespacio correspondiente a X = 8 tiene a

como base. Aplicando el proceso de Gram-Schmidt a {u3} se obtiene

Finalmente. usando a v l , v2 y v3 como vectores columna se obtiene

- l / u 2 -116 l/V5 p = [ l / v ? - 116 l / v 3

O 2 / d 1 / % 5 I que diagonaliza ortogonalmente a A . (Como comprobación, el lector debe verificar que PTAP es una matriz diagonal.) A

EJERCICIOS DE LA SECCIÓN 7.3

1. Encontrar la ecuación característica de la matriz simétrica dada, y luego por inspección determinar las dimensiones de los eigenespaclos

4 4 0 0

df : '1 e ) [4 O o] f ) [-: ; ; -;I 2 - 1 o

2 2 4 0 0 0 0 0 0 0 0 0 0 - I

En los ejercicios del 2 al 9, encontrar una matriz P que diagonalice ortogonalmente a A , y determinar P"AP.

Page 437: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

442 / Eigenvalores, eigenvectores

1 1 0 3 1 0 0 -7 24 O O

6. A = [ I 1 O] 7 . A = [ : ! :: I!] 8. A = [ ’ O 0 0 0 o ‘1 9. A = [ 24 O 7 0 O - 7 24 O

O 0 0 0 O O 2 4 7 O 0 0

10. Suponiendo que b f O, encontrar una matriz que diagonalice ortogollalmente a

11. Demostrar que si A es cualquier matnz m X n, entonces ATA tiene un conjunto ortonormal de n eigenvectores.

12. a) Demostrar que si v es cualquier matnz n X 1 e I es la matriz identidad n X n, entonces Z - wT es diagonalizable ortogonalmente.

b) Encontrar una matriz P que diagonalice ortogonalmente a I - wT si

13. Usando el resultado del ejercicio 17 en la sección 7.1, demostrar el teorema 7 . 3 . 2 ~ para matrices simétncas 2 X 2.

EJERCICIOS COMPLEMENTARIOS

1. a) Demostrar que si O < 0 < n, entonces

A = [ cos 0 -sen 0

sen 8 cos 8 1 no tiene eigenvalores y en consecuencia no tiene eigenvectores.

b) Proporcionar una explicación geométrica del resultado del inciso a)

2. Encontrar los eigenvalores de

3. a) Demostrar que si D es una matriz diagonal con elementos no negativos en la

b) Demostrar que si A es una matriz diagonalizable con eigenvalores no negativos,

c) Encontrar una matriz S tal que S’ = A si

diagonal principal, entonces existe una matriz S tal que S’ = D.

entonces existe una matnz S tal que S’ = A .

Page 438: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Ejercicios complementarios / 443

4. a) Demostrar: Si A es una matriz cuadrada, entonces A y AT tienen los mismos eigen- valores.

b) Demostrar que A y AT no necesariamente tienen los mismos eigenvectores. [Sugerencia Usando el ejercicio 18 de la sección 7.1, encontrar una matriz A 2 X 2 tal que A y AT tengan eigenvectores diferentes.]

5. Demostrar: Si A es una matriz cuadrada y p(1) = det(1Z - A ) es el polinomio carac- terístico de A, entonces el coeficiente de 1"" enp(1) es el negativo de la traza de A.

6. Demostrar: Si b # O, entonces

no es diagonalizable.

7. En algebra lineal avanzada se demuestra el teorema de Cayley-Hamilton, que esta- blece que una matriz cuadrada A satisface su ecuación característica; es decir, si

c o + c l a + c ~ a ~ + ~ ~ ~ + c ~ ~ , ~ - ~ + a ~ = o es la ecuación característica de A, entonces

col + c,A + c2A2 + . . . + cn- ,A"-' + A" = O.

Comprobar este resultado para

O 1 0

1 - 3 3

En las ejercicios 8, 9 y 10, usar el teorema de Cayley-Hamilton enunciado en el ejercicio 7.

8. Usando el ejercicio 16 de la sección 7.1, demostrar el teorema de Cayley-Hamilton paramatrices2 X 2.

9. El teorema de Cayley-Hamilton proporciona un método eficiente para calcular poten- cias de una matnz. Por ejemplo, si A es una matriz 2 X 2 con ecuación característica

co + + a 2 = o

entonces cJ + c,A + A2 = O, de modo que

A 2 = -cIA - co l

Multiplicando todo por A se obtiene A3 = -c,A2 - e&, que expresa A3 en términos de A2 y A, y multiplicando todo por A2 se obtiene A4 = -c1A3 - c a z , que expresa A4 en términos de A3 y A2. Continuando de esta manera es posible calcular potencias con- secutivas de A expresándolas simplemente en términos de potencias inferiores. Usando este procedimiento, calcular

A2, A 3 , A4, y A s

Page 439: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

444 1 Eigenvalores, eigenvectores

para

10. Usando el método del ejercicio precedente, calcularA3 y A4 para

11. Encontrar los eigenvalores de la matriz

12. a) En el ejercicio 15 de la sección 7.1 se demostró que si A es una matriz n X n, entonces el coeficiente de A" en el polinomio característico de A es 1. (Un polinomio con esta propiedad se denomina mdnico.) Demostrar que la matriz

demuestra que todo polinomio mónico es el polinomio característico de alguna matriz. La matriz de este ejemplo se denomina mutriz acompmlunfe de p(ll). Sugerencia Evaluar todos los determinantes del problema sumando un múltiplo del segundo renglón al primer renglón a fm de introducir un cero en la parte superlor de la primera columna, y luego desarrollar por cofactores a lo largo de la primera columna

b) Encontrar una matriz con polinormo característico p ( L ) = 1 - U + ,I2 + 3L3 + 1'.

13. Una matm cuadrada A se denomina nilpotente si A" = O para algún entero positivo n. ¿,Qué puede afirmar el lector sobre los eigenvalores de una matriz nilpotente?

14. Ikmostrar: Si A es una matriz n X II y n es impar, entonces A tiene por lo menos un eigenvalor real.

15. Encontrar una matriz A de 3 X 3 que tenga los eigenvalores 1 = O, 1 y - 1 con elgenvectores correspondientes

respectivamente.

Page 440: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Ejercicios complementarios / 445

16. Supóngase que una matriz A 4 X 4 tiene los eigenvalores A l = 1, l2 = -2, 1, = 3 y = - 3 . a) Usando el ejercicio 14 de la sección 7.1, encontrar dei;.A). b) IJsando el ejercicio 5 de esta sección, determinar tr(A).

17. Sea A una matriz cuadrada tal que A3 = A. ¿Qué puede afirmar el lector sobre los elgenvalores de A?

Page 441: Inroduccion Algebra lineal Howard Anton 5ta. Edicion
Page 442: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

CAPITULO 8

TRANSFORM4CIONES LINEALES

8.1 TRANSFORMACIONES LINEALES GENERALES

En las secciones 4.2 y 4.3 se estudiaron Iransformaciones lineales de R" a R". En esta sección se definirán y estudiarán transformaciones lineales de un espacio vectorial V a un espacio vectorial W. Los resultados tienen aplicaciones importantes en fisica, ingeniería y varias ramas de las matemáticas.

DEFINICIONES Y Recuérdese que una transformación lineal de R" a Rm se definió como una función TERMINOLOGÍA

w , , x2, . . . ,x,) = ( y , w2, . . . , w m )

en la cual las ecuaciones que relacionan a wl, w2, . . . , wm y xl, xz, . . . , x, son lineales. Luego se demostró que la transformación T:Rn i* R" es lineal si y sólo si las siguientes relaciones se cumplen para todos los vectores u y v en R" y cualquier escalar c (véase el teorema 4.3.2):

T(u + v) = T(u) + T(v) T(cu) = cT(u)

Definición. Si T: V * W es una función de un espacio vectorial V a un espacio vectorial W, entonces T se llama transformación libzeal de Va W si para todos los vectores u y v de V y todos los escalares c se cumple que

a) T(u + v) = T( u) + T(v) b) T(cu) = cT(u)

En el caso especial donde V = W, la transformación lineal T: V * V se denomina operador lineal sobre V.

44 7

Page 443: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Estas propiedades se usarán como punto de partida para el estudio de las transfor- maclones linealcs generalcs.

EJEMPLOS DE E,jemplo 1 Debido a que la definición anterior de transformación lineal se basa en el TRANSFORMA- teorema 43.2, l a s transformaciones lineales de R" aR", según se definieron en la sec- CIONES ción 4.2, también son transformaciones lineales bajo esta definición más general. A las LINEALES transformaciones lineales de Hn a R" se les llamará trunsformucwnes matricides, ya

que se pueden efectuar por m d o de multiplicación de matrices. A

Ejemplo 2 Sean G' y E' dos espacios vectoriales cualesquiera. El mapeo T: V + W tal que ?'(v) = O para todo v en V es una transformación lineal denominada trans- formación cero. Para darse cuenta que 7' es lineal, obsérvese que

P(u + v ) = o, 7'(u) = o. T(v) = o, y T ( k u ) = o Por consiguicnte.

T ( u + V) = T ( u ) + T ( v ) y T(ku) = kT(u) A

Ejemplo 3 Sea J'cualquier espacio vectorial. El mapeo I:V + V definido por I(v) = v se llama operador identidad sobre b'. La comprobación de que I es lineal sc deja como qercicio. A

Ejemplo 1 Sea I' cualquier espacio vectorial y k cualquier escalar fijo. Se deja como ejercicio comprobar que la función 7 I.' + C'definida por

T(v) = kv

es un operador lineal sobre 1'. Este operador lineal se conoce como dilatación de P. con factor k si k > 1 , y como contracción de V con factor k si O < k < 1 Geométricamente. la dilatación "estira" a cada vector de T' por un factor k . y la contracción de L '"comprime" a cada vector de I' por un factor k (figura 1). A

Page 444: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8. I Transformaciones lineales generales / 449

Ejemplo 5 En la sección 6.4 se definió la proyección ortogonal de R"' sobre un subespacio W. [Véase la fórmula (6) y la definición precedente a ésta en dicha sec- ción.] Las proyecciones ortogonales también se pueden definir en espacios generales con producto interior como sigue: Supóngase que W es un subespacio de dimensión finita de un espacio V con producto interior; entonces la proyección ortogonal de Vsobre W es la transformación definida por

(figura 2). Por el teorema 6.3.5 se deduce que si

S = {WI, w2, . . . , w,)

es cualquier base ortonormal para W, entonces T(v) está definido por la fórmula

T(v ) =proyw v = ( v , wI)w, -1 (v, w2)w2 + . . . + (v . w,)~,

La demostración de que T es una transformación lineal es consecuencia de las propiedades del producto interior. Por ejemplo,

T(u + v) = (u + v, Wl)Wl + (u + v, w2)w* + ' ' ' + (u + v, WJW,

+ (v , WI)W, + (v , W2)WZ + ' ' ' + (v, WJW,

= (u, W,)Wl + (u, w2)w2 + . ' ' + (u, WJW,

= T(u) + T(v)

De manera semejante, T ( h ) = kT(u). A

Ejemplo 6 Como un caso especial del ejemplo anterior, sea V = R3 con el producto interior euclidiano. Los vectores w1 = (1, O, O) y w2 = (O, 1, O) forman una base ortonormal del plano xy. Por tanto, si v = (x, y , z) es cualquier vector en R3, entonces la proyección ortogonal de R3 sobre el plano xy está dada por

T(v) = ( v , w, )WI + (v, W2)WZ = x ( 1 , o, 0) + Y a 1, 0)

= (X> Y , 0)

Page 445: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

$50 7iansjorrnaclones lineales

(Véase Pa figura 3 .) A

F~~~~~ I Proyección ortogonal de R3 sobre el plano x y . I

Ejemplo 7 Sea S = {wl, w2, . . . , w,,} una base de un espacio vectorial V de dimensión n, y sea

(V).? = ( k , , k2 , . . ' 1

el vector de coordenadas con respecto a S de un vector v en Y; así

v = k,w, + k2w2 + . . . + k,w,,

Se define 1': L' -+ K" como la función que mapea v en su vector de coordenadas con respecto a S; es decir,

La función T es una transformación lineal. Para darse cuenta de que así es, supón- gase que u y v son vectores en Y y que

Así,

Pero

u + V = (c., + d,)w, + (c2 + d,)w, + . . . + (c, + dn)w, ku = (kc,)w, + (kc2)w2 + I . . + kc,)^,

de modo que (u + v ) ~ = ( c , + d, , c2 + d,, . . . , C, + d,,)

(kuj, = (kc , , kc,, . . . , kc,)

Page 446: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8.1 Transformaciones lineales generales / 451

Por consiguiente,

Al expresar estas ecuaciones en términos de T. se obtiene

T(u + v) = T(u) + T(v) y T(ku) = kT(u)

lo cual demuestra que T es una transformación lineal. A

OBSERVACI~N. Los cálculos del ejemplo anterior también se pudieron haber realizado usando matrices de coordenadas en lugar de vectores de coordenadas; es decir,

Y

T(p) = T ( p ( x ) ) = xp(x) = cox + c1x2 + ' ' ' + C,X,+l

La función T es una transformación lineal, ya que para cualquier escalar k y polinomios cualesquiera p1 y pz en P, se tiene

Y

Ejemplo 9 Sea p = p(x) = co + cIx + . . . + c,$' un polinomio en P , y sean a y b escalares cualesquiera. Se deja como ejercicio demostrar que la funclon T definida Por

n,

T(p) = T ( p ( x ) ) =p(ux + b) = co + c,(ax + b) + . . . + c,(ax + b)"

Page 447: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4.52 Transformaciones lineales

Ejemplo 10 Sea V un espacio con producto interior y sea vo cualquier vector fijo en V. Sea T:V + R la transformación que mapea un vector v en su producto interior con vo; es decir,

T(v) = (v, vo )

Por las propiedades de producto interior,

T ( u + v) = (u + v, Vo> = (u, vo) + (v , vO) = T(u) + T(v) Y

T(ku) = (ku, v") = k( u, vo> = kT(u)

de modo que T es una transformación lineal. A

Ejemplo 11 (Para quienes ya estudiaron Cálculo). Sea V = C1(-m, m) el espacio vectorial de funciones con primeras derivadas continuas sobre (- m, m), y sea W = F( - m, m) el espacio vectorial de todas las funciones con valores reales definidas sobre (- CQ, m). Sea D: V + W la transformación que mapea una función f =fix) en su derivada; es decir,

D(f) = y(., Por las propiedades de derivación se tiene que

Y

D(kf) = kD(f)

Así. D es una transformación lineal. A

Ejemplo 12 (Para quienes ya estudiaron Crilculo). Sea V = C(- m, m) el espa- cio vectorial de funciones continuas sobre (- m, m), y sea W = C1(- m, m) el es- pacio vectorial de funciones con primeras derivadas continuas sobre (- m, m). Sea J: T' + W la transformación que mapea f =Ax) en la integral

Por ejemplo, si f = 2 entonces

Por las propiedades de la integración se tiene que

Page 448: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8.1 Transformaciones lineales generales / 453

J ( c f ) = j : c f ( t ) d t = ~ [ f ( t ) d r = c J ( f ) O

de modo que J es una transformación lineal. A

Ejemplo 13 Sea TM,, + R la transformación que mapea una matriz n X n en su determinante; es decir

T(A) = det(A)

Esta transformación no satisface ninguna de las propiedades necesarias para ser una transformación lineal. Así, en el ejemplo 1 de la sección 2.3 se vio que

det(A, + A 2 ) # det(A,) + det(A2)

en general. Además, det(cA) = c"det(A), de modo que

det (cA) f cdet ( A )

en general. Por tanto, T no es una transformación lineal. A

PROPIEDADES Si T: V + W es una transformación lineal, entonces para vectores cualesquiera v1 y DE LAS v2 en V y escalares cualesquiera c1 y c2 se tiene que

CIONES T(c,v, + c2v2) = T(c,v,) + T(c,v,) = c,T(v,) + CJ(V2)

TRANSFORMA-

LINEALES y de manera más general, si vl , v2, . . . , v, son vectores en V y cl , c2, . . . , c, son escalares. entonces

T(c,v, + c2v2 + ' ' ' + c,v,) = c,T(v,) + c2T(v2) + ' . . + c,T(v,) (1)

La fórmula (1) algunas veces se describe diciendo que las transformaciones lineales conservan las combinaciones lineales.

En el siguiente teorema se enumeran tres propiedades básicas comunes a todas las transformaciones lineales.

Teorema 8.1.1. Si T: V + W es una transformación lineal, entonces

a) T(0) = o b) T( - v) = - T(v) para todo v en V. c) T(v - w) = T(v) - T(w) para todo v y w en V.

Page 449: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

454 ,' Transformaciones lineales

Demostración. Sea v cualquier vector en V. Como Ov = O , se tiene

T(0) = T(0v) = OT(V) = o

io cual demuestra el inciso a). Tambitn,

T( -v) = T((" 1)v) = ( - l)T(v) = - T(v)

lo cual demuestra el inciso 6). Finalmente, v - w = v + (- 1)w; así

T(v - w) = T(v + (- 1)w) = T(v) + ( - l)T(w) = Z(V) - T(w)

lo cual demuestra el inciso e) , 0

En palabras, el inciso a ) del teorema anterior establece que una transforma- ción lineal mapea O en O. Esta propiedad es útil para identificar transformaciones que no son lineales. Por ejemplo, si % es un vector fijo diferente de cero en R2, entonces la transformación

T(x) = x + x,,

tiene el efecto geométrico de trasladar cada punto x en una dirección paralela a x. por una distancia llxo/l (figura 4). Esta no es una transformación lineal, ya que T(0) = xo, de modo que T no mapea O en O .

Page 450: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8. I Transformaciones lineales generales / 455

DETERMINA- CIóN DE

CIONES LINEALES A PARTIR DE LAS IMÁGENES DE LOS VECTORES

TRANSFORMA-

BÁSICOS

El teorema 4.3.3 demuestra que si 7 es una transformación matricial, entonces es posible obtener la matriz estándar de T a partir de las imágenes de los vectores estándar básicos. Mencionado de otra manera, una transformación matricial está completamente determinada por las imágenes de los vectores estándar básicos. Este es un caso especial de un resultado más general: Si T:V + W es una trans- formación lineal, y si { v l , v2, . . . , vn} es cualquier base de V, entonces la imagen T(v) de cualquier vector v en V se puede calcular con las imágenes

de los vectores básicos. Esto se hace al expresar primero a v como una combina- ción lined de los vectores básicos, por ejemplo,

v = C , V l + C2V* + ' ' . + c,v,

y luego usar la fórmula (1) para escribir

Expresado en palabras, una transformación lineal está completamente determi- nada por las imágenes de vectores básicos cualesquiera.

Ejemplo 14 Considerar la base S = {vl, v2, v3} para R3, donde v1 = (1, 1, l), v2 = (1, 1, O), v3 = ( 1, O, O); y sea T:R3 + R2 la transformación lineal tal que

Obtener una fórmula para T ( x l , x2, x3); luego, usar esta fórmula para calcular T(2, - 3 , 5).

Solucidn. Primero, x = (x1, x2, x3) se expresa como una combinación lineal de v1 = (1, 1, l), v2 = (1, 1, O) y v3 = ( 1, O, O). Si se escribe

entonces la igualación de las componentes correspondientes produce

Page 451: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

456 ,/' Transformaciones lineales

Por tanto.

T(.u,, x2, xi = -u,T(v,) + ( x 2 - -Y3 IT@,) + (x, - X 2 ) T ( V 3 )

= -u,( 1, O) + (x2 - -Y3 ) (2 , - 1 ) + (x, - x2)(4, 3 ) - (4a, - 2.5 - xj , 3.Yl - 4s2 + x3) -

A partir de esta fórmula se obtiene

T(2 . ~~ 3. 5 ) = (9. 2 3 ) A

COMPOSICIONES En la sección 4.2 se definió la composición de transformaciones matriciales. La DE TRANSFOR- siguiente definición amplía el concepto a transformaciones lineales generales. MACIONES LINEALES Definición. Si Ti: I/ + V y 7,: V + W son transformaciones lineales, la com-

posición de T2 con TI denotada por T . o T I (que se lee como " T , seguida de 7;"). es la función definida por la fórmula

Figura 5

I donde u es un vector en U.

OBSERVACI~N. Nótese que esta definición requiere que el dominio de T, (el cual es 1,') contenga al recorrido de T,; este hecho es esencial para que la expresión T,(T,(u)) tenga sentido (figura 5). El lector debe comparar (2) con la fórmula (18) de la sección 4.2.

El siguiente resultado muestra que la composición de dos transformaciones lineales es una transformación lineal.

Teorema 8.1.2. S i 1', : 5 + y 12: 1. -+. W son transformaciones lineales, en- tonces (Tz 0 T I ) : li + W también es una transformación lineal.

Uemostracibn. Si u y v son vectores en U y c es un escalar, entonces por (2) la linealidad de T, y T. se deduce que

Page 452: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8. I Transformaciones lineales generales I 45 7

Y

Ejemplo 15 Sean T,:P, + P, y T,:P, -+ P, las transformaciones lineales definidas por las fórmulas

T I ( P ( 4 ) =x&) Y T,(P(X)) = P(2X + 4)

Entonces la composición (T, 0 T,):P, + P, está definida por la fórmula

En particular, si p ( x ) = co + cIx. entonces

Ejemplo 16 Si T:V + Ves cualquier operador lineal y si Z:V + Ves el operador identidad (ejemplo 3), entonces para todos los vectores v en V se tiene

( T o I ) ( v ) = T(Z(v)) = T ( v ) ( I o T ) ( v ) = I ( T ( v ) ) = T ( v )

En consecuencia, T , 0 I e I o TI son iguales a r; es decir,

A

Esta sección concluye haciendo notar que las composiciones se pueden definir para más de dos transformaciones lineales. Por ejemplo, si

T I : U+ V, T2 V+ W, y T 3 : W+Y

son transformaciones lineales, entonces la composición T3 0 T2 0 T I se define como

(T3 o T2 o )(u> = T3(T2(T l (u ) ) ) (4)

Page 453: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

158 ;’ Transformaciones lineales

Figura 6 Composición de tres transformaciones lineales. I

EJERCICIOS DE LA S E C C I ~ N 8.1

1. Con la definición de operador lineal proporcionada en esta sección, demostrar que la función T S 2 + R2 deff ida por la fórmula T(x,, 3) = (x, + 2.5, 3x, - x2) es un ope- rador lineal.

2. Por medio de la definición de transformación lineal que se dio en esta sección, de- mostrar que la función TB3 + R2 expresada por la fórmula T(x,, %, x3) = (2x, - x2 + x3, x2 - 4 5 ) es una transformación lineal.

En los ejercicios del 3 al 10, determinar si la función es una transformación lineal. Jus- tificar las respuestas.

3. T: V + R, donde Ves un espacio con producto interior y T(u) = IIuII.

4. T:R3 + R3, donde vo es un vector fijo en R3 y T(u) = u X vo

5. ‘M2* + MZ3, donde B es una matnz fija 2 X 3 y T(A) = AB

6. T:M,, + R, donde T(A) = &(A).

7. TM,, + M,,, donde F(A) =AT

8. TM2, + R, donde

9. KP, + P,, donde

a) T(u, + u,x + uZx2) = a,, + a,(x + I ) + u2(x + 1)’ b) T(a,, + u,x + u g 2 ) = (ao + 1) + (a, + 1)x + (u2 + 1)x2

10. T:F(-m, 00) ?*F(-w, m), donde a) KH.4) = 1 + f (4 b) T(f(x)) = f(x + 1)

Page 454: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8.1 Transformaciones lineales generales 1 459

11. Dcmostrar que la función T en el ejemplo 9 es un operador lineal

12. Considérese la base S = {y1, vz) para HZ, donde v, = ! . j 1 v2 = ( I , O), y sea T:Rz +

R2 el operador lineal tal que

T(v,)= (1, -2) y T(v , )= ( -4 , 1)

Obtener una fórmula para T ( x l , x2) y usarla para encontrar T(5, - 3 ) .

13. Considérese la base S = {vl, v2} para R2, donde v1 = (-2, 1) y v2 = (1, 3), y sea TB2 -f R3 la transformación lineal tal que

Encontrar una fórmula para T(x l , x2) y usarla para calcular T(2, - 3)

14. Considérese la base S = {vl, v2, v3} para R3, donde v1 = (1, 1, 1 ), vz = ( 1 , 1 , O) y v3 = ( 1, O, O) y sea TB3 + R3 el operador lineal tal que

Obtener una fórmula para T ( x l , x2, x3) y usarla para calcular T(2,4, - 1)

15. Considérese la base S = {vI, v2, v3} para R3, donde v1 = (1, 2, l), vz = (2, 9, O) y v3 = (3, 3 , 4 ) y sea TB3 + R2 la transformación lineal ta l que

hallar una fórmula para T(x l , xz, x3) y usarla para evaluar T(7, 13, 7)

16. Sean vl , v2 y v3 vectores en un espacio vectorial V y T:V += R3 una transformación lineal para la que

Page 455: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

460 / Transformacionzs lineales

a) Encontrar ( T , 0 T J A ) , donde A = [: :] b) ¿Puede el lector obtener (T2 0 T,)(A)? Explicar la respuesta

20. Sean T,:P, + Pn y T,:P, + Pn l os operadores lineales definidos por T , ( p ( x ) ) = p ( x - 1) y T,(p(x)) = p ( x + 1). Encontrar ( T I 0 T,)(p(x)) y (T2 0 T,)(p(x)).

21. Sea T,:V + V la dilatación T,(v) = 4v. Encontrar un operador lineal T,:V + V tal que T I 0 T, = I y T, 0 TI = 1.

22. Suponer que las transformaciones heales TI .Pz + P2 y T2F3 + P, están defindas por las fórmulas T,(p(x) ) = p(x + 1 ) y T2(p(x)) = x&). Encontrar (T, 0 Tl)(ao + aix + up’).

23. Sea qo(x) un polinomio fijo de grado m, y la función T con dominio Pn definida por la fórmula T(p(x)) = p(q,(x)). a) Demostrar que T es una transformación lineal. b) ¿Cuál es el codominio de T,

24. Con la definición de T3 0 T2 0 TI dada por la fórmula (4), demostrar que a) T3 0 T2 0 TI es una transformación lineal. b) T 3 o T 2 o T I = ( T 3 0 T 2 ) o T l c) T 3 0 T 2 0 T 1 = T 3 0 ( T 2 0 T I )

25. Sea T:R3 + R3 la proyección ortogonal de H3 sobre el plano q. Demostrar que T 0 T = T

26. a) Sean T : V + W una transformación lineal y k un escalar. La función ( k g : V + W se define como (k1](v) = k(T(v)). Demostrar que kT es una transformación lineal.

b) Encontrar ( 3 T ) ( x , , x 2 ) si T:R2 + R2 está expresada por la fórmula T ( x l , xz) =

@x1 - X,’ x2 +x1>.

27. a) Sean T,: V + W y T2: V + W transformaciones lineales. Las funciones ( T , + T2): Y +

W y (T I - T J : V + W se definen como

(TI + T 2 ) W = + T2W (T , - T 2 ) W = TI(V) - TAv)

Demostrar que T I + T2 y T , - T2 son transformaciones lineales.

definidas por las fórmulas TI@, y ) = (2y, 3x) y T2(x, y ) = (y, x).

b) Encontrar (TI + T2)(x, y ) y (TI - í“,)(x, y ) si TI 2’ + R2 y T2:R2 + R2 están

28. a) Demostrar que si al , a2, b , y b, son escalares cualesquiera, entonces la fórmula

m , Y ) = @,x + blY, a2x + b2Y)

defme un operador lineal sobre R2.

Explicar la respuesta. b) ¿La fórmula F(x, y ) = (up? + b,y2, u,.‘ + b p 2 ) define un operador lineal sobre R2?

29. (Para quienes ya estudiaron Cálculo). Sean

D(f) = f’(xj y J(f) = j ; i ( t j dt

Page 456: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8.2 Núcleo y recorrido í 461

las transformaciones lineales de los ejemplos 11 y 12. Encontrar (J 0 0x0 para a) f(x) = x' + 3x + 2 b) f(x) = senx c) f(x) = x

30. Sea {v,, v,, . . . , vn} una base de un espacio vectorial V y sea T V +- Wuna transforma- ción lineal. Demostrar que si T(v,) = T(v,) = ' . . = T(v,) = O, entonces T es la transfor- mación cero.

31. Sea {v,, v,, . . . , vn} una base de un espacio vectorial V y sea T:V -* V un operador lineal. Demostrar que si T(v,) = v,, T(v,) = v,, . . . , T(vn) = Y", entonces T es la transformación identidad sobre V.

8.2 NúCLEO Y RECORRIDO

En esta sección se ampliarán algunas propiedades básicas de las transformacio- nes lineales que generalizan propiedades, y a obtenidas en el texto, de las trans- formaciones matriciales.

NÚCLEO Y Recuérdese que si A es una matriz m x n, entonces el espacio nulo de A consta de RECORRIDO todos los vectores x en R" tales que Ax = O y, por el teorema 5.5.1, el espacio

columna de A consiste en todos los vectores b en Rm para los cuales existe por lo menos un vector x en R" tal que Ax = b. Desde el punto de vista de las trans- formaciones matricides, el espacio nulo de A consta de todos los vectores x en R" que la multiplicación por A aplica o mapea en O , y el espacio columna consta de todos los vectores en Rm que son imágenes de por lo menos un vector en R" bajo la multiplicación por A . La siguiente definición amplía estas ideas a transformacio- nes lineales generales.

Definición. Si T: V + W es una transformación lineal, entonces el conjunto de vectores en V que T mapea o transforma en O se denomina núcleo (kernel o espacio nulo) de T, y se denota por ker(7). El conjunto de todos los vectores en W que son imágenes bajo 7' de por lo menos un vector en V se denomina recorrido de T y se denota por R(7).

~~ ~

Ejemplo 1 Si TA:R" + R"' es la multiplicación por la matriz A m X n, entonces por el análisis que precede a la definición anterior, el núcleo de T' es el espacio nulo de A y el recomdo de T, es el espacio columna de A. A

Ejemplo 2 Sea T: V + W la transformación cero (ejemplo 2 de la sección 8.1). Como T mapea todo vector de Ven O , se concluye que ker(Q = V. Además, como O es la Única imagen bajo T de los vectores en V, se tiene que R ( n = { O } . A

Ejemplo 3 Sea I: V + Vel operador identidad (ejemplo 3 de la sección 8.1). Como I(v) = v para todos los vectores de V, todo vector en Ves la imagen de algún vector

Page 457: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

462 Transformaciones lineales

(a saber, éI mismo); así, R(0 = V. Como el linico vector que I mapea en O es O, se concluye que ker(l) = ( O } . A

Ejemplo 4 Sea 1':R3 * K3 la proyección ortogonal sobre el plano xy. El núcleo de 7' es el conjunto de puntos que T transforma en O = (O, O, O); se trata de los puntos sobre el eje z (figura l a ) . Como T mapea todo punto de R3 en el plano x y , el recorrido de T debe ser algún subconjunto de este plano. Pero todo punto (xo, yo, O) en el plano xy es la imagen bajo í" de algún punto; de hecho, es la imagen de todos los puntos sobre la recta vertical que pasa por (xo, yo, O) (figura lb). Por tanto, R ( n es todo el plano xy. A

Y

Ejemplo 5 Sea T:R2 -z R2 el operador lineal que hace girar a todo vector en el plano xy por un ángulo 8 (figura 2). Como todo vector en el plano xy se puede obtener al girar algún vector por un ángulo 8 (¿por qué?), se tiene que R(T) = R2. Además, el Único vector que gira en O es O, de modo que ker(T) = { O } . A

Ejemplo 6 (Para quienes ya estudiaron CúZcuZo). Sea V = C1(- CQ, CQ) el espacio vectorial de funciones con primeras derivadas continuas sobre (- m, m), sea W =

F(- CQ. m) el espacio vectorial de las funciones con valores reales definidas sobre (-m, CQ) y sea D: V W la transformación derivación D a = f(x). El núcleo de D es el conjunto de funciones en V cuya derivada es cero. Por Cálculo, se trata del conjunto de funciones constantes sobre (- CQ, 00). A

Page 458: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8.2 Núcleo y recorrido / 463

PROPIEDADES En todos los ejemplos anteriores, ker(7) y R(7) resultaron ser subespacios. En los

Y DEL ejemplo 4 el núcleo era una recta que pasa por el origen y el recorrido era un

fortuito; es una consecuencia del siguiente resultado general.

DEL NÚCLEO ejemplos 2, 3 y 5 fueron el subespacio cero o todo el espacio vectorial. En el

RECORRIDO plano que pasa por el origen; ambos son subespacios de R3. Nada de lo anterior es

Teorema 8.2.1. Si T: V -i. W es una transformación lineal, entonces:

a) El núcleo de T es un subespacio de V. b) El recorrido de T es un subespacio de W.

Demostración de a). Para demostrar que ker(7) es un subespacio se debe probar que contiene por lo menos a un vector y es cerrado bajo la adición y la multiplicación escalar. Por el inciso a) del teorema 8.1.1, el vector O está en ker(7'), de modo que este conjunto contiene por lo menos un vector. Sean v, y v2 vectores en ker(7') y sea k cualquier escalar. Entonces

T(v, + v2) = T(v,) + T(v2) = O + O = O

de modo que v1 + v2 está en ker(7). También,

T(kv,) = kT(v,) = M) = O

de modo que kv, está en ker(T).

Demostración de 6). Como T(0) = O , existe por lo menos un vector en R(7). Sean w, y w2 vectores en el recorrido de T y k cualquier escalar. Para demostrar esta parte es necesario probar que w, + w2 y kw, están en el recorrido de T; es decir, se deben encontrar vectores a y b en Vtales que T(a) = w, + w2 y T(b) = k w , .

Como w, y w2 están en el recomdo de T, en V existen vectores al y tales que T(al) = w, y T(%) = w2. Sean a = a, + % y b = ka,. Entonces

Y

T(b) = T ( k a , ) = kT(a,) = kw,

con lo cual se completa la demostración. 0

RANGO Y En la sección 5.6, el rango de una matriz se definió como la dimensión de su espacio NULIDAD DE LAS columna (o renglón) y la nuhdad como la dunensión de su espacio nulo. La siguiente TRANSFORMA- definición extiende estas definiciones a transformaciones lineales generales. CIONES LINEALES Definición. Si T: V -i. W es una transformación lineal, entonces la dimensión del

recorrido de T se llama rango de T y se denota por rango (7'); la dimensión del núcleo se denomina nulidad de T y se denota por nulidad (7).

Page 459: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

464 1 Transjormaciones lineales

Si A es una matriz m x n y TA :R" -+ Rm es la multiplicación por A, entonces por el ejemplo 1 se sabe que ker(T) de 7> es el espacio nulo. deA y que el recorri- do de 7'' es el espacio columna de A . Por tanto, se tiene la siguiente relación entre cl rango y la nulidad de una matriz y el rango y la nulidad de la transformación matricial correspondiente.

Teorema 8.2.2. Si A es una matriz m X n y TA :R" + Rm es la multiplicación por A , entonces:

a) Nulidad ( T A ) = Nulidad (A) b ) Rango ( 7 ' ~ ) =Rango (A).

Ejemplo 7 Sea T4:R6 + R4 la multiplicación por

A = [ - 1 2 0 4 3 - 7 2 o 2 - 5 2 4 4 - 9 2 - 4 -

5 - 1

6 4

Encontrar el rango y la nulidad de TA

Solución. En el ejemplo 1 de la sección 5.6 se demostró que rango (A) = 2 y nulidad (A) = 4. Así, por el teorema 8.2.2 se tiene rango (TA) = 2 y nulidad (A) =

4. A

Ejemplo 8 Sea T:R3 + R3 la proyección ortogonal sobre el plano xy. Por el ejemplo 4, el núcleo de T es el eje z, que es unidimensional, y el recorrido de T es el plano xy, que es bidimensional. Por lo tanto,

nulidad ( T ) = 1 y rango (7 ) = 2 A

TEOREMA DE Recuérdese por el teorema de la dimensión para matrices (teorema 5.6.3) que si A LA DIMENSIóN es una matriz con n columnas, entonces DE LAS TRANSFORMA- rango (A) + nulidad ( A ) = n CIONES LINEALES El siguiente teorema, cuya demostración se pospone hasta el final de la sección,

extiende este resultado a transformaciones lineales generales.

Teorema 8.2.3. (Teorema de la dimensidn para transformaciones lineales). Si T: c' -+ W es una transforrnación lineal de un espacio vectorial V de dimensión n a un espacio vectorial W, entonces

rango(T) + nulidad(T) = n

Page 460: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8.2 Núcleo y recorrido / 465

Expresado en palabras, este teorema establece que para transformaciones lineales la suma del rango y la nulidad es igual a la dimensión del dominio.

OBSERVACI~N. Si A es una matriz m X n y TA:Rn + R"' es la multiplicación por A, entonces el dominio de TA es de dimensión n, de modo que en este caso el teorema 8.2.3 concuerda con el teorema 5.6.3.

Ejemplo 9 Sea T:R2 + R2 el operador lined que hace girar a cada vector del plano xy por un ángulo 8. En el ejemplo 5 se demostró que ker(7) = { O } y que R(T) = R 2 . Así,

rango ( r ) + nulidad ( T ) = O + 2 = 2

lo cual concuerda con el hecho de que el dominio de T es bidimensional. A

DEMOSTRACIóN ADICIONAL

Demostración del teorema 8.2.3. Se debe demostrar que

dim(R(T)) + dim(ker(T)) = n

La demostración se proporcionará para el caso en que 1 I dim(ker(7)) < n. Los casos dim(ker(2)) = O y dim(ker(7)) = n se dejan como ejercicios. Supóngase que dim(ker(7)) = r, y sea v l , . . . , v, una base para el núcleo. Como {vl, . . . , v,) es linealmente independiente, el teorema 5.4.66 establece que existen n - r vectores, v,+~, . . . , vn, tales que {vl, . . . , v,, v , + ~ , . . . , v,} es una base de V. Para completar la demostración, se probará que los n - Y vectores en el conjunto S = { T(V,+~), . . . , T(v,)} forman una base para el recorrido de T. Entonces se concluirá que

dim(R(T)) + dim(ker(T)) = ( n - r ) + r = n

Primero se demostrará que S genera el recorrido de 7'. Si b es cualquier vector en el recorrido de T. entonces b = T(v) para algún vector v en V. Como {v , , . . . , v,, v , + ~ , . . . , vn} es una base para V, entonces el vector v se puede escribir como

v = ClV1 + . . ' + c,v, + c,+ 1v,+ 1 + . . . + c,v,

En virtud de que v l , . . . , v, están en el núcleo de T, se tiene T(v1) = . . = T(v,) =

O , de modo que

b = T(v) = c,+ ,T(v,+ ,) + . . . + c,T(v,)

Así, S genera el recorrido de T

Por último, se demostrará que S es un conjunto linealmente independiente y que, en consecuencia, forma una base para el recorrido de T. Supóngase que algu- na combinación lineal de los vectores en S es cero; es decir,

Page 461: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

466 i Transformaciones lineales

k,, , T(v,+ 1) + . . . + k,T(V,) = o ( 2 )

Se debe demostrar que kr+, = . . . = k, = O . Como T es lineal, (2) se puede escribir de nuevo como

T(k,.+ ,v,+ I + . . . + k,v,) = O

lo cual establece que k,+lvr+l + ' . + k,v, está en el núcleo de T. Por con- siguiente, este vector se puede escribir como una combinación lineal de los vectores básicos (vl. . . . , v,.}, por ejemplo,

k, + Iv,, + . . . + k,v, = k,v, + . . . + k,~, Así,

k,vl + . . . + k,v, - k , , 1~,, I - . . . - k,v, = O

Como {vl, . ' , v,} es linealmente independiente, todas las k son cero; en particular, krtl = . . = k, = O, con lo que se completa la demostración. 0

EJERCICIOS DE LA SECCIÓN 8.2

1. Sea T:R2 + H 2 el operador lineal defiuido por la expresión

i,Cuáles de los siguientes vectores están en K( T)? a) (1, -4). b) ( 5 , O ) . c) (-3, 12).

2. Sea TI?? + R' el operador lineal del ejercicio 1. 2,Cuáles de los siguientes vectores están en ker( T)? a) (5, 10). b) ( 3 , 2 ) . c) (1, 1).

3. Sea T@ + K3 la transfonnación lineal definida por la expresión

¿Cuáles de los siguientes vectores están en K( T)? a) (0,0,6). b) ( I , 3,O). c ) (2,4, 1 ) .

4. Sea TJr' + R3 la transformación lineal del ejercicio 3. (,Cuáles de los siguientes vcc- tores están en ker( T)? a) ( 3 , -8,2, O). b) (O , O, O, 1). C) (O, -4, 1, O).

5. Sea T:P, + P, la transformación lineal definida por T(p(x)) = xp(x). ¿Cuáles de los siguientes vectores están en ker(T)? a) x3. b) O. c ) 1 +x.

Page 462: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8.2 Núcleo y recorrido / 467

6. Sea TF, + P, la transformación lineal del ejercicio 5. ¿Cuáles de los siguientes vectores están en R( o? a) x+x? b) 1 +x. c) 3 -2.

7. Encontrar una base para el núcleo a) del operador lineal del ejercicio l . b) de la transformación lineal del ejercicio 3. c) de la transformación lineal del ejercicio 5.

8. Encontrar una base para el recorrido a) del operador lineal el ejercicio 1. b) de la transformación lineal del ejercicio 3. c) de la transformación lineal del ejercicio 5.

9. Comprobar la fórmula (1) del teorema de la dimensión para a) el operador lineal del ejercicio 1. b) la transformación lineal del ejercicio 3. c) la transformación lineal del ejercicio 5.

En los ejercicios del 10 al 13, sea T la multiplicación por la matnz A . Encontrar a) una base para el recorrido de T. b) una base para el núcleo de T. c) 1 rango y la nulidad de T. d) el rango y la nulidad de A .

- 1 2 0 - 10. A = [i -i] 11. A = 1: - a ]

1 4 5 0 9 3 - 2 ! o - 1

- 1 0 - 1 o - 1 2 3 5 1 8

14. Describir el recorrido y el espacio nulo de la proyección ortogonal sobre a) el plano xz. b) el plano yz. c) el plano cuya ecuación es y = x.

15. Sea V cualquier espacio vectorial y sea T: V + V definida por T(v) = 3v. a) ¿Cuál es el núcleo de T? b) ¿Cuál es el recorrido de 77

16. En cada inciso, usando la información proporcionada para obtener la nulidad de T. a) T A ~ + R? tiene rango 3. b) TP4 + P, tiene rango 1. c) El recorrido de TR' -D R3 es R3. d) TMZ2 + M,, tiene rango 3.

17. Sea A una matriz 7 X 6 tal que A x = O sólo tiene la solución trivial, y sea TR' + R7 la multiplicación por A . Encontrar el rango y la nulidad de A .

18. Sea A una matriz 5 X 7 con rango 4. a) ¿Cuál es la dimensión del espacio solución de Ax = O? b) ¿Es consistente A x = b para todos los vectores b en R'? Explicar la respuesta

Page 463: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

89. Sen 1'8' I.' u11u transformación lineal de R' a cualquier espacio vectorial. Demostrar que el nrhcleo de T es una I-eecta que pasa por el origen, un plano que pasa por el origen, S610 el or'lgen o todo R3

20. Sen 7'. I.; -3. R 3 una transformación l~neal de crlalquicr espac~o vcctorial a R 3 . Demostrar quc el recomdo dc 1" es una recta qrx pasa por el origen, un plano que pasa por el arrgen, sólo e¡ orlgen o todo I?

21. sea T:R' + Hi la multlpiicacion por

a) Ikmostrar que el nilcleo de 7' es una recta que pasa por el origen y encontrar

b) Ikmostrar que el recorrido de T es un plano que pasa por el origen y encontrar una ecuacrollcs paramétncas de Csta.

ecuación de Cste.

22. Demostrar: Si f v , . v 2 , . . , vn) es una base para V y w,, w2, . . . , w n son vectores en I+', no necesariamente distintos, entonces existe una transfommción lineal T:l' + W tal que 7'(vl j = w,, T(v7) = w:, . . . , T(v,) = wn.

23. Lknostrar el teorema de la dimensión en los casos en que a) dim(ker(T)) = O b) dim(ker(7')) = n.

21. Sea 7'1.' -3. I" u 1 1 operador lineal sobre un espacio vectorial V de dimensión finita. Ilemostrar que H ( T ) = I.' s i y sólo SI keI(7') = {O}

25. (Para quienes ya estudiaron Cálculo). Sea DFp, -3. P2 la transformación derivación I)( p) = p'(x). Describir el núcleo de 13.

26. (Para quienes ya estudiaron Cálculo). Sea J:P, + R l a transformación integraci6n .I@) = p ( x ) dx. Describir el núcleo de J.

27. (Pura quienes ya estudiaron Cálculo). Sea D:V -., W la transformación derivación [I( p) =,f(x). donde I ' = C2( - 00, m ) v W = F( - 00, m). Describir el núcleo de D o D.

8.3 TRANSFORMACIONES LINEALES INVERSAS

En la seccibn 4.3 se analizaron las propiedades de las transformaciones lineales uno a uno de R" a R". En esta sección se extenderán tales ideas a transforma- ciones lineales generales.

TRANSFORMA- Recuérdese de la sección 4.3 que una transformación lineal de R" a R" se deno- CIONES LLNEA- mina uno a uno o biunivoca si mapea vectores distintos de R" en vectores distin- LES UNO A UNO tos de R"'. La siguiente definición generaliza esta idea.

Page 464: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8.3 Transformaciones lineales inversas I' 469

Definición. Una transformación lineal T:V + W se llama uno a uno si 7 ma- pea vectores distintos de Ven vectores distintos de W.

~~

Ejemplo 1 Recuérdese por el teorema 4.3.1 que si A es una matriz n X n y TA :Rn + R" es la muitiplicación por A , entonces T> es uno a uno si y sólo si A es una matriz invertible. A

Ejemplo 2 Sea T:Pn + Pn+l la transformación lineal

T(p1 = T ( p ( x ) ) = x p ( x )

analizada en el ejemplo S de la sección S. l . Si

p = p ( x ) = Cg + c,x + ' ' . + c,xn y = y(x) = do + d , ~ + . . . + d,,x"

son polinonlios distintos, entonces difieren en por lo menos un coeficiente. Así,

también difieren en por lo menos un coeficiente. Por tanto, T es uno a uno, ya que mapea polinomios distintos p y q en polinomios distintos T(p) y T(q). A

Ejemplo 3 (Para quienes ya estudiaron Cálculo). Sea

la transformación derivación analizada en el ejemplo 1 1 de la sección S. l . Esta transformación lineal no es uno a uno, ya que mapea en la misma función a funciones que dlfieren por una constante. Por ejemplo.

D ( x 2 ) = D(x2 + 1) = 2x A

El siguiente teorema establece una relación entre una transformación lineal uno a uno y su núcleo.

Teorema 8.3.1. Si T:l/ + W es una transformación lineal, entonces las si- guientes proposiciones son equivalentes.

a ) T es uno a uno. b) El núcleo de T sólo contiene al vector cero; es decir. ker(7) = { O } . c) Nulidad ( r ) = O .

" """"_".-.l.

Denzostrraclhn. Se deja como ejercicm ficil demostrar la equivalcncia de h ) y c); l a dzmostración se completará probando !a equi:.alcncia di: 0) v h).

Page 465: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4 70 i Transformaciones lineales

a =$ 6: Supóngase que T es uno a uno, y sea v cualquier vector en ker(7). Como v y O , están en ker(7), se tiene T(v) = O y T(0) = O . Pero esto indica que v = O , ya que T es uno a uno; asi, ker(7) sólo contiene al vector cero.

b * a: Supóngase que ker(7) = O y que v y w son vectores distintos en es decir.

V " w#O (1)

Para demostrar que T es uno a uno es necesario probar que T(v) y T(w) son vectores dstintos. Pero si este no fuese el caso, entonces se tendría

T(v) = T(w) T(v) - T(w) = o

T(v - w) = o lo cual indica que v - w está en el núcleo de T. Como ker(T) = O , se tiene que

v - w = o

lo cual contradice (1). Así, T(v) y T(w) deben ser hstintos. 0

Ejemplo 4 En cada inciso, determinar si la transformación lineal es uno a uno, encontrando el núcleo o la nulidad y aplicando el teorema 8.3. l .

a) T:R2 + R2 hace girar a cada vector por un ángulo 8. b) T:R3 + R3 es la proyección ortogonal sobre el plano xy. c) T:R6 .+ R4 es la multiplicación por la matriz

- 7 2 0 1 2 - 5 2 4 6 1 4 -9 2 -4 - 4 7

Solución de u). Del ejemplo 5 de la sección 8.2, ker(7") = { O ) , así que T es uno a uno.

Solución de b) . Del ejemplo 4 de la sección 8.2, ker(7') contiene vectores diferentes de cero, de modo que T no es uno a uno.

Solución de c). Del ejemplo 7 de la sección 8.2, nulidad (7') = 4, así que T no es uno a uno. A

Page 466: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8.3 Transformaciones lineales inversas / 471

En el caso especial en que T es un operador lineal sobre un espacio vectorial de dimensiónjnita, entonces se puede agregar otra proposición al teorema 8.3.1.

Teorema 8.3.2. Si V es un espacio vectorial de dimensión finita, Y 1': v -+ I/ es

un operador lineal, entonces las siguientes proposiciones son equivalentes.

a ) T es uno a uno. b ) ker(T) = ( O } . c) Nulidad (7') = O . d) El recorrido de T es V; es decir, R(T) = V.

Demostración. Se sabe que a), b ) y c) son equivalentes, de modo que la demostración se puede completar probando la equivalencia de c) y d). c * d. Supóngase que dim@') = n y que nulidad (7') = O. Por el teorema de la dimensión (teorema 8.2.3) se concluye que

rango(7') = n - nulidad (7') = n

Por definición, rango(T) es la dimensión del recorrido de T. así que el recorrido de T tiene dimensión n. Ahora, por el teorema 5.4.7 se concluye que el recorrido de 1' es V, ya que los dos espacios tienen la misma dimensión.

d * c. Supóngase que dim(V) = n y que R(T) = V. Por estas relaciones se concluye que dim(R(T)) = n, o bien, de manera equivalente, que rango (7') = n. entonces, por el teorema de la dimensión (teorema 8.2.3) se concluye que

nulidad ( r ) = n - rango(T) = n - n = O. - -, Ejemplo 5 Sea TA:R4 + R4 la multiplicación por ji 1

3 1

- 2 -4

1 4

Determinar si TA es uno a uno.

Solución. Como se hizo notar en el ejemplo 1, el problema dado es equivalente a determinar si A es invertible. Pero det(A) = O, ya que los dos primeros renglones de A son proporcionales y, en consecuencia, A no es invertible. Por tanto, TA no es uno auno. A

TRANSFOR- En la sección 4.3 se definió la inversa de un operador matricial uno a uno MACIONES TA:R" +. R" como el operador matricial TA-1:Rn "* R", y se demostró que si w es la LINEALES imagen de un vector x bajo TA, entonces TA-I mapea w de regreso en x. A INVERSAS continuación, estas ideas se extenderán a transformaciones lineales generales.

Page 467: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

472 i Transformaciones lineales

Recuérdese que si T:V "* W es una transformación lineal, entonces el recorrido de T, denotado por R(T), es el subespacio de W que consta de todas las imágenes bajo T de los vectores en V. Si T es uno a uno, entonces cada vector v en V tiene una imagen ÚnIca w = T(v) en R ( 0 . Esta unicidad del vector imagen permite definir una nueva función, denominada inversa de T, denotada por T- l .

que mapea w de regreso en v (figura 1).

Se puede demostrar (ejercicio 19) que T- : R(T) + V es una transformación lineal. Además, por la definición de T" se concluye que

T - '(T(v)) = i" '(w) = v

de modo que T y T u l , cuando se aplican consecutivamente en cualquier orden, cancelan entre sí el efecto que tienen.

OBSERVACI~N. Es importante notar que si T: V + W es una transformación lineal uno a uno, entonces el dominio de T- es el recorrido de T. Éste puede ser o no todo W. Sin embargo, en el caso especial en que T: V "* Ves un operador lineal uno a uno, por el teorema 8.3.2 se concluye que R(T) = V. es decir, el dominio de T- es todo V.

Ejemplo 6 en el ejemplo 2 se demostró que la transformación lineal T:Pn -+ P,+l definida por

n P) = T(P(.Y)) =

es uno a uno; así, T tiene inversa. Aquí, el recorrido de T no es todo P,,,; en vez de ello, R(7) es el subespacio de P,+, que consta de los polinomios con término constante cero. Este hecho es evidente a partir de la fórmula para T:

T ( C , + C'X + . . . + C , Y ) = cox + c,x2 + . . . + C,X"+

Se concluye que T- ' : R ( q -c Pn está definida por la fórmula

T - '(cox + c,x2 + . ' ' + c,x" + 1) = c* + c1x + . . . + c&?

Por ejemplo, en el caso en que n = 4,

T-l(2x - x2 + 5x3 + 3x4) = 2 - X + 5x2 + 3x3 A

Page 468: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8.3 Transformaciones lineales inversas / 473

Ejemplo 7 Sea T:R3 + R3 el operador lineal definido por la fórmula

T(X1, X2, X3) = (3x1 + X2, "2x1 - 4x2 + 3x3, 5x1 + 4x2 - 2x3)

Determinar si T es uno a uno; en caso afirmativo, encontrar T- '(x,, x2, x3).

Solución. Por el teorema 4.3.3, la matriz estándar para T es

3 1 0 [ T I = -2 - 4

(comprobar). Esta matriz es invertible y por la fórmula (1) de la sección 4.3, la matriz estándar para T" es

4 - 2 - 3 [ T " ] = [ T ] - ' =

-12 7 10

Se concluye que

Expresando este resultado en notación horizontal se obtiene

INVERSAS DE El siguiente teorema muestra que la composición de transformaciones lineales uno COMPOSICIONES a uno es uno a uno, y relaciona la inversa de la composición con las inversas de

las transformaciones lineales individuales.

Teorema 8.3.3. Si T , : U + V y T2: V + W son transformaciones lineales uno a uno, entonces:

a) T, 0 TI es uno a uno. h) (T2 0 Tl)-I = r;' 0 T i - ] .

Demostración de a). Se quiere demostrar que T2 o T, transforma vectores distintos de U en vectores distintos de W. Pero si u y v son vectores distintos de U, entonces TI@) y Tl(v) son vectores distintos de V ya que T , es uno a uno. Lo anterior y el hecho de que T2 es uno a uno indican que

Page 469: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

474 1 Transformaciones lineales

T,(TI(U)) Y T,(T,(V))

también son vectores distintos. Pero estas expresiones también se pueden escribir como

de modo que T2 T, transforma u y v en vectores distintos de W.

Demostración de (6). Quiere demostrarse que

(T,~T,)~'(w)=(T,~~T,')(w)

para todo vector w en el recomdo de T, o T I . Para este propósito, sea

de modo que la meta es demostrar que

u = ( T , ' 0 T,- l)(w)

Pero por ( 3 ) se concluye que

(T, 0 T,)(uj = w

o bien, de manera equivalente,

T,(T,(u)) = w

Ahora, aplicando 2";' a cada miembro de esta ecuación y luego T;' a cada miem- bro del resultado, se obtiene (comprobar)

o bien, de manera equivalente,

En otras palabras, el inciso b) del teorema 8.3.3 establece que la inversa de una composición es la composición de las inversas en orden invertido. Este re- sultado se puede extender a composiciones de tres o más transformaciones linea- les; por ejemplo,

En el caso especial en que TA, TB, y Tc, sean operadores matriciales sobre R", en- tonces la fórmula (4) se puede escribir como

Page 470: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8.3 Transformaciones lineales inversas / 475

o bien, de manera equivalente,

En palabras, esta fórmula establece que la matriz estándar para la inversa de una composición es el producto de las inversas de las matrices estándar de los opera- dores individuales en orden invertido.

En los ejercicios se proporcionan algunos problemas en los que se usan las fórmulas (4) y (S).

EJERCICIOS DE LA SECCIÓN 8.3

1. En cada inciso, encontrar ker(Z') y determinar si la transformación lineal T es uno a Uno.

a) T : R2+ R2, donde T(x, y ) = ( y , x) b) T : R2+R2, donde T(x, y) = (O, 2x + 3y) c) T : R 2 + R 2 , donde T(x, y) = (x +y , X - y ) d) T : R2 + R 3 , donde T(x, y ) = (x, y, x + y ) e) T : R2+ R', donde T(x, y ) = (x - y, y - x, 2x - 2y) f) 2 ' : R 3 + R 2 , donde T(x, y, z) = (x + y + z, x - y - z)

2. En cada inciso, sea T.&2 -* R2 la multiplicación por A . Determinar si T tiene inversa; en caso afirmativo, hallar

3. En cada inciso, sea TX3 + R3 la multiplicación por A . Determinar si T tiene inversa; en caso afirmativo, encontrar

1 5 2 1 4 - 1 0 1 a ) A = [ - 1 1 2 1 o l ] " A = [ - ; ; i] c ) A = [ O 1 1 0 1 I] . ) A = [ : -:]

4. En cada inciso, determinar si la multiplicación por A es una transformación lineal uno a uno.

Page 471: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

476 / Transformaciones lineales

1 - 7 1 3 5

2 '1 c) A =

- 1 3 0 0

S. Sea 1'8' -+ R~ la proyección ortogonal sobre la rectay = x (figura 2). a) Encontrar el núcleo de T. b) ¿,Es Tuno a uno? Justificar la conclusión.

Figura 2

6. Sea FA2 + R2 el operador lineal T(x, y) = ("x, y ) que refleja cada punto con respecto al eje y (figura 3) . a) Encontrar el núcleo de T. h) ¿Es T u n o a uno? Justificar la conclusión.

r y

I Figura 3

7. En cada inciso, usando la información dada determinar si T es uno a uno. a) T:Rm + R"; nulidad(T) = O. b) TBn + R"; rango ( T ) = n - 1 c) TRm -+ R"; n < m . d) TBn + Rn; R( T) = R".

8. En cada inciso determinar si la transformación lineal T es uno a uno. a) 7 : P2+P, , donde T(u, + a,x + u2x2) = x(ao + a,x + a$) b) T : P2-+P2, donde T ( p ( x ) ) = p ( x + 1)

9. Sea A una matriz cuadrada tal que det(A) = 0 LLa multiplicación por A es una transformación lineal? Justificar la conclusión.

10. En cada inciso determinar si el operador lineal T X n -+ Rn es uno a uno; en caso afirmativo, encontrar ~ " ( x , , xz, . . . ,x,,).

7 ~ ' (XI, x2, . . . , x n ) . a) T ( . x , , x 2 , . . . , . x , j ) = ( 0 , ~ l , ~ 2 r . . . , x=- , ) b) T(x,,xL, . . . , x , ) = j x , , ~ . , ~ I , . . . , .x?,xi) c) í"(x,, x*, . . . , x,,) = (x2, x3, . . . 1 x,,, XI )

11. Sea TAn + Rn el operador lineal definido por la fórmula

q x , , x*, . . . , x , ) = (a,x1, a,x,, . . . , a,,x,)

a) ¿En qué condiciones T tiene inversa?

Page 472: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8.3 Transformaciones lineales inversas / 477

b) Suponiendo que se cumplen las condiciones determinadas en el inciso a), encontrar una fórmula para T"(xl, x2, . , xn).

12. Sean Tl:R2 + R2 y T2@ + R2 los operadores lineales definidos por las fórmulas

T , ( x , y ) = (x + y, x' " y ) y T,(x, y ) = (2x + y. x - 2y)

a) Demostrar que T I y Tz son uno a uno.

b) Encontrar fórmulas para T," (x , y ) , T;' (x , y ) y (Tz 0 TI)- ' (x, y )

c) Comprobar que (T2 0 = T I p 1 0 T2- l .

13. Sean T;P, + P , y Tz:P, + P, las transformaciones lineales definidas por las fórmulas

a) Encontrar fórmulas para q-' @(x)) , í?;I @(x)) y (T2 O T 1 ) - ' @ ( x ) )

b) Comprobar que (T2 0 T I ) - ¡ = 0 T2-I

14. Sean TAR^ + R3, T g R 3 + R3 y T p R 3 + R3 las reflexiones con respecto al plano xy, al plano xz y al plano yz, respectivamente. Comprobar la fórmula (5) para estos opera- dores lineales.

15. Sea TPl + R2 la función definida por la fórmula

T M x ) ) = (P(O), P( I )I

a) Encontrar T( 1 - 2x). b) Demostrar que T es una transformación lineal. c) Demostrar que T es uno a uno. d) Encontrar T"(2,3) y trazar su gráfica.

16. Demostrar: Si V y W son espacios vectoriales de dimensiones finitas tales que dim W < dim V, entonces no existe ninguna transformación lineal uno a uno T:V + W.

17. En cada inciso, determinar si el operador lineal TMZ2 + MZ2 es uno a uno. En caso afirmativo, encontrar

18. Sea TR2 + R2 el operador lineal defindo por la fórmula T(x, y) = (x + /y, -y) Demostrar que T es uno a uno para todo valor real de k y que T" = T.

19. Demostrar que si T:V + Wes una transformación lineal uno a uno, entonces T":R(T) + Ves una transformación lineal.

20. (Para quienes ya estudiaron CruCulo). Sea JPI + R la transformación integración 1 J(p) = j-, p(x)dx. Determinar si J es uno a uno. Justificar la ccnclusión.

Page 473: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

478 ,, Transformaciones lineales

8.4 MATRICES DE TRANSFORMACIONES LINEALES GENERALES

En esta sección se demostrará que si V y W son espacios vectoriales de dimen- siones3nitas (no necesariamente R" y Rm), entonces con un poco de ingenio cual- quier transformación lineal T: V -+ W .se puede considerar corno una tran$orma- ción matricial. La idea básica es trabajar con las matrices de coordenadas de los vectores, en vez de hacerlo con los vectores mismos.

MATRICES DE

CIONES LINEALES

TRANSFORMA- Supóngase que V es un espacio vectorial n dimensional y que W es un espacio vectorial m dimensional. Si se eligen bases B y B' para V y W, respectivamente, entonces para todo x en V la matriz coordenadas [xIB es un vector en R" y la matriz coordenadas [ T ( x ) ] p es un vector en Rm (figura 1).

A es un vector en V

(n-dimensional)

T X T(x) A es un

I vector en W I (m-dimensional)

A es un i vector en R" [x18

Figura 1

A es un [ Tt4h vector en R~

Si, como se ilustra en la figura 2, se completa el rectángulo sugerido en la figura 1, se obtiene una aplicación de R" a Rm, que se puede demostrar es una transforma- ción lineal. Si se deja que A sea la matriz estándar de esta transformación, en- tonces

La matnz A en (1) se denomina matriz para T con respecto a las bases B y B'.

T mapea Ven W

X T T(x)

I I

t

i

i

Figura 2

La multiplicación por A mapea

R" en R"

Page 474: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8.4 Matrices de transformaciones lineales generales / 479

Después, en esta sección se darán algunos usos de la matriz A en (l), pero primero se mostrará cómo se puede calcular. Para este efecto, supóngase que B = {u1, u2, . . . , U,,} es una base para el espacio n dimensional V, y que B' = {vl, v2, . . . , vm} es una base para el espacio m dimensional W. Se trata de encontrar una matriz m X n

A =

tal que (1) se cumpla para todos los vectores x en V. En particular, se quiere que esta ecuación sea verdadera para los vectores básicos ul, u*, . . . , U,,; es decir,

A [ u I ] B = [ T ( u l ) ] B ' ~ A [ u 2 1 B = [ T ( u 2 ) 1 B r , . . . ) A [ u n l B = [ T ( u n ) l B r ( 2 )

Pero

de modo que

I ' '

O' 1 O

a1 1

a2 1

a12 a12

am2

] =

O

Page 475: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

380 " Transformaciones lineales

Sustituyendo estos resultados en (2) se obtiene

lo cual demuestra que las columnas consecutivas de A son las matrices de coordenadas de

con respecto a la base B'. Así, la matriz para T con respecto a las bases B y B' es

Esta matriz por lo común se denota con el símbolo

[ IR' , B

de modo que la expresión precedente también se puede escribir como

y por (1) esta matriz tiene la propiedad

OBSERVACI~N. Nótese que en la notación [qF8 el subíndice derecho es una base para el dominio de T y que el subíndice izqulerdo es una base para el espacio imagen de T (figura 3 ) .

, E

4 4

Además, obsérvese cómo el subíndice B parece "cancelarse" en la fórmula (4a) (figura 4).

Page 476: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8.4 Matrices de transformaciones lineales generales / 481

MATRICES DE En el caso especial donde V = W (de modo que T: V + V es un operador lineal), es OPERADORES común tomar B = B' al construir una matriz para T. En este caso la matriz resul- LINEALES tante se denomina matriz para T con respecto a la base B y se denota por [ q ~ , en

vez de [ ~ B I B. Si B = {u1, u,, . . . u,}, entonces en este caso las fórmulas (4) y (4a) se convierten en

Y

En términos informales, las expresiones (4a) y (5a) establecen que la matriz para T multiplicada por la matriz de coordenadas para x es la matriz de coordenadas para í"(x).

Ejemplo 1 Sea T:P, * P, la transformación lineal definida por

Encontrar la matriz para T con respecto a las bases estándar

u, = 1, u* =x; v1 = 1, v2 =x, v3 = x2

Solución. A partir de la fórmula dada para T se obtiene

T(u,) = T(1) = (x)jl) = x

T ( U 2 ) = T(x) = (x)(x) = x2

Por inspección es posible determinar las matrices de coordenadas para T(u,) y T(u,) con respecto a B'; éstas son

Page 477: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

482 ' Transformaciones lineales

Ejemplo 2 Sea T:P, -+ P, la transformación lineal del ejemplo 1. Demostrar que la matriz

o 0 1 TI,.., = [a y ]

(obtenida en el ejemplo 1) satisface (4a) para todo vector x = a + bx en P ,

Solución. Como x = p (x) = a + bx, se tiene

T(x) = xp(x) = ax + hx2

Para las bases B y B' del ejemplo I, por inspección se concluye que

[ T(x)],. = [ax + bx2] = a [:I Por tanto,

de modo que (4a) se cumple. A

Ejemplo 3 Sea T:R2 + R3 la transformación lineal definida por

Page 478: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8.4 Matrices de transformaciones lineales generales / 483

Encontrar la matriz para la transformación T con respecto a las bases B = { ul, u2} para R2 y B' = {vl, v2, v3} para R3, donde

Solución. A partir de la fórmula para T,

Expresando estos vectores como combinaciones lineales de vl, v2 y v3 se obtiene (comprobar)

T(u,) = v1 - 2v3, T(u2) = 3v, + v2 - v3

Así,

de modo que

Ejemplo 4 Sea TR2 + R2 el operador lineal definido por

T ( [;;I) = [ - 2x, + + 4x2 "1 y sea B = {ul, u2} la base, donde

a) Encontrar [ q ~ . b) Comprobar que (5a) se cumple para todo vector x en R2

Solución de a) . Por la fórmula dada para T,

Page 479: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

484 Transformaciones lineales

Por consiguiente,

En consecuencia,

Solución de b). Si

x = [:;I es cualquier vector en R2, entonces por la fórmula dada para T

x1 + x2 = [ -2x1 + 4x2]

Para encontrar [xIB y [T(x)IB, es necesario expresar (6) y (7) como combinaciones lineales de u1 y u2. Esto conduce a las ecuaciones vectoriales

Igualando los elementos correspondientes se obtienen los sistemas lineales

k , + k , = x,

k , + 2 k , = x2

Y

c1 + c2 = x, + x2

c , + 2c , = -2x, + 4x2 Resolviendo (10) para k , y k, se obtiene

k , = 2 x 1 -x2, k 2 = -X , +X,

de modo que 2x, - x2

rx1B = [ -x1 +x2]

Page 480: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8.4 Matrices de transformaciones lineales generales i 485

y resolviendo (1 1) para c1 y c2 se obtiene

C I = 4Xl - 2x2, C2 = - 3 X l + 3x2 de modo que

Así,

de modo que (5a) se cumple. A

MATRICES DE Ejemplo 5 B = {u1, u2, . . . , U,,} es cualquier base para un espacio vectorial V de OPERADORES dimensión finita e I: V * Ves el operador identidad sobre V, entonces IDENTIDAD

I ( U , ) = UI, I(u2) = u2, . . . , I(un) = u,

Por consiguiente,

Así,

. . .

. . . ' . .

. . . 1

En consecuencia, la matriz de operador identidad con respecto a cualquier base es la matriz identidad de n X n. Este resultado se pudo haber anticipado a partir de la fórmula (5a), ya que la fórmula produce

[zlB[xlE = ['(')]E = ['IR

lo cual es consistente con el hecho de que [Ijs = I. A

Se deja como ejercicio demostrar el siguiente resultado

Page 481: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

186 1 Transformaciones lineales

Teorema 8.4.1. Si TR" + Rm es una transformación lineal y si B y 8' son las bases estándar para R" y R", respectivamente, entonces

[TI,,,. = [ T I (12)

Este teorema, establece que en el caso especial en que T transforma R" en Rm, la matriz para T con respecto a las bases estándar es la matriz estándar para T. En este caso especial la fórmula (4a) de esta sección se reduce a

[ T ] x = T ( x )

POR QUÉ SON Hay dos razones esenciales para estudiar matrices de transformaciones lineales IMPORTANTES generales, una teórica y otra bastante práctica: LAS MATRICES DE LAS A menudo es posible contestar preguntas teóricas acerca de la estructura de

CIONES finita estudiando simplemente las transformaciones lineales. estas cuestiones LINEALES se consideran con más detalle en cursos más avanzados de álgebra lineal.

aunque se abordarán en secciones ulteriores de este texto. o Estas matrices hacen posible calcular imágenes de vectores usando multipli-

cación matricial. Los cálculos se pueden efectuar rápidamente en compu- tadora.

TRANSFORMA- transformaciones lineales generales sobre espacios vectoriales de dimensión

A fin de enfocar la segunda idea, sea T Y + W una transformación lineal. Como se muestra en la figura 5, la matriz [TIFB se puede usar para calcular T(x) en tres pasos aplicando el siguiente procedimiento indirecto:

1) Calcular la matriz coordenadas [x]~. 2) Multiplicar xB por la izquierda por [nBB para obtener [T(x)lBl. 3) Reconstruir T(x) a partir de su matriz coordenadas [T(x)]p.

Ejemplo 6 Sea T:P, + P2 el operador lineal definido por

T ( p ( x ) ) = P(3X - 5)

es decir, T(co + c I x + c2x2) = co + c1(3x - 5 ) + c2(3x -

Page 482: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8.4 Matrices de transformaciones lineales generales / 487

a) Encontrar T , con respecto a la base B = { 1, x, 2}. b) Aplicando el procedimiento indirecto, calcular T( 1 + 2x + 3 2 ) . c) Comprobar el resultado del inciso b) calculando directamente T(l + 2x +

3x2).

Solución de u). Por la fórmula para T.

T( 1) = 1, T(x) = 3~ - 5, T(x2) = ( 3 ~ - 5)’ = 9x2 - 3 0 ~ + 25

de modo que

Por tanto.

[ 2 1

Solución de 6). La matriz de coordenadas con respecto a B para el vector p = 1 + 2x + 3x2 es

Así, por (5a)

a partir de lo cual se concluye que

T( 1 + 2~ + 3x2) = 66 - 8 4 ~ + 27x2

Solución de c ) . Por cálculo directo

T ( l + 2~ + 3x2) = 1 + 2 ( 3 ~ - 5) + 3(3x - 5)2 = 1 + 6~ - 10 + 27x2 - 9 0 ~ + 75 = 66 - 8 4 ~ + 2 7 ~ ’

lo cual concuerda con el resultado del inciso b). A

Page 483: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

488 / Transformaciones lineales

MATRICES DE A continuación se enunciarán dos teoremas que son generalizaciones de la COMPOSICIONES fórmula (21) de la sección 4.2 y de la fórmula (1) de la sección 4.3. Se omiten las Y TRANSFORMA- demostraciones. CIONES INVERSAS Teorema 8.4.2. Si T , :U + V y T,: V + W son transformaciones lineales y si B.

B" y B' son bases para U, V y W, respectivamente, entonces

[ T, O T, IB 'J = [ T2 IB'.B"[ TI I B 3 (13)

Figura 6

Teorema 8.4.3. Si T:V + V es un operador lineal y si B es una base para V, entonces la siguientes proposiciones son equivalentes.

a) T es uno a uno. b) [qB es invertible.

I Además, cuando estas condiciones equivalentes se cumplen I

OBSERVACI~N. En la expresión (13), nótese cómo el subíntllce interior B" (la base para el espacio intermedo I? parece "cancelarse", quedando como Subindices sólo las bases para el dominio y el espacio imagen de la composición (figura 6) .

Esta cancelación de Subindices interiores sugiere la siguiente extensión de la fórmula (13) a composiciones de tres transformaciones lineales (figura 7).

El siguiente ejemplo ilustra el teorema 8.4.2.

Ejemplo 7 Sea T I P , + P, la transformación lineal definida por

TI(P(X)) = .vP(x)

y sea T2:P2 + P, el operador lineal definido por

Page 484: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8.4 Matrices de transformaciones lineales generales I 489

(T, 0 TI)@, + CIX) = (3x - 5)(c, + CI(3X - 5)) = C0(3X - 5) + Cl(3X - 5)* (16)

En este ejemplo, P , desempeña el papel de U en el teorema 8.4.2 y P, desempeña los dos papeles de V y W, por tanto, en (13) se puede tomar B' = B", de modo que la fórmula se simplifica a

[ T, O TI lB ' ,B = [ T2 IB'[ TI IB',B (17)

Se elegirán B = { 1, x} como la base para P , y B' = { 1. x, x,} como la base para P,. En los ejemplos 1 y 6 se demostró que

Así, por (17) se concluye que

Como comprobación, [T, TilFB se calculará directamente a partir de la fórmula (4). Como B = { 1, x}, por la fórmula (4) con u1 = 1 y u, = x se concluye que

Aplicando (16) se obtiene

(T, 0 Tl)(l) = 3x - 5 y (T2 0 T,)(x) = ( 3 ~ - 5), = 9x2 - 3 0 ~ + 25

Como B' = { 1, x, 2}, a partir de ésto se concluye que

w 2 0 T ~ ) ( ~ N ~ ~ = [-a] y w 2 0 ~ ~ ) ( x ) 1 ~ , = [ -

Page 485: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

490 Transformaciones lineales

Sustituyendo en (19) se obtiene

- 5 25

7',1,,,, = [ ; -3;]

lo cual concuerda con (18). A

EJERCICIOS DE LA SECCIóN 8.4

1. Sea TP, + P3 la transformación lineal d e f ~ d a por T(p(x)) = xp(x). a) Encontrar la matriz para T con respecto a las bases estándar

B = {U,, U*, ~ 3 ) y B' = ~ 2 , vi. vql

donde

U I = I , u2 = x , u3 =x>

v, = 1, v2 =x, vj =x2, v4 =x3

b) Comprobar que la matnz [uFB obtenida en el inciso a) satisface la fórmula (4a) para todo vector x = c o + cIx + e$ en Pz.

2. Sea T:P, + P, la transformación lineal defmida por

T(a, + a , x + U 2 X 2 ) = (a, + a , ) - (2a, + 3 q ) x

a) Encontrar la matriz para T con respecto a las bases estándar B = { 1, x, 2) y B' = 1,

b) Comprobar que la matriz [qF8 obtenida en el inciso a) satisface la fórmula (4a) x paraP2 y P I .

para todo vector x = c o + cIx + cp2 en P2.

3. Sea TPz + P, el operador lineal definido por

T(a, + a,x + a$) = U,) + a,(x - 1) + u2(x - 1)*

a) Encontrar la matnz para T con respecto a la base estándar B = { 1 , x, 2) para P,. b) Cotnprobar que la matriz [7JB obtenida en el inciso a) satisface la fórmula (5a) para

todo vector x = a,, + a,x + up2 en Pz.

4. Sea T X 2 .+ R2 el operador lineal definido por

y sea B = ul , u2 la base para la cual

a) Encontrar [qe. b) Comprobar que la fórmula (5a) se cumple para todo vector x en R2.

Page 486: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8.4 Matrices de transformaciones lineales generales / 49 I

5. Sea T:R2 + R3 definido por

a) Encontrar la matriz [TIpB con respecto a las bases B = { ul , u2} y B' = {v,, V2, V3) ,

donde

b) Comprobar que la fórmula (4a) se cumple para todo vector

en R2

6. Sea TJ3 + R3 defmido por T(x,, x,, x3) = (xl - x,, xz - x,, x1 - x3). a) Encontrar la matriz para T con respecto a la base B' = {vl, v,, v3}, donde

v , = ( l , O , l ) , v 2 = ( 0 , 1, I ) , v 3 = ( 1 . 1,O)

b) Comprobar que la fórmula (5a) se cumple para todo vector x = (x,, x*, x3) en R3.

7. Sea TP2 + P, el operador lineal definido por T(p(x)) = p ( k + 1); es decir,

T(c, + CIX + c2x2) = cg + c1(2x + I ) + cz(2x + 1)2

a) Encontrar [TIB con respecto a la base B = { 1, x, 2). b) Aplicar el procedimiento indirecto ilustrado en la figura 5 para calcular T(2 - 3x +

c ) Comprobar el resultado obtenido en el inciso b) calculando directamente T(2 - 3x 4.2).

+ 4.2).

8. Sea TP, + P, la transformación lineal definida por T@(x)) = xp(x - 3); es decir,

T(c, + c , x + c$) = X(C" + c,(x - 3) + c2(x - 3)2 )

a) Encontrar [qpB con respecto a las bases B = { 1, x, ?} y B = { 1, x, 2,?}. b) Aplicar el procedimiento indirecto ilustrado en la figura 5 para calcular T(l + x -

c) Comprobar el resultado obtenido en el inciso b) calculando directamente T( 1 + x - 2).

2).

Page 487: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

492 / Transformaciones lineales

c) Encontrar una fórmula para T

d) Aplicar la fórmula obtenida en el inciso c) para calcular T

3 - 2 1 o 10. Sea A = [-i 5 :] la matnz de of T : R"R3 con respecto a las bases

(c) Encontrar una fórmul

11. Sea A =

~araT[[ ] ) . (d)Usarlafórmulaobtenidaen(c)paracalcularT

m ) .

la matnz de of T : Pz -+ P, con respecto a la base

E = {v,, v2, v i ) , donde v I = 3x + 3x2, v2 = - 1 + 3x + 2x2, vj = 3 + 7x + 2 2 .

c) Hallar una fórmula para T(uo + a lx + U$).

d) Aplicar la fórmula obtenida en el inciso c) para calcular T( 1 + 2).

a> Encontrar [T(V,)l,, [T(v,)l, y [T(V3)1*. b) Obtener T(v,), T(vJ y T(v3).

12. Sea T, PI + P, la transformación lineal d e f ~ d a por

y sea T2P2 +- P, el operador lineal definido por

T,(p(x j ) = p ( 2 x + 1)

Page 488: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8.4 Matrices de transformaciones lineales generales / 493

SeanB= {l,x} y B ' = {I,x,x?} lasbasesestándarparaP, yP,.

b) Escribir una fórmula que relacione las matrices del ixiso a). c) Comprobar que las matrices del inciso a) satisfacen la fórmula enunciada en el in-

a) Encontrar T2 O TI l B : B ? r21B'> y [ TI l B ' , B .

ciso b).

13. Sea T,:P, + P, la transformación lineal definda por

T,(co + c,x) = 2c0 - 3c,x

y sea T2F2 + P, la transformación lineal definda por

T,(co + c,x + c2xZ) = 3c0x + 3 4 + 3c2x3

S e a n B = { 1 , x } , B " = ( 1 , x , ~ } y B m = { 1 , x , ~ , ~ } .

b) Escribir una fórmula que relacione las matrices del inciso a). c) Comprobar que las matrices del inciso a) satisfacen la fórmula planteada en el

a) Encontrar [ T2 o TI ] B ' . B , [ T21B',B"i Y [ TI 1B':B.

inciso b).

14. Demostrar que si T: V + W es la transformación cero, entonces la matriz T con respecto a bases cualesquiera para V y W es una matnz cero.

15. Demostrar que si T:V + V es una contracción o una dilatación de V (ejemplo 4 de la sección 8. l), entonces la matriz para T con respecto a cualquier base para V es una matriz diagonal.

16. Sea B = {v,, v2, v3, v4) una base para un espacio vectorial V. Encontrar la matriz con respecto a B del operador lineal T V + V defindo por T(v,)= v2, T(v,)= v,, T(v3)= v4, T(v4)= V I .

17. (Para quienes ya estudiaron C6lculo). Sea DIP, + P, el operador derivación D(p)= p'(x). En los incisos a) y b), encontrar la matriz D con respecto a la base B

a) p, = 1, p2 = x , p3 = x 2 (b) p, = 2, p2 = 2 - 3x, p3 = 2 - 3x + 8x2 c) Usar la matriz del inciso a) para calcular D(6 - 6x + 242). d) Repetir las instrucciones del inciso c) para la matriz del inciso b).

= {PI, P,. PJ

18. (Para quienes ya estudiaron CcuCurO). En cada inciso, B = {f,, f2, f,} es una base para un subespacio V del espacio vectorial de funciones con valores reales defindas sobre la recta real. Encontrar la matriz con respecto a B del operador derivación D: V -D V.

a) f, = 1, f2 = senx, f3 = cos x b) f, = 1, f2 = e x , f3 = e 2 x c) f , = e2x, f2 =xeZx, f3 =x2eZX

19. Demostrar: Si B y B' son las bases estándar para R" y R"', respectivamente, entonces la matnz de la transformación lineal T8" + R"' con respecto a las bases B y B' es la matriz estándar para T.

Page 489: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

494 Transformaciones lineales

8.5 SEMEJANZA

La matriz de un operador lineal T: V + V depende de la base elegida para V. Uno de los problemas fundamentales del álgebra lineal es elegir una base para V que simplijque la matriz para T; por ejemplo, diagonal o triangular. En esta sección se estudiará este problema.

ELECCIÓN DE BASES A FIN DE OBTENER MATRICES SIMPLES PARA OPERADORES LINEALES

Las bases estándar no necesariamente producen las matrices más simples para ope- radores heales. Por ejemplo, considérense el operador lineal TR2 += R2 definido por

T ( [ r : l ) = [ - 2x, ' I ' + 4x, ' 2 ]

y la base estándar B = {el, e2> para R2, donde

Por el teorema 8.4. I, la matriz para T con respecto a esta base es la matriz están- dar para T; es decir,

TI, = [ T I = [ V e , ) I T(e2)l

de modo que

En comparación, en el ejemplo 4 de la sección 8.4 se demostró que si

entonces la matriz para T con respecto a la base B' ={ ul, u2} es la matriz diagonal

Esta matriz es más "simple" que (2) en el sentido de que las matrices diagonales poseen propiedades especiales que no tienen las matrices generales.

Uno de los temas principales en cursos más avanzados de álgebra lineal es determinar la "forma más simple posible" que se puede obtener para la matriz un operador lineal al elegir la base correcta. Algunas veces es posible obtener una

Page 490: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8.5 Semejanza / 495

RELACI~N ENTRE LAS MATRICES DE

Y LOS OPERADORES IDENTIDAD

TRANSICI~N

matriz &agonal (como se acaba de hacer, por ejemplo); otras veces es necesario establecer una matriz triangular o de alguna otra forma. En este texto sólo será po- sible mencionar la importancia de este tema importante.

El problema de determinar una base que produzca la matriz más simple posible para un operador heal T V - V se puede atacar encontrando primero una matriz para T con respecto a cualquier base; por ejemplo una base estándar, cuando sea posible, y luego cambiando la base de manera que se simplifique la matriz. Antes de prosegw con esta idea, será de utilidad repasar algunos conceptos sobre cambio de base.

Recuérdese por la ftrmula (8) de la sección 6.5 que si B = {ul, u2, . . . , un} y B' = { u , , u , , . . . , u L} son bases para un espacio vectorial V, entonces la

1 1

matriz de transición de B"a B está definida por la fórmula

p = [[u;], j [u;], j ' ' ' : [ull,]

Esta matriz posee la propiedad de que para todo vector v en

P [ V I B ' = [ V I ,

es decir, la multiplicación por P mapea la matriz coordenadas para v con respecto a B' en la matriz coordenadas para v con respecto a B [véase la fórmula (7)] en la sección 6.51 . En el teorema 6.5.4 se demostró que P es invertible y P" es la ma- triz de transición de B a B'.

El siguiente teorema proporciona otro punto de vista útil sobre las matrices de transición; muestra que la matriz transición de una base B' a una base B se puede considerar como la matriz operador identidad.

Teorema 8.5.1. Si B y B' son bases para un espacio vectorial V de dimensión finita y si I:V + V es el operador identidad, entonces [qBp es la matriz de transición de B' a B.

Demostración. Supóngase que B = {u1, u2, . . . , un} y B' =

{ u , u , . . . , u }son bases para V. Usando el hecho de que I(v) = v para todo v en V, por la fórmula (4) de la sección 8.4, con B y B invertidas, se concluye que

# ,

Así, por (5), se tiene [IjBg' = P, lo cual demuestra que [JIBB' es la matriz transición de B' a B. 0

El resultado de este teorema se ilustra en la figura l .

Base = B' Base = B

Figura 1 I [ Z ] B , B 8 es la matriz de transici6n de B' a B. I

Page 491: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

496 ' Transformacrones lineales

EFECTO DEL Ahora ya es posible considerar el problema principal de esta sección. CAMBIO DE BASES SOBRE MATRICES DE

Problema. Si B y B' son dos bases para un espacio vectorial V de Imensión

OPERADORES finita y si T: V + V es un operador lineal, ¿qué relación existe, si la hay, entre

LINEALES las matrices [go y [ qF?

Esta pregunta se puede contestar considerando la composición de los tres operado- res lineales sobre V que se ilustra en la figura 2.

I I' I - Y V

V V V V Figura 2 Base = B' Base = B Base = B Base = B

En esta figura v primero es mapeado en sí mismo por el operador identidad, luego v es mapeado en T(v) por T, luego T(v) es mapeado en sí mismo por el operador identidad. Los cuatro espacios vectoriales de la composición son los mismos (a saber, 4; sin embargo, las bases para los espacios varían. Como el vector inicial es v y el vector final es T(v), la composición es la misma que T; es decir,

T = 10 T a l ( 7 )

Si, como se ilustra en la figura 2, a los espacios vectoriales primero y último se asigna la base B' y a los dos espacios de enmedio se asigna la base B, entonces por (7) y la fórmula (15) de la sección 8.4 (con un ajuste apropiado en los nombres de las bases) se concluye que

[ T I B ' , B ' = [ I o T o l l B ' , B r = [ I I B ' , R [ T I B , B [ l l E , E ' (8)

o bien, en notación más simple,

Pero por el teorema 8.5.1 se deduce que [dBY,es la matriz transición de B' a B y que, en consecuencia. I B'B es la matriz transmon de B a B'. Luego, si se hace P =

[ABB" entonces P" = [AEB, de modo que (9) se puede escribir como

[ T I , , = P ' [ T],P

En resumen. se tiene el siguiente teorema.

Teorema 8.5.2. Sea T:V + V un operador lineal sobre un espacio vectorial V de dimensión finita, y sean B y B' bases para V. Entonces

I I

I donde P es la matriz de transicion de B' a B.

.. .

Page 492: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8.5 Semejanza / 497

Advertencia. Cuando se aplica el teorema 8.5.2 es fácil olvidar si P es la matriz transición de B a B' (incorrecto) o de B' a B (correcto). Puede ser útil escribir (10) en la forma (9), teniendo en mente que los tres subindices "interiores" son los mismos, y que los dos subindices exteriores son los mismos:

Una vez que se domina este patrón, basta recordar que P = [ARB' es la matriz transición de B' a B y que P" = [AFB es su inversa.

Ejemplo 1 Sea TR2 - R2 definido por

T ( [::I) = [ -2:: : 4 3

Encontrar la matriz T con respecto a la base estándar B = {el, e,} para R2, y luego ap!icqr el teorema 8.5.2 para encontrar la matriz T con respecto a la base B' =

{UI.U~ }, donde

u ; = [ ; ] y u;=[;]

Solución. En esta sección ya se demostró ver (2) que

Para encontrar [ a partir de (10) es necesario encontrar la matriz transición

[ver (5)]. Por inspección, u; = e , + e2

u; = e, + 2e2

Page 493: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

498 7iansformaciones lineales

de modo que

Así, la matriz transición de B' a B es

El lector puede comprobar que

de modo que por el teorema 8.5.2 la matriz T con respecto a la base B' es

lo que concuerda con (4). A

SEMEJANZA La relación en la fórmula (10) es tan importante que existe terminología asociada con ella.

Definición. Si A y B son matrices cuadradas, se dice que B es semejante a A si existe una matriz invertible P tal que B = P"AP.

OBSERVACI~N. Nótese que la ecuación B = P- 'AP se puede volver a escribir como

Haciendo Q = P" se obtiene

que establece que A es semejante a B; por tanto, B es semejante a A si y sólo si A es semejante a B; así, en general, simplemente se &rá que A y B son semejantes.

INVARIANTES Las matrices semejantes a menudo tienen propiedades en común; por ejemplo, si A BAJO y B son matrices semejantes, entonces A y B tienen el mismo determinante. Para SEMEJANZA darse cuenta de que así es, supóngase que

B = P"AP

Page 494: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8.5 Semejanza / 499

Entonces

det(B) = det( P"AP) = det( P")det(A)det( P) 1

det ( P) - - det ( A ) det ( P) = det ( A )

Se hace la siguiente definición.

Definición. Se dice que una propiedad de las matrices cuadradas es invariante bajo semejmzu si tal propiedad es comparbda por dos matrices semejantes cuales- quiera.

En los términos de esta definición, el determinante de una matriz cuadrada es un inva- riante bajo semejanza. En la tabla 1 se enumeran otros invariantes bajo semejanza im- portantes. La demostración de algunos de los resultados de la tabla 1 se proporciona en los ejercicios.

Por el teorema 8.5.2 se concluye que dos matrices que representan al mismo operador lineal T:V + V con respecto a dos bases diferentes son semejantes. En- tonces, si B es una base para V y la matriz [qB posee alguna propiedad que no varía bajo semejanza, entonces para toda base B' la matriz [qE tiene la misma propiedad. Por ejemplo, para dos bases cualesquiera B y B' se debe tener

Por esta ecuación se concluye que el valor del determinante depende de T, pero no de la base particular que se usa para obtener la matriz para T. Así, el determinante se puede considerar como una propiedad del operador lineal T; de hecho, si V es un espacio vectorial de dimensión finita, entonces el determinante del operador lineal T se puede dejnir como

TABLA l. Znvariantes bajo semejanza

Propiedad A y P"AP tienen el mismo determinante. Determinante Descripción

A es invertible si y sólo si P- 'AP es invertible. Invertibilidad

A y P"AP tienen el mismo rango.

Nulidad

Polinomio característico

A y P"AP tienen la misma traza. Traza

A y P-lAP tienen la misma nulidad.

A y P"AP tienen los mismos eigenvalores. Eigenvalores

A y P"AP tienen el mismo polinomio característico.

Dimensión del Si 1 es un eigenvalor de A y P"AP, entonces el eigenespacio eigenespacio de A correspondiente a 1 y el

eigenespacio de P"AP correspondiente a 1 tienen la misma dimensión.

Page 495: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

det (T) -= det([ TIR)

donde B es cualquier base para V.

Ejemplo 2 Sea T:R2 + R2 definido por

T ( [ ~ J ) = [ -2:: 14zI]

Encontrar det(7).

Solución. Puede elegirse cualquier base B y calcular det( [ TIB). Si se considera la base estándar, entonces por el ejemplo 1

de modo que

de t (T)= 1 ' 1 = 6 - 2 4

Si se hubiese elegido la base B' = {u1, u2} del ejemplo 1, entonces se hubiera obtenido

Por tanto

2 0 o 3

d e t ( T ) = 1 1 = 6

lo cual concuerda con el cálculo precedente. A

UN EJEMPLO Ejemplo 3 Sea 1 la recta en el plano xy que pasa por el origen y forma un GEOMÉTRICO ángulo con el eje x positivo, donde O 5 8 < n. Como se ilustra en la figura 3 ,

sea T:R2 + R2 el operador lineal que mapea cada vector en su reflexión con respecto a la recta 1.

Page 496: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8.5 Semejanza / 501

a) Encontrar la matriz estándar para T. b) Encontrar la reflexión del vector x = (1, 2) con respecto a la recta 1 que pasa

por el origen y forma un ángulo 8 = n/6 con el eje x positivo.

Solución de a). Se podría proceder como en el ejemplo 5 de la sección 4.3 e intentar construir la matriz estándar a partir de la fórmula

B' = {u;, u;}

es la base que consta de un vector unitario u; a lo largo de 1 y de un vector unitario i2 perpendicular a I (figura 4).

f '

Una vez que se ha encontrado [TJE se efectúa un cambio de base para en- contrar [qB. Los cálculos son como sigue:

T(u;) = U ; y T(u;) = -U;

de modo que

Por tanto,

Por los cálculos en el ejemplo 6 de la sección 6.5, la matriz transición de H' a B es

.. . .

Page 497: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

502 1 Transformaciones lineales

Por la fórmula (10) se deducs que

[ T I , = P[ T],,P"

Así, por (12) la matriz estándar para T es

[ T I = P[ T],#P" = [cos 8 -senO][l O][ cos 8 sen8 sen8 cos 8 O - 1 -sene cos 0

cos2 8-sen28 2 sen8cos 8 2 sen e cos 8 sen2 8 - cos2 8

cos 28 sen 28 sen28 -cos 28 1

Solución de b) . Por el inciso a) se concluye que la fórmula para T en notación matricial es

EIGENVALORES DE UN OPERADOR LINEAL

Sustituyendo 8 = n/6 en esta fórmula se obtiene

de modo que

Los eigenvectores y los eigenvalores se pueden definir para operadores lineales también como matrices. Un escalar A se denomina eigenvalor de un operador lineal T: Y + V si en V existe un vector x diferente de cero tal que Tx = Ax. El vector x se denomina eigenvector de T correspondiente a A. De manera equivalente, los eigenvectores de T correspondientes a A son los vectores diferentes de cero en el núcleo de AI - T (ejercicio 15). Este núcleo se denomina eigenespaciu de T correspondiente a A.

Se puede demostrar que si V es un espacio vectorial de dmensión finita y B es cualquier base para Y, entonces

l. Los eigenvalores de T son iguales a los eigenvalores de [ TIB. 2. Un vector x es un eigenvector de T correspondiente a A si y sólo si su matriz

coordenadas [x]B es un eigenvector de [ TIB correspondiente a A.

Page 498: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8.5 Semejanza 1' 503

Se omiten las demostraciones.

Ejemplo 4 Encontrar eigenvalores y bases para los eigenespacios del operador lineal T:P, + P, definido por

Solución. La matriz Tcon respecto a la base estándar B = { 1, x, x2} es

(comprobar). Los eigenvalores de T son 1 = 1 y 1 = 2 (ejemplo 5 de la sección 7.1). También por ese ejemplo, el eigenespacio de [TJB correspondiente a 1 = 2 tiene la base [u1, u,}, donde

y el eigenespacio de I T J B correspondiente a 1 = 1 tiene la base { u3}, donde

Las matrices ul, u, y u3 son las matrices de coordenadas con respecto a B de

p1 = - 1 + 2 , p2 = x, p3 = - 2 + x + x2

Así, el eigenespacio de T B correspondiente a 1 = 2 tiene la base

y el correspondiente a 1 = 1 tiene la base

(p3) = ( - 2 + x + x 2 }

Como comprobación, el lector debe usar la fórmula dada para T a fin de verificar que í"(PI) = 2P,> T(P,) = 2P, Y T(P3) = P3. A

Ejemplo 5 Sea T:R3 -, R3 el operador lineal definido por

Page 499: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

504 / Transformaciones lineales

Encontrar una base para R3 con respecto a la cual la matriz para T sea diagonal.

Solución. Primero se encontrará la matriz estándar para Tr luego se buscarh un cambio de base que diagonalice la matriz estándar.

Si B = {el, e2, e3> denota la base estándar para R3, entonces

de modo que la matriz estándar para T es

Ahora se quiere cambiar de la base estándar B a una nueva base B' = {uI,u2,u3} a fin de obtener una matriz diagonal para T. Si se hace que P sea la matriz transición de la base desconocida B' a la base estándar B, entonces por el teorema 8.5.2 las matrices T y [qB' se relacionan mediante

, ( I

En el ejemplo 1 de la sección 7.2 se encontró que la matriz la expresión (1 3) es diagonalizada por

- 1 o -2-

1 o 1- P = [ o 1 1

Como P representa la matriz transición de la base B' = (ul,u2,u,>a la base estándar B = {el, e2, e,}, las columnas de P son [ u;]B, [ &IB, y [ u3IB, de modo que

$ 9 ,

Por tanto,

u; = ( - l)e, + (O>e, + (l)e3 =

Page 500: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8.5 Semejanza i 505

U; = (O)e, + (I)e, + &Ve3 = 1 [:I U; = (-2)e, + (I)e2 + (])e3 =

son vectores básicos que producen una matriz diagonal para [í''IP. Como compro- bación, en seguida se calculará directamente [í''IB'. Por la fórmula dada para T se tiene que

T(u;) = [ -p] = 2u;, T(&) = [i] = 2 4 , T(u;) = [ -y] = U;

Esto es consistente con (14), ya que

EJERCICIOS DE LA SECCIóN 8.5

En los ejercicios del 1 al 7 encontrar la matnz T con respecto a B, y usando el teorema 8.5.2 para calcular la matriz T con respecto a B'.

1. T.R2 + R2 está definido por

B = {u,, u2} y B ' = {vl , v2}, donde

Page 501: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

506 í Transformaciones lineales

2.

3.

4.

5.

6,

7.

8.

9.

10.

11.

TR2 + R2 está definido por

TR2 + R2 es la rotación de 45O con respecto al origen; B y B son las bases del ejercicio 1.

TR3 + R3 está definido por

T( [;;I) [ ' XI +:,-x3] + 7x3

B es la base estándar para R3 y B = {v,, v2, v3}, donue

TB3 + R3 es la proyección ortogonal sobre el plano q, B y B' son como en el ejercicio 4.

TB2 + R2 está definido por T(x) = 58; B y B son las bases del ejercicio 2

TP, + P , está definido por T(ao + a,x) = a. + a,(x + 1); B = {p,, pz} y B = {q,, q2}, donde p, = 6 + 3x, p2 = 10 + 2x, q, = 2, q2 = 3 + 2x.

Encontrar det(T) a) T : R2-+R2, donde T(x,, x,) = (3x, - 4x,, -x1 + 7x,) b) T : R3-+R3, donde T ( x , , x,, x3) = (x1 -x,, x, - xj, xj - xI) c) T : P2+ P,, donde T(p(x)) = p(x - 1)

Demostrar que las siguientes características son invariantes bajo semejanza a) Rango. b) Nulidad. c) Invertibilidad.

Sea TP4 + P4 el operador lineal definido por la fórmula T@(x)) =p(2x + 1). a) Encontrar una matnz para T con respecto a alguna base conveniente; luego, usando

b) Con el resultado del inciso a), determinar si T es uno a uno.

En cada inciso, hallar una base para R2 con respecto a la que la matriz para T sea dia- gonal.

el resultado del ejercicio 9, encontrar el rango y la nulidad de T.

Page 502: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

8.5 Semejarlza i 507

a) T( [::I) = [ 2x, - + 4x2 ”1 b) T ( [::I) = [ - 4x1 3x1 + x2

12. En cada inciso, encontrar una base para R3 con respecto a la que la matriz para T sea diagonal.

13. Sea TP, -* P, defindo por

T(u, + U,X + a2x2) = (5u0 + 6 ~ , + 2u2) - ( U , + ~ u , ) x + (uo - 2u2)x2

a) Encontrar los eigenvalores de T. b) Hallar bases para los eigenespacios de T

14. Sea TMZ2 + Mz2 definido por

.([: ;I)= [ b - 2 c 2c u + c ] d

a) Encontrar los eigenvalores de T. b) Obtener las bases para los eigenespacios de T.

15. Sea 1 un eigenvalor de un operador lineal T V + V. Demostrar que los eigenvectores de T correspondientes a I son los vectores diferentes de cero en el núcleo de II - T.

16. Demostrar que si A y B son matrices semejantes, entonces A’ y BZ también son semejantes. De manera más general, demostrar que Ak y Bk son semejantes, donde k es un cualquier entero positivo.

17. Sean C y D matrices m X n, y sea B = {v,, v,,. . . , vn} una base para un espacio vectorial V. Demostrar que si C[x], = D[x], para todo x en V, entonces C = D.

18. Sea I una recta en el plano xy que pasa por el origen y forma un ángulo 8 con el eje x positivo. Como se ilustra en la figura 5, sea TB2 + R2 la proyección ortogonal de R2 sobre 1. Con el método del ejemplo 3, demostrar que

[ I]) = [ cos2 e sen O cos e] [ ;] sene cos e sen2 e

[Nota Ver el ejemplo 5 de la sección 4.3.1

t ” y (X.”)

\ 1

Page 503: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

508 / Transformaciones lineales

EJERCICIOS COMPLEMENTARIOS

L. Sean A una matriz n X n, B una matriz n X 1 diferente de cero y x un vector en R" expresado en notación matricial. ¿Es T(x) = Ax + B un operador lineal sobre R"? Justificar la respuesta.

2. Sea

A = [ cos 8 -sen0 sen8 cos 0 1

a) Demostrar que

A'= [ cos 28 -sen28 cos 30 -sen30 sen20 cos 20

y A 3 = [ sen30 cos 30 1

b) Conjeturar la forma de la m a w A" para cualquier entero positivo n. c) Considerando el efecto geométrico de TB2 + R2, donde T es la multiplicación por

A , obtener geométricamente el resultado del inciso b).

3. Sea vo un vector fijo en un espacio V con producto interior, y sea T:V -D V definido por T(v) = (v, vo)vo. Demostrar que T es un operador lineal sobre V.

4. Sean Y, , Y,, . . . , vm vectores fijos en R", y sea TR" + Rm la función definda por T ( x ) = (x * v,, x . v2, . . . , x * vm), donde x . vi es el producto interior euclidiano sobre R". a) Demostrar que T es una transformación lineal. b) Demostrar que la matriz con vectores renglón vl, v2, . . . , vm es la matriz estándar

. I

para T.

5. Sean fe,, e2, e3, e4} la base estándar para @ y T@ + R3 la transformación lineal para la cual

T ( e , ) = (1, 2. 11, 7Ye2) = ( O , 1, O), V e , ) = (1, 3, O), T(e,) = ( 1 , 1, 1)

a) Encontrar bases para el recomdo y el núcleo de T. b) Encontrar el rango y la nulidad de T.

6. Supóngase que los vectores en R3 se denotan por matrices de 1 X 3, y definase TR3 -D

R3 por

-1 2 4-

m x , x2 %I) = [x, x2 % I / 3 O I ] 2 2 5

a) Encontrar una base para el núcleo de T. b) Encontrar una base para el recomdo de T.

Page 504: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Ejercicios complementarios / 509

7. Sean B = {v,, v,, v3, v4} una base para un espacio vectorial V y T:V + V el operador lineal para el que

T(V,) = V I + v2 + v3 + 3v4 T(v,) = V I - v2 + 2v, + 2v, T(v,) = 2v, - 4v2 + SV, + 3v, T(v,) = -2v1 + 6v2 - 6v3 - 2 ~ 4

a) Encontrar el rango y la nulidad de T. . b) Determinar si T es uno a uno.

8. Sean V y W espacios vectoriales, T, TI y T, transformaciones lineales de V a W y k un escalar. Nuevas transformaciones, TI + T, y kT, se definen mediante las fórmulas

(TI + T2)(x) = T d X ) + T2(x)

(kT)(x) = k(T(x))

a) Demostrar que (TI + T,): V W y kT: V + W son transformaciones lineales. b) Demostrar que el conjunto de todas las transformaciones lineales de V a W con las

operaciones del inciso a) forman un espacio vectorial.

9. Sean A y B matnces semejantes. Demostrar lo siguiente: a) y B~ son semejantes. b) Si A y B son invertibles, entonces A" y B" son semejantes

10. (Teorema alferna&ivo de Fredholm). Sea T: V + V un operador lineal sobre un espacio vectorial n dimensional. Demostrar que se cumple exactamente una de las siguientes proposiciones: i) La ecuación T(x) = b tiene una solución para todos los vectores b en V. ii) Nulidad de T > O.

11. Sea TM,, + M,, el operador lineal definido por

Encontrar el rango y la nulidad de T.

12. Demostrar: Si A y B son matrices semejantes y si C y D son matrices semejantes, entonces A y C son matrices semejantes.

13. Sea TM,, + M,, el operador lineal defindo por T(M) = MT. Encontrar la m a w para T con respecto a la base estándar para M2,.

14. Sean B = {u1, u2, u3} y B' = {v, , v,, v3} bases para un espacio vectorial V, y sea

P = [ ! - j ij la matriz transición de 6' a B a) Expresar v l , v2, v3 como combinaciones lineales de ul, u2, u3.

Page 505: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

51 O _/' lransformaciones lineales

b) Expresar u , , u*, u3 como combinaciones lineales de v, , v2, vj

15. Sean B = {u,, u2, u3} una base para un espacio vectorial V y T:V * Y un operador lineal tal que

- 3 4 7

Encontrar [TIB', donde 8 = {vl , v2, v3] es la base para Y definida POI

16. Demostrar que las matrices

son semejantes, pero que

[-1 -:I y [ 1 o] - I 2

no lo sox

17. Supóngase que T: V + Ves un operador lineal y que B es una base para V tal que para cualquier vector x en V

Encontrar [ TI,.

18. Sea T:V + Vun operador lineal, Demostrar que T es uno a uno si y sólo si det(l") f O

19. (Para quienes ya esfudimon Cálculo). a) Demostrar que la función D:C2(- m , m ) + F( - m , QJ) definida por D ( f ) =f'(x) es

h) Encontrar una base para el núcleo de D. c) Demostrar que la fimción que satisface la ecuación D ( f ) =Ax) forma un subespacio

una transformación lineal.

bidimensional de C 2 ( - m , m), y encontrar una base para este subespacio.

20. Sea TP2 + R3 la función d e f ~ d a por la fórmuia

T(P( -d ) = P ( 0 ) r:J a) Encontrar T(x' + 5x + 6). b) Demostrar que T es una transformación lineal c) Demostrar que T es uno a uno. d) Encontrar

Page 506: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Ejercicios complementarios 1 51 1

e) Trazar la gráfica del polinomio del mciso d).

21. Sean xl, x, y,x3 números reales distintos tales que x , < x, < x3, y sea TP, +R3 la función definida por la fórmula

a) Demostrar que T es una transformación lineal. b) Demostrar que T es uno a uno. c) Comprobar que si a l , a2 y a3 números reales cualesquiera, entonces

donde

d) ¿Qué relación existe entre la gráfica de la función

a,P,(x) + @2(4 + @,(X)

Y 10s puntos (X1> al), (x,. a2) Y (x3, a,)?

22. (Para quienes ya estudiaron CcuCub). Sean p(x ) y q(x) funciones continuas, y sea V el subespacio de C( - m , 00) que consta de todas las funciones que son derivables dos veces. L: V * V se define como

a) Demostrar que L es un operac'or lineal. b) Considérese el caso especial en que p ( x ) = O y q(x) = l . Demostrar que la fun-

ción $(x) = c, sen x + c2 cos : es el espacio nulo de L para todos los valores reales de c, y c2.

23. (PWQ quienes ya estudiaron CcuCub). Sea DPn + P, el operador derivación D(p) = p' . Demostrar que la matriz para D con respecto a la base B = { 1, x, 2, . . . , X} es

-0 1 o o ' ' _ o 1 O O 2 O " ' O O O O 3 " ' O . . . . . . . . . . . . 0 O O O " ' n 0 0 0 0 " ' 0

Page 507: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

-5 I 2 ' Transformaciones lineales

24. (Para quienes ya estudiaron Cdkulo). Puede demostrarse que para cualquier número real c, los vectores

I , 1 - l ' , --. . . . , (x ~~ c.)> ( x ~ c.)"

2! I2 !

forman una base para P,,. Encontrar la matriz para el operador derivacion del qerclcio 23 con respecto a esta base.

25. (Para quienes ya estudiaron Cálculo). Sea J:P, += P,, la transformación integración definida por

(u,,+a,x+"'+cl,,x")d.~=a,,s+-.u u1 2 + . . . + a , * " " 2 n + I

donde p = U + + . . . + a,.". Encontrar la matriz para J con respecto a las bases estándar para P,, y Pn+, .

Page 508: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.1 APLICACIONES A LAS ECUACIONES DIFERENCIALES

Muchas leyes de fisica, química, biología y economia están descritas en términos de ecuaciones diferenciales; es decir, ecuaciones en las que aparecen funciones y sus derivadas. El objetivo de esta sección es ilustrar una forma en que se puede aplicar el álgebra lineal para resolver ciertos sistemas de ecuaciones diferen- ciales. El alcance de esta sección es corto, aunque ilustra un área importante de aplicación del álgebra lineal.

TERMINOLOGÍA Una de las ecuaciones diferenciales más simples es

donde y =fix) es una función desconocida a determinar, y' = dy/dx es su derivada y a es una constante. Como casi todas las ecuaciones diferenciales, (1) tiene infinidad de soluciones; se trata de las funciones de la forma

y = tea' (2 1

donde c es una constante cualesquiera. Cada función de esta forma es una solución de y' = ay, ya que

y' = caeaX - - QY

Page 509: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

514 / Temas complementarios

SISTEMAS LINEALES DE ECUACIONES DE PRIMER ORDEN

Recíprocamente, toda solución de y' = ay debe ser una función de la forma cem (ejercicio 7). de modo que (2) describe las soluciones de y' = ay. La expresión (2) se denomina solución general de y' = ay.

Algunas veces el problema físico que genera una ecuación diferencial impone alguna condición agregada que permite aislar una solución particular de la solución general. Por ejemplo, si se requiere que la solución de y' = ay cumpla la condición agregada

y(0) = 3 (3 )

es decir, y = 3 cuando x = O, entonces al sustituir estos valores en la solución ge- neral de y = ce" se obtiene un valor para c, a saber,

Así,

es la única solucih de y' = a-v que satisface la condición agregada. Una condición como (3), que especifica el valor de la solución en un punto, se denomina condición inicial, y el problema de resolver una ecuación diferencial sujeta a una condición inicial se denominaproblema con valor inicial.

En esta sección se explica cómo resolver sistemas de ecuaciones diferenciales de la forma

donde y1 =fi(x), yz =&(x), . . . , yn =&(x) son funciones que serán calculadas y las a,, son constantes. En notación matricial, (4) se'puede escribir como

o, más brevemente, como Y' = A Y

Ejemplo 1

a) Escribir el siguiente sistema en forma matricial:

Page 510: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.1 Aplicaciones a las ecuaciones diferenciales / 515

Y ; = 3y1 Y; = -2Y2 Y ; = 5Y3

b) Resolver el sistema. c) Obtener una solución del sistema que cumpla las condiciones iniciales y, (O) =

1, YZ(0) = 4 Y Y3(0) = -2.

Solución de a).

o bien,

y' =

3 0 o -2 O 0

3 0 o - 2 O 0

Y1 Y2

Y3

Y

Solución de 6). Debido a que en cada ecuación hay sólo una función descono- cida, las ecuaciones se pueden resolver individualmente. Por (2) se obtiene

y I = c l e 3 x y2 = c2e y, = c3e5x

o bien, en notación matricial,

Solución de c). A partir de las condiciones iniciales dadas, se obtiene

I = y,(O) = Cleo = c , 4 = y2(0) = czeo = c2

- 2 = y , ( O ) = e jeo = c,

de modo que la solución que satisface las condiciones iniciales es

o bien, en notación matricial.

Page 511: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

516 Temas complementarios

El sistema del ejemplo precedente es fácil de resolver porque para cada ecuación sólo hay una función desconocida, y este hecho se debe a que la matriz de coeficientes (5) para el sistema es diagonal. Sin embargo, ¿cómo manejar un sis- tema

Y' = A Y

en el que la matriz A no es diagonal? La idea es sencilla: se intenta hacer una sustitución para Y con la que se &tenga un nuevo sistema con una matriz de coe- ficientes diagonal; se resuelve este nuevo sistema más simple y luego se usa esta solución para determinar la solución del sistema original

El tipo de sustitución que se tiene en mente es

o bien, en notación matricial,

o, más brevemente.

En esta sustitución, los coeficientes p,, son constantes por determinar de forma que el nuevo sistema con las funciones desconocidas ul, u2, , , . , un tenga una matriz de coeficientes diagonal. Se deja como ejercicio para el lector derivar cada ecua- ción en (6) y obtener

Y' = PU'

Si se efectúan las sustituciones Y = PU y Y = P U en el sistema original

Y' = A Y

Page 512: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.1 Aplicaciones a las ecuaciones dqerenciales / 51 7

y si se supone que P es invertible, se obtiene

PU' = A(PU)

o bien,

U' = (P"AP)U

o bien, U' = DU

donde D = P-lAP. La elección de P resulta evidente ahora; si se quiere que la nueva matriz de Coeficientes D sea diagonal, P se debe elegir a P como una matriz que dagonalice a A .

PROCEDI- Lo anterior sugiere el siguiente procedimiento para resolver un sistema MIENTO PARA RESOLVER UN SISTEMA DE ECUACIONES con una matriz de coeficientes diagonalizable A . DIFERENCIALES -

Y ' = A Y

LINEALES DE PRIMER ORDEN

Paso 1. Encontrar una matriz P que diagonalice a A .

Paso 2. Hacer las sustituciones Y = PU y Y = P V para obtener un nuevo "sistema diagonal" I/" = DU, donde D = P"AP.

Paso 3. Resolver V = DU.

Paso 4. Determinar Y a partir de la ecuación Y = PU.

Ejemplo 2

a) Resolver el sistema

Y ; = Y , + Y2

y; = 4yI - 2y2

b) Encontrar la solución que cumpla las condiciones iniciales

Yl (0 ) = 1, Y2(0> = 6.

Solución de a). La matriz de coeficientes para el sistema es

Page 513: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

518 1 Temas complementarlos

Como se explicó en la sección 7.2, A es diagonalizada por cualquier matriz P cuyas columnas sean eigenvectores de A linealmente independientes. Como

det( dl - A ) = d"1 - 1 I

- 4 a+Z1 = d 2 + d - 6 = ( A + 3 ) ( d - 2 )

los eigenvalores deA son A = 2,A = - 3 . Por definición,

es un eigenvector de A correspon&ente a A si y sólo si x es una solución no trivial de (Al - A)x = O, es decir, de

Si A = 2. este sistema se convierte en

Resolwendo este sistema se obtiene

x1 = 1, x2 = t

de modo que

Asi,

es una base para el eigenespacio correspondiente a A = 2. De manera semejante, el lector puede demostrar que

es una base para el eigenespacio correspondiente a A = - 3 . Así,

Page 514: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9. I Aplicaciones a las ecuaciones diferenciales / 5 19

diagonaliza a A y

D = P " A P = [:, -;I Por consiguiente, la sustitución

Y = P U 4 Y' = PU'

produce el nuevo "sistema diagonal"

Por (2), la solución de este sistema es

u , = c,e2" u2 = c2e p 3 x

O u=

de modo que la ecuación Y = PU produce como solución para Y a

Cle2" - 1, e -3x

c,e2* + c2e -- 3x 4 2 I

o bien,

y , = c l e 2 x - $c2e -3x

y2 = c le2x + c2e -3x

Solución de 6). Si las condiciones iniciales dadas se sustituyen en (7), se obtiene

c, - $c2 = 1 c , + c 2 = 6

La solución de este sistema es

c , = 2, c2 = 4

de modo que por (7) la solución que satisface las condiciones iniciales es

En esta sección se ha supuesto que la matriz de coeficientes de Y = AY es diagonalizable. En caso de no serlo, se deben usar otros métodos para resolver el sistema. Estos métodos se analizan en textos más avanzados.

Page 515: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

520 /' Temas complementarios

EJERCICIOS DE LA SECCIóN 9.1

1. a) Resolver el sistema

Y ; = Y1 + 4.h y; = 2y, + 3y,

b) Encontrar la solución que satisface las condiciones inicialesyl(0) = O,y,(O) = O.

2. a) Resolver el sistema

y ; = y , + 3v2

y; = 4.h + 5Y,

b) Encontrar la solución que satisface las condiciones inicialesyl(0) = 2, y2'(0) = l .

3. a) Resolver el sistema

y ; = 4y, + y3

y; = - 2 v , +y,

Y; = -2% + Y3

b) Encontrar la solución que satisface las condiciones iniciales y , (O) = - 1, y2(0) = 1,

Y,(O) = 0.

4. Resolver el sistema

5. Resolver la ecuación diferencial y" - y' - 6y = O. [Sugerencia. Hacer y , = y , y 2 = y' y luego demostrar que

Y ; =Y2

y; = y ' - - Y' + 6~ = 6.~1 + y21

7. Demostrar: Toda solución de y' = ay es de la forma y = cP. [Sugerencia. Sea y =AX) una soluci6n y demostrar quef(x)e-ares constante.]

8. Demostrar: Si A es diagonalizable y

Page 516: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.2 Geometría de los operadores lineales sobre R2 1 521

satisface Y' = A Y , entonces todo yi es una combinación lineal de dlx, db, . . . , dm, donde A, , A,, . . . ,A,, son eigenvalores de A .

9.2 GEOMETRíA DE LOS OPERADORES LINEALES SOBRE R*

En la sección 4.2 se estudiaron algunas propiedades geometricas de los operado- res lineales sobre R2 y R3. En esta sección se estudiarán con mayor profundidad los operadores lineales sobre R2. Algunas de las ideas que se presentarán poseen importantes aplicaciones al campo en desarrollo de la elaboración de grájicas por computadora.

Si T:R2 +. R2 es el operador matricial cuya matriz estándar es

entonces

Existen dos interpretaciones geométricas igualmente aceptables de esta fórmula. Los elementos de las matrices

[;I y [ U + d Y l ax + by

se pueden considerar como componentes de vectores o como coordenadas de puntos. Con la primera interpretación, T transforma flechas en flechas y con la segunda, puntos en puntos (figura 1). L a elección de cualquiera de estas interpretaciones es una cuestión subjetiva.

t' o (ax + by, cx + d y )

\ \ \ \ \ \ \

( X , Y )

"-4 X

b Figura 1 I T mapea vectores en vectores. T mapea puntos en puntos.

. . . . . . . " -. . . . . , - . . . . . . ...

Page 517: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

522 / Temas complementarios

‘ABLA 1

Operador

Reflexión con respecto al eje y

Reflexión con respecto al eje x

Reflexión con respecto a la recta ?/=X

Rotación en sentido contrario a las manecillas del reloj por un ángulo

En esta sección, los operadores lineales sobre R2 se considerarán como transformaciones de puntos en puntos. Una manera de representar el comporta- miento de un operador lineal es observar su efecto sobre los puntos de figuras sencillas en el plano. Por ejemplo, en la tabla 1 se muestra el efecto de algunos operadores lineales básicos sobre un cuadrado unitario que se ha coloreado par- cialmente

Matriz estándar

[-A Y ]

[A - Y ]

COS 0 -sen0 sen0 cos 8 1

Efecto sobre el cuadrado unitario

4 .) 1 . : I , , I . ! , . I 1 ,

En la sección 4.2 se analizaron reflexiones, proyecciones, rotaciones, con- tracciones y dilataciones de R2. A continuación se considerarán otros operadores lineales básicos sobre R2.

Page 518: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.2 Geometría de los operadores lineales sobre R2 523

EXPANSIONES Y Si la abscisa de cada punto del plano se multiplica por una constante positiva k, COMPRESIONES entonces el efecto es expandir o comprimir cada figura del plano en la dirección x.

Si O < k < 1, el resultado es luna compresión, y si k > 1, una expansión (figura 2). Un operador así se denomina expansión (o compresión) en la dirección x con factor k. De manera semejante, si la ordenada de cada punto del plano se multiplica por una constante positiva k, se obtiene una expansión (o compresión) en la dirección y con factor k. Se puede demostrar que las expansiones y las compresiones a lo largo de los ejes de coordenadas son transformaciones lineales.

p ; Figura 2 I (Cuadrado unitario) I I (Compresión) k = 4 [(Expansión) k = 2

Si T:R2 + R2 es una expansión o una compresión en la dirección x con factor k, entonces

de modo que la matriz estándar para T es

De manera semejante, la matriz estándar para una expansión o una compresión en la dirección y es

Ejemplo 1 Supóngase que el plano xy primero se expande o comprime por un factor k , en la hrección x y que luego se expande o comprime por un factor k, en la dirección y. Encontrar un solo operador matricial que efectúe ambas opera- ciones.

Solución. Las matrices estándar para las dos operaciones son

Expansión x (compresión) Expansión y (compresión)

. . . . .

Page 519: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

524 ,I Temas complementarios

Así, la matriz estándar para la composición de la operación x seguida de la operación y es

En el caso especial en que k , y k, son iguales, por ejemplo k , = k, = k, nótese que (2) se simplifica a

que es una dilatación o una contracción (tabla 8 de la sección 4.2). A

DESLIZA- Un deslizamiento cortante en la dirección x con factor k es una trans- MLENTOS formación que mueve cada punto (x, y ) paralelo al eje x en una cantidad ky CORTANTES hasta la nueva posición (x + ky, y>. Bajo una transformación de este tipo, los

puntos que están sobre el eje x no se mueven porque y = O. Sin embargo, a medida que se avanza alejándose del eje x, la magnitud de y aumenta, de modo que aquellos puntos más alejados del eje x recorren una mayor distancia que los puntos más próximos a él.

Figura 3 Cuadrado unitario. Oblongamiento en la dirección x con factor k.

Un deslizamiento cortante en la dirección y con factor k es una transfor- mación que mueve cada punto (x, y ) paralelo al eje y en una cantidad IQC hasta la nueva posición (x, y + h). Bajo una transformación de este tipo, los puntos que están sobre el eje y permanecen fijos, y los puntos alejados del eje y recorren una mayor distancia que los puntos próximos a él.

Se puede demostrar que los deslizamientos cortantes son transformaciones lineales. Si T:R2 + R2 es un deslizamiento cortante con factor k en la dirección x,

entonces

Page 520: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.2 Geometría de los operadores lineales sobre R2 / 525

de modo que la matriz estándar para T es

De manera semejante, la matriz estándar para un deslizamiento cortante en la Irección y con factor k es

OBSERVACI~N. La multiplicación por la matriz identidad 2 X 2 es el operador identidad sobre R2. Este operador se puede considerar como una rotación de Oo, como un deslizamiento cortante a lo largo de cualquiera de los dos ejes con k = O, o como una compresión o expansión a lo largo de cualquiera de los dos ejes con factor k = l .

Ejemplo 2

a) Hallar una matriz de transformación de R2 en R2 que primero efectúe un des- lizamiento cortante en la dirección x con factor 2 y luego realice una reflexión con respecto a y = x.

b) Encontrar una matriz de transformación de R2 en R2 que primero efectúe una reflexión con respecto a y = x y luego un deslizamiento cortante en la dirección x con factor 2.

Solución de a). La matriz estándar para el deslizamiento cortante es

y para la reflexión es

Así, la matriz estándar para el deslizamiento cortante seguido de la reflexión es

A , A , = [O 1 0 0 1 '][I '1 = [ y :] Solución de b). La reflexión seguida del deslizamiento cortante se representa como

Page 521: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

526 Temas complementarios

Figura 4

En el último ejemplo, nótese que A ,A2 f A# de modo que el efecto de aplicar primero el deslizamiento cortante y luego la reflexión es diferente al efecto de aplicar primero la reflexión y luego el deslizamiento cortante. Este hecho se ilustra geométricamente en la figura 4, donde se muestra el efecto de las transfor- maciones sobre un cuadrado unitario.

t'

11. I

.-

Ejemplo 3 Demostrar que si TR2 + R2 es la multiplicación por una matriz elemental, entonces la transformación es una de las siguientes:

a> Un deslizamiento cortante a lo largo de un eje de coordenadas. b) Una reflexión con respecto a y = x. c) Una compresión a lo largo de un eje de Coordenadas. d) Una expansión a lo largo de un eje de coordenadas. e) Una reflexión con respecto a un eje de coordenadas. f) Una compresión o expansión a lo largo de un eje de coordenadas seguida de

una reflexión con respecto a un eje de coordenadas.

Solución. Debido a que al realizar una sola operación en los renglones de una matriz identidad 2 x 2 se obtiene una matriz elemental 2 x 2, ésta debe tener una de las formas siguientes (comprobar):

Page 522: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.2 Geometría de los operadores lineales sobre R2 / 527

[-b :] = [ A -;,I = [A -:][A :,I Como k , > O, el producto en (3) representa una compresión o expansión a lo largo del eje x seguida de una reflexión con respecto al eje y, y (4) representa una compresión o expansión a lo largo del eje y seguida de una reflexión con respecto al eje x. En el caso en que k = -1, las transformaciones (3) y (4) simplemente son reflexiones con respecto a los ejes y y x, respectivamente. A

Las reflexiones, rotaciones, expansiones, compresiones y deslizamientos cortantes son, todas, operadores lineales uno a uno. Este hecho es evidente geomé- tricamente, ya que todos estos operadores mapean puntos distintos en puntos distintos. Esto también se puede comprobar de manera algebraica al verificar que las matrices estándar de los operadores son invertibles.

Ejemplo 4 Intuitivamente resulta evidente que si el plano xy se comprime por un factor i en la dirección y , entonces el plano xy se debe expandir por un factor 2 en la drección y a fin de que cada punto regrese a su posición original. En efecto, esto es asi porque

representa una compresión en la dirección y con factor i, y

es una expansión en la dirección y con factor 2. A

PROPIEDADES Esta sección concluye con dos teoremas que permiten conocer más las propiedades GEOMÉTRICAS geométricas de los operadores lineales sobre R2. DE LOS ~~~"

OPERADORES LINEALES SOBRE R2

Teorema 9.2.1. Si T:R2 + R2 es la multiplicación por una matriz A invertible, entonces el efecto geométrico de T es el mismo que el de una sucesión idónea de deslizamientos cortantes, compresiones, expansiones y reflexiones.

Page 523: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

528 /' Temas complementarios

Demostración. Como A es invertible, se puede reducir a la identidad mediante una sucesión finita de operaciones elementales en los renglones. Una operación elemental en los renglones se puede efectuar multiplicando por la izquierda por una matriz elemental. Así, existen matriz elementales E,, E*, . . . , Ek tales que

E A . ' ' E , E I A = 1

Despejando A se obtiene

o bien, de manera equivalente,

A = E ~ - ] E - 1 . . . E L 1 1 2 ( 5 1

Esta ecuación expresa a A como un producto de matrices elementales (ya que por el teorema 1.5.2 la inversa de una matriz elemental también es elemental). El resultado se concluye ahora por el ejemplo 3. 0

Ejemplo 5 Suponiendo que k , y k, son positivos, expresar la matriz diagonal

como un producto de matrices elementales y describir el efecto geométrico de la multiplicación por A en términos de expansiones y compresiones.

Solución. Por el ejemplo 1 se tiene que

lo cual demuestra que la multiplicación por A tiene el efecto geométrico de expandir o comprimir por un factor de k , en la dirección x y luego expandir o comprimir por un factor de k, en la dirección y. A

Ejemplo 6 Expresar

A = I: :] como un producto de matrices elementales y luego describir el efecto geométrico de la multiplicación por A en términos de deslizamientos cortantes, compresiones, expansiones y reflexiones.

Page 524: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.2 Geometría de los operadores lineales sobre R2 / 529

Solución. A se puede reducir a I como sigue:

I veces al segundo. I I - 4. . .

Las tres operaciones consecutivas en los renglones se pueden efectuar al mul- tiplicar por la izquierda sucesivamente por

Invirtiendo estas matrices y aplicando (5) se obtiene

Leyendo de derecha a izquierda y observando que

[: -;] = [: - y ] [ : ;] se concluye que el efecto de multiplicar por A es equivalente a

1) efectuar un deslizamiento cortante por un factor de 2 en la dirección x, luegd 2) expandir por un factor de 2 en la dirección y, luego 3 ) reflejar con respecto al eje x, y finalmente 4) efectuar un deslizamiento cortante por un factor de 3 en la dirección y.

Las demostraciones de algunos incisos del siguiente teorema se analizan en los ejercicios.

Teorema 9.2.2.S T:R2 + R2 es la multiplicación por una matriz invertible, entonces: a) La imagen de una recta es una recta. b ) La imagen de una recta que pasa por el origen es una recta que pasa por

c ) Las imágenes de rectas paralelas son rectas paralelas. d) La imagen del segmento de recta que une los puntos P y Q es el segmento

de recta que une las imágenes de los puntos P y Q. e ) Las imágenes de tres puntos están sobre una recta si y sólo si los puntos

son colineales.

el orrgen.

Page 525: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

530 Temas complementarios

OBSERVACI~N. Por los incisos c), 6) y e) se concluye que la multiplicación por una matriz invertible A 2 X 2 transforma triángulos en triángulos y paralelogra- mos en paralelogramos.

Ejemplo 7 Trazar la imagen del cuadrado con vértices P,(O, O), P2(l, O), P3(0, 1) y P4( 1, 1) bajo la multiplicación por

Solución. Como

[-: --:I[:] =[:I [ -f .-:I[:] = [ -:] [-i -:][:I = [ -:] I: -:I[ :] = [ I ]

la imagen del cuadrado es un paralelogramo con vértices (O, O), (- 1, 2), (2, - 1) y ( 1 , 1) (figura 5). A

Ejemplo 8 Según el teorema 9.2.2, la matriz invertible

transforma la recta y = 2x + 1 en otra recta. Encontrar su ecuación.

Solución. Sea (x, y ) un punto sobre la recta y = 2x + 1 y sea (x', Y ' ) su imagen bajo la multiplicación por A . Entonces

Page 526: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.2 Geometría de los operadores lineales sobre R2 1 531

de modo que

Sustituyendo en y = 2x + 1 se obtiene

-2x‘ + 3y’ = 2(x’ -y’) + I

o bien, de manera equivalente,

Así, (XI, y’) satisface

y = $ x + i

que es la ecuación buscada.

EJERCICIOS DE LA SECCIóN 9.2

1. Encontrar la matriz estándar para la transformación lineal plana T X 2 + R2 que mapea un punto (x, y) en (véase la figura 6) a) su reflexión con respecto a la rectay =-x. b) su reflexión con respecto al origen. c) su proyección ortogonal sobre el eje x. d) su proyección ortogonal sobre el eje y.

2. En cada inciso del ejercicio 1, usar la matriz obtenida para calcular T(2, 1). Comprobar las respuestas geométricamente graficando los puntos (2, 1) y T(2, 1).

3. Encontrar la matriz estándar para el operador lineal TB3 + R3 que transforma un punto (x, y, z) en su reflexión con respecto al plano a) -*y b) x z . C) YZ.

4 Figura 6

Page 527: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5317 i' 7ema.y contplernentnrros

1.

5.

6.

7.

8.

9.

1 o.

11.

12.

13.

En cada inciso del ejercicio 3 , usar la matriz obtenida para calcular T( I , 1, I ) . Comprobar las respuestas geom6tricamentc. graficando los vectores (1 ~ 1, 1 ) y T( I , 1, 1 )

Encontrar la matriz estándar para el operador lineal 7 X 3 + R3 que a ) hace girar cada vector 90' en sentido contrario a las manecillas del reloj con res-

b) hace girar cada vector 90' en sentido contrario a las manecillas del reloj con res-

c) hace girar cada vector 90' en sentido contrario a las manecillas del reloj con res-

pecto al e ~ e z (mirando a lo largo del eje z positivo llacia e1 origen).

pecto al eje x (mirando a lo largo del eje x positivo hacia el origen).

pecto al e jev (mirando a lo largo del eje y positivo hacia el origen).

Trazar l a iInagen del rectángulo con vértices (O, O), (1, O), (1,2) y (O, 2) bajo a) una rellexión con respecto al q e x. b) una reflexión con respecto al eje y. c) una compresión con factor k = a en la direcclóny. d) una expansion con factor k = 2 en la dirección x. e) un deslizamiento cortante con factor k = 3 en la dirección x .

t) un deslizamiento cortante con factor k = 2 en l a direccióny.

Trazar la imagen dei cuadrado con vértices (O, O), (1, O) , (O, I ) y ( I , 1) bajo la multiplicación por

A= [ -; y ] Encontrar la matriz que hace girar un punto (x, y) con respecto al origen por un hlgulo de a) 45" b) 90" C ) 180" d) 270" e ) -30"

Encontrar la matriz que produce un deslizamiento cortante con u11 factor de a) k = 4 en la dirección y. b] k = -2 en la dirección x.

Encontrar la matnz que comprime o expande con un factor de a ) f en la dirección y. b) 6 en la direction x.

E n cada inciso, describir el efecto geonlétrico de la multiplicacion por la matriz dada.

Expresar la matriz como un producto de matrices elementales y luego describir el efecto de la multiplicaci6n por la matriz dada en términos de compresiones, expansiones, reflexlones y deslizamientos cortantes.

En cada inciso. encontrar una sola matriz que efectúe la sucesión de operxiones que se mdica:

Page 528: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.2 Geometría de los operadores lineales sobre R2 / 533

a) Comprimir por un factor de $ en la dirección x, luego expandir por un factor de 5

b) Expandir por un factor de 5 en la dirección y, luego efectuar un deslizamiento cor-

c) Reflejar con respecto a y = x, luego girar por un ángulo de 180'.

en la dirección y.

tante por un factor de 2 en la direccióny.

14. En cada inciso, encontrar una sola ma& que efectúe la sucesión de operaciones que se indica: a) Reflejar con respecto al eje y, luego expandir por un factor de 5 en la dirección x y

b) Girar 30°, luego efectuar un deslizamiento cortante por un factor de -2 en la luego reflejar con respecto a y = x.

dirección y y luego expandir por un factor de 3 en la dirección y.

15. Por inversión de matnces, demostrar lo siguiente: a) La transformación inversa de una reflexión con respecto a y = x es una reflexión

b) La transformación inversa de una compresión a lo largo de uno de los ejes de coor-

c) La transformación inversa de una reflexión con respecto a uno de los ejes de coor-

d) La transformación inversa de un deslizamiento cortante a lo largo de uno de los ejes

con respecto a y = x.

denadas es una expansión a lo largo de ese eje.

denadas es una reflexión con respecto a ese eje.

de coordenadas es un deslizamiento cortante a lo largo de ese eje.

16. Encontrar la ecuación de la imagen de la rectay = -4x + 3 bajo la multiplicación por

17. En los incisos del a) al e), obtener la ecuación de la imagen de la rectay = 2x bajo a) un deslizamiento cortante con factor 3 en la dirección x. b) una compresión con factor $ en la dirección y. c) una reflexión con respecto a y = x. d) una reflexión con respecto al eje y. e) una rotación de 60°.

18. Encontrar la matnz para un deslizamiento cortante en la dirección x que transforma el triángulo con vértices (O, O), (2, 1) y ( 3 , O) en un triángulo rectángulo cuyo ángulo recto está en el origen.

19. a) Demostrar que la multiplicación por

transforma cada punto del plano sobre la rectay = 2x.

se transforman en una recta. ¿Este hecho viola el inciso 2) del teorema 9.2.2'? b) Con base en el inciso a) se concluye que los puntos no colmeales (1, O), (O, 1) y ( - 1, O )

20. Demostrar el inciso a) del teorema 9.2.2. [Sugerencia Una recta en el plano tiene uná ecuac~ón de la forma Ax + By + C = O, donde tanto A como B no son cero. Con el

Page 529: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

534 i Temas complementarios

método del ejempio 8, demostrar que la imagen de esta recta bajo la multiplicación por la matriz invertible

tiene la ecuación A'x + By + C = O, donde

A' = (dA - c B ) / ( ~ d - bc) y B' = ( - bA + u B ) / ( u ~ - bc)

Luego, demostrar que ni A' ni B son cero a fin de concluir que la imagen es una recta,]

21. Usando la sugerencia del ejercicio 20, demostrar los incisos b) y c) del teorema 9.2.2.

22. En cada inciso, encontrar la matriz estándar para el operador lineal í?A3 + R3 descrito por la figura 7.

4 c 4

b) d

23. En R3, el deslizamiento cortanfe en la a'ireccibn xy con factor k es la transformación lineal que mueve cada punto (x, y, z) paralelo al plano xy a la nueva posición (x + kz, y + kz, z). (Véase la figura 8.) a) Encontrar la matriz estándar del deslizamiento cortante en la dxección xy con factor k. b) ¿Cómo d e f d a el lector el deslizamiento cortante en la dirección xz con factor k y

el deslizamiento cortante en la dirección yz con factor k? Encontrar la matriz est&dar para cada una de estas transformaciones lineales.

. .. ". ~. ~ ." t; 1 4. . ."

"'ir + kz , y + kz . I)

,' .. .. " .~." ",

Figura 8

Figura 7

24. En cada inciso, encontrar por inspección todos los eigenvectores linealmente inde- pendientes que sea posible (mediante una representación del efecto geométrico de la transformación sobre R'). Para cada uno de los eigenvectores, encontrar por inspección el eigenvalor correspondiente; luego comprobar los resultados calculando los eigen- vaiores y bases para los eigenespacios partir de la matriz estándar de la transformación.

Page 530: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.3 Ajuste de datos por mínimos cuadrados I’ 535

a) Reflexión con respecto al eje x. b) Reflexión con respecto al eje y. c) Reflexión con respecto a y = x. d) Deslizamiento cortante en la dirección x con factor k. e) Deslizamiento cortante en la dirección y con factor k. f) Rotación por un ángulo O.

9.3 AJUSTE DE DATOS POR MíNIMOS CUADRADOS -

En esta sección se usarán resultados sobre proyecciones ortogonales en espacios vectoriales con producto interior a f in de obtener una técnica para ajustar una recta u otra curva polinómica a un conjunto de puntos en el plano determinados experimentalmente.

AJUSTE DE UNA Un problema común en el trabajo experimental es obtener una relación matemáti- CURVA A DATOS cay =fix) entre dos variables x y y mediante el “ajuste” de una curva a puntos en

TALES perimentalmente, por ejemplo EXPERIMEN- el plano correspondientes a diversos valores de x y y determinados ex-

( ~ I , ~ ~ I ) , ( - y 2 , Y 2 ) , ” ‘ , ( ~ , , Y , )

La forma general de la curva y =Ax) que se debe ajustar se decide con base en consideraciones teóricas o simplemente en el patrón descrito por los puntos. Algunas posibilidades son (figura 1)

4 b) c)

Figura 1 y = a + b x y = a + bx + cx2 y = a + bx + cx2 + dx’

a) Una recta: y = a + bx. b) Un polinomio cuaddtico: y = a + bx + cx2. c) Un polinomio cúbico: y = a + bx + cx2 + &.

Debido a que los puntos se obtienen experimentalmente, suele haber algún “error” de medición en los datos, lo cual imposibilita encontrar una curva de la forma deseada que pase por todos los puntos. Así, la idea es elegir la curva (determi-

Page 531: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

536 Temas complementarios

nando sus coeficientes) que mejor se "ajuste" a los datos. Se empezará con el caso más simple: ajustar una recta a los puntos de datos.

AJUSTE POR Supóngase que se quiere ajustar una recta MÍNIMOS CUA- DRADOS DE y = a + b x UNA RECTA

a los puntos determinados experimentalmente

Si los puntos de datos son colineales, la recta debe pasar por todos los n puntos y, así, los coeficientes desconocidos a y b deben satisfacer

y, = a + bx,

y, = a + bx2

y,, = a + bx,,

Este sistema se puede escribir en forma matricial como

o, en forma abreviada, como

M v = y

donde

Si los puntos de datos no son colineales, entonces es imposible encontrar los coeficientes a y b que satisfagan exactamente el sistema (1); es decir, el sistema es inconsistente. En este caso se buscará una solución por mínimos cuadrados

v = v* = [;:I La recta y = a* + b*x cuyos coeficientes provienen de una solución por mínimos cuadrados se denomina recta de ajuste por mínimos cuadrados a los datos. Para

Page 532: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.3 Ajuste de datos por mínimos cuadrados / 537

explicar esta terminología, recuérdese que una solución por mínimos cuadrados de (1) minimiza

I I Y - Mvll (3 )

Si el cuadrado de (3) se expresa en términos de componentes, se obtiene

IIy -MV(/' = ( y , - a - bx,)' + ( y z - a - bx212 + . . . + ( y , - a - bx,12 (4)

Si ahora se hace

d , = I,v, - U - ~ x J , d2 = - U - hx-21, . . . , d,, = ly,, - a - h ~ , /

entonces (4) se puede escribir como

1Iy - Mvll' = d: + d: + . . . -t d: (5)

Como se ilustra en la figura 2, di se puede interpretar como la distancia vertical entre la recta y = a + bx y el punto (xi, vi). Esta distancia es una medda del "error" en el punto (xi, y j ) , que resulta del ajuste inexacto de y = a + bx a datos. Como (3) y (5) son minimizadas por el mismo vector v*, la recta de ajuste por , mínimos cuadrados minimiza la suma de los cuadrados de estos errores; de ahí la denominación recta de ajuste por mínimos cuadrados.

Figura 2 I d, mide el error vertical en el ajuste de la recta por mínimos cuadrados. ~ ~~

ECUACIONES Recuérdese por el teorema 6.4.2 que las soluciones por mínimos cuadrados de (1) NORMALES se pueden obtener al resolver el sistema normal asociado

M TMv = M T y

cuyas ecuaciones se denominan ecuaciones normales. En los ejercicios se demostrará que los vectores columna de M son lineal-

mente independientes si y sólo si los n puntos de datos no están en una recta vertical en el plano xy. En este caso, por el teorema 6.4.4 se concluye que la solución por mínimos cuadrados es única y está dada por

Page 533: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

538 / Temas complementarios

v* = (MTM)- "Ty

En resumen, se tiene el siguiente teorema.

Teorema 9.3.1. Sean (xl, y l ) , (x2, y& . . . , (x,, y,) puntos de u1 conjunto de dos o más datos, no todos en una recta vertical, y sean

Entonces existe una recta de ajuste por mínimos cuadrados tinica

y = a* + b*x

al conjunto de datos. Además,

está dejinida por la fórmula

que expresa el hecho de que v = v* es la única solución de las ecuaciones normales

Ejemplo 1 Encontrar la recta de ajuste por mínimos cuadrados a los cuatro puntos ( O , l), (1, 3), (2, 4) y (3,4). (Véase la figura 3.)

0 : ~ - - 1 0 1 2 3 4

Figura 3 X

Page 534: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.3 Ajuste de datos por mínimos cuadrados / 539

Figura 4

Solución. Se tiene

M T M = [4 '1 6 14

r l l

L 4 1

De modo que la recta buscada es y = l . 5 + x. A

Ejemplo 2 La ley de Hooke en física establece que la longitud x de un resorte uniforme es una función lineal de la fuerza y que se le aplica al resorte. Si se escribe y = a + bx, entonces el coeficiente b se denomina constante del resor- te. Supóngase que un resorte particular sin estirar mide 6.1 pulgadas de lon- gitud (es decir, x = 6.1 cuando y = 0). Luego, al resorte se aplican fuerzas de 2, 4 y 6 libras, encontrándose que las longitudes correspondientes son 7.6, 8.7 y 10.4 pulgadas, respectivamente, (ver la figura 4). Encontrar la constante de este resorte.

x, I 6.1 I 7.6 10.4 8.7

+ Fuerzay

Page 535: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

540 i Temas complementarios

Solución. Se tiene

10.4

Y

donde los valores numéricos se redondearon hasta una cifra decimal. Así, el valor estimado de la constante del resorte es b* = 1.4 Ib/pulg. A

AJUSTE POR La técnica descrita para ajustar una recta a puntos de datos se generaliza fá- MINIMOS cilmente al ajuste de un polinomio de cualquier grado específico a puntos de datos. CUADRADOS DE A continuación se intentará ajustar un polinomio de grado fijo m UN POLINOMIO

y = a, + a,x + . . . + a,xm (8)

a n puntos

Al sustituir los n valores de x y y en (8) se obtienen las n ecuaciones

o bien, en forma matricial,

M v = y

donde

Como antes, las soluciones de las ecuaciones normales

Page 536: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.3 Ajuste de datos por mínimos cuadrados 1 541

M TMv = M Ty

determinan los coeficientes de los polinomios que minimizan

IIY - Mvll

En los ejercicios se analizan condiciones que garantizan la invertibilidad de MTM. Si MTM es invertible, entonces las ecuaciones normales tienen una solución única v = v* definida por

v* = (MTM)- 1MTy

Ejemplo 3 Según la segunda ley del movimiento de Newton, un cuerpo próximo a la superficie terrestre cae verticalmente según la ecuación

s = s , + u , t + ~ g t * (10)

donde

S = Desplazamiento vertical hacia abajo con respecto a algún punto fijo. so = Desplazamiento inicial en el instante t = O. vo = Velocidad inicial en el instante t = O. g = Aceleración de la gravedad en la superficie terrestre.

Supóngase que se efectúa un experimento de laboratorio para evaluar g usando la ecuación anterior. Se suelta un peso con desplazamiento y velocidad iniciales desconocidos, y en ciertos instantes se mide la distancia recorrida a partir de algún punto de referencia fijo. En particular, supóngase que en los instantes t = O. 1, 0.2, 0.3, 0.4 y 0.5 segundos se encuentra que el peso ha recorrido S = -0.18, 0.31, 1.03. 2.48 y 3.73 pies, respectivamente, a partir del punto de referencia. Encontrar un valor aproximado de g usando estos datos.

Solución. El problema matemático es ajustar una curva cuadrática

S = a, + a,t + a2t2 (1 1)

a los cinco puntos experimentales:

(0.1, -0.18), (0.2, 0.31), (0.3, 1.03), (0.4, 2.48), (0.5, 3.73)

Los cálculos necesarios son

M =

1 t , t ; 1 t2 t; 1 t3 t: 1 t , t i 1 t5 t:

Page 537: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

542 1 Temas complementarios

-0.18

2.48 3.73

Y

- 0.40- V* = = ( M T M ) ~ ' M T y "- [ 0.35

16.1

Por (10) y (1 1) se tiene a2 = +a, de modo que el valor estimado de g es

g = 2a: = 2(16.1) = 32.2 pies/s2

Si se desea, también es posible estimar el desplazamiento y la velocidad iniciales del peso:

so = a: = -0.40 pies

u. = a: = 0.35 piesls

En la figura 5 se muestra la gráfka los cinco puntos experimentales, asi como el polinomio de aproximación.

-1 0 1 2 . 3 4 . 5 6

Figura 5 Tiempo /(en segundos)

EJERCICIOS DE LA SECCIÓN 9.3

Page 538: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.4 Problemas de aproximación: series de Fourier / 543

3. Encontrar el polinomio cuadrático que se ajusta mejor a los puntos (2, O), (3, - 1 lo), (5, -48) y (6, -76).

4. Encontrar el polinomio cúbico que se ajusta mejor a los puntos (- 1, - 14), (O, -S), (1 > -4), (2, 1) Y (3,221.

Demostrar que la matriz M en la ecuación (2) tiene columnas linealmente independientes si y sólo si por lo menos dos de los números xl, x2, . . . , xn son distintos.

Demostrar que las columnas de la matriz Mn x (m + 1) en la ecuación (9) son linealmente independientes si n > m y por lo menos m + 1 de los números x , , x2, . . . , x,, son distintos.

SeaM la matriz de la ecuación (9). Usando el ejercicio 6, demostrar que una condición suficiente para que la matriz MM sea invertible es que n > m y por lo menos m + 1 de los números x] , x2, . . . , xn sean distintos.

El propietano de una empresa en rápido crecimiento encuentra que para los cinco primeros meses del año las ventas (en miles) son $4.0, $4.4, $5.2, $6.4 y $8.0. El propietario grafica estas cifras y conjetura que para el resto del año la curva de ventas puede ser aproximada por un polinomio cuadrático. Encontrar el polinomio cuadrático de ajuste por mínimos cuadrados a la curva de ventas y usarlo para proyectar las ventas de los doce meses del año.

9.4 PROBLEMAS DE APROXIMACIóN: SERIES DE FOURIER

En esta sección se usarán los resultados de proyecciones ortogonales en espacios con producto interior para resolver problemas que requieren la aproximación de una función dada por funciones más simples. Estos problemas surgen en una variedad de aplicaciones de ingenieria y ciencias.

MEJORES Todos los problemas que se estudiarán en esta sección son casos especiales del APROXIMA- siguiente problema general. SIONES

I I

Problema de aproximación. Dada una función f que es continua sobre un intervalo [a, 61, encontrar la "mejor aproximación posible" a f usando sólo funciones de un subespacio específico W de C[a, 61.

A continuación se presentan algunos ejemplos de esos problemas:

a) Encontrar la mejor aproximación posible a eX sobre [O, 11 por un polinomi0 de la forma a. + alx + ag2 .

Page 539: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

544 / Temas complementarios

b) Encontrar la mejor aproximación posible a sen nx sobre [ - 1, 1 I por una fun-

c> Encontrar la mejor aproximación posible a x sobre [O, 2x1 por una función de ción de la forma u. + ulc? + + u3e3.‘.

la forma clo + u , sen x + a2 sen 2x + h, cos x + 6, cos 2x.

En el primer ejemplo, W es el subespacio de C[O, 11 generado por 1, x y x,; en el segundo ejemplo, W es el subespacio de C[ - 1, 11 generado por 1, @, e& y e3x; y en el tercer ejemplo, U’ es el subespacio de C[O, 2n] generado por 1, sen x, sen 2x, cos x y cos 2x

MEDICIONES Para resolver problemas de aproximación de los tipos precedentes es necesario DEL ERROR precisar matemáticamente la expresión “mejor aproximación sobre [u, b]”; para

este efecto se requiere una manera exacta de medir el error que resulta cuando una función continua es aproximada por otra sobre [a. 61. Si sólo se quisiera la apro- ximación de,flx) en un simple punto xo, entonces el error en x. por una aproxi- mación g(x) sería simplemente

error =Axo) - g(xo)

que algunas veces se denomina desviación entre f y g en x. (figura 1). Sin embargo, se quiere la aproximación sobre todo el intervalo [u, b], no en un solo punto. En consecuencia, en una parte del intervalo una aproximación g, afpuede tener desviaciones más pequeñas con respecto a f que una aproximación g, a f ; y en otra parte del intervalo bien puede ser al contrario. ¿Cómo decidir cuál es la mejor aproximación global? Lo que se requiere es alguna forma para medir el error global en una aproximación g(x). Una posible medida del error global se obtiene integrando la desviación Axo) - g(xo) sobre todo el intervalo [a, b]; es decir,

error = (f(x) - g(x)( dx l

Figura 1 Desviación entre f y g en X O .

Page 540: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.4 Problemas de aproximación: series de Fourier i 545

Geométricamente, (1) es al área entre las gráficas def(x) y g(x) sobre el intervalo [a, b] (figura 2); mientras mayor sea el área, mayor es el error global.

El área entre las gráficas defy g sobre [u, b] mide el error al aproximarfpor g sobre [a, b] .

Si bien la expresión (1) es natural y geométricamente atractiva, casi todos los matemáticos y científícos suelen inclinarse por la otra medida del error, denominada error cuadrritico medio.

I I

error cuadrático- medio

I I

El error cuadrático medio recalca el efecto de errores mayores debido a la elevación al cuadrado y posee la ventaja adicional de permitir aplicar la teoría de los espacios con producto interior. A fin de ver cómo es posible llevar a cabo lo anterior, supóngase que f es una función continua sobre [a, b] que se desea aproximar por una función g de un subespacio Wde C[a, b] , y supóngase que en C [a, b] se define el producto interior

h

(f, 8) = J' f(xlg(x) dx Se concluye que

I l f - 81)' = ( f - g, f - g) = [ f(x) - g(x)I2 dx = 'error cuadrático medio

de modo que minimizar el error cuadrático medio es l o mismo que minimizar llf - g1I2. Así, el problema de aproximación planteado informalmente al ihicio de

APROXIMACI~ POR MÍNIMOS CUADRADOS

esta sección se puede volver a plantear más precisamente como sigue:

I N Problema de aproximación por mínimos cuadrados. Sea f una función que es continua sobre un intervalo [a, b] , sea C[a, b] con el producto interior

Page 541: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

y sca Lt' un subespacio de dimensión finita de C[a, b]. Encontrar una función g em CV que minimice

i

Como Ilf -- gl12 y I(f - gl( son minimizados por la misma función g, el problema precedente equivale a buscar una función g en W que sea la más próxima a f. Pero por el teorema 6.4.1 se sabe que g = proywf es la función (figura 3).

Así. se tiene el siguiente resultado. ~ ~ ~~~ ~~~ ~ ~ ~

Solución del problema de aproximación por mínimos cuadrados. Si f es una función continua sobre [u, b ] y W es un subespacio de dimensión finita de C[u, bl, entonces la función g en W que minimiza el error cuadrático medio

es g = proym: f. donde la proyección ortogonal es con respecto al producto interior

La función g = proypvf se denomina aproximación por minimos cuadrados a f desde W.

Una función de la forma

t ( X ) = co t L', cos x + C'2 cos 2x + . ' ' + c, cos nx (2) + d , senx + d , sen2x + . . + d , sennx

se denomina polinomio trigonométrico; si c, y u', no son cero, entonces se dice que [(x) es de orden n . Por ejemplo.

[(x) = 2 + cos x ~ 3 cos 2x + 7sen4s

Page 542: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.4 Problemas de aproximación: series de Fourier 1 547

es un polinornio trigonométrico con

El orden de t(x) es 4.

o igual que n son las diversas combinaciones lineales posibles de Por (2) resulta evidente que los polinomios trigonomktricos de orden mcnor

1, cos x, cos 2x, . . . , cos nx, senx, sen2x, . . . , sennx 13)

Se puede demostrar que estas 2n + 1 funciones son linealmente independicnles y que en consecuencia para cualquier intervalo [a , b ] forman una base para subespacio de dimensión (2n + 1) de C[a, 61.

A continuación se considerará el problema de encontrar la aproximación por mínimos cuadrados de una función continuaflx) sobre el intervalo [O, 2 z I por u11 polinomio trigonométrico de orden menor o igual que n. Como ya se mencionó, Ea aproximación por minimos cuadrados a f desde W es la proyección artogonal dc T sobre W. Para encontrar esta proyección ortogonal es necesario delerminar m a base ortonormal g o , g,, . . . , k,, para W, después de lo cual es posible calculan I n proyección ortogonal sobre W a partir de la fórmula

[vease el teorema 6.3.5). Es posible obtener una base ortonormal para kt/ medianhe la aplicación del proceso de Gram-Schmidt a la base (31, usando el producto in- terior

Así se obtiene (ejercicio 6) la base ortonormal

1 m' g, = - cos x, 1 1

go = - VG

. . . , g, = __ cos nx, G

1 1 g,, , = senx, . . . , g2, = __ sennx

6

Si se introduce la notación

Page 543: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5411 ,/ lemas complementarios

entonces al sustituir ( 5 ) en (4) se obtiene

projcv f = ;- + [ u , cos x + . . . + u,? cos nx] + [ h , senx + . . . +- h, sennx] a0

L.

donde

En resumen.

Los nimeros ao, a19 , . , , a,,, b,, . . . , b,, se denominan coeficientes de Fourier* de f.

Ejemplo 1 Encontrar la aproximación por mínimos cuadrados de Ax) = x sobre [O, 2 nl por

a) un polinomio trigonométrico de orden menor o igual que 2; b) un polinomio trigonométrico de orden menor o igual que n.

*Jean Soptiste Joseph Fourier (1768-1830) fue un matemático y fisico francés que descubrió las series que llevan su nombre e ideas relacionadas cuando trabajaba en problemas de difksión del calor. Este descubrimiento es uno de los más importantes en la historia de l a s matemáticas; es la piedra angular de muchos campos de investigación matemática y una herramienta básica en muchas ramas de la ingeniería. Fourier, un activista político durante la revolución francesa, fue encarcelado por haber defendido a muchas victimas durante la Epoca del Terror. Después se convirtió en favorito de Napoleón, quien lo nombró barón y conde.

Page 544: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.4 Problemas de aproximación: series de Fourier / S49

Solución de a).

Para k = 1,2, . . . al integrar por partes se obtiene (comprobar) 2rr

Así, la aproximación por mínimos cuadrados a x en [O, 23t] por un polinomio trigonométrico de orden menor o igual que 2 es

x--"o + a , cos x + a2 cos 2x + b, senx + b2sen 2x a 2

o bien, por (7a), (7b) y (7c),

x= 7r - 2 senx - sen2x

Solución de b). La aproximación por mínimos cuadrados a x en [O. 2n] por un polinomio trigonométrico de orden menor o igual que n es

x = O + [a , cos x + . . . + a, cos nx] -t [b, sinx + . . . + b, sennx] U

2

o bien, por (7a), (7b) y (7c),

sen nx +- +...+"--- n 3

n -

T -

"

n -

2 (sen X

2 (sen X

2 (sen X

2 sen X

+ + 4

Page 545: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Es natural esperar que disminuya el error cuadrático medio a medida que aumenta el número de términos en la aproximación por mínimos cuadrados

fQ + 2 íuk cos kx + b, sen kx) u

2 k = l

Es posible demostrar que para funciones f en C[O, n] el error cuadrático medio tiende a cero cuando n -+ + m; este hecho se denota con

U

2 k - l

7-

f(x) = i- (uk cos kx + bk senkx)

El miembro derecho de esta ecuación se denomina serie de Fourier parafsobre el intervalo C[O, f r ] . Estas series son importantes en ingenieria, ciencias y matemá- ticas. A

DE LA SlECCIibN 9.4

a . Encontrar la aprcxirnacibn por mínimos cuadrados deAx) = 1 + x sobre el intervalo [O, Z.X] por a;) un polinemio trigonomktrico de orden menor o igual que 2. b) un pclinomio trigonomttrico de orden menor o igual que n.

2. ihconlrar ? a aproximacián por minimos cuadrados deflx) = x2 sobre el intervalo io, 2x1 por a) un polinomio trigonomktrico de orden menor o igual que 3. ;:) tm p d i n o m i ~ trigonomktrico de orden menor o igual que ?J.

3. 3) Encorttrar la aproximación por mínimos cuadrados de x sobre el intervalo [O, I ] por m a fimcibn de la forma a + b 2 .

G ;, iincontr-ar cl error cnadrático medio de la aproximación.

4. a) finzontrar la aproximación por mínimos cuadrados de di sobre el intervalo [O, 11 por un polinomio de la forma a. + a,x. h)Encontrar el error cuadrático medio de la aproximación.

J. :*) I:ncc;nhar la aproximación por mínimos cuadrados de sen z x sobre el intervalo [ - 1, i I w, un gollllornio da: la forma u. + u,x + u$. b ) ~ ~ n m ~ t . r a r el error cuadrático medio de la aproximación.

L L

:.;., ia/i,cdi¿mtc el proceso de Gram-Schmidt, obtener la base ortonomal(5) a partir de la ¡;;!.;c. ( 3 ) .

Page 546: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.5 Formas cuadrát~cas 5.51

7. Efectuar las integraciones en (7a), (7b) y (7c).

8. Encontrar la serie de Fourier deAx) = ~t - x sobre el intervalo [O, 2x1

9.5 FORMAS CUADRÁTICAS

Hasta el momento en este texto se ha hecho énfasis en /as e c r t ~ ~ i o n e . ~ l inedes: es decir, ecuaciones de la. forma

El miembro izquierdo de esta ecuación,

es una función de n variables, denominada forma lineal. En una,f¿)rma írneul Ius variables están elevadas a la primera potencra y en la expresicin no hay producfos de variables. En esta seccicin se estudiarán funciones en las que los tirrnrnos .\(IF?

cuadrados de variables o productos de dos variables. Estasfuncrones apnrcvn en una gama de aplicaciones, incluyendo geometría, vibraciones de srstemas vwch- nicos, estadística e ingeniería eléctrica.

I

FORMAS Una forma cuadrática con dos variables, x y y , se define como una cxprcs~5n que CUADRÁTICAS se puede escribir como CON DOS VAKIABLES uxz + 2hXj. + cy* ( 1 ;

Ejemplo 1 Las siguientes expresiones son formas cuadráticas en x y , y

Si se acuerda suprimir los corchetes en las matrices de I X l . entonces ( I ) se puede escribir en forma matricial como

(Comprobar multiplicando las matrices.) Nótese que la matriz 2 X 2 en (2) es simétrica, que los elementos en la diagonal son los coeficientes dc los ttrrnlnor, :d cuadrado y que cada uno de los elementos fuera de la diagonal principal es ia mitad de coeficiente del término del producto xy.

Page 547: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

S52 1 Temas complementarios

Ejemplo 2

2x2 + ~ X J J - 7v2 = [X y ] [: -:][;I

FORMAS Las formas cuadráticas no se limitan a dos variables. A continuación se define una CUADRÁTICAS forma cuadratica general. CON n VARIABLES Definicibn.Unaforma cuadrritica con las n variables xl, x2, . . . , x,, es una

expresión que se puede escribir como

I donde A es una matriz simétrica de n X n.

Si se hace

entonces (3) se puede escribir de manera más abreviada como

x TAx (4)

Además, es posible demostrar que si las matrices en (4) se multiplican, la expre- sión resultante es de la forma

donde

denota la suma de los términos de la forma a l p . , donde xi y xj son variables &- ferentes. Los términos a$zc, denotan términos de producto cruzado de la forma cuadrática.

Page 548: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.5 Formas cuadráticas / 553

Las matrices simétricas son útiles, aunque no esenciales, para representar formas cuadráticas en notación matricial. Así, para la forma cuadrática 2x2 + 6xy - 7 3 del ejemplo 2, el coeficiente del término de producto cruzado se podría separar en 5 + 1 o 4 + 2 y escribir

O

Sin embargo, las matrices simétricas producen en general los resultados más simples, de modo que siempre se usarán. Así, cuando una forma cuadrática se denote por xTAx se entenderá que A es simétrica, aun cuando no se especifique.

OBSERVACI~N. Si se usa el hecho de que A es simétrica; es decir, A = AT, en- tonces (4) se puede expresar en términos del producto interior euclilano me- diante

xTAx = xT(Ax) = ( A x , x) = (x, A x )

Ejemplo 3 La siguiente expresión es una forma cuadrática en xl, x2 y x3:

x: + 7x: - 3x: + 4x,x2 - 2x,x3 + 6x,x, = [x, x2 x3]

Nótese que los coeficientes de los términos al cuadrado aparecen sobre la diagonal principal de la matriz 3 X 3, y que cada uno de los coeficientes de los términos de producto cruzado están separados a la mitad y aparecen en las posiciones fuera de la diagonal como sigue:

t:: Coeficiente de A Posiciones en la matriz A

a12 y a21

XlX3 ' 1 3 y '31

'23 Y ' 72

PROBLEMAS EN El estudio de formas cuadráticas es un tema extenso que sólo se puede mencionar QUE APARECEN en esta sección. A continuación se presentan algunos problemas matemáticos FORMAS CUA- importantes relacionados con las formas cuadráticas. DRÁTICAS

Page 549: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

554 Temas complementarios

Encontrar los valores máximo y mínimo de la forma cuadrática X'AX si x está restringido de modo que

¿Qué condiciones debe satisfacer A para que una forma cuadrática cumpla la desigualdad xTAx > O para todo x f O? Si xTAx es una forma cuadrática con dos o tres variables y c es una constante, ¿qué perfil tiene la gráfica de la ecuación xTAx = c? Si P es una matriz ortogonal, el cambio de variable x = Py convierte la forma cuadrática xTAx en ( P Y ) ~ A ( P ~ ) = y'(PTAP)y. Pero P'AP es una matnz simétrica si A lo es, de modo que yr(P'AP)y es una nueva forma cuadrática con las variables de y . Es importante saber si P se puede elegir de modo que esta nueva forma cuadrática no contenga términos de producto cruzado.

En esta sección se estudiarán los dos primeros problemas, y en las secciones siguientes se estudiarán los dos últimos. El siguiente teorema proporciona una solución al primer problema. Ea demostración se pospone hasta el final de la sección.

Teorema 9.5.1. Sea A una matriz simétrica n x n cuyos eigenvalores en orden decreciente son A , I A2 2 . . 2 An. Si x se restringe de modo que llxll = 1 con respecto al producto interior euclidiano sobre R", entonces:

a) A, 2 X ~ A X 2 A,. b) xTAx = A,, si x es un eigenvector de A correspondiente a An y xTAx = 1, si x

es un eigenvector de A correspondiente a A , .

Por este teorema se concluye que sujeta a la restricción

( (X I / = (x: +x; + . . . + x y = 1

la forma cuadrática xTAx tiene un valor máximo de ,I, (el eigenvalor más grande) y un valor mínimo de I n (el eigenvalor más pequeño).

Ejemplo 4 Encontrar los valores máximo y mínimo de la forma cuadrática

x: 4- x; + 4x,x,

sujeta a la restricción .Y: T x; = 1 , y determinar los valores de x1 y xz en que ocurren el máximo y el mínimo.

Solución. La forma cuadrática se puede escribir como

x: + x i + 4x,x2 = X'AX = [x,

La ecuación característica de A es

Page 550: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

I

9.5 Formas cuadráticas 1 555

det( dZ - A ) = det [A,, A:21] =d2”d-3=(d-3) (d+ 1 ) = 0

Así, los eigenvalores de A son L = 3 y L = - 1, que son los valores máximo y mínimo, respectivamente, de la forma cuadrática sujeta a la restricción. Para en- contrar los valores de x1 y x2 en que ocurren estos valores extremos es necesario encontrar los eigenvectores correspondientes a estos eigenvalores y luego normali- zarlos para satisfacer la condición x: t < = 1.

Se deja al lector demostrar que dos bases para los eigenespacios son

Normalizando cada uno de estos eigenvectores se obtiene

Así, sujeto a la restricción x: + < = 1, el valor máximo de la forma cuadrática es A

= 3, que ocurre si x1 = I/ J z , x2 = 1 / J z , y el valor minim0 es = - 1, que ocurre

si x1 = l/&, x2 = - l/&. Además, se puede obtener otras bases para los eigenespacios al multiplicar por -1 los vectores básicos anteriores. Así, el valor

máximo, A = 3, también ocurre si x1 = - 1/&, xz = - l / f i y el valor mínimo,

L = -1, también ocurre si x1 = - 1/&, x2 = l/&. A

MATRICES POSITIVAS

Definicih. Una forma cuadrática xTAx se denomina positiva definida si x*Ax >

DEFINIDAS Y O para todo x f O , y una matriz simétrica A se denomina matriz positiva

FORMAS definida si xTAx es una forma cuadrática positiva definida.

CUADRÁTICAS El siguiente teorema es el resultado principal sobre matrices positivas definidas.

Teorema 9.5.2. Una matriz simétrica A es positiva definida si y sólo si los eigenvalores de A son positivos.

Demostración. Supóngase que A es positiva definida y sea A cualquier eigenvalor de A . Si x es un eigenvector de A corresponhente a A, entonces x f O y A x =Ax, de modo que

o < X ~ A X = xrax = axrx = a11x112 (6)

donde llxll es la norma euclidiana de x. Como llx112 > O , se deduce que L > O, qui es lo que se quería demostrar.

Page 551: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

556 /' Temas complementarios

Recíprocamente, supóngase que los eigenvalores de A son positivos. Se debe demostrar que xTAx > O para todo x f O . Pero si x f O , es posible normalizar x para obtener el vector y = x/llxll con la propiedad de que llylj = 1. Ahora, por el teorema 9.5.1 se concluye que

donde I n es el menor eigenvalor de A . Así,

Multiplicando por llx112 se obtiene

xTAx > O

que es lo que se quería demostrar. U

Ejemplo 5 En el ejemplo 1 de la sección 7.3 se demostró que la matriz simétrica

El siguiente objetivo es proporcionar un criterio que se pueda usar para determinar si una matriz simétrica es positiva definida sin necesidad de encontrar sus eigenvalores. Para esto será de utilidad introducir algo de terminología. Si

all a12 " . A = [a;l " 2 " . ::j

an, a n 2 . . . a n n

es una matriz cuadrada, entonces las subm&¿ces principales de A son las submatrices formadas a partir de los r primeros renglones y de las r primeras columnas de A para r = 1,2, . . . , n. Estas submatrices son

r- 1

Page 552: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.5 Formas cuadráticas / 557

Teorema 9.5.3. Una matriz simétrica A es positiva definida si y sólo si el determinante de toda submatriz principal es positivo.

Se omite la demostración.

Ejemplo 6 La matriz

es positiva definida, ya que

2 - 2 - 1 - 3

121=2, ;I = 3 , = I - 1 2 4

-3 4 9

todos son positivos. Así, se garantiza que los eigenvalores de A son positivos y que xTAx > O para todo x # O . A

OBSERVACI~N. Una matriz simétrica A y la forma cuadrática xTAx se deno- minan

positiva semidefinida si xTAx 2 O para todo x. negativa dejinida si xTAx < O para x # O . negativa semidefinida si xTAx 5 O para todo x. indefinida si xTAx tiene valores tanto positivos como negativos.

Los teoremas 9.5.2 y 9.5.3 se pueden modificar de manera evidente a fin de que sean válidos para los tres primeros tipos de matrices. Por ejemplo, una matriz si- métrica A es positiva semidefinida si y sólo si todos sus eigenvalores son no ne- gativos. También, A es positiva semidefinida si y sólo si todas sus submatrices principales tienen determinantes no negativos.

OPCIONAL

Demostración del teorema 9.5.la. Como A es simétrica, por el teorema 7.3.1 se concluye que existe una base ortonormal para R" que consta de eigenvectores de A .

Page 553: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

558 ;' Temas complementarlos

Supóngase que S' = { vl, v2, . . . , v,,) es esa base, donde vl es el eigenvector correspondiente al eigenvalor A,. Si ( , } denota el producto interior euclidiano, entonces por el teorema 6.3.1 se concluye que para cualquier x en R"

x = (x, V l > V l + (x, v2)v2 + ' ' ' + (x, v,)v,

Por tanto,

A x = (x, VI)AV, + (x, v2)Av2 + . . . + (x, v,)Av, = (x, V I ) h l V ~ +(x, v,)d.,v, + . . . + (x, v,)d,v, = al(x, + v2)v2 + . . . + a,(x, v,)v,

Se concluye que los vectores de coordenadas para x y A x con respecto a la base S son

( 4 s = ((x, V I ) , (x , v2) . . . , (x, va>> (Ax), = ( L A X , VI), d2(x, v,), . . . , U X , v,))

Así, por el teorema 6.3.2a y el hecho de que llxll = 1 se obtiene

(IXI(Z = (x, V I ) , + (x , V2)* f . I ' + (x, V,)* = 1

(x , Ax) = dI(X, v1)2 + &(x, v2)2 + ' ' ' + &(x, v,)2

Con estas dos ecuaciones y la fórmula (5) se puede demostrar que xTAx 5 1, como sigue.

xTAx = (x, Ax) = d,(X, v,)* + d,(x, v2)2 + . . . + &(x, V,)* S al(x, + a,(x, v2)2 + . . I + A , ( ~ , V,)2

= v 1 ) 2 + (x, v2)* + . . . + (x, v,)2) = d l

La demostración de que An xTAx es semejante y se deja como ejercicio.

Demostración de teorema 9.5.lb. Si x es un eigenvector de A correspondiente a I, y llxll = 1, entonces

xTAx = (x, Ax) = (x, dlx) = h , ( x , X > = d l ~ ~ x ~ ~ 2 = k 1

De manera semejante, xTAx = An si 11x11 = 1 y x es un eigenvector de A correspondiente a I,. 0

EJERCICIOS DE LA SECCIÓN 9.5

1. ¿Cuáles de las siguientes expresiones son formas cuadráticas? a) x' - t6.ry b) 5 ~ : - 2.x: + 4 ~ ~ ~ 2 c) 4x: - 3x5 + x; - 5.r,x3

Page 554: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.5 Formas cuadráticas / 559

d) x: - 7x: + x: + 4x,x2x3 e) xIx2 - 3xlx3 + 2x2x3 f ) X: - 6 ~ : + .xI - 5x2

8) (x I - 3x2 h) (xI - x ~ ) ~ + 2(xI + 4x2)’

2. Expresar las siguientes formas cuadráticas en la notación matricial xTAx, donde A es una matriz simétrica.

a) 3x: + 7xi b) 4x: - 9 x i - 6xlx2 c) 5x: + 5xIx2 d) - 7 ~ 1 %

3. Expresar la siguientes formas cuadráticas en la notación matricial x’Ax, donde A es una matriz simétrica. a) 9x: -x2 + 4x: + 6x1~2 - 8 ~ 1 . ~ 3 + ~ 2 x 3 b) x: +X: - 3 ~ : - 5xIx2 + 9 ~ 1 . ~ 3

C) ~ 1 x 2 + ~1x3 + ~ 2 x 3 d) V?X: - + 2\fh1x2 - 8 ~ ~ 1 x 3

e) x: + x: - x: - x i + 2x,x, - 10x,x4 + 4 ~ ~ x 4

4. En cada inciso, encontrar una fórmula para la forma cuadrática en la que no aparezcan

5. En cada inciso, encontrar los valores máximo y mínimo de la forma cuadrática sujeta a la restricción x! +’ x; = 1 y determinar los valores de x1 y xz en los que ocurren los valores máximo y mínimo. a) 5x: -x: b) 7x: + 4x: + xlxz c) 5x: + 2x2 - xIx2 d) 2.r: +x: + 3X,X2

6. En cada inciso, hallar los valores máximo y mínimo de la forma cuadrática sujeta a la restncción x: + 4 + 4 = 1 y determinar los valores de xl, .xz y .x3 en los que ocurren los valores máximos y mínimos. a) x: + x i + 2x: - 2xlx2 + 4x,x3 + 4x2x3 b) 2x: + x; +x: + 2xlx3 + 2x,x2 c) 3x: + 2x: + 3x: + 2x,x3

7. Mediante el teorema 9.5.2, determinar cuáles de las siguientes matnces son positivas definidas.

8. Con el teorema 9.5.3, determinar cuáles de las matrices del ejercicio 7 son positivas definidas.

9. Usando el teorema 9.5.2, determinar cuáles de las siguientes matrices son positivas d e f ~ d a s .

Page 555: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

560 Temas complementarios

IO. Por medio del teorema 9.5.3, determinar cuides de las matrices del ejercicio 9 son posi- 1 tlvas definidas.

11. En cada inciso, clasificar la forma cuadrática como posltiva defmida, positiva semide- finida, negativa definida, negativa semidefinida o indefinida. a) .Y; + .Y: b) --X: - 3 ~ : C) ( X , - x2)*

d j --(xl - xz)' e) .x: --x: f ) x,xz

12. En cada Inciso, clasificar la matnz como positiva definida, positiva semidefinida, nega- tiva definida, negativa semidefinida o indefinida.

a) O 0 1

d ) [ -: -: -81 e) [O O O] f j [A y O 0 0

O 0 0 O 0 1

13. Sea X'AX una forma cuadrática en x I , x , x,; definir T:Rn + K por T(x) = x'dx. a) Demostrar que T(x + y) = T(x) + 2x Ay + ?"(y). b) Demostrar que T(b) = pT(x). c) ¿,Es T una transformación lineal? Explicar la respuesta.

F . '

14. En cada inciso, encontrar los valores de k con los que la forma cuadrática es positiva definida. a) x: + kx: - 4.x1x, b) 5 ~ : + X: + kx: + 4 ~ ~ x 2 - 2 ~ ~ x 3 - ~ x , x , c) 3xi + .x: + 2 4 + 2x1x3 + 2k.rzx3

15. Expresar la forma cuadrática (c,x, + czyz + , . . + C~X,)~ en notación matricial xTAx, donde A es simétrica.

se denomina media aé la muestra de x,, x2, . . . , xn, y

se denomina variancia de la muestra. a) Expresar la forma cuadrática S,' en la notación matricial xTAx, donde A es

b) ¿,Es S,' una forma cuadrática positiva definida? Explicar la respuesta. simétrica.

17. Cnmpletar la demostración del teorema 9.5. I probando que I n 5 xTAx si llxll = 1 ya, = xTAx si x es un eigenvector de A correspondiente a An.

Page 556: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.6 Diagonalización de formas cuadráticas; secciones cónicas 1 561

9.6 DIAGONALIZACIÓN DE FORMAS CUADf3ÁTICAS; SECCIONES C~NICAS

En esta sección se mostrará cómo eliminar, cambiando las variables, los términos de producto cruzado que hay en una forma cuadrática, y los resultados se usarán para estudiar las gráJcas de secciones cónicas.

DIAGONALIZA- CIÓN DE

CUADRÁTICAS FORMAS

Sea

xTAx = [xI x2 . . ' x,]

una forma cuadrática, donde A es una matriz simétrica. Por el teorema 7.3.1 se sabe que existe una matriz ortogonal P que diagonaliza aA; es decir,

donde Al , A2, . . . , A,, son los eigenvalores de A . Si se hace

Y =

Y" :I donde y,, y,, . . . , y, son variables nuevas, y si en (1) se efectúa la sustitución x =

P y , entonces se obtiene

X ~ A X = ( P Y ) ~ A P Y = yTPTAPy = yTDy

Pero

Page 557: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

56.2 7emas complementarios

que es una forma cuadrática sin términos de producto cruzado. En resumen, se liene el siguiente resultado.

Teorema 9.6.1. Sea xTAx una forma cuadrática en las variables xl, x,, . . . , x,, donde A es simétrica. Si P diagonaliza ortogonalmente a A y si las nuevas variables -y1, y,, , . , , y , están dejnidas por la ecuación x = P y , entonces al sustituir esta ecuación en xTAx se obtiene

x T A x = y7By = a,?; + A2y; + . . ' + A,.; donde A, . A 2 . . . . . A , son los eigenvalores de A y

I a, o " ' 0 o d2 . . . O

D = P % P = . . 10 o . . . ;,

Se dice que la matriz P de este teorema diagonafiza ortogonafmente la forma cuadrática, o que reduce f a forma cuadrática a una suma de cuadrados.

Ejemplo 1 Encontrar un cambio de variable que reduzca la forma cuadrática x: - x i - 4x,x2 + 4x2x3 a una suma de cuadrados, y expresar la forma cuadrática en términos de las nuevas variables.

Solución. La forma cuadrática se puede escribir como

La ecuación característica de la matriz 3 x 3 es

2 - 1 2 o 2 A - 2 o - 2 a - t l

= a 3 - 9 d = A ( d + 3 ) ( A - 3 ) = O

de modo que los eigenvalores son A = O, A = -3 , A = 3. Se deja al lector demostrar que las bases ortonormales de los tres eigenespacios son

Page 558: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.6 Diagonalización de formas cuadráticas; secciones cónicas I' 563

Así, la sustitución x = Py con que se eliminan los términos de producto cruzado es

o bien, de manera equivalente,

x , = Qy, - iY, - UY3 2

x2 = +y, - QY2 + %Y3

x3 = Qy, + QY2 + +Y3

La nueva forma cuadrática es

o bien, de manera equivalente,

- 3y: + 3Y: A

OBSERVACI~N. Hay otros métodos para eliminar los términos de producto cruzado de una forma cuadrática, pero no serán analizados aquí. Dos de los métodos, la reducción de Lagrange y la reducción de Kronecker se estuhan en textos más avanzados.

SECCIONES A continuación se aplicará lo aprendido hasta ahora sobre formas cuadráticas al CÓNICAS estudio de ecuaciones de la forma

ax2 + 2bxy + cy2 + dx + ey + f = O (2)

donde a, 6, . . . , f son, todos, números reales y por lo menos uno de los números a, b, c es diferente de cero. Una ecuación de este tipo se denomina ecuación cuadrcibica en x y y, y

ax2 + 2bxy + cy2

se denomina forma cuadrtitca asociada.

Ejemplo 2 En la ecuación cuadrática

3x2 + 5xy - 7y2 + 2x + 7 = o las constantes en (2) son

Page 559: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

564 lentas cumplernentarios

0 = 3. h r: 2 L‘ z: --- 7 2 , , ( d = 2 , p = o , f = 7 A

Ejemplo 3

4x2 - 5.v’ i- 8v+ 9 = o 4x’ - 5y’ I \ ’ + y = o x v

Las gráfkas de ecuaciones cuadráticas en x y y se denominan cónicas o secciones cónicas. Las cónicas más importantes son las elipses, circunferencias, hipdrbolas y parábolas; estas curvas se denominan cónicas no degeneradas. Las demás cónicas se denominan degeneradas e incluyen los puntos simples y 10s

pares de rectas (véase el ejercicio 15). Se dice que una cónica no degenerada está en posición normal con respecto

a los ejes de coordenadas si su ecuación se puede expresar en una de las formas dadas en la figura 1.

k < l k > l k = l

x‘ ?” ”” k’ [’ - 1; k. 1 > O -

Fhperbola

Figura 1 (continúa en la página 565)

Page 560: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.6 Diagonalización de formas cuadráticas; secciones conicas / 565

.v2 = kx Parábola

x2 = ky Parábola

Figura 1

Ejemplo 4 La ecuación

x2 y2 x2 y2 -+ -= lesdelaforma-+-= 1 con k = 2 , 1 = 3 4 9 k2 l 2

Por tanto, su gráfíca es una elipse en posición normal que corta el eje x en (-2, O) Y (2,O) Y al ejey en (O, -3) Y (0, 3).

La ecuación x2 - S 2 = - 16 se puede escribir de nuevo como ,912 - x2/16

= 1, que es de la forma glk - x2/1 = 1, con k = J2,1= 4. Por tanto, su gráfica es

una luperbola en posición normal que corta al ejey en (O, - JiT y (O, J2 1. La ecuación 5x2 + 2y = O se puede volver a escribir como x2 = - *y. que es

de la forma 2 = ky con k = - 3 . Como k < O, su gráfíca es una parábola en posición normal cuyas ramas se abren hacia abajo, A

IMPORTANCIA Obsérvese que ninguna cónica en posición normal tiene término xy (es decir, DEL TÉRMINO término de producto cruzado) en su ecuación; la presencia de un término xy en DE PRODUCTO la ecuación de una cónica no degenerada indica que la cónica no está rotada en la CRUZADO posición normal y ha girado (figura 2a). También, ninguna cónica en posición

normal tiene a la vez un término x* y un termino x o un termirno y 2 y un t.Cr;runo y . Si no hay ténnino de producto cruzado. entonces la aparici6n de cualquiera de estas parejas en la ecuación de una cónica degeneradaindica que la cónica est6 trasladada fuera de la posición nonnal (tigura 33).

Page 561: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

566 / Temas complenzentarios

Una técnica para identificar la gráfica de una cónica no degenerada que no esté en posición normal consiste en girar y trasladar los ejes de coordenadas xy a fin de obtener un sistema de coordenadas x y con respecto al cual la cónica esté en posición normal. Una vez hecho lo anterior, la ecuación de la cónica en el sistema x y es de una de las formas dadas en la figura 1, por lo que se puede identificar fácilmente.

h) c . )

piq Rotación y traslación

Ejemplo 5 Como la ecuación cuadráttica

2 x 2 + + * - 1 2 ~ - 4 , ~ + 1 8 ~ 0

contiene términos 2, x, 3 y y pero no contiene término de producto cruzado, su gráfica es una cónica que no está en la posición normal y se ha trasladado pero no ha girado. Esta cónica se puede colocar en posición normal trasladando de manera apropiada los ejes de coordenadas. Para lograrlo, primero se agrupan los términos x y y. Así, se obtiene

(2x2 - 1 2 ~ ) + ( y 2 - 4y) + 18 = O

o bien,

2(x2 - 6 ~ ) + ( y 2 - 4y) - 18

Completando el cuadrado* en ambas expresiones entre paréntesis se obtiene

2(x2 - 6~ + 9) + ( y 2 - 4~ + 4) - 18 + 18 + 4

o bien, 2(x - 3)2 + ( y - 2)* = 4

* Para completar al cuadrado una expresión de la forma x2 + px se suma y resta la constante @/2)2 para obtener

Page 562: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Figura 3

9.6 Diagonalización de formas cuadráticas; secciones cónicas / 567

Si los ejes de coordenadas se trasladan por medio de las ecuaciones de traslación

x"x-3, y ' = y - 2

entonces (3) se convierte en

2x'2 + y'* = 4

o bien,

XI2 -+"=I Y'* 2 4

que es la ecuación de una elipse en posición normal en el sistema x?. Esta elipse se muestra en la figura 3. A

ELIMINACIóN A continuación se mostrará cómo identlficar cónicas que no están en la posición DEL TÉRMINO normal por haber girado. Si en las matrices 1 x 1 se omiten los corchetes, enton- DE PRODUCTO ces (2) se puede escribir en forma matrlcial como CRUZADO

O

donde

x T A x + K x + f = O

Ahora, considérese una cónica C cuya ecuación en coordenadas xy es

x'Ax+Kx+ f = O

Page 563: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

568 / Temas complementarios

Se quiere girar los ejes de coordenadas xy de modo que la ecuación de la cónica en el nuevo sistema x’y’ no contenga término de producto cruzado. Esto se puede lograr como se muestra enseguida.

Paso 1. Encontrar una matriz

que diagonalice ortogonalmente la forma cuadrática xTAx.

Paso 2. Intercambiar las columnas de P, en caso de ser necesario, para hacer det(P) = 1 . Esto asegura que la transformación ortogonal de coordenadas

x = P x ‘ , esto es, [;] = p [ ; : ]

es una rotación.

(Px‘)7A(Pxr) + K ( P x ’ ) + f = O

o bien,

( x ‘ ) ~ ( P ~ A P ) x ’ + (KP)x’ + f = O (6)

Como P diagonaliza ortogonalmente a A ,

londe A , y A, son eigenvalores de A . Así. (6) se puede volver a escribir como

[donde d ‘ = dp, , + ep21 y e’ = dp,, + ep,,). Esta ecuación no contiene término je producto cruzado.

Page 564: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.6 Diagonalización de formas cuadráticas; secciones cónicas / 569

Este análisis se resume en el siguiente teorema.

Teorema 9.6.2. (Teorema de los ejes principales para R'). Sea

ax2 + 2bxy + cy2 + dx + ey + f = O

la ecuación de una cónica C, y sea

xrAx = ax2 + 2bxv + cy2

la forma cuadrcítica asociada. Entonces los ejes de coordenadas se pueden girar de modo que la ecuación de C en el nuevo sistema de coordenadas xy sea de la forma

jl,xr2 + A2yI2 + d'x' + e'y' t f = O

donde 1, y A2 son los eigenvalores de A . La rotación se puede efectuar mediante la sustitución

x = Px'

donde P diagonaliza ortogonalmente a xTAx y det(P) = l .

Ejemplo 6 Describir la cónica C cuya ecuación es 52 - 4xy + 8 3 - 3 = O

Solución. La forma matricial de esta ecuación es

X'AX - 36 = O

donde

La ecuación característica de A es

de modo que los eigenvalores de A son 1 = 4 y 1 = 9. Se deja para el lector de- mostrar que bases ortonormales para los eigenespacios son

Page 565: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

570 /' Temas complementarios

Asi,

P = [ 2'v3 l ' V 3 - 2/v3 "7

diagonaliza ortogonalmente a aTAx. Además, det(P) = 1, de modo que la transformación ortogonal de coordenadas

x = Px' (8)

es una rotación. Sustituyendo (S) en (7) se obtiene

( P x ' ) ~ A ( P x ' ) - 36 = O

o

(X ' )~ (P 'AP)X' - 36 = O

Como

PTAP= lo 9] 4 0

esta ecuación puede escribirse como

o

4 ~ " + 9 ~ ' ' - 36 1 O

O

que es la ecuación de la elipse mostrada en la figura 4. En esa figura. los vectores v, y v 2 son los vectores columna de P. A

Page 566: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.6 Diagonalización de formas cuadráticas; secciones cónicas 1 571

Ejemplo 7 Describir la cónica C cuya ecuación es

20 80 5 x 2 - 4 x y + 8 y 2 + - ~ - - y + 4 = 0 v 5 v 5

Solución. La forma matricial de esta ecuación es

x T A x + K x + 4 = 0

donde

Como se muestra en el ejemplo 6,

di ,onaliza ortogonalmente a xTAx. Sustituyendo x = Px’ en (9) se obtiene

(PX’>~A(PX’) + K(Px’) + 4 = O

o bien,

( X ’ ) ~ ( P ~ A P ) X ’ + (KP)x’ + 4 = O

(10) se puede escribir como

4 ~ ’ ~ + 9 ~ ” - 8 ~ ’ - 3 6 ~ ‘ + 4 = O

Para que la cónica esté en posición normal es necesario trasladar los ejes x y Procediendo como en el ejemplo 5, (1 1) se vuelve a escribir como

4(x’2 - 2x’) + 9(y’2 - 4y’) = -4

Completando los cuadrados se obtiene

4(d2 - 2 ~ ‘ + 1) + 9 ( ~ ’ ~ - 4y’ + 4) - 4 + 4 + 36

Page 567: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

572 / Temas complementarios

o bien,

4 ( ~ ' - I ) 2 + 9( y' - 2)' = 36

Si los ejes de coordenadas se trasladan mediante las ecuaciones de traslación

y = X ' - 1, y ' = j/ " 2

entonces (12) se convierte en

4 ~ ' ' ~ + 9yn2 = 36

o bien.

que es la ecuación de la elipse mostrada en la figura 5. En esa figura, los vectores v1 y v2 son los vectores columna de P. A

EJERCICIOS DE LA SECCIóN 9.6

1. En cada inciso, encontrar un cambio de variable que reduzca la forma cuadrática a una suma o diferencia de cuadrados, y expresar la forma cuadrática en términos de las nuevas variables. a) 2x: + 2.4 - 2x,x2 b) 5.4 + 2x2 + 4x,x2 c ) 2x ,x2 d) -3n: + 5 x t i- 2,r,s,

Page 568: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

2.

3.

4.

5.

6.

7.

8.

9.6 Diagonalización de formas cuadráticas; .secciones cónicas 1 573

En cada inciso, encontrar un cambio de variable que reduzca la forma cuadrática a una Suma 0 diferencia de cuadrados, y expresar la forma cuadrática en términos de las nuevas variables. a) 3.4 + 4xz + 5x: + 4x1x2 - 4~2x3 b) 2.4 + 5 ~ : + 5 4 + 4x,-x2 - 4x,X3 - 8X2X3 C) - 5x: + X: - X: + 6 1 , ~ ~ + 4~1x1 d) 2~1x3 + 6x2~3

Encontrar las formas cuadráticas asociadas a las siguientes ecuaciones Cuadraticas.

a) 2-x2 - 3sy + 4y’ - 7x + 2.v + 7 = O b) x’ - xy + 5x + 8y - 3 = O c) 5xy = 8 d) 4x2 - 2 ~ ’ = 7 e) y 2 + 7x - 8v - 5 = O

Encontrar las matnces de las formas cuadráticas del ejercicio 3.

Expresar cada una de las ecuaciones cuadráticas del ejercicio 3 en la forma matricial

X’AX + Kx + f = O.

Identificar las siguientes cónicas. a) 2s’ + 5y2 = 20 b) 4x2 + 9y2 = 1 c) x2 - y 2 - 8 = O d) 4y2 - 5x2 = 20 e) x2 + y 2 - 25 = O f) 7y2 - 2x = O g) -x2 = 2y h) 3~ - 1 ly2 = O i ) y - s 2 = o J ) X - 3 = -y2

En cada inciso, la cónica estará en posición normal por medio de una traslación. Identificar la cónica y proporcionar su ecuación en el sistema de coordenadas tras- ladado. a) 9x2 + 4,v’ - 36.x - 24y + 36 = O b) x’ - 16y2 + 8n + 1 2 8 ~ = 256

e) 2x2 - 3y2 + 6x + 20y = -41 f ) x2 + 1 0 ~ + 7~ = -32

Las siguientes cónicas no degeneradas están rotadas fuera de la posición normal y han grado. En cada inciso, grar los ejes de coordenadas para eliminar el término x y . Identificar la c h i c a y proporcionar su ecuación en el sistema de coordenadas que ha girado. a) 2 s 2 - 4 x , v - y 2 + 8 = 0 b ) x 2 + 2 x y + y 2 + 8 ~ + y = O

‘ 2

C) -y2 - 8s - 14.v + 49 = O d ) x 2 + y 2 + 6 s - ~ O < V + 1 8 = 0

c) 5x2 + 4sy + S$ = 9 d ) 1 1 x 2 + 2 4 . ~ ~ + 4-V’ - 15 = O

En los ejercicios del 9 a 14, trasladar y girar los ejes de coordenadas, en caso de ser nece- sario, a fin de que la cónica esté en posición normal. Identificar la cónica y proporcionar su ecuación en el sistema de coordenadas final.

9. 9s’ - 4Xy + 6 ) ~ ~ - 10s - 20,V 5 10. 3x2 - 8.w~ - 1 2 ~ ’ - 3 0 . ~ - 64,~ = O

11. 2 x 2 - 4 ~ . ~ - y 2 - 4 x - 8 v = - 1 4 12. 21x’ + 6sy + 13y2 - 1 1 4 ~ + 34.v + 73 = O

13. X‘ - 6xy - 7 ~ ’ + 1 O X + 2~3 + 9 O 14. 4 ~ ’ - 20.~1) + 2 5 ~ ’ - 15s - 6y = O

15. La gráfica de una ecuación cuadrática en x y y puede, en ciertos casos, ser un punto, una recta o un par de rectas. Estas cónicas se denominan degenerodas. También es posible que ningún valor real de x y y satisfaga la ecuación. En estos casos la ecuación no tiene gráfica; se dice que representa una ch ica imaginaria. Cada una de las siguientes expresiones representa una cónica de-generada o imaginaria. Cuando sea po- sible, trazar la gráfica. a) x* -.v2 = O b) S’ + 3y2 + 7 = O C) 8x2 + 7y2 = O d)x2-2xy+,v’=O e) 9 x 2 + 1 2 s y + 4 y 2 - 5 2 = 0 f ) s ’ + y 2 - 2 x - 4 y = - 5

Page 569: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

574 1 Temas complementarios

9.7 SUPERFICIES CUADRICAS

En esta sección se aplicarán las técnicas de diagonalización obtenidas en la sección precedente a ecuaciones cuadráticas con tres variables, y los resultados se usarán para estudiar superficies cuádricas.

SUPERFICIES Una ecuación de la forma CUÁDRKAS

ax2 + by2 + cz2 + 2dxy + 2exz + 2fyz + gx + hy + iz + j = O (1)

donde no todos los coeficientes a, 6, . . . , f son cero se denomina ecuación cuadrútica en x, y , y z; la expresión

ax2 + by' + cz' + 2dxy + 2exz + 2 f y z

se denomina forma cuadrútica asociada. La ecuación (1) se puede escribir en forma matricial como

[x y z] d b f y + [ g h i ] y + j = O [: ; :I[:] [:I o

donde

x T A x + K x + j = O

Ejemplo 1 La forma cuadrática asociada con la ecuación cuadrática

3x2 + 2y2 - z2 + ~ X , V + ~ X Z - 8yz + 7~ + 2 y + 3~ - 7 = O

es

3x2 + 2y2 - z2 + 4xy + 3xz - 8yz A

Las gráfkas de ecuaciones cuadráticas con variables x, y y z se denominan cuúdricas o superficies cuúdricas. Las ecuaciones más simples de superficies cuádncas ocurren cuando estas superficies se colocan en ciertas posiciones normales con respecto a los ejes de coordenadas. En la figura 1 se muestran las seis superficies cuádricas básicas y las ecuaciones de estas superficies cuando éstas se colocan en las posiciones normales mostradas en la figura. Si una superficie cuádrica es cortada por un plano, entonces la curva de intersección se denomina traza del plano sobre la superficie. Para ayudar a conceptualizar las superficies cddricas de la figura 1, se muestran y describen las trazas formadas por planos

Page 570: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.7 Superjcies cuádricas /I 575

Superficie

I Hiperboloide I I de una hoja 1

I Hiperboloide de I dos hojas I

paralelos a los planos de coordenadas. La presencia de uno o más términos de producto cruzado xy, xz y yz en la ecuación de una cuádrica indica que la cuádrica está fuera de la posición normal y se ha girado; la presencia de ambos términos x2 y x, 2 y y o z2 y z en una cuádrica sin término de producto cruzado indica que la cuádrica está trasladada fuera de la posición normal.

Ecuación

Los trazos en los planos de coordenadas son elipses, así como los trazos en los planos paralelos a los planos de coordenadas.

"

Y A V' 2' "+""= 1 I' m' n 2

El trazo en el plano xy es una elipse, así como los trazos en los planos paralelos al plano xy. L o s trazos en los planos yz y xz son hipérbolas, as¡ como los trazos en los planos paralelos a éstos.

x' "' z'

I' m' n2 - + - - - = - 1

Vo hay trazo en el plano xy. En los planos paralelos al )lano x y , que cortan la uperfkie, los trazos son :lipses. En los planosyz y xz os trazos son hipérbolas, a s í :om0 los trazos en los planos malelos a éstos.

Superficie

Cono elíptico

I Paraboloide elíptico I

Paraboloide hiperbólico

Ecuación

' V2

El trazo en el plano xy es un punto (el origen), y los trazos en los planos paralelos al plano xy son elipses. Los trazos en los planos yz y xz son pares de rectas que se cortan en el origen. Los trazos en los planos paralelos a éstos son hipérbolas.

El trazo en el plano xy es un punto (el origen), y los trazos en los planos paralelos y por encima del plano xy son elipses. Los trazos en los planos yz y xz son parábolas, a s í como los trazos en los planos paralelos a éstos.

y' x'

m' I' -~ ""

El trazo en el plano xy es un par de rectas que se cortan en el origen. Los trazos en los planos paralelos al plano xy son hipérbolas. Las hipérbolas por encima del plano xy se abren en la dirección y, y las que es^ por abajo lo hacen :n la dirección x. Los trazos m los planos yz y xz son mrábolas, a s í como los trazos :n los planos paralelos a éstos.

Page 571: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

576 / ' Temas complementarios

Ejemplo 2 Describir la superficie cuádrica cuya ecuación es

4x2 + 3 6 ~ ' - 9z2 - 1 6 ~ - 216~1+ 304 = 0

Solución. Al reagrupar los términos se obtiene

4 ( ~ ' - 4x1 + 36(,~' - 6 ~ ) - 9z2 -- 304

Completando el cuadrado de los binomios entre paréntesis se obtiene

4(x2 - 4~ + 4) + 3 6 ( ~ ' - 6.y + 9) - 9 2 = -304 + 16 + 324

O

4 ( ~ - 2)2 + 36(y - 3)' - 9z2 = 36

O

(x - 2)' Z2

9 + ( y - 3 ) 2 - - = 1

4

Trasladando los ejes por medio de las ecuaciones de traslación

se obtiene

que es la ecuación de un hiperboloide de una hoja. A

ELIMINACIÓN El procedimiento para identificar cddricas que están fuera de la posición normal DE LOS y se han girado, es semejante al procedimiento para las cónicas. Sea Q una super- TÉRMINOS DE ficie cuádrica cuya ecuación en coordenadas xyz es PRODUCTO CRUZADO x T A x + K x + j = O ( 2 )

Se quiere girar los ejes de coordenadas xyz de modo que la ecuación de la cuádrica en el nuevo sistema de coordenadas xlylz' no contenga términos de producto cruzado. Esto se puede efectuar como sigue:

Paso 1. Encontrar una matriz P que diagonalice ortogonalmente a xTAx. Paso 2. Intercambiar dos columnas de P, en caso de ser necesario, a fin de

hacer det(P) = 1. Esto asegura que la transformación ortogonal de coor- denadas

Page 572: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.7 Super-cies cuádricas i 577

es una rotación.

Paso 3. Sustituir ( 3 ) en (2). Así se obtiene una ecuación para la cuádrica en coordenadas x'y'z' sin términos de producto cruzado. (La demostra- ción es semejante a la de las cónicas y se deja como ejercicio.)

El siguiente teorema resume este análisis.

Teorema 9.7.1. (Teorema de los ejes principales para R3). Sea

ux2 + by2 + cz2 + 2dxy + 2exz + 2fyz + gx + hy + iz + j = O

la ecuación de una cuádrica Q, y sea

xTAx = ax2 + by2 + cz2 + 2dxy + 2exz + 2fyz

la forma cuadrática asociada. Los ejes de coordenadas se pueden girar de modo que la ecuación de Q en el sistema de coordenadas x'y'z' sea de la forma

donde A,, A2 y A3 son los eigenvalores de A . La rotación se puede efectuar por medio de la sustitución

x = P x '

donde P diagonaliza ortogonalmente a xTAx y det(P) = l .

Ejemplo 3 Describir la superficie cuádrica cuya ecuación es

4x2 + 4y2 + 4z2 + 4xy + 4xz + 4yz - 3 = o

Solución. La forma matricial de la ecuación cuadrática anterior es

X'AX - 3 = O

donde

Como se muestra en el ejemplo 1 de la sección 7.3, los eigenvalores de A son 1 = 2 y A = 8, y A es diagonalizada ortogonalmente por la matriz

Page 573: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

5 78 1 Temas complementarlos

O 1 donde los dos primeros vectores columna en P son eigenvectores correspondientes a ,I = 2 y el tercer vector columna es un eigenvector correspondiente a 1 = 8.

Como det(P) = I (comprobar), la transformación ortogonal de coordenadas x = Px’ es una rotación. Sustituyendo esta expresión en (4) se obtiene

( P x ’ ) 7 A ( P x ’ ) - 3 = o o bien, de manera equivalente,

(x’ )7(P?4P)x’ - 3 = O

Pero

2 0 0 P T A P = [: :]

de modo que (5) se convierte en

o bien,

2s’* + 2y’* + 82” = 3

La ecuación anterior se puede volver a escribir como z !?

312 3 / 2 318 - +-+-=I

que es la ecuación de un elipsoide. A

EJERCICIOS DE LA SECCION 9.7

1. Encontrar las formas cuadráticas asociadas con las siguientes ecuaciones cuadráticas a) Y‘ + 2y2 -- zz + 4.ry - 5.v~ + 7 1 + 22 = 3 b) 31’ + 7z’ + 2.uy - 317 + 4.1.2 - 3x = 4

e ) 3:’ + 3 . ~ 2 - 14y + 9 = O f ) 2 2 + 2x2 +y2 + 2x -y + 3z = o C) X!’ + Y 2 + )JZ 1 d) .xz +.v‘ - z’ = 7

2. Encontrar las matrices de las formas cuadráticas del ejercicio 1

Page 574: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.8 Comparación de procedimientos para resolver sistemas lineales / 579

3. Expresar cada una de las ecuaciones cuadráticas dadas en el ejercicio 1 en la forma matncial X'AX + Kx +j = O.

4. Identificar las siguientes cuádricas.

a) 36x2 + 9y2 + 4z2 - 36 = O b) 2x2 + 6y2 - 3z2 = 18 C) 6x2 - 3y2 - 2z2 -- 6 = O d) 9x2 + 4y2 - z2 = O e) 16x2 + y 2 = 162 f ) 7x2 - 3y2 + z = o g ) x 2 + y 2 + z 2 = 2 5

5. En cada inciso, determinar las ecuaciones de traslación que colocan la cuádrica en posición normal.

a) 9x2 + 36y2 + 4z2 - 18x - l44y - 242 + 153 = O b) 6x2 + 3y2 - 2z2 + 12x - 18y - 8z = -7

e) x 2 + 16y2 + 2x - 32y - 16z - 15 = O f ) 7 x 2 - 3 y 2 + 1 2 6 ~ + 7 2 y + ~ + 1 3 5 ~ 0 C) 3 ~ ' - 3y2 - z2 + 4 2 ~ + 144 O d) 4x2 + 9y2 - Z' - 54y - 5 0 ~ = 544

g ) ~ ~ + y ~ + ~ ~ - 2 ~ + 4 ~ - 6 ~ = 1 1

6. En cada inciso, encontrar una rotación x = Px' que elimina los términos de producto cruzado. Identificar la cuádrica y escribir su ecuación en el sistema xyz'. a) 2x2 + 3y2 + 23z2 + 72xz + 150 = O b) 4x2 + 4y2 + 4z2 + 4x-v + ~ X Z + 4yz - 5 = O C) 1 4 4 ~ ~ + 1 0 0 ~ ~ + 812' - 2 1 6 ~ ~ - 5 4 0 ~ - 7202 = O d) 2xy + z = O

En los ejercicios del 7 al 10, trasladar y girar los ejes de coordenadas a fin de colocar la cuádrica en posición normal. Identificar la cuádrica y escribir su ecuación en el sistema de coordenadas final.

7. ~ X Y + ~ X Z + ~ Y Z - ~ X - ~ Y - ~ Z = -9

8. 7x2 + 7y2 + 10z2 - 2xy - 4x2 + 4yz - 1 2 ~ + 12.y + 602 = 24

9. 2 ~ ~ - 6 ~ + 1 0 ~ + ~ - 3 1 = 0

10. 2x2 + 2y2 + 5z2 - 4xy - ~ X Z + 2yz + 1 0 ~ - 26y - 22 = O

11. Demostrar el teorema 9.7.1.

9.8 COMPARACI~N DE PROCEDIMIENTOS PARA RESOLVER SISTEMAS LINEALES

En esta sección se analizarán algunos aspectos prácticos para resolver sistemas de ecuaciones lineales, invertir matrices y encontrar eigenvalores. Aunque ya antes se analizaron métodos para efectuar estos cálculos, los métodos no son aplicables directamente a la solución por computadora de problemas en gran esca!a que se presentan en aplicaciones del mundo real.

CONTEO DE Debido a que las computadoras están limitadas en el número de cifras decimales OPERACIONES que pueden manejar, redondean o truncan casi todas las cantidades numéricas. Por

ejemplo, una computadora diseñada para almacenar ocho cifras decimales puede registrar 3 como .66666667 (redondeado) o como .66666666 (truncado). En cual- quier caso se introduce un error denominado error por redondeo.

Page 575: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

580 i Ternas complementarros

Las consideraciones prácticas principales al resolver problemas de álgebra lineal en computadoras digitales son reducir el tiempo de computadora O, así el costo) necesario para obtener Ea solución y disminuir inexactitudes debidas a errores por redondeo. Asi, un buen algoritmo de cómputo usa el menor número de operaciones posible y efectria tales operaciones de modo que reduce el efecto de errores por redondeo.

En este texto se han estudiado cuatro métodos para resolver un sistema lineal, A x = b, de n ecuaciones con n incógnitas:

1. Eliminación de Gauss con retrosustitución, 2. Eliminación de Gauss-Jordan. 3. Calculando A". obtener x = .-I b, y 4. La regla de Cramer.

Para comparar estos métodos como herramientas de cómputo es necesario saber cuántas operaciones aritméticas requiere cada uno. En una computadora moderna grande, los tiempos de ejecución representativos en microsegundos (1 microsegundo = segundos) para las operaciones aritméticas básicas son

Multiplicación = 1 .O microsegundo División = 3 .O microsegundos Adición = 0.5 microsegundos

Sustracción = 0.5 microsegundos

En este análisis se agruparán las divisiones y las multiplicaciones (tiempo medo de ejecución = 2.0 microsegundos), y también se agruparán las sumas y las sustracciones (tiempo medio de ejecución = 0.5 microsegundos). Las multiplicaciones o divisiones se denominarán "multiplicaciones", y las adiciones y sustracciones, "a&ciones".

En la tabla 1 se muestra el número de operaciones necesarias para resolver un sistema lineal A x = b de n ecuaciones con n incógnitas aplicando cada uno de los métodos analizados en el texto, así como el número de operaciones necesarias para invertir a A o para calcular su determinante por reducción de renglones.

TABLA 1 Conteo de operaciones para una matriz

Método Número de adiciones

Resolver Ax = b por eliminación de Gauss-Jordan

Resolver Ax = b por eliminación gaussiana

i n ' + $n * - gn g n 3 + g n 2 - g n

~

Resolver Ax = b como x =,4K1b

n3 - n2

Encontrar det(A) por reducción de renglones

Resolver Ax = b por la regla de C m e r

4.3 - in' +in i n 4 - I n 3 - Ln2 + 1

6 3 6 n

invertible A n X n Número de multiplicaciones

1 n3 + n2

Page 576: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.8 Comparación de procedimientos para resolver sistemas lineales / 581

Obsérvese que los métodos de eliminación de Gauss-Jordan y de eliminación gaussiana proporcionados en el texto poseen el mismo conteo de operaciones. No es dificil entender por qué esto es así. Ambos métodos empiezan con la reducción de la matriz aumentada a la forma escalonada por renglones. Esto se denomina fase hacia adelante o pase hacia delante. Luego la solución se termina por retrosustituci.ón en la eliminación gaussiana y continuando la reducción hasta la forma escalonada reducida en la eliminación de Gauss-Jordan. Esto se denomina fase hacia atrris o pase hacia atrás. Resulta que el número de operaciones necesarias para la fase hacia adelante es el mismo, sin importar que se use retrosustitución o la reducción se continúe hasta llegar a la forma escalonada reducida. Así, los métodos de eliminación gaussiana y de eliminación de Gauss- Jordan proporcionados en el texto poseen el mismo conteo de operaciones.

OBSERVACI~N. Existe una variante común de la eliminación de Gauss-Jordan, menos eficaz que la presentada en el texto. En el método del texto, la matriz aumentada primero se expresa en forma escalonada reducida mediante la introducción de ceros abajo de los unos principales; luego, la reducción se completa mdante la introduc- ción de ceros arriba de los unos principales. Un procedimiento opciord es introducir ceros abajo y arriba de un 1 principal una vez obtenido éste. El método requiere

n3 n n3 n2 adiciones y

2 2 - + - multiplicaciones 2 2

"-

que son valores mayores que los aquí obtenidos para toda n 2 3.

Para ilustrar cómo se calculan los resultados de la tabla 1 , se obtendrá el conteo de operaciones para la eliminación de Gauss-Jordan. Para llevar a cabo este análisis se requieren las siguientes fórmulas de la suma de los n primeros enteros positivos y la suma de los cuadrados de los n primeros enteros positivos:

1 2 + 2 2 + 3 2 + . . . + + 2 = n(n + 1)(2n + 1) 6

En los ejercicios se analizan métodos de obtención de estas fórmulas. También se requieren las fórmulas para la suma de los n - 1 primeros enteros positivos y la suma de los cuadrados de los n - 1 primeros enteros positivos. Las fórmulas se pueden obtener sustituyendo n - 1 por n en (1) y (2).

Page 577: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

582 / Temas complementarios

CONTEO DE Sea Ax = b un sistema de n ecuaciones lineales con n incóptas, y supóngase que OPERACIONES A es invertible, de modo que el sistema tiene una solución única. También PARA LA supóngase, para simplificar las cosas, que para escribir la matriz aumentada [A I ELIMINACIóN b] en forma escalonada reducida no se requiere ningún intercambio de renglones.

JORDAN efectúan como regstro de operaciones en una computadora y requieren mucho menos tiempo que las operaciones aritméticas.

Como no se requiere ningún intercambio de renglones, el primer paso en el proceso de eliminación de Gauss-Jordan es introducir un 1 principal en el primer renglón multiplicando los elementos de este renglón por el recíproco del elemento de la izquierda en el renglón. Este paso se representa de manera esquemática como sigue:

DE GAUSS- Esta hipótesis se justifica por el hecho de que los intercambios de renglones se

1 x x ’ . ‘ x x i x O O O ” . O 0 ; .

I 1 . I ‘ I .

X denota una cantidad que se calculará denota una cantidad que no se calcula Eltamañodelamatrizesn X ( n + 1 )

1 I O O O . . ’ O o ; .

O O O . ’ . O o ; . I

Obsérvese que el 1 principal simplemente se registra y que no requiere cálculos: sólo es necesario calcular los n elementos restantes en el primer renglón.

A continuación se presenta una descripción esquemática de los pasos y el núme- ro de operaciones necesarias para reducir [A 1 b] a forma escalonada por renglones.

Paso 1

Paso l a

Paso 2

Lo x x . . ’ x x

X

8

O

O

O

O

X

X

X

X

1

n multiplicaciones O adiciones

n multiplicaciones/renglón n a&ciones/renglón n - 1 renglones que requieren

cálculos

I n(n - 1) multiplicaciones n(n - 1) adiciones I

Page 578: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.8 Comparación de procedimientos para resolver sistemas lineales / 583

Paso 2a

Paso 3

Paso 3a

Paso (n - 1)

Paso (n - l )a

. . . o o x . " x x o o x " ' x x

. . . . . . . . . . . . . . .

I .

O

O

X

X

X

. . . . . . . . . .

O

O

X

O

n - 1 multiplicaciones/renglón n - 1 adiciones/renglón n - 2 renglones que requieren

cálculos

n - l)(n - 2) multiplicaciones

I n - 2 multiplicaciones O adiciones I

n - 2 multiplicaciones/renglón n - 2 adiciones/renglón n - 3 renglones que requieren

cálculos

n - 2)(n - 3) multiplicaciones

I 2 multiplicaciones O adiciones I

2 multiplicaciones/rengló~ 2 adicioneshenglón 1 renglones que requieren

cálculos

I multiplicación O adiciones

' ' I '

1 o o o ' . ' o 1 ; x ' 1 0 o o " . 1 o j o

Page 579: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

584 1’ Temas complementarios

Así, el número de operaciones necesarias para completar pasos consecutivos es como sigue:

Pasos 1 y l a Multiplicaciones: n + n(n - 1) = n’ Adiciones: n(n - 1) = n2 - n

Pasos 2 y 2a Multiplicaciones: (n - 1 ) + (I? - I )(n - 2) = (n - 1 )’ Adiciones (n - I ) (n -2 )=(n - l ) ’ - (n - 1)

Pasos 3 y 3a Multiplicaciones: ( n - 2) i (n - 2)(n - 3) = (n - 2)’ Adiciones: ( n - 2)(n - 3) = (n - 2)’ - (n - 2)

Pasos (n - 1) y (n - l)a Multiplicaciones: 4 ( = 2’ ) Adiciones: 2 ( = 2 ’ - 2 )

Paso n Multiplicaciones: I ( = I ’ ) Adiciones: O ( = 1 2 - 1)

Por consiguente, el número total de operaciones necesarias para expresar [A I b] en forma escalonada reducida es

Multiplicaciones: n’ + ( n - I ) ’ + (n - 2)’ + . . . + 1

Adiciones: [n’ + ( n - 1)’ + ( n - 2)‘ + ’ . ’ + 1 2 1

- [ n + ( n - l ) + ( n - 2 > + ” ’ + 1 ]

o bien, aplicando las fórmulas (1) y (2),

Multiplicaciones: n(n + 1)(2n + 1) n 3 n2 n

6 - +-+ -

3 2 6 ” (5 1

(6) n(n + 1)(2n + 1) n(n + 1) n 3 n Adiciones:

6 -

2 3 3

Así se completa el conteo de operaciones para la fase hacia adelante. Para la fase hacia atrás es necesario escribir la forma escalonada de [A 1 b] en forma escalo- nada reducida mediante la introducción de ceros por arriba de los 1 principales. A continuación se muestran las operaciones:

Page 580: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.8 Comparación de procedimientos para resolver sistemas lineales i 585

Paso 1

Paso

Paso (n - 2)

Paso (n - 1)

'1 O O ' . . @ o 1 x I

0 1 O " ' 0 o j x o o 1 " ' 0 o j x

o o o " . I o j x -0 o o " . o 1 j

. . . . . I .

. ' 1 . f . .

. . . . . I .

1 O O . . . o o j x o 1 0 " ' o o j x o o 1 " ' o o j x

o o o " ' 1 o j o o o o ' . ' o I / .

I . . . . . I ' . . . . . . ' ' 1 . . . I .

. . . . . . . . l . . . I . . . . . . I .

o o o " ' 1 o 1 0

o o o . . . o 1 ; .

' 1 o o . . ' o o I x - o 1 o . . ' o 0 1 0 o o 1 o 0 ; 0

o o o ' . ' 1 o j o ,o o o " ' o 1 j 0 -

. . . . . I .

' ' I ' . . I '

. . . . . .

n - 1 multiplicaciones n - 1 adiciones

1 n - 2 multiplicaciones n - 2 adiciones

1 adición

Así, el número de operaciones necesarias para la fase hacia atrás es

Multiplicaciones: (n - 1) + ( n - 2) + . . . + 2 + 1

Adiciones: ( n - l ) + ( n - 2 ) + . . . + 2 + 1

o bien, aplicando la fórmula ( 3 ) ,

Multiplicaciones: ~ - (n - l ) n n2 n

"- -

2 2 2 (n - 1)n n 2 n

2 2 2 Adiciones: " - "-

Así, por ( 9 , (6), (7) y (S), el conteo total de operaciones para la eliminación de Gauss-Jordan es

Page 581: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

586 / Temas complementarios

COMPARACI~N DE METODOS PARA RESOLVER SISTEMAS LINEALES

En aplicaciones prácticas no es raro encontrar sistemas lineales de miles de ecuaciones con miles de incógnitas. Así, la tabla 1 reviste especial importancia para grandes valores de n. Un hecho verdadero para polinomios es que para grandes valores de la variable, un polinomio puede ser bien aproximado por su término de grado más alto; es decir, si ak f O, entonces

u. + u , x + . . . + q x k - u k x k parax grande

(ejercicio 12). Así, para grandes valores de n, el conteo de operaciones en la tabla 1 se puede aproximar como se muestra en la tabla 2.

Por la tabla 2 se deduce que cuando n es grande los mejores métodos para resolver A x = b son la eliminación gaussiana y la eliminación de Gauss-Jordan. E1 método de multiplicar porA"es bastante peor que los anteriores (requiere el triple de operaciones), y el método más ineficaz de los cuatro es la regla de Cramer.

TABLA 2 Conteo aproximado de operaciones para una matriz invertible n x n con n grande

I

Método I Número de adiciones

Resolver Ax = b por eliminación de Gauss- Jordan

n3 Resolver Ax = b por eliminación gaussiana " 3

EncontrarA-l reduciendo [A I I] a [I /A]" = n 3

Resolver A x = b como x = A"b %n3

Encontrar det(A) por reducción de renglones = - n3 3

Resolver A x = b por la regla de Cramer n4 3

iT-

multiplicaciones

iT-

n3

3 x-

Page 582: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.8 Comparación de procedimientos para resolver sistemas lineales / 587

OBSERVACI~N. En la observación a continuación de la tabla 1 se mencionó que si la eliminación de Gauss-Jordan se efectúa mediante la introducción de ceros arriba y abajo de los unos principales tan pronto como se obtienen éstos, entonces el conteo de operaciones es

n3 n n 3 n2 2 2 2 2 "- adiciones y - + - multiplicaciones

Así, para n grande este procedimiento requiere = n3/2 operaciones, que es 50% mayor que las n3/3 multiplicaciones necesarias para efectuar el método presentado en el texto. Lo mismo se cumple para las adic' ;ones.

Es razonable preguntar si se pueden crear otros métodos para resolver sistemas lineales que pudieran requerir sigmficativamente menos operaciones que las = n3/3 adiciones y multiplicaciones necesarias en la eliminación gaussiana y en la eliminación de Gauss-Jordan. La respuesta es un "sí" categórico. En años recientes se han creado métodos que requieren = Cnq multiplicaciones, donde q es ligeramente mayor que 2.5. Sin embargo, estos métodos tienen poco valor práctico, ya que su programación es complicada, la constante C es muy g r a d e y el número de adiciones necesarias es excesivo. En pocas palabras, en la actualidad no existe ningún método práctico para resolver sistemas lineales generales que mejore sigruficativamente el conteo de operaciones de la eliminación gaussiana y del método de eliminación de Gauss-Jordan presentado en el texto.

EJERCICIOS DE LA SECCION 9.8

1. Encontrar el número de adiciones y multiplicaciones necesarias para calcular AB si A esunamatrizm X nyBesunamatrizn x p .

2. Usando los resultados del ejercicio 1, encontrar el número de adiciones y multiplicaciones necesarias para calcular Ak por multiplicación directa si A es una matriz n X n.

3. Suponiendo que A es una matriz n X n, usar las fórmulas de la tabla 1 para determinar el número de operaciones necesarias para efectuar los procedimientos de la tabla 3.

Tabla 3

Resolver Ax = b por la regla de Cramer

" . . . ."

Page 583: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

588 / Temas complementarios

4. Suponiendo un tiempo de ejecución en computadora de 2.0 microsegundos para las multiplicaciones y de 0.5 microsegundos para las adiciones, usar los resultados del ejercicio 3 para escribir los tiempos de ejecución en segundos necesarios para efectuar los procedimientos de la tabla 4.

Tabla 4

5. Obtener la fórmula

1 + 2 + 3 + , . . + n = - - - - - n(n + 1)

2

[Sugerencia Sea Sn = 1 + 2 + 3 + . . . + n. Escribir los términos de S,, en orden invertido y sumar las dos expresiones para S,.]

6. Usando el resultado del ejercicio 5, demostrar que

1 + 2 + 3 + . . . + ( n - l ) = - (n - 1)n

2

7. Obtener la fórmula

1 2 + 2 2 + 3 2 + . . . + n 2 =

realizando los pasos siguientes. a) Demostrarq~e(k+l)~-p=33k2+3k+1. b) Demostrar que

n(n + l)(2n + 1) 6

[2' - 13] + [33 - z3] + [43 - 33] + . . . + [ ( n + 1)3 - n3] = (n + 1)' - 1

c) Aplicando a) a cada término del miembro izquierdo de b), demostrar que

( n + 1 ) 3 - ~ = 3 [ 1 2 + 2 2 + 3 2 + ~ . . + n 2 ] + 3 [ 1 + 2 + 3 + ~ . . + n ] + n

d) Resolver la ecuación del inciso c) para l2 + 22 + 32 + . . . + n', usar el resultado del ejercicio 5 y luego simplificar.

8. Usando el resultado del ejercicio 7, demostrar que - (n - l)n(2n - 1)

1 2 + 2 2 + 3 2 + ' " + ( n " ) - 6

Page 584: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.9 Descomposiciones L U 589

9. Sea R la forma escalonada de una matriz invertible n X n. Demostrar que para resolver el sistema lineal Rx = b por retrosustitución se requieren

"- n2 n 2 2

multiplicaciones

n2 n 2 2 "- adicisnes

10. Demostrar que para reducir una matriz invertible de n X n a I, aplicando el método del texto se requieren

"- n3 n 3 3

n3 n2 n 3 2 6

multiplicaciones

-" + - adiciones

[Nota Supóngase que no se requiere ningún intercambio de renglones.]

11. Considérese la variante de la eliminación de Gauss-Jordan en que se introducen ceros arriba y abajo de un 1 principal tan pronto como se obtiene éste, y sea A es una matriz invertible n X n. Demostrar que para resolver un sistema lineal A x = b usando esta versión de la eliminación de Gauss-Jordan se requieren

- + - multiplicaciones n3 n 2 2 2

-" n3 n 2 2

adiciones

[Nota Supóngase que no se requiere ningún intercambio de renglones.]

12. (Paru quienes ya estudiaron C&lculo). Demostrar que si p(x ) = u. + a,x + . . . + a,.", donde ak # O, entonces

[Nota Este resultado justifica la aproximación a. + u,x + . . . + ukx" = u,." para x grande.]

9.9 DESCOMPOSICIONES LU

Con la eliminación gaussiana y la eliminación de Gauss-Jordan se resuelve un sistema lineal operando sistemáticamente sobre la matriz aumentada. En esta sección se analizar& un método difrente basado en la factorización de la matriz de coejkientes en un producto de dos matrices: una triangular inferior y otra

Page 585: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

590 / Temas complementarios

de coe3cientes en un producto de dos matrices: una triangular inferior y otra triangular superior. Este método es adecuado para computadoras digitales y constituye una base para muchos programas de cómputo prácticos. *

SQLUCIÓN DE Se procederá en dos partes. Primero se mostrará cómo un sistema lineal Ax = b se SISTEMAS puede resolver fácilmente una vez que A se factoriza en un producto de dos LINEALES POR matrices: una triangular inferior y otra triangular superior. Luego se mostrará cómo FACTORIZA- obtener la factorización. CIÓN Si una matriz A n x n se puede factorizar en un producto de matrices n X n

como

A = L U

donde L es triangular inferior y U es triangular superior, entonces el sistema lineal Ax = b se puede resolver como sigue:

Paso 1. Volver a escribir el sistema Ax = b como

LUX = b (1)

Paso 2. Definir una nueva matriz y de n X 1 por

u x = y (2)

Paso d. Usar (2) para volver a escribir (1) como Ly = b y resolver este sis- tema para y.

Paso 4. Sustituir y en (2) y despejar x.

Aunque este procedmiento reemplaza el problema de resolver el simple sistema Ax = b por el problema de resolver los dos sistemas Ly = b y Ux = y, éstos se resuelven fácilmente porque las matrices de coeficientes son triangulares. El siguiente ejemplo ilustra este procechmiento.

Ejemplo 1 Después, en esta sección se obtendrá la factorización

Usando este resultado y el método antes descrito, resolver el sistem;,

* En 1979, los Argonne National Laboratories desarrollaron una importante biblioteca, denominada LINPAK, de programas de Algebra lineal independientes de la máquina. Muchos de los programas de ta l biblioteca est&? basados en los métodos que se analizan en esta sección.

Page 586: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.9 Descomposiciones LU / 591

Solución. (3) se vuelve a escribir como

Como se especifica en el paso 2 anterior, y,, yz y y3 se definen por la ecuación

de modo que (3) se puede volver a escribir como

o bien, de manera equivalente,

2Y I = 2 -3Y, + Y 2 = 2

4,Vt - 3J)2 + 7Y3 = 3

El procedimiento para resolver este sistema es semejante a la retrosustitución, excepto que las ecuaciones se resuelven de arriba hacia abajo, en vez de abajo hacia arriba. Este procedmiento, denominado srustitucidn hacia adelante, produce

(comprobar). Sustituyendo estos valores en (5) se obtiene el sistema lineal

o bien, de manera equivalente, x, + 3x2 + x, = 1

x2 + 3x, = 5

x3 = 2

Resolviendo este sistema por retrosustitución se obtiene la solución

x ,=2 , x 2 = - l , x 3 = 2

(comprobar). A

Page 587: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

592 i Temas complementarios

DESCOMPOSI- Ahora que ya se ha visto cómo un sistema lineal de n ecuaciones en n incógnitas CIONES LU se puede resolver factorizando la matriz de coeficientes, se volverá al problema de

obtener la factorización. Para originar el método, supóngase que una matriz '4 n X

n se ha reducido a una forma escalonada U mediante una sucesión de operaciones elementales en los renglones. Por el teorema 1.5.1, cada una de estas operaciones se puede efectuar multiplicando por la izquierda por una matriz elemental apropiada. Así, es posible encontrar matrices elementales E,, E,, . . . , Ek tales que

E L . ' . E 2 E , A = U ( 6 )

Por el teorema 1.5.2, E,, E , Ek son invertibles, de modo que es posible multiplicar sucesivamente por la izquierda ambos miembros de la ecuación (6) por 2' ' '.

para obtener

A = E ; ' E , 1 . . . E" k (7)

En el ejercicio 5 se ayudará al lector a demostrar que la matriz L definida por

L = E" ] E - 1 . . . 1 I 2 (8)

es triangular lnferior en el supuesto de que para reducir A a U no se efectúe ningún in- tercambio de renglones. Suponiendo que este es el caso, sustituyendo (8) en (7) se obtiene

A= LU

que es una factorización de A en un producto de una matriz triangular inferior y una matriz triangular superior.

El siguiente teorema resume el resultado anterior.

Teorema 9.9.1. Si A es una matriz cuadrada que se puede reducir a una forma escalonada U sin aplicar ningún intercambio de renglones, entonces A se puede factorizar como A = LU, donde L es una matriz triangular inferior.

Definición. Una factorización de una matriz cuadrada A como A = LU, donde L es triangular inferior y I/ es triangular superior, se denomina descomposición LU o descomposición triangular de A :

Ejemplo 2 Encontrar una descomposición LU de

2 6 A = [ - : -:

2 J

Solución. Para obtener una descomposición LU, A = LU, A se reducirá a una forma escalonada iJ, y luego L se calculará a partir de (8). Los pasos son:

Page 588: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.9 Descomposiciones LU / 593

Matriz elemental que Reducción a la corresponde a la operación Inversa de la matriz forma escalonada en los renglones elemental

Paso 1

1 3

Paso 2

Paso 3 - 4 o 1

Paso 4

Paso 5

Page 589: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

594 / Temas complementarios

Así,

PROCEDIMIEN- TO PARA ENCONTRAR

SICIONES LU DESCOMPO-

Y> por (8):

2 0 0

de modo que

2 6 2 0 [-: -: !I=[ -3 4 -3

es una descomposición LU de A . A

o 0 1 0 0 1 oj[o 1

- 3 1 O 0 7

:][A ; '1 7 O 0 1

Como se muestra en este ejemplo, casi todo el trabajo para obtener una descomposición LU se invierte en el cálculo de L . Sin embargo, todo este trabajo se puede eliminar llevando un registro cuidadoso de las operaciones usadas para reducir A a U. Como se supone que no se requiere ningún intercambio de ren- glones para reducir A a U, entonces sólo se realizan dos tipos de operaciones: la multiplicación de un renglón por una constante diferente de cero y la adición de un múltiplo de un renglón a otro renglón. La primera operación se usa para introducir los unos principales y la segunda para introducir ceros abajo de los unos principales.

En el ejemplo 2 los multiplicadores necesarios para introducir los unos principales en renglones consecutivos son:

3 para el primer renglón 1 para el segundo renglón

f para el tercer renglón

Obsérvese que los elementos diagonales sucesivos en L eran precisamente los recíprocos de los multiplicadores (figura 1).

Page 590: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.9 Descomposiciones L U / 595

Luego, obsérvese que para introducir ceros por abajo del 1 principal en el primer renglón se realizaron las siguientes operaciones:

sumar 3 veces el primer renglón al segundo renglón sumar -4 veces el primer renglón al tercer renglón

y para introducir el cero por abajo del 1 principal en el segundo renglón se efectuó la siguiente operación

sumar 3 veces el segundo renglón al tercer renglón

Ahora se observa que en cada posición abajo de la &agonal principal de L (en tipo negro) el elemento es el negativo del multiplicador en la operación con que se introdujo el cero en esa posición en U (figura 2).

L=[p-JJ Figure 2

En resumen, se tiene el siguiente procedimiento para obtener una descomposición L U de u a matriz cuadrada A , en el supuesto de que A se pueda reducir a la forma escalonada sin efectuar ningún intercambio de renglones.

Paso 1. Reducir A a una forma escalonada U sin efectuar ningún intercambio de renglones y sin perder de vists los multiplicadores usados para in- troducir los unos principales y de los multiplicadores usados para introducir los ceros abajo de los unos principales.

Paso 2. En cada posición a lo largo de la diagonal principal de L escribir el recíproco del multiplicador con que se introdujo el uno principal en esa posición de U.

Paso 3. En cada posición por abajo de la diagonal principal de L escribir el negativo del multiplicador usado para introducir el cero en esa posición de U.

Paso 4. Formar la descomposición A = L U.

Ejemplo 3 Encontrar una descomposición LU de

6 -2 O ”;[; -; ;]

Page 591: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

596 / Temas complementarios

Solucidn. Se empezará por reducir A a forma escalonada sin perder de vista a los multiplicadores.

- multiplicador = 4 /-

" 1

c- multiplicador = - 9 - multiplicador = - 3

1 -1. [ ," $ i] t-multiplicador = $

t-multiplicador = - 8

t-multiplicador = 1 real, dado que en el tercer renglon ya

Al construir L a partir de los multiplicadores se obtiene la descomposición LU.

6 0 0 1 -$ A = L U = 9 2 O O

[3 8 j [ O A /] * Esta sección concluye con un breve análisis de dos preguntas fundamentales

sobre las descomposiciones L U:

1. ¿Toda matriz cuadrada tiene una descomposición L I/? 2. ¿Es posible que una matriz cuadrada tenga más de una descomposición L U?

Ya se sabe que si una matriz cuadrada A se puede reducir a la forma escalonada sin aplicar ningún intercambio de renglones, entonces A tiene una descomposición L U. En general, si para escribir A en forma escalonada se requiere intercambiar renglones, entonces no existe ninguna descomposición L U de A . Sin embargo, en esos casos es posibIe factorizar A en la forma

A = PLU

Page 592: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.9 Descomposiciones LU 1 597

donde L es triangular inferior, U es triangular superior y P es la matriz que se obtiene al intercambiar los renglones de I,, de forma idónea (ver el ejercicio 17).

Cuando no hay restricciones adicionales, las descomposiciones LU no son únicas. Por ejemplo, si

y los elementos diagonales de L son diferentes de cero, entonces es posible desplazar los elementos diagonales del factor izquierdo al factor derecho escribiendo

que es otra descomposición triangular de A .

EJERCICIOS DE LA SECCION 9.9

1. Usar el método del ejemplo 1 y la descomposición LU

[-: -:I=[-: u][:, -:] para resolver el sistema

3x, - 6x2 = O

-2x, + 5x, = 1

2. Usar el método del ejemplo 1 y la descomposición LU

para resolver el sistema

Page 593: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

598 / Temas complementarios

3x1 - 6x2 - 3x3 = - 3

2x1 + 6x3 = -22

-4x1 + 7x2 + 4x, = 3

En los ejercicios del 3 al 10, encontrar una descomposición LU de la matriz de coeficientes; luego, usar el método del ejemplo 1 para resolver el sistema

=[-;I 11. Sea

2 1 - A = [ - : -; a ]

a) Encontrar una descomposición LU de A b) Expresar A en la forma A = L,DU,, donde L, es una matriz triangular inferior con

unos en la diagonal principal, U, es una matriz triangular superior y D es una matnz diagonzl.

c) Expresar A en la forma A = L2U2, donde L, es una matriz tnangular inferior con unos en la diagonal principal y U2 es una matriz tnangular superior.

12. Demostrar que la matriz

no tiene descomposición LU.

13. Sea

a) Demostrar: Si A f O entonces A tiene una descomposición LU única con unos en la

b) Encontrar la descomposición LU descrita en el inciso a). diagonal principal de I..

Page 594: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

9.9 Descomposiciones LU / 599

14. Sea Ax = b un sistema lineal de n ecuaciones con n incógnitas, y supóngase que A es una matriz invertible que se puede escribir en forma escalonada sin efectuar ningún intercambio de renglones. ¿Cuántas adiciones y cuántas multiplicaciones son nece- sarias para resolver el sistema aplicando el método del ejemplo l ? [Nota Contar las sustracciones como adiciones y las divisiones como multiplicaciones.]

15. a) Demostrar: Si L , y L, son matrices triangulares inferiores n X n, entonces también L,L, es triangular mferior.

b) El resultado del inciso a) es un caso especial de un resultado general que establece que el producto de un número finito de matrices triangulares mferiores es triangular inferior. Usando este hecho, demostrar que la matriz L en (8) es triangular inferior. [Sugerencia Véase el ejercicio 27 de la sección 2.4.1

16. Usando el resultado del ejercicio 15b), demostrar que el producto de un número finito de matnces triangulares superiores es triangular superior. [Sugerencia Considerar las transpuestas.]

17. Demostrar: Si A es cualquier matriz n X n, entonces A se puede factorizar como A = PLU, donde L es triangular inferior, U es triangular superior y P se puede obtener intercambiando en forma adecuada los renglones de I,. [Sugerencia Sea U la forma escalonada de A y efectuar primero todos los intercambios de renglones necesarios en la reducción de A a U. ]

18. Factorizar

como A = PLU, donde P se obtiene a partir de Z3 al intercambiar de manera apropiada los renglones, L es triangular inferior y U es triangular superior.

Page 595: Inroduccion Algebra lineal Howard Anton 5ta. Edicion
Page 596: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

CAPITULO 10

ESPACIOS VECTORLALES COMPLEJOS

10.1 NÚMEROS COMPLEJOS

Hasta el momento sólo se han considerado espacios vectoriales para los cuales los escalares son números reales. Sin embargo, en muchas aplicaciones impor- tantes de vectores es aconsejable dejar que los escalares sean números com- plejos. Un espacio vectorial que permite escalares complejos se denomina espa- cio vectorial complejo, y uno que sólo permite escalares reales se denomina espacio vectorial real. Una ventaja de pvrmitir escalares complejos es que todas las matrices con elementos escalares complejos tienen eigenvalores, lo cual no es cierto si solamente se permiten escalares reales. Por ejemplo, la matriz

tiene al polinomio característico

de modo que la ecuación característica, A2 + 1 = O , no tiene soluciones reales y por tanto carece de eigenvalores.

En las tres primeras secciones de este capítulo se repasarán algunas de las propiedades básicas de los números complejos, y en secciones ulteriores se ana- lizarán espacios vectoriales complejos.

601

Page 597: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

602 / Espacios vectoriales complejos

NÚMEROS Como x2 2 O para todo número real x, la ecuación COMPLEJOS

x2= - 1

no tiene soluciones reales. Para manejar este problema, los matemáticos del siglo XVIII introdujeron el número "imaginario"

i = l / - 1 r"

que se supone tiene la propiedad

pero que de otra forma podía considerarse como un número real. Expresiones de la forma

a + bi

donde a y b son números reales reciben el nombre de "números complejos", los cuales se operan según las reglas normales de la aritmética, con la propiedad adlcional de que i2 = - l .

A principios de siglo XIX se aceptaba que un número complejo

a + hi se considerará como otro símbolo para el par ordenado

de números reales y que las operaciones de adición, swtmcción, multiplicación y &vi- sión se definieran sobre estos pares ordenados de modo que se cumplieran las leyes co- nocidas de la aritmética y además i2 = - l . Este enfoque es el que se seguirá en el texto.

Definición. Un nrimero complejo es un par ordenado de números reales, denotado por (a, b ) o a + bi .

Ejemplo 1 A continuación se presentan algunos ejemplos de números complejos f :n ambas notaciones:

Par ordenado Notación equivalente

(3>4)

4 + (-2); (4 , -2)

2 + Oi (290)

O + i (0, 1)

- 1 +2i (- 1,2)

3 + 4i

Para facilitar las cosas, los tres últimos números complejos en general se abrevia- rán como

Page 598: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

I O. I Núnteros complejos / 603

O + i = i , 2 + 0 i = 2 , 4 + ( - 2 ) i = 4 - 2 i A

Geométricamente, un número complejo se puede considerar como un punto o un vector en el plano xy (figura 1).

t t y

Figura 1 I Un número complejo se puede considerar como un punto o un vector. I

Ejemplo 2 En la figura 2a algunos números complejos se muestran como puntos y en la figura 2b, como vectores. A

t I

- 4 - 32

Figura 2 Q) b)

EL PLANO Algunas veces es conveniente usar una sola letra, como z, para denotar un número COMPLEJO complejo. Así, se podría escribir

z = a + b i

El número real a se denomina parte real de z y el número real b, parte imaginaria de z. Estos números se denotan por Re(z) e Im(z), respectivamente. Por tanto,

Re(4 - 3i) = 4 'e Im(4 - 3i) = - 3

Cuando los números complejos se representan geométricamente en, un sistema de coordenadas q v , el eje x, el eje y y el plano se denominan eje real: .+e imaginario y plano complejo, respectivamente (figura 3).

Page 599: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

604 / Espacios vectoviales complejos

t Eje imaginario

Figura 3 I (Parte real de z)

OPERACIONES Así como se define que dos vectores en R2 son iguales si tienen las mismas com- CON NUMEROS ponentes, también dos números complejos son iguales si tanto sus partes reales COMPLEJOS como sus partes imaginarias son iguales:

Definición. Dos números complejos u + bi y c + di son iguales, lo que se es- cribe como

a + bi = c + di,

Si b = O, entonces el número complejo a + D i se reduce a a + Oi, que se escribe simplemente como a. Así, para cualquier número real a,

a = a + O i

de modo que los números reales se pueden considerar como números complejos cuya parte imagmaria es cero. Geométricamente, los números reales corresponden a puntos sobre el eje real. Si se tiene a = O, entonces a + bi se reduce a O + bi, que en general se escribe como bi. Estos números complejos, que corresponden a puntos sobre el eje imaginario, se denominan nrimeros imaginarios puros.

Así como la adición de vectores en R2 se realiza sumando las componentes correspondientes de los vectores, también la adición de números complejos se realiza sumando las partes y las imaginarias:

(u + bi) f (c + d i ) = (a + c) + (b + d)i

Las operaciones de sustracción y multiplicación por un número real también son

(1)

semejantes a las operaciones vectoriales correspondientes en R2:

I (a + bi) - (c + d i ) = (a - c ) + ( D - d)i I (2)

I k(a + bi) = (ka) t (kb)i, k real I (3)

Debido a que las operaciones de adición, sustracción y multiplicación de un número complejo por un número real son semejantes a las operaciones correspon-

Page 600: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1 O. 1 Números complejos 1 605

dientes para vectores en R2, las interpretaciones geométricas conocidas de estas operaciones se cumplen para números complejos (figura 4).

Por la expresión (3) se deduce que (- l)z + z = O (comprobar), de modo que (- l)z se denota por -z y se denomina negativo de z.

Solución.

z , + z z = ( 4 - 5 i ) + ( - l + 6 i ) = ( 4 - 1 ) + ( - 5 + 6 ) i = 3 + i z l - z Z = ( 4 - 5 i ) - ( - l + 6 i ) = ( 4 + 1 ) + ( - 5 - 6 ) i = 5 - l l i

32, = 3(4 - 5i) = 12 - 15i -zZ=(-1)zz=(-1) ( -1 +6 i )= 1 -6i A

Suma de dos números complejos. Diferencia de dos números complejos.

f’ f’

I ( k > O ) ( k O )

Figura 4 Producto de un números complejo z y un número real k.

Hasta ahora se ha encontrado un paralelismo entre los números complejos y los vectores en R2. Sin embargo, a continuación se definirá la multiplicación de números complejos, una operación que no tiene análogo vectorial en R2. Para originar la definición, se desarrollará el producto

(a + bi)(c + di)

Page 601: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

606 / Espacios vectoriales complejos

siguiendo las reglas algebraicas de costumbre, pero considerando a i2 como - 1. Así, se obtiene

( a + bi)(c + di) = ac + bdi2 + adi + bci = (OC - b d ) + (ad + b ~ ) i

lo cual sugiere la siguiente definición:

(a + bi)(c + di) = (ac - bd) + (ad + bc)i

Ejemplo 4

(3 + 2i)(4 + Si) = (3 ' 4 - 2 ' 5 ) + (3 .5 + 2 '4)i = 2 + 23i

(4- i ) (2-32)=[4.2-(-1)(-3)]+[(4)(-3)+(-1)(2)] i = 5 - 14i

i 2 = ( O + i j ( O + i j = ( O ~ O - 1 ~ 1 ) + ( O ~ 1 + 1 ~ O ) i = - 1 A

Se deja como ejercicio comprobar las siguentes reglas de aritmética com- pleja:

ZI + z 2 = z2 + z, z1z2 = z 2 z *

ZI + (z2 + z3 j = ( z* + z 2 ) + z3

Zl(ZZZ3j = (z1z2)z3

z1(z2 + Zj) = ZlZ2 + z,z3

o + z = z z + ( - z ) = O

l . z = z

Estas reglas permiten multiplicar números complejos sin necesidad de apli- car &rectamente la fórmula (4). Siguiendo el procedimiento usado para originar esta fórmula, basta multiplicar cada término de a + bi por cada término de c + di, hacer i2 = - 1 y simplificar.

Ejemplo 5

(3 + 2i)(4 + i) = 12 + 3i + 8i + 2i2 = 12 + 1 l i - 2 = 10 + 1 l i

( 5 - 4i)(2 + 32) = 10 + 15i - i - $i2 = 10 + 14i + $ = 9 + 14i

i(I + i)(I - 2i) = i(1 - 2i + i - 2i2) = i(3 - i) = 3i - i2 = 1 + 3i A

Page 602: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1 O. 1 Números complejos / 607

OBSERVACI~N. A diferencia de los números reales, en los números complejos no existe ordenamiento según el tamaño. Así, los símbolos de orden <, 5 , > y no se usan con números complejos.

Ahora que ya se han definido la ahción, la sustracción y la multiplicación de números complejos, es posible sumar, restar y multiplicar matrices con elemen- tos complejos y multiplicar una matriz por un número complejo. Sin entrar en de- talles, se observa que las operaciones y terminología matriciales analizadas en el capítulo 1 se cumplen sin ningún cambio para matrices con elementos complejos.

Ejemplo 6 Si

entonces

A B = [ - i ] [ ' q i ] I + i 4 - i 2 - 3 i

= [ ! . i + ( - i ) . ( 2 - 3 i ) 1 . (1 - i) + ( - i ) . 4 ( I + i ) . i + ( 4 - i ) . ( 2 - 3 i ) (1 +i).(l - i ) + ( 4 - i ) . 4

- 3 - i 1 - 5 i = [ 4-13i 18-4i

EJERCICIOS DE LA SECCION 10.1

1. En cada inciso, graficar el punto y trazar el vector que corresponde al número complejo dado. a) 2 + 3i. b) 4. c) -3 - 2i. d) - S i .

2. Expresar cada número complejo del ejercicio 1 como un par ordenado de números reales.

3. En cada inciso, usar la mformación proporcionada para encontrar los números reales x Y Y . a) x - i y = - 2 + 3 i b) ( x + y ) + ( x - y ) i = 3 + i

4. Dado que z , = 1 - 2i y z2 = 4 + S i , encontrar a) z , + z , b) z I - z 2 c) 42, d) -z2 e) 32, +4z, f ) 2 1 - 9 222

5. En cada inciso, resolver para z. a) z + ( l - i ) = 3 + 2 i b) - 5 z = 5 + 1 0 i c) ( i - z ) + ( 2 ~ - 3 i ) = - 2 + 7 i

Page 603: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

608 i Espacios vectoriales complejos

6. En cada inciso, trazar los vectores z,, z2, z, + z2 y z1 - z2. a) z1 = 3 + i, z2 = 1 + 4i b) z , = -2 + 2i, z2 = 4 + 5i

7. En cada inciso, trazar los vectores z y kz. a ) z = l + i , k = 2 b ) z = - 3 - 4 i , k = - 2 c) z = 4 + 6 i , k = $

8. En cada inciso, encontrar los números reales k , y k2 que satisfagan la ecuación a) k l i + k , ( l + i ) = 3 - 2 i b) k , ( 2 + 3 i ) + k 2 ( l - 4 i ) = 7 + 5 i

9. En cada inciso, encontrar z,z2, z12 y z:.

a) 2, = 3i. z2 = 1 - i b) z, = 4 + 6i, z , = 2 - 3i c ) zl = 9(2 + 4i), z2 = i(1 - 5i)

10. Dado que z1 = 2 - 5 i y z, = - 1 - i, encontrar

a) z l - z,z2 b) (zl + 32,)' c) [zI + ( I + z 2 ) I 2 d) iz , - z:

11. (1 + 2i)(4 - 6i)2 12. (2 - i)(3 + i)(4 - 2i)

15. [ (2 + i)(& + $)I2 16. (a + i) - i a ( l + ai)

17. ( I + i + i 2 + i3)'"" 18. (3 - 2i)2 - (3 + 2i)'

19. Sea

Encontrar a) A + 3iB b) BA c) A B d) B2 - A2

20. Sea

Encontrar

a) A(BC) b) (BC)A c ) (CA)B2 d) (1 + i ) (AB) + (3 - 4i)A

21. Demostrar que a) Im(iz) = Re(z). b) Re(iz) = - Im(z).

Page 604: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

I O. 1 Números complejos / 609

22. En cada inciso, resolver la ecuación aplicando la fórmula cuadrhtica y comprobar los resultados sustituyendo las soluciones en la ecuación dada.

a) z2+2z+2=0 b) z2-z+ 1 = 0

23. a) Demostrar que si n es un entero positivo, entonces los únicos valores posibles de in son 1, -1, i y -i.

b) Encontrar iZso9. [Sugerencia El valor de in se puede determinar a partir del residuo cuando n se divide entre 4.1

24. Demostrar: Si zlzz = O, entonces zI = O o z2 = O.

25. Usar el resultado del ejercicio 24 para demostrar lo siguiente: Si zzl = zz2 y z # O , entonces z1 = zz.

26. Demostrar que para los números complejos zl, z2 y z3 a) z, + z2 = z2 + zI b) z , + (z2 + z3) = (z, + z2) + z3

27. Demostrar que para los números complejos zl, zz y z3 4 zlz2 = z2zl b) zl(z2z3) = (zIz2)z3

28. Demostrar que zl(z2 + z3) = z1z2 + z i t3 para los números complejos zI, zz y z3.

29. En mecánica cuántica, las matrices de Dirac* son

P =

(Y, =

1 0 0 0

O 1 0 0 o 0 - 1 o o 0 o - 1

O O O - i O 0 i 0 O - i O O i o 0 0

> (Y,=

, CU, =

': y "I o 1 o o ' 1 0 0 0

0 0 1 0

0 o 0 - 1

1 0 0 0 ,o - 1 0 o

a) Demostrar que p2 = 4 = a: = 4 = I, b) Dos matrices A y B se denominan anticonmui&*vus si AB = - BA. Demostrar que

dos matrices de Dirac cualesquiera son anticonmutativas.

*Paul Adrien Maurice Dirac (1902-1984) fisico teórico inglés que instrumentó una nueva forma de mecánica cuántica y una teoría que predijo el "espín" de electrón y la existencia de una particula atómica fundamental denominada positrón. En 1933 fue galardonado con el premio Nobel de fisica y en 1939, con la medalla de oro de la Royal Society.

Page 605: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

61 O / Espacios vectoriales complejos

10.2 MóDULO; CONJUGADO COMPLEJO; DIVISIÓN

El objetivo principal en esta sección es definir la división de números complejos. ~~

CONJUGADOS Se empezará con algunas ideas preliminares. ComLEJOs z = a + bi es cualquier número complejo, entonces el conjugado de z, deno-

tado por z, (que se lee como "z barra"), se define como

z = a - b i

En palabras, se obtiene invirtiendo el signo de la parte imaginaria de z. Geométricamente, t es la reflexión de z con respecto al eje real (figura 1).

MÓDULO

Figura 1

Ejemplo 1

i+=n-bi

Conjugado de un número complejo. I ~~~~

z = 3 + 2 i Z = 3 - 2 i z = - 4 - 2 i Z = - 4 + 2 i z = i - i z = 4 z = 4 A

OBSERVACI~N. El último renglón del ejemplo 1 ilustra el hecho de que un número real es igual a su conjugado. Para ser precisos, se puede demostrar (ejercicio 22) que z = Z si y SÓIO si z es un número r d .

Si un número complejo z se considem como un vector en R2, entonces la norma o longitud de vector se denomina módulo (o valor absoluto) de z. En pocas palabras:

Defhicibn.El mddulo de un número complejo z = a + bi, denotado por Iz/ , se define como

Page 606: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

10.2 Módulo; conjugado complejo; división / 61 1

de modo que el módulo de un número real es simplemente su valor absoluto. Así, el módulo de z también se llama valor absoluto de z.

Ejemplo 2 Encontrar z si [zl = 3 - 4i.

Solución. Por (1) con a = 3 y b = -4 , ( z I = , / m = J z s = 5 . A

El siguiente teorema establece una relación básica entre i y Izl.

Teorema 10.2.1. Para cualquier número complejo z,

Demostración. Si z = a + bi, entonces

ZZ = (a + bi)(a - bi) = a2 - abi + bai - b2i2 = a2 + b2 = 1zI2 0

DIVISI~N DE A continuación se abordará la división de números complejos. El objetivo es NÚMEROS definir la división como la inversa de la multiplicación. Así, si z2 # O, entonces la COMPLEJOS definición de z = zl/zz debe ser tal que

El procedimiento será demostrar que (2) tiene una solución única para z si z2 f O, y luego z1/z2 se definirá como este valor de t. Igual que con los números reales, no se permite la división entre cero.

Teorema 10.2.2. Si z2 f O, entonces la ecuación (2) tiene una solución única, que es

z = - z z 1 -

1z212

Demostración. Sean z = x + i y , z, - - x1 + iY1 Y 22 = x2 + iy2. Entonces (2) se puede escribir como

x1 + iyl = (x2 + iy2)(x + iy)

Page 607: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

612 / Espacios vectoriales complejos

o bien

x] + i,vl = (xzx ---v2y) + i(y2x + xzy)

o bien, igualando las partes reales e imaginarias.

o bien,

Como z2 = x2 + zy2 f O, se concluye que x2 y y2 no son cero a la vez, de modo que

Así, por la regla de Cramer (teorema 2.4.3), el sistema (4) tiene la solución ímica

Por tanto,

Así, para z2 f O se define I

Page 608: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

10.2 Módulo; conjugado complejo; división / 613

OBSERVACI~N. Para recordar esta fórmula, multiplicar por Z el numerador y el denominador de z,/z2:

Ejemplo 3 Expresar

3 + 4i 1 - 2 i

en la forma a + bi.

Solución. Por (3, con z1 = 3 + 4i y z2 = 1 - 2i,

3 + 4i 1 1 1 - 2i - 1 1 - 2iI2 5 " (3 + 4i)( 1 - 2i) = - (3 + 4i)( 1 + 2i)

1 5

= - ( - 5 + 1Oi)= - 1 + 2 i

Otra solución. Así como en la observación precedente, el numerador y el denominador se multiplican por el conjugado del denominador:

3 + 4 i 3 + 4 i 1 + 2 i - 5 + 1Oi 1 -2 i 1 - 2 i 1 + 2 i 5

- - = - I + 2 i A

Los sistemas de ecuaciones lineales con coeficientes complejos se presentan en vanas aplicaciones. Sin entrar en detalles, se observa que los resultados sobre sistemas lineales estudiados en los capítulos 1 y 2 se cumplen sin cambio para sistemas con coeficientes complejos.

Ejemplo 4 Aplicando la regla de Cramer, resolver

ix + 2y = 1 - 2i 4 x - i y = - 1 + 3 i

Page 609: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

61 4 / Espacios vectoriales complejos

1' -'"'I (i)(-1 +3i)-4(1 - 2 i ) -7+7i Y = - - -"

i( - i) - 2(4) -7 - - 1 - i

1; - 2 1 Así, la solución es x = i , y = 1 - i. A

PROPIEDADES DE Esta sección concluye con la enumeración de algunas propiedades del conjugado LOS NÚMEROS complejo que serán de utilidad en secciones ulteriores. COMPLEJOS

Teorema 10.2.3. Para números complejos cualesquiera z, z1 y Z2 1 a) Z ] + z, = 2, + z2

"

b) m = Z, - z2

Se demostrará el inciso a) y lo demás se deja como ejercicio.

Demostración de a). Sean z1 = al + b,i y z2 = u2 + b2i; entonces

z1 + z2 = (a l + a z ) + (b , + b,)i = (a, + a 2 ) - (b, + b2)i = (a, - b,i) + (u2 - b,i) = z, + z, 0

OBSERVACI~N. Es posible ampliar el inciso a) del teorema 10.2.3 a n términos y el inciso c) a n factores. En pocas palabras,

z , + z 2 + . ~ ~ + z , = z , + z 2 + ~ ' ~ + ~ , " -

Z ] Z 2 . . . z, = z,z*. . .Z"

EJERCICIOS DE LA SECCIÓN 10.2

1. En cada inciso hallar . a ) z = 2 + 7 i b ) z = - 3 - 5 i c ) z = 5 i d ) z = - i e ) z = - 9 f ) z = 0

2. En cada inciso encontrar IzI. a ) z = i b ) z = - 7 i c ) z = - 3 - 4 i d ) z = l + i e ) z = - 8 f ) z = O

Page 610: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1 O. 2 Módulo; conjugado complejo; división / 615

3. Comprobar que z = kl2 para

a) z = 2 - 4 i b) z = - 3 + 5 i c) z=*-V%

4. Dado que z, = 1 - 5i y zz = 3 + 4i, encontrar

a) zI/zz b) 5,/z2 c) z l /& d) (z1/z2) e) zl/lzzl f) Iz,/z21

5. En cada inciso, encontrar l/z.

a) z = i b) z = 1 -5i c) z = - - i 7

6. Dado que z, = 1 + i y zz = 1 - 2i, encontrar

En los ejercicios del 7 al 14, realizar los cillculos y expresar el resultado en la forma a + bi. i 2

7. - I + i

1 8. ____- 9. ___

(1 - i)(3 + i ) (3 + 4)’

10. 2 + i

i( - 3 + 4i) V 3 + i

11. 1

12. (1 - i)(V3 - i) i(3 - 2i)(l + i)

13. i 1 - 2 i 2 + i

(1 - i)(l - 2i)(l + 2i) 3 + 4i 5i 14.

15. En cada inciso, resolver para z.

a) iz = 2 - i b) (4 - 3i)F =

16. Aplicar el teorema 10.2.3 para demostrar las siguientes identidades: -

a) z+=z-Si b) z = -iZ c) -= -1 i + Z I - z

17. En cada inciso, trazar el conjunto de puntos en el plano complejo que satisfacen la ecuación.

a) Iz (=2 b) l z - ( l + i ) / = 1 c) Iz - i ( = ( z + i ( d) I m ( Z + i ) = 3

18. En cada inciso, trazar el conjunto de puntos en el plano complejo que satisfacen la(s) condición (condiciones) dada(s).

a) Iz + i l s 1 b) 1 < bl < 2 c) (2z - 4il < 1 d) JzI 5 )z + iJ

19. Dado que z = x + Q, encontrar

a) Re(G) b) Im(c) c) Re(i5) d) Im(i5)

20. a) Demostrar que si n es un entero positivo, entonces los únicos valores posibles de (1li)”son 1, -1 , iy -i.

b) Calcular ( l/i)2s09. [Sugerencia. Véase el ejercicio 23(b) de la sección 10.1 ,]

Page 611: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

616 / Espacios vectoriales complejos

21. Demostrar:

a) -(z + Z ) = Re(z) bj -(z - 5) = Im(zj 1 I 2 2 i

22. Demostrar: z = si y sólo si z es un número real

23. Dado que z, = x, + iyl y z2 = x2 + 'y2, encontrar

24. Demostrar: Si (i)2 = 2, entonces z es real o imaginario puro.

25. Demostrar que Iz; = j 1

26. Demostrar: " -

a) z, - z, = z I - z2 b) = I,:, c) (zl/z2) = Z,/Z2 d) = z

27. a) Demostrar que z2 = (i )2.

-

b) Demostrar que si n es un entero positivo, entonces Z" = ( 1 j". c) ¿Es verdadero el resultado del inciso b) si n es un entero negativo? Explicar la

-

respuesta.

En los ejercicios del 28 al 31, resolver el sistema de ecuaciones lineales aplicando la regla de Cramer.

28. ix, - ix, = - 2 2x, + x2 = i

30. xI + x, + x3 = 3 x, + x, - x j = 2 + 2i x, --,+x,= - 1

29. x, +x2 = 2 x, - x2 = 2i

31. ix, + 3x, + (1 + i)x3 = - i x, + ix, + 3x, = -2i XI + x, + x j = o

En los ejercicios 32 y 33, resolver el sistema de ecuaciones lineales por eliminación de Gauss-Jordan.

32. [ - l + i " " - i ] [ ~ ~ ] = -2 [:] 33. [ "If2 "[;;]=[:I 1

34. Resolver el siguiente sistema de ecuaciones lineales por eliminación de Gauss-Jordan

x, + ix, - ix, = O

-x1 + (1 - i)x, + 2ix3 = O

2x, + ( - I + 2i)x, - 3ix3 = O

Page 612: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

10.3 Forma polar; teorema de De Moivre / 61 7

35. En cada inciso, aplicar la fórmula del teorema 1.4.5 para calcular la inversa de la matriz y comprobar el resultado demostrando que AA - ' = A - 'A = I.

36. Sea&) = a. + alx + a,x2 + . . . + anX" un polinomio en el que los coeficientes a,,, a,, a2, . . . , an son reales. Demostrar que si z es una soluci6n de la ecuación p(x ) O,

entonces también lo es.

37. Demostrar: Para cualquier número complejo z, IRe(z)l 5 Izi e IIm(z)l 5 Iz/.

38. Demostrar que

IRe(z)l + IIm(z)l ~

v5 [Sugerenciu Sea z = x + iy y aplicar el hecho de que (bl - b1)2 2 O.]

39. En cada inciso aplicar el método del ejemplo 4 de la sección 1.5 para encontrar A" y comprobar el resultado demostrando que AA" = A"A = 1.

i O - i

2 - i i

10.3 FORMA POLAR; TEOREMA DE DE MOIVRE

En esta sección se analizará una forma para representar números complejos usando propiedades trigonométricas. El trabajo efectuado conducirá a una fórmula fundamental para potencias de números complejos y a un método para encontrar raíces n-ésimas de números complejos.

FORMA POLAR Si z = x + iy es un número complejo diferente de cero, r = (z( y 8 mide el ángulo DE UN NúMERO entre el eje real positivo y el vector z, entonces, como se sugiere en la figura 1, COMPLEJO

Figura 1

Page 613: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

618 / Espacios vectoriales complejos

de modo que z = x + iy se puede escribir como

z=rcos e+ i r senB

o bien, como

I I

Esta expresión se denominaforma polar de z.

ARGUMENTO DE El ángulo 8 se denomina argumento de z y se denota por UN NúMERO COMPLEJO e = arg z

El argumento de z no está determinado de manera única porque se puede sumar o restar a 8 cualquier múltiplo de 2z para obtener otro valor del argumento. Sin embargo, sólo existe un valor del argumento en radianes que satisface

Esta expresión se llama argumento principal de z y se denota por

e = Arg z

Ejemplo 1 Expresar los siguientes números complejos en forma polar usando sus argumentos principales:

( a ) z = l + d % b ) z = - 1 - I

Solución de u). El valor de r es

r = \ z l = w = + T = 2

ycomox= l y y = fi,por(l)seinfiereque

Page 614: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

10.3 Forma polar; teorema de De Moivre / 61 9

así, cos 8 = 112 y sen O = 6 1 2 . El Único valor de O que satisface estas relaciones y cumple el requisito - n < 8 I n es O = n/3 (= 60") (véase la figura 2a). Entonces, una forma polar de z es

Solución de h) . El valor de r es

1 - i

- 1 = * C O S e - 1 = *sene

de modo que cos O = - 1f fi y sen O = - 11 f i . El Único valor de que satisface estas relaciones y cumple el requisito - n e 8 5 n es O = - 3 ~ 1 4 (= - 135') (figura 26). Por tanto, una forma polar de z es

-+isen- ""1 A 4

INTERPRETA- A continuación se mostrará cómo se pueden usar las formas polares para obtener CIÓN interpretaciones geométricas de la multiplicación y la división de números com- GEOMÉTRICA plejos. Sean DE LA MULTIPLICA- CIÓN Y LA

z, =?,(cos 0, + i sene,) y z2 = r,(cos 6, + i sen e,) DMSIÓN Multiplicando, se obtiene

Z,Z, = r,r2[(cos-0, COS e, -sene, sene,) + i(sen0, cos 0, + COS e, sene,)]

Page 615: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

620 / Espacios vectoriales complejos

Recordando las identidades trigonométricas

cos(8, + O , ) = cos S, cos O, - sen 8, sen S, sen(0, + 8,) = sen O, cos S, + cos 8, sen 8,

Se obtiene

zlz2 = r,r,[cos(S, + O , ) + isen(8, + O,)]

que es una forma polar del número complejo con módulo rlrz y argumento 8, +- 8,. Así, se ha demostrado que

l v 2 1 = IZllIZ2l

Y

arg(z,z2) = arg z1 + arg z2

(¿Por qué?)

En palabras, el producto de dos números complejos se obtiene al multiplicar sus módulos y sumar sus argumentos (figura 3).

Figura 3 Producto de dos números complejos. I

Se deja como ejercicio demostrar que si z2 # O , entonces

~~

a partir de lo cual se concluye que

Page 616: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1 O. 3 Forma polar; teorema de De Moivre / 621

Y

arg k) = arg z1 - arg z2

En palabras, el cociente de dos números complejos se obtiene al dividir sus módulos y restar sus argumentos (en el orden adecuado).

Ejemplo 2 Sean

Las formas polares de estos números complejos son

(comprobar), de modo que por (3)

zlzz =4[cos(t+:) +isen('+:)]

= 4 c o s - + i s e n - = 4 [ O + i ] = 4 i [ y 2 -1

T T V 3 1 =cos-+isen-=--+-- i 6 6 2 2

Como comprobación, zlz2 y z1/z2 se calcularán directamente sin usar las formas polares de z1 y z2:

.- . .

Page 617: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

622 / Espacios vectoriales complejos

lo cual concuerda con el resultado previo. A

El número complejo i tiene módulo 1 y argumento n / 2 = (90"), por tanto, el producto iz tiene el mismo módulo que z, pero su argumento es 90" mayor que el de z. En resumen, al multiplicar z por i gira en sentido contrario a las manecillas del reloj por un ángulo de 90" (figura 4).

t'

Figura 4 I Al multiplicar por i, z gira 90' en sentido contrario a las manecillas del reloj. I

FÓRMULA DE Si n es un entero positivo y z = r(cos O + i sen e ), entonces por la fórmula (3), DE M O W

Z " = Z . Z . t . . .~=r"[cos(8+8+...+8)+isen(8+8+...+8)] - n factores n términos n términos

o bien,

z" = r"(cos no + isen ne)

Además, si z f O, se define z-" = l/z".

se convierte en En el caso especial en que r = 1, se tiene z = cos O + J sen O, de modo que (6)

(cos 8 + i seno)" F cos n8 + i sen no

expresión que se denomina fórmula de De Moivre*. Aunque (7) se obtuvo supo- niendo que n es un entero positivo, en los ejercicios se demostrará que esta fórmu- la es válida para todos los enteros n.

*Abraham De Moivre (1667-1754) matemático francés que realizó importantes contribuciones a probabilidad, estadística y trigonomehia. Desarrolló el concepto de eventos estadísticamente independientes, escribió un tratado hndamental sobre probabilidad y ayudó a transformar la trigonometría de una rama de la geometría a una rama de l análisis a través d e l empleo de los números complejos. A pesar de su importante trabajo, a duras penas se ¡as arreglaba para vivir como tutor y asesor sobre juegos y seguros.

Page 618: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1 O. 3 Forma polar; teorema de De Moivre / 623

DETERMINA- A continuación se mostrará cómo usar la fórmula de De Moivre para obtener C I ~ N DE LAS raíces de números complejos. Si n es un entero positivo y si z es cualquier RAICES número complejo, entonces la raíz n-ésima de z se define como cualquier nú- n-ÉSIMAS mero complejo w que cumple la ecuación

Una raíz n-ésima de z se denota por zlln. Si z # O , entonces las fórmulas para las raíces n-ésimas de z se pueden obtener como sigue. Sean

w=p(cosa+isena) y z=r(cosO+isen8)

Si se supone que w satisface (8), entonces por (7) se concluye que

pn(cos n a + i sen na) = r(cos 8 + i sen 8) (9)

Al comparar los módulos de los dos miembros se observa que p = r o bien, que

donde "6 denota la n-ésima raíz real positiva de r. Además, para que en (9) se cumplan las igualdades cos n a = cos 8 y sen n a = sen 8, los ángulos n a y 8 deben ser iguales o diferir por un múltiplo de 2n. Es decir,

n a = 8 + 2 k r , k = 0 , + 1 , t 2 , . . .

O

8 2!cr a=-+-

n n , k=0 , k l , 2 2 , .

Así, los valores de w = p (cos a + i sen a) que satisfacen (8) están dados por

w = ( ' h [ c o s ( ! + ~ ) + i s e n ( ~ + ~ ) ] , k=0 , k l , k2, . . .

Aunque hay muchos valores de k, se puede demostrar (ejercicio 16) que k = O , 1, 2, . . . , n - 1 producen valores distintos de w que satisfacen (8), y que todas las d e b elecciones de k producen réplicas de esos valores. En consecuencia, existen exactamente n diferentes raíces n-ésimas de z = r(cos 8 + i sen e), y están dadas por

= l / n = , [ , , s ( , t ~ ) + i S e n ( ! + ~ ) ] , 8 2km k = O , 1 , 2 , , . . , n - l (IO)

Page 619: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

624 / Espacios vectoriales complejos

Ejemplo 3 Encontrar las raíces cúbicas de -8.

Solución. Como -8 está sobre el eje real negativo se puede usar 0 = ?t como argumento. Además, r = bl = 1-81 = 8, de modo que una forma polar de -8 es

-8=8(cos v+isen.rr)

Por (10) con n = 3 se deduce que

[ cos (3 -+- 25") + i sen (3 -+- 2 3 ] , k = O , 1,2

Así, las raíces cúbicas de -8 son

2(cos7r+isen7r)=2(-1)= -2

Como se muestra en la figura 5, las tres raíces cúbicas de -8 obtenidas en el ejemplo 3 son equilstantes, ya que están separadas por una lstancia de n13 radanes (= 120') sobre la circunferencia de radio 2 con centro en el origen. Este hecho no es fortuito. En general, por la fórmula (10) se concluye que las raíces n-

ésimas de z están sobre la circunferencia de radio "&(=.fi)y son equidstantes, separadas por una distancia de 2 nln radianes. (¿Puede el lector darse cuenta de por qué esto es así?) Así, una vez que se ha determinado una raíz n-ésima de z, las demás n - 1 raíces se pueden generar si esta raíz se hace girar sucesivamente en incrementos de 2 nln radianes.

4 '

Figura 5 Las raíces cúbicas de -8.

Page 620: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

I O. 3 Forma polar; teorema de De Moivre / 625

Ejemplo 4 Encontrar las raíces cuartas de 1.

Solucidn. Se podría aplicar la f6miila i. ¡:..U j. 1.c. vez de ello, se observa que w = 1 es una raíz cuarta de 1, de modo que las tres raíces restantes se pueden generar si esta raíz se hace girar en incrementos de 2 d 4 = n/2 radianes (= 90'): En la figura 6 se observa que las raíces cuartas de 1 son

1. i, -1, "i A

4 "

/ \ / \

EXPONENTES Esta sección concluye con algunos comentarios sobre notación. COMPLEJOS En estudios más detallados de números complejos se definen los exponentes

complejos y se demuestra que

I cos o+ i sen8=eie

donde e es un número real irracional definido aproximadamente por e = 2.7 1828. . . (Para quienes ya estularon Cálculo, en el ejercicio 18 se proporciona una demostración de este hecho.)

Por la expresión (1 1) se concluye que la forma polar

z = r(cos 8 + i sen 8)

se puede escribir de manera más breve como

Ejemplo 5 En el ejemplo 1 se demostró que

Page 621: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

626 i Espacios vectoriales complejos

Por (12), la expresión anterior también puede escribirse como

Es posible demostrar que los exponentes complejos obedecen las mismas reglas que los exponentes reales, de modo que si

z1 = rleiBl Y z2 = r2ei*2

son números complejos diferentes de cero, entonces

Pero estas son justamente l a s fórmulas (3) y (5) escritas en otra notación.

Si Por ultimo, se obtendrá una fórmula útil para expresar 2 en notación polar.

z = rei* = r(cos O + i sen e)

entonces

Z = r(cos 9 - i sene)

Recordando las identidades trigonométricas

sen(- O) = -sen 0 y COS( - e) = COS e la expresión (13) se puede volver a escribir como

o bien, de manera equivalente,

Page 622: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

10.3 Forma polar; teorema de De Moivre I' 627

EJERCICIOS DE LA SECCIóN 10.3

1. En cada inclso, encontrar el argumento principal de z.

a ) z = l b ) z = i c ) z = - i d ) z = l + i e ) z = - l + d ? i f ) z = l - i

2. En cada inciso hallar el valor de O = arg( 1 - hi) que satisface la condición dada.

a) O<O'2a b) - a<Osa c) - - S O < - - rr 1 l a 6 6

3. En cada inciso expresar el número complejo en forma polar usando su argumento principal.

a) 2i b) - 4 c) 5 + 5 i d) - 6 + 6 d ? i e) - 3 - 3i f ) 2 f i - 2 i

4. Dado que z, = %(cos n14 + i sen n/4) y z2 = COS nl6 + i sen n16) obtener una forma polar de

5. Expresar z, = i, z2 = 1 - f i i y z3 = &+ i en forma polar y aplicar los resultados para encontrar z,z2/z3. Comprobar los resultados efectuando los cálculos sin usar formas po- lares.

6. Usar la fórmula (6) para hallar

7. En cada inciso, encontrar todas las raíces y trazarlas como vectores en el plano complejo.

a) (-i)'12 b) (1 + V'%)'12 c) d) (i)'I3 e) ( - f) ( -8 + 8V3i)1/4

8. Usar el método del ejemplo 4 para encontrar todas las raíces cúbicas de 1

9. Usar el método del ejemplo 4 para hallar las raíces sextas de l .

10. Obtener las raíces cuadradas de 1 + i y expresar los resultados en forma polar.

11. En cada inciso encontrar las soluciones de la ecuación.

a) z4 - 16 = O b) z4I3 = - 4

12. Calcular cuatro soluciones de la ecuación fi + 8 = O y con los resultados, factorizar z4 + 8 en dos factores cuadráticos con coeficientes reales.

Page 623: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

628 i Espacios vectoriales complejos

14. En cada inciso, usando (6), calcular la potencia indicada

a) ( I +I)' b) (-2*+2i)")

15. En cada inciso, encontrar Re@) e h ( z ) .

16. a) Demostrar que todos los valores de en la fórmula (10) son diferentes. b) Demostrar que los valores enteros de k distintos de k = O, 1,2, . . . , n - 1 producen

valores de z"" que son réplicas de los producidos por la fórmula (IO) .

17. Demostrar que la fórmula (7) es válida si n = O o r~ es un entero negativo.

18. (Para quienes ya estudiaron Cdkulo). Para demostrar la fórmula (1 l) , recuérdese l a serie de Maclaurin para 8

a) Sustituyendo X = i o en esta serie y simplificando, obtener la fórmula

b) Usando el resultado del inciso a), obtener (1 1)

19. Obtener la fónnula (5)

10.4 ESPACIOS VECTORIALES COMPLEJOS

PROPIEDADES BASICAS DE LOS ESPACIOS VECTORIALES COMPLEJOS

En espacios vectorides complejos, las combinaciones lineales se definen exactamente como en los espacios vectoriales reales, excepto que los escalares son complejos. En pocas palabras, un vector w se denomina combinación lineal de los vectores vl, v,, . , , , v,. si se puede expresar en la forma

w = k,v, + k2v2 + . . . + k , ~ ,

donde k,, k,, . . . , kr son números complejos.

Page 624: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1 O. 4 Espacios vectoriales complejos / 629

Los conceptos de independencia lineal, conjunto generador, base, dimen- sión y subespacio permanecen sin ningún cambio para espacios vectoriales com- plejos, y los teoremas obtenidos en el capítulo 5 siguen siendo válidos.

El espacio vectorial real más importante es R", que es el espacio de n-adas de números reales, donde la adición y la multiplicación escalar se efectúan por coordenadas. El espacio vectorial complejo más importante es C", que es el espa- cio de n-adas de números complejos, donde la adición y la multiplicación escalar se efectúan por coordenadas. Un vector u en C" se puede escribir en notación vectorial

o en notación matricial

donde u , = a , + b,i, u2 = a , + h,i, . . . , u, = a, + h,i

Ejemplo 1 Si

u = (i, 1 + i , -2) y v = ( 2 + i, 1 - i, 3 + 2i)

entonces

u + v = (i, 1 + i, - 2 ) + ( 2 + i, 1 - i, 3 + 2i) = (2 + 2i, 2, 1 + 2i)

Y

iu=i( i , 1 + i , - 2 ) = ( i z , i + i 2 , - 2 i ) = ( - 1 , - 1 ti, -2i) A

En C n , así como en R", los vectores

e , = ( 1 , 0 , 0 , . . . , O ) , e,=(0, 1,0, . . . , O ) , . . . , en=(O,O,O, . . . , 1)

forman una base. Ésta se denomina base estúndar para P. Como en esta base hay n vectores, Cn es un espacio vectorial n dimensional.

OBSERVACI~N. No se debe confundir el número complejo i = &i con el vector i = (1, O, O) de la base estándar para R3 (véase el ejemplg 3 de la sección 3.4). El número complejo i siempre se escribirá en cursivas y el vector i , en negritas.

Page 625: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

630 i Espacios vectoriales complejos

Ejemplo 2 En el ejemplo 3 de la sección 5.1 se definió el espacio vectorial M,,,, de matrices m X n con elementos reales. El análogo complejo de este espacio es el espacio vectorial de matrices con elementos complejos y las operaciones de adición de matrices y multiplicación escalar. Este espacio se denomina complejo M,,,,,. A

Ejemplo 3 Si fi(x) y fz(x) son funciones con valores reales de la variable x, entonces la expresión

se denomina función con valores complejos de la variable x. Algunos ejemplos son

f(x) = 2x + ix3 y g(x> = 2 sen x + i cos x (1)

Sea Vel conjunto de las funciones con valores complejos que están definidas sobre la recta. Si f = fi(x) + iJ2(x) y g = gl(x) + ig2(x) son funciones como las mencionadas y k es cualquier número complejo, entonces la función suma f + g y el múltiplo escalar kf se definen por

Se puede demostrar que V junto con las operaciones establecidas es un espacio vectorial complejo. Se trata del análogo complejo del espacio vectorial F(- m, m)

de funciones con valores reales analizado en el ejemplo 4 de la sección 5. l . A

Ejemplo 4 (Para quienes ya estudiaron Crilculo). Si Ax) =S,(.) + &(x) es una función con valores complejos de la variable real x, entonces se dice que f es continua si f , ( x ) y f2(x) son continuas. Se deja como ejercicio demostrar que el conjunto de todas las funciones continuas con valores complejos de una variable real x es un subespacio del espacio vectorial de todas las funciones con valo- res complejos de x. Este espacio es el análogo complejo del esuacio vectorial

Page 626: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

I O. 4 Espacios vectoriales complejos / 63 I

PRODUCTOS INTERIORES EUCLIDIANOS COMPLEJOS

C(-m, 00) analizado en el ejemplo 7 de la sección 5.2 y se denomina corn- plejo C(- 00, m). Un ejemplo bastante relacionado es el complejo C[a, b], el espacio vectorial de todas las funciones con valores complejos que son continuas sobre el intervalo cerrado [a, b] . A

Recuérdese que en R" el producto interior euclidiano de dos vectores

se definió como

y que la norma (o longitud) euclidiana de u se definió como

llull = (u u)l'2 = vu: + u; + . . ' + u;

Desafortunadamente, estas definiciones no son apropiadas para vectores en C". Por ejemplo, si (3) se aplicase al vector u = (z, 1) en C2, se obtendría

((u(\ = VFZ = v% = o de modo que u sena un vector dverente de cero con longitud cero, situación a todas luces contradictoria.

Para extender correctamente los conceptos de norma, distancia y ángulo a C" es necesario modificar un poco el producto interior.

Definicih. Si u = ( u l , u2, . . . , un) y v = (v l , v2, . . . , vn) son vectores en Cn, entonces su producto interior euclidiano complejo u * v se define por

~~ ~ ~ ~ ~ ~ ~~~~

donde i in son los conjugados de vl, v2, . . . 1' 2'"" , vn.

OBSERVACI~N. Nótese que el producto interior euclidiano de vectores en C" es un número complejo, mientras que el producto interior euclidiano de vectores en Rn es un número red.

Ejemplo 5 El producto interior euclihano complejo de los vectores

Page 627: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

632 / Espacios vectoriales complejos

u=( - i i , 2 , 1 + 3 i ) y v = ( l - i , O , I +3i)

es

u - v = (-i)(l - i) + (2)(0) + (1 + 3i)(l + 32) = (-i)(l + i) + (2)(0) + (1 + 3i)(l - 3i) - - - i - 22 + 1 - 9'2 I z I 1 - i A

En el teorema 4.1.2 se mencionaron las cuatro propiedades principales del producto interior euclidiano sobre Rn. El siguiente teorema es el resultado correspondiente para el producto interior euclidiano complejo sobre Cn

Teorema 10.4.1. Si u, v y w son vectores en C? y k es cualquier número complejo, entonces:

a) u . v = v . U b) ( u + v ) . w = u . w + v . w c) (ku).v = k(u.v) d ) v.v?O.Ademas,v.v=O siysófosi v=O.

Obsérvese la diferencia entre el inciso a) de este teorema y el inciso a) del teorema 4.1.2. Se demostrarán los incisos a) y d) y los demás se dejan como ejercicio.

Demostración de a). Sean u = (ul, u2, . . . , un) y v = (v , , v2, . . . , v,). Entonces

Y

v. u = U I U I + U2ü2 -t ' . ' + unü,

de modo que

- v.u = U I U l + u2u2 + ' . . + Unün

+ +- ' ' ' VnUn [Teorema 10.2.3, incisos a) y c)] - - -

= ulul + ü*uz + . . . + Ü,,un [Teorema 10.2.3, inciso e)] -

= UlÜl + u2ü2 + . . ' + unü,

= u.v

Page 628: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

I O. 4 Espacios vectoriales complejos / 633

Demostración de 4.

Además, la igualdad se cumple si y sólo si lvll = Iv21 = . . . = lvnl = O. Pero esto es cierto si y sólo si v1 = v2 = . . . = v, = O, es decir, si y sólo si v = O. 0

OBSERVACI~N. Se deja como ejercicio demostrar que

u (kv) = k(u . v)

para vectores en C". Hacer la comparación con la fórmula correspondiente

u . (kv) = k(u . v)

para vectores en R".

NORMA Y Por analogía con (3), la norma euclidiana (o longitud euclidiana) de un vector u DISTANCIA EN = (u1, uz, . . . , un) en Cn se define por P

y la distancia euclidiana entre los puntos u = (u1, uz, . . . , un) y v = (v l , v2, . . . , vn) se define por

Ejemplo 6 Si u = (i, 1 + i, 3) y v = (1 - i , 4, 4i), entonces

llull =m=2v3

Y

d(u, v) = VIi - (1 - i)I2 + 1(1 + i) - 212 + 13 - 4iI2

= ~ I - 1 + 2 i ) 2 + I - 1 + i ( 2 + 1 3 - 4 i ( 2 = ~ 5 + 2 + 2 5 = ~ = 4 ~ A

El espacio vectorial complejo Cn con la norma y el producto interior antes defih- dos se denomina espacio n euclidiano complejo.

Page 629: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

634 ,/ Espacios vectoriales complejos

EJERCICIOS DE LA SECCIóN 10.4

1. Seanu=(2i ,0 , -1 ,3) ,v=(- i , i ,1+i , - l )yw=( l+i , - i , -1+2i ,O) .Encont rar

a) u - v b) i v f 2 w c) - w + v d) 3 ( u - ( I + i ) v ) e) - i v + 2 i w f) 2 v - ( u + w )

2. Sean u, v y w los vectores del ejercicio 1. Encontrar el vector x que satisface

u - v + ix = 2ix + w.

3. Sean u, = (1 - i , i, O), u2 = (22, 1 + i, 1) y u3 = (O, 22, 2 - i). Encontrar escalares c,, cz y c3 tales que c,u, + c2uz + c3u3 = ( - 3 + i, 3 + 2i, 3 - 4i).

4. Demostrar que no existen escalares c,, c2 y c3 tales que

c,(i, 2 - i, 2 + i) + c2(1 + i, -2i, 2) + 4 3 , i, 6 + i) = (i, i, i)

5. Encontrar la norma euclidiana de v si

a) v = ( l , i ) b) v = ( l + i , 3 i , 1) c) v = ( 2 i , 0 , 2 i + 1, -1 ) d) v = ( - i , i , i , 3 , 3 + 4 2 )

6. Sean U = (3i, O, -i) , v = (O, 3 + 44 -2i) y w = (1 + i, 22, O), Encontrar

d) 113~ - 5~ + w I I 1 e ) -w

llwll

7. Demostrar que si v es un vector diferente de cero en Cn, entonces (l/llvll)v tiene noma euclidiana l .

8. Encontrar todos los escalares k tales que I l k v l l = 1, donde v = (32,4i)

9. Encontrar el producto interior euclidiano u * v si

a) u = ( - i , 3i), v = (3i, 2i) b) u = (3 - 4i, 2 + i, -6i), v = (1 + i, 2 - i, 4) c) u = ( l - i , l + i , 2 i , 3 ) , v = ( 4 + 6 i , - 5 , - 1 + i , i )

En los ejercicios 10 y 11 se proporciona un conjunto de objetos junto con las operaciones de adición y multiplicación escalar. Determinar cuáles conjuntos son espacios vectoriales complejos bajo las operaciones dadas. Para los que no lo sean, mencionar todos los axiomas que no se cumplen.

10. El conjunto de todas las temas de números complejos (z,, z2, z3) con las opera- ciones

Y

Page 630: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

10.4 Espacios vectoriales complejos / 635

11. El conjunto de todas las matnces complejas de 2 X 2 de la forma

con las operaciones matmiales normales de adición y multiplicación escalar.

12. ¿Es Rn un subespacio de Cn? Explicar la respuesta

13. Aplicando el teorema 5.2.1, determinar cuáles de los siguientes conjuntos son subes- pacios de C3. a) Todos los vectores de la forma (2, O, O). b) Todos los vectores de la forma (z, i, i) c) Todos los vectores de la forma (zl, z2, z3), donde z3 = z1 + z2. d) Todos los vectores de la forma (zl, z2, z3), donde z3 = z1 -t z, + i.

"

14. Aplicando el teorema 5.2.1, determinar cuáles de los siguientes conjuntos son subes- pacios del complejo MZ2: a) Todas las matnces complejas de la forma

donde z1 y z2 son reales. b) Todas las matrices complejas de la forma

donde z1 + z4 = O.

c) Todas las matrices complejas A 2 X 2 tales que = A , donde 2 es la matriz cuyos elementos son los conjugados de los elementos correspondientes de A.

15. Aplicando el teorema 5.2.1, determinar cuáles de los siguientes conjuntos son sub- espacios del espacio vectorial de las funciones con valores complejos de la variable real x: a) Todas las f tales queA1) = O. b) Todas lasftales queA0) = i . - c) Todas las f tales quef(-x) = f (x) d) Todas las f de la forma k , + k2 elx, donde k , y k, son números complejos.

16. ¿Cuáles de los siguientes vectores son una combinación lineal de u = (i, -i, 32) y v = (2i, 4i, O)? a) (3i, 3i, 3i) b) (44 2i, 6i) c) (i, 5i, 6i) d) (O, O, O)

17. Expresar cada uno de los siguientes vectores como una combinación lineal de u = (1, O, - z), v = (1 + i, 1, 1 - 2i) y w = (O, i, 2). a) (1, 1, 1) b) (i, O, - i ) C) (O, O, O) d) ( 2 - i, 1, 1 + i)

18. En cada inciso, determinar si los vectores dados generan a C3

Page 631: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

636 / Espacios vectoriales complejos

a) vI = (i, i, i), v2 = (22, 2i, O), v3 = (3i, O, O) b) V , = ( 1 + i, 2 - i, 3 + i), vi = (2 + 3i, O, 1 - i) c) V, = (1, O, -i), v2 = (1 + i, 1, 1 - 24, v3 = ( O , i, 2) d) vI = (1, i , O), v2=(0 , -i, I ) , v 3 = ( 1 , O, 1)

19. Determinar cuáles de las siguientes fünciones están en el espacio generado por

f = e” y g = e - ” ”

a) cos x b) sen x c) cos x + 3i sen x

20. Explicar por qué los siguientes conjuntos de vectores son linealmente dependientes. (Resolver este problema por inspección.)

a) u , = ( I - - i , i ) y u 2 = ( 1 + i , -1)enC2 b) u, = (1, - i), u2 = (2 + i, - l), u) = (4, O) en C2

c) A = [ J ’j] y = [ en el complejo 2i O 2 0

21. ¿Cuáles de los siguientes conjuntos de vectores en C3 son linealmente independientes? a) u, = (1 -i, 1, O), u2 = (2, 1 + i, O), u3 = (1 + i, i, O) b ) u , = ( I , O , - - i ) , u 2 = ( l + i , l , l - 2 i ) , u 3 = ( 0 , i , 2 ) c ) u , = ( i , O , 2 - i ) , u 2 = ( 0 , 1 , i ) , n , = ( - i , - 1 - 4 i , 3 )

22. Sea V el espacio vectorial de todas las funciones con valores complejos de la variable real x. Demostrar que los siguientes vectores son linealmente dependientes.

f = 3 + 3i cos 2x, g =sen2 x + i cos2 x, h = cos2 x - isen* x

23. Explicar por qué los siguientes conjuntos de vectores no son bases para los espacios vectoriales indicados. (Resolver este problema por inspección.)

a) u , = (i, 2i), u2 = (O, 32), u3 = (1, 7i) para C’ b) u , = ( - 1 + i, O, 2 - i). u2 = (1, -i, 1 + i) para C3

24. ¿Cuáles de los siguientes conjuntos de vectores son bases para C2?

a) (2i, -i), (4i, O) b) (1 + i, l), (1 + i, i ) c) (O, O), (1 + i, 1 - i ) d) (2 - 32, i), (3 + 2i, - I )

25. ¿Cuáles de los siguientes conjuntos de vectores son bases para C3?

a) (1, O, O), (i, i, O), (i, i, i) b) (1, O, -i), (1 - t i , 1, 1 - 2i), (O, i, 2) c ) ( i ,O,2- i ) , (O , l , i ) , ( - i , - 1 - 4 & 3 ) d ) ( I , O , i ) , ( 2 - i , 1 , 2 + i ) , ( O , 3 i , 3 i )

En los ejercicios del 26 al 29, determinar la dimensión y una base para el espacio solución del sistema.

26. x, + (1 + i )x , = O ( 1 - i)x, + 2x2 = O

28. x, + (2 - i)x2 = o x2 + 3ix, = O

ix, + (2 + 2i)x2 + 3ix3 = O

27. 2x1 - (1 + i)x2 = O ( -1 + i ) x , + x, = o

29. x, + ix, - 2ix3 + x, = O i x , + 3x, + 4x3 - 2ix, = O

Page 632: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

10.5 Espacios complejos con producto interior / 637

30. Demostrar: Si u y v son vectores en el espacio n euclidiano complejo, entonces

u.(h)=k(u.v)

31. a) Demostrar el inciso b ) del teorema 10.4.1. b) Demostrar el inciso c) del teorema 10.4.1.

32. (Para quienes ya estudiaron C&lculo). Demostrar que el complejo C( - m , m) es un subespacio del espacio vectorial de funciones con valores complejos de una variable real.

33. Establecer la identidad

1 -1111 - vil2 + -1111 + iv1I2 - i

4 4

para vectores en el espacio n euclidiano complejo.

4 llu - i

10.5 ESPACIOS COMPLEJOS CON PRODUCTO INTERIOR

En la sección 6.1 se dejnió el concepto de producto interior sobre un espacio vectorial rzal usando como axiomas las propiedades básicas del producto interior euclidiano sobre R". En esta sección se dejnirán productos interiores sobre espa- cios vectoriales complejos usando como axiomas las propiedades del producto interior euclidiano sobre C".

ESPACIOS UNITARIOS

La siguiente definición es originada por el teorema 10.4.1

Definición. Un producto interior sobre un espacio vectorial complejo V es una función que asocia un número complejo (u, v) a cada par de vectores u y v en V de modo que los siguientes axiomas se cumplen para los vectores u, v y w en V y los escalares k.

- 1) (u , v ) = (v ,u ) 2) ( u + v, w ) = (u, w ) + (v, w ) 3) (ku, v) = k( u, v ) 4) ( v , v ) r 0 y ( v , v ) = O siysólosi v = O

I

Un espacio vectorial complejo con un producto interior se llama espacio con pro- ducto interior complejo o espacio unitario.

Las siguientes propiedades adxionales se deducen de inmediato a partir de los cuatro axiomas de producto interior:

Page 633: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

638 / Espacios vectoriales complejos

(i) ( O , v > = (v , O > = O ( i i ) (u, v + w ) = (u, v ) + (u, w )

( i i i ) (u. kv) = %(u, v )

Como sólo iii) difiere de los resultados correspondientes para productos inte- riores reales, se demostrará y las otras demostraciones se dejan como ejercicio.

(u, kv) = (kv, u) [Axioma 11 = k(v, U ) [ h o m a 31 = k( V , u ) [Propiedad de los conjugados] "

k(u, v ) [Axioma I ] -

Ejemplo 1 Sean u = (u1, u2, . . . , un) y v = (vl , v2, . . . , vn) vectores en P. Por el teorema 10.4.1, el producto interior euclidiano (u, v) = u v =

u1 ulVl +u2V2+...+unVn satisface todos los axiomas de producto interior. A

Ejemplo 2 Si

son matrices cualesquiera 2 X 2 con elementos complejos, entonces la sigwente fórmula define un producto interior complejo sobre el complejo (comprobar):

Por ejemplo, si

entonces

Page 634: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

10.5 Espacios complejos con producto interior / 639

Ejemplo 3 (Para quienes ya estudiaron Cdlculu). Si Ax) = fl(x) + if2@) es una función con valores complejos de la variable real x y si fl (x) y f2(x) son continuas sobre [a, b] , entonces

b h

J U h f ( 4 dx = IUD [ f l ( 4 + if2(x)ldx = f l ( 4 dx + i l , f 2 ( 4 dx

En palabras, la integral de Ax) es la integral de la parte real de f más i veces la integral de la parte imaginaria de f:

Se deja como ejercicio demostrar que si las funciones f = f l ( x ) + iJ2(x) y g = gl(x) + ig2(x) son vectores en el complejo C[a, b ] , entonces la siguiente fórmula define un producto interior sobre el complejo C[a, b ] :

En espacios con producto interior complejo, así como en espacios con pro- ducto interior real, la norma (o longitud) de un vector u se define por

y la distancia entre dos vectores u y v se define por

Se puede demostrar que con estas definiciones los teoremas 6.2.2 y 6.2.3 siguen siendo verdaderos en espacios con producto interior complejo (ejercicio 35).

Ejemplo 4 Si u = (ul, u2, . . . , un) y v = (vl, v2, . . . , vn) son vectores en C" con el producto interior euclidmno, entonces

Y

Page 635: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

640 1 Espacios vectoriales complejos

CONJUNTOS ORTOGONALES

Obsérvese que estas expresiones son justamente las fórmulas para la norma y la distancia euclidianas analizadas en la sección 10.4. A

Ejemplo 5 (Para quienes ya estudiaron Cálculo). Si el complejo C[O, k] tiene el producto interior del ejemplo 3 y si f = elm, donde m es cualquier entero, entonces con auxilio de la fórmula (15) de la sección 10.3 se obtiene

Las definiciones de conceptos como vectores ortogonales, conjunto ortogonal, conjunto ortonormal y base ortonormal se aplican sin cambio a espacios unita- rios. Además, el teorema 6.2.4, los teoremas de la sección 6.3 y el teorema 6.5.4 aún son válidos en espacios con producto interior complejo, y el proceso de Gram-Schmidt se puede usar para convertir una base cualesquiera de un espacio con producto interior en una base ortonormal.

Ejemplo 6 Los vectores

u = (i , 1) y v = (1, i)

en 62 son ortogonales con respecto al producto interior euclidiano, ya que

u . v = ( i ) ( i ) + ( 1 ) ( 5 ) = ( i ) ( l ) + ( l ) ( - i ) = o A

Ejemplo 7 Considérese el espacio vectorial C3 con el producto interior euclidiano. Aplicar el proceso de Gram-Schmidt para transformar los vectores básicos u1 = ( i , i , i ) , u2 = (O, i , i ) , u3 = (O, O, i ) , en una base ortonormal.

Solución.

Paso 1. v I = u, = (i, i, i)

Page 636: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1 O. 5 Espacios complejos con producto interior / 641

Así.

forma una base ortogonal para 6 3 . Las normas de estos vectores son

de modo que una base o r t o n o d para C3 es

Ejemplo 8 (Puru quienes ya estudiaron Cúfcufo). Sea el complejo C[O, 2 n ] con el producto interior del ejemplo 3, y sea W el conjunto de vectores en C[O, 2 n ] de la forma

elmr = cos mx + i sen mx

donde m es un entero. El conjunto W es ortogonal porque si

son vectores dstintos en W, entonces

Page 637: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

642 / Espacios vectoriales complejos

1 - -sen (k - l ) x - [ k - 1 k - 1

= (O) - i(0) = O

Si se normaliza cada vector del conjunto ortogonal W. se obtiene un conjunto ortonormal. Pero en el ejemplo 5 se demostró que cada vector en W tiene norma f i , dc modo que los vectores

forman un conjunto ortonormal en el complejo C[O, 2 n ] . A

EJERCICIOS DE LA SECCIóN 10.5

1. Sean u = ( u , , u 2 ) y v = (v], v2). Demostrar que (u, v) = 3u, 324 i + 2 u i define un 1 1 2 2

producto interior sobre p.

2. Calcular (u, v) usando el producto interior del ejercicio l . a) u = (2;. - i), v = ( - i, 3;) b) u = ( O , O), v = ( 1 - i, 7 - 5i) c) u = ( 1 + i, I - i), v = ( 1 - i. 1 + i ) d) u = (3i, - 1 + 2 i ) , v = (32, - 1 + 2i)

3. Sean u = ( u , , u 2 ) y v = (v,, v2). Demostrar que

(u, v) = u,Ü, + ( 1 -t- i )u ,Ü2 + ( 1 - i)u,u, + 3u2Ü2 -

define un producto interior sobre C 2

4. Calcular (u, v) usando el producto interior del ejercicio 3 a) U = (2i , - I ) , v = ( - i, 3i) b) u = (O, O) , v = ( 1 - i, 7 - 5i) C) U = (1 + i, 1 - i), v = (1 - i, 1 + i ) d ) u = (3i. - 1 + 2i), v = ( 3 , - 1 + 2i)

5. Sean u = ( u , , u z ) y v = (vl, v2). Determinar cuáles de las siguientes expresiones son productos interiores sobre p. Para las que no lo sean, enumerar los axiomas que no se cumplen.

a) (u, v ) = u,Ü, b) (u, v ) = u,ü, - u p 2 c ) {u , v ) = (uI/2(ul(2 + d) (u, v ) = 2u,U, + iu,ü, + iu,ü, + 2u,ü2 e) (u, v ) = 2u,ü, + iu,ü2 - iu,ü, + 2u,ü,

-

Page 638: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

10.5 Espacios complejos con producto interior / 643

6. IJsando el producto interior del ejemplo 2, encontrar (U, V) si

- 7. Sean u = (uI, u2, u3) y v = (vl, v2, v3). ¿(u, v) = yvI+~v2+u3v3-iu3v, define un pro-

ducto interior sobre C3? En caso negativo, enumerar todos los axiomas que no se cum- plen.

- "

8. Sea Vel espacio vectorial de las funciones con valores complejos de la variable real x, y sean f =&(x) + z&(x) y g = gl(x) + ig,(x) vectores en V. ¿La expresión

( f 3 g) = (fl(0) + ifAO))(g,(O) + ig,(O))

define un producto interior sobre P En caso negativo, enumerar todos los axiomas que no se cumplen.

9. Sea c" con el producto interior del ejercicio 1. Encontrar I(w(( si

a) w = ( - i , 3 i ) b) w = ( l - i , l + i ) c) w = ( O , 2 - i ) d) w=(O,O)

10. Para cada vector del ejercicio 9, usando el producto interior euclidiano encontrar I(w((

11. Usando el producto interior del ejercicio 3 , encontrar llwll si a) w = ( l , -i) b) w = ( l - i , 1 + i ) c) w = ( 3 - 4 i , O ) d) w=(O,O)

12. Usando el producto interior del ejemplo 2, encontrar l!,4(( si

13. Sea C2 con el producto interior del ejercicio 1. Encontrar d(x, y) si .a) x = ( l , l ) , y=( i , -i) b) x = ( l - i , 3 +2i), y = ( l + i , 3 )

14. Repetir l a s instrucciones del ejercicio 13 usando el producto interior euclidiano sobre c. 15. Repetir las instrucciones del ejercicio 13 usando el producto interior del ejercicio 3.

16. Sea el complejo MZ2 con el producto interior del ejemplo 2. Encontrar d(A, B ) si

17. Sea C3 con el producto interior euclidiano. ¿Para qué valores complejos de k los vectores u y v son ortogonales? a) u=(2 i , i ,3 i ) , v = ( i , 6 i , k ) b) u = ( k , k , l + i ) , v = ( l , - 1 , l - i )

Page 639: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

644 i Espacios vectoriales complejos

18.

19.

20.

21.

22.

23.

24.

Sea n/r.2 con el producto interior del ejemplo 2. Detenninar cuáles de las siguientes matrices son ortogonales a

Sea C" con el producto interior euclidiano. Demostrar que para todos los valores de 0

Sea ('? con el producto interior euclidiano. ¿Cuáles de los siguientes conjuntos son ortononnales?

a) (i, O), (O, 1 - i) b) ( - ' -- ), ( " ) c) ( " ), ( r ) (d) ( i ,O) , (0,O) v5' v5 v5"* v5'v5 v2' v5

-- "

Sea C' con el producto interior euclidiano. ¿Cuáles de los siguientes conjuntos son ortonornlales?

Sea

Demostrar que {x, y) es un conjunto ortonomal si C2 tiene el producto interior

(u, v ) = 3u,ü, + 2u2ü2

pero no es ortonomal si C* tiene el producto ulterior euclidiano

es un conjunto ortogonal en C4 con el producto interior euclidiano. Normalizando cada uno de estos vectores, obtener un conjunto ortonomal.

Sea C 2 con el producto interior euclidiano. Usando el proceso de Gram-Schmidt, transformar la base {u,, u2} en una base ortonomal.

a) uI = (i, - 3 4 , u2 = (2i, 22) b) u I = (i. O), u2 = (32, - 5 ; )

Page 640: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1 O. 5 Espacios complejos con producto interior i 645

25. Sea c3 con el producto interior euclidiano. Usando el proceso de Gram-Schmidt, transformar la base { u l , u2, ug} en una base ortonormal. a) uI = (i, i, j), u2 = ( - i , i, O), uj = (i, 22, i) b) u1 = (i, O, O), u2 = (3i, 7i, - 2 4 , u3 = (0,4i. i )

26. Sea C4 con el producto interior euclidiano. Usando el proceso de Gram-Schmidt, transformar la base { ul, u2, u3, u4} en una base ortonormal.

u, =(O, 2i, i, O), u 2 = ( i , - i , O, O), u3 =(i, 2i, O, - i ) , u ,=(i , O, i, i)

27. Sea C3 con el producto interior euclidiano. Encontrar una base ortonormal para el subespacio generado por (O, i, 1 - i) y (-i, O, 1 + 2).

28. Sea C4 con el producto interior euclidiano. Expresar w = (-i , 22,6i, O ) en la forma w = w, + w2, donde el vector w, está en el espacio W generado por u1 = (-i , O, i, 2;) y u2 = (O, i, O, i), y w2 es ortogonal a W.

29. a) Demostrar: Si k es un número complejo y (u, v) es un producto interior sobre un es-

pacio vectorial complejo, entonces (u - k v , u - k v ) = (u, u) - i (u, v) - k(u,v)+kk(v,v).

b) Usando el resultado del inciso a), demostrar que O I (u, u) - k (U, V) - k(u,v)+kz(v,v).

30. Demostrar que si u y v son vectores en un espacio con producto interior complejo, entonces

KU. v)l’ 5 (u3 U X V , v )

Este resultado, denominado desigualdad de Cauchy-Schwarz para espacios con producto interior complejo, difiere de su análogo real (teorema 6.2.1) en que es nece- sario incluir un signo de valor absoluto en el miembro izquierdo. [Sugerencia Sea k = (u, v)/(v, v) en la desigualdad del ejercicio 29b).]

31. Demostrar: Si u = (uI, u2, . . . , un> y v = (v,, v2, . . . , v,,) son vectores en c”, entonces

lUlÜI + U’ü2 + ‘ ’ ’ + U,ünl 5 (jU,/’ + /U2 / ’ + ’ ‘ . + lu,12)1’2(/u,/2 + IU2l2 + ‘ ’ ‘ + JU”J2)”2

Esta es la versión compleja de la desigualdad de Cauchy analizada en el ejemplo 1 de la sección 6.2. [Sugerencia Usar el ejercicio 30.1

32. Demostrar que en la desigualdad de Cauchy-Schwm para espacios vectoriales complejos la igualdad se cumple si y sólo si u y v son linealmente independientes.

33. Demostrar que si (u, v) es un producto interior sobre un espacio vectorial complejo, entonces

(O, v ) = (v , O ) = o

Page 641: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

35.

36.

37.

38.

39.

40.

(u, v + w) = (u, v) + (u, w)

Los teoremas 6.2.2 y 6.2.3 siguen siendo verdaderos en espacios con producto interior complejo. En cada inciso, demostrar que así es. a) Teorema 6 . 2 . 2 ~ . b) Teorema 6.2.2b. c) Teorema 6 . 2 . 2 ~ . d) Teorema 6.2.2d. b) Teorema 6 . 2 . 3 ~ . f) Teorema 6.2.36. g) Teorema 6 . 2 . 3 ~ . h) Teorema 6.2.3d.

En el ejemplo 7 se demostró que los vectores

forman una base ortonormal para C3. Usando el teorema 6.3.1, expresar u = ( 1 - i , 1 + i, 1) como una combinación lineal de estos vectores.

Demostrar que si u y v son vectores en un espacio con producto interior complejo, en- tonces

Demostrar: Si {v v , vn} es una base ortonormal para un espacio V con producto interior complejo y SI u y v son vectores cualesquiera en V, entonces 1’ 2 ” ”

[Sugerencia. Aplicando el teorema 6.3.1, expresar u y w como combinaciones lineales de los vectores básicos.]

(Para quienes ya estudiaron Crflculo). Demostrar que si f =A(.) + If,(.) y g = g , (x ) + ig2(x) son vectores en el complejo C[a, b ] , entonces la fórmula

define un producto interior complejo sobre C[a, b]

(Para quienes ya estudiaron Ccflculo). a) Sean f =&(x) + if,(.) y g = g l ( x ) + igz(x) vectores en C[O, 1 J, que tiene el producto

interior

646 / Espacios vectoriales complejos

-

Demostrar que los vectores

e2 m’mx , m = o, * 1, +2,

forman un conjunto ortogonal. b) Obtener un conjunto ortonormal normalizando los vectores del inciso a).

Page 642: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1 O. 6 Matrices unitarias, normales y hermitianas / 647

10.6 MATRICES UNITARIAS, NORMALES Y HERMITIANAS

Para matrices con elementos reales, las matrices ortogonales (Ap1 = A T ) y las matrices simétricas (A = AT) desempeñaron un papel importante en el problema de diagonalización ortogonal (sección 7.3). Para matrices con elementos com- plejos, las matrices ortogonales y simétricas son relativamente poco importantes; son reemplazadas por dos nuevas clases de matrices, la matrices unitarias y her- mitianas. que se analizarán en esta sección.

MATRICES UNITARIAS

Si A es una matriz con elementos complejos, entonces la transpueda conjugada de A , que se denota por A*, se define como

donde es la matriz cuyos elementos son los conjugados complejos de los ele- mentos correspondientes en A y AT es la transpuesta de 2 .

Ejemplo 1 Si

entonces

de modo que

Las propiedades básicas de la operación conjugada transpuesta son seme- jantes a las de la transpuesta:

Teorema 10.6.1. Si A y B son matrices con elementos complejos y k es cual- quier número complejo, entonces: a) (A*)* = A b) ( A +B)* = A * +B* c) ( M ) * = kA* d ) (AB)* = B*A*

Las demostraciones se dejan como ejercicios. Recuérdese que una matriz con elementos reales se denomina ortogonal

si A" =AT. Los análogos complejos de las matrices ortogonales se llaman matri- ces unitarias, y se definen como sigue:

Page 643: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

648 / Espacios vectoriales complejos

Definición. Una matriz cuadrada A con elementos complejos se denomina unitaria si

~~

I

El siguiente teorema es similar al teorema 6.5.1.

Teorema 10.6.2. Si A es una matriz n X n con elementos complejos, entonces las siguientes proposiciones son equivalentes.

a ) A es unitaria. b ) Los vectores renglón de A forman un conjunto ortonormal en c" con el

c ) Los vectores columna de A forman un conjunto ortonormal en c" con el producto interior euclidiano.

producto interior euclidiano.

Ejemplo 2 Los vectores renglón de la matriz

A = r l + i l + i 2 2

1 - i - l + i 2 2

~-

"

son

l + i l + i 1 - i - l + ' r1 = I). r2 = (?. -+)

Con respecto al producto interior euclihano sobre Cn, se tiene

Y

-"" i i 2 2

- - 0

Page 644: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1 O. 6 Matrices unitarias, normales y hermitianas / 649

de modo que los vectores renglón forman un conjunto ortonormal en c. Así. A es unitaria y

El lector debe comprobar que la matriz (2) es la inversa de la matriz (1) probando q u e m * = A*A =I. A

DIAGONALIZA- Recuérdese que una matriz cuadrada A con elementos reales se llama diagona- CIÓN UNITARIA lizable ortogonalmente si hay una matriz ortogonal P tal que P"AP (= P'AP) sea

diagonal. Para matrices complejas se tiene un concepto análogo.

Definición. Una matriz cuadrada A con elementos complejos se denomina dia- gonalizable unitariamente si existe una matriz unitaria P tal que P"AP (= P*AP) es diagonal; se dice que la matriz P diagonaliza unitariamente a A .

Hay dos preguntas a considerar:

¿Qué matrices son diagonalizables unitariamente? ¿Cómo determinar una matriz unitaria P a fin de efectuar la diagonalka- ción?

Antes de responder estas preguntas se observa que las definiciones ya pro- porcionadas de los conceptos eigenvector, eigenvalor, eigenespacio, ecuación caracterí3ica y polinomio característico se cumplen sin cambio en espacios vec- toriales complejos.

MATRICES En la sección 7.3 se vio que las matrices desempeñaban un papel fundamental en HERMITIANAS el problema de diagonalizar ortogonalmente una matriz con elementos reales. Los

análogos complejos más naturales de las matrices simétricas reales son las ma- trices hermitianas*, que se definen como sigue:

Definición. Una matriz cuadrada A con elementos complejos se denomina hermifiana si

A = A *

*Charles Hermite (1822-1901) matemático francés que realizó contribuciones fundamentales al álgebra, a la teoría de matrices y a varias ramas del análisis. Es conocido por usar integrales para reso1ver:una ecuación polinómica general de quinto grado. También demostró que el número e (la base de los logaritmos naturales) no es raíz de ninguna ecuación polinómica con coeficientes racionales.

Page 645: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

650 .I Espacios vectoriales complejos

Ejemplo 3 Si

i l + i A = [ L i - 5 z;i]

1 - i 2 + i

entonces

1 - i 1 - i I = [ i - 5 2 + i

l + i 2 - i 3

de modo que

lo cual significa que A es hermitiana. A

Es fácil reconocer las matrices hermitianas por inspección: los elementos de la diagonal principal son números reales (ejercicio 17), y la "imagen especular" de cada elemento de la diagonal principal es su conjugado complejo (figura 1).

MATRICES Las matrices hermitianas poseen muchas propiedades, aunque no todas, de las NORMALES matrices simétricas reales. Por ejemplo, así como las matrices simétricas reales

son diagonalizables ortogonalmente, se verá que las matrices hermitianas son dia- gonalizables unitariamente. Sin embargo, a pesar de que las matrices simétricas reales son las únicas matrices con elementos reales que se pueden diagonalizar ortogonalmente (teorema 7.3.1), las matrices hermitianas no constituyen toda la clase de matrices diagonalizables unitariamente; es decir, existen matrices &ago- nalizables unitariamente que no son hermitianas. Para explicar por qué es así se necesita la siguiente definición:

Definición. Una matriz cuadrada A con elementos complejos se denomina normal si

AA* = A*A

Page 646: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1 O. 6 Matrices unitarias, normales y hermitianas / 651

Ejemplo 4 Toda matriz hermitiana A es normal, ya que AA* = AA = A*A, y toda matriz unitaria A es normal, ya que AA * = I = A *A. A

Los dos teoremas siguentes son los análogos complejos de los teoremas 7.3.1 y 7.3.2. Se omiten las demostraciones.

Teorema 10.6.3. Si A es una matriz cuadrada con elementos complejos, entonces las siguientes proposiciones son equivalentes:

a) A es diagonalizable unitariamente. 6 ) A contiene un conjunto ortonormal de n eigenvectores.

~~

10.6.4. Si A es una matriz normal, entonces los eigenvectores de eigenespacios diferentes de A son ortogonales.

El teorema 10.6.3 establece que una matriz cuadrada A con elementos complejos es dagonalizable unitariamente si y sólo si es normal. El teorema 10.6.4 será crucial para obtener una matriz que diagonalice unitariamente una matriz normal.

PROCEDE En la sección 7.3 se vio que una matriz simétrica A es diagonalizada ortogonal- MIENTO DE mente por cualquier matriz ortogonal cuyos vectores columna sean eigenvectores DIAGONALI- de A . De manera semejante, una matriz normal A es diagonalizada por cualquier ZACIÓN matriz unitaria cuyos vectores columna sean eigenvectores de A . El procedimiento

para diagonalizar una matriz normal es como sigue:

Paso 1. Encontrar una base para cada eigenespacio de A. Paso 2. Aplicar el proceso de Gram-Schmidt a cada una de estas bases a fin

de obtener una base ortonormal para cada eigenespacio. Paso 3. Formar la matriz P cuyas columnas son los vectores básicos obteni-

dos en el paso 2. Esta matriz diagonaliza unitariamente aA.

La justificación de ese procedimiento debe ser evidente. El teorema 10.6.4 asegura que eigenvectores de eigenespacios diferentes son ortogonales, y la aplica- ción del proceso de Gram-Schnudt asegura que los eigenvectores del mismo eigen- espacio son ortonormales. Así, todo el conjunto de eigenvectores obtenido con este procedimiento es ortonormal. El teorema 10.6.3 asegura que este conjunto orto- n o d de eigenvectores es una base.

Ejemplo 5 La matriz

Page 647: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

652 / Espacios vectoriales complejos

es diagonalizable unitariamente porque es hermitiana y, por tanto, es normal. En- contrar una matriz P que diagonalice unitariamente a A .

Solución. El polinomio característico de A es

det(AZ-A) = det a - 2 - I - i - l + i 1 - 3 1 = ( a - 2 ) ( a - 3 ) - 2 = a 2 - 5 a + 4

de modo que la ecuación característica es

y los eigenvalores son 1 = 1 y 1 = 4. Por definición,

es un eigenvector de A correspondiente a 1 si y sólo si x es una solución no trivial de

[ a - 2 -'il[;;]=[;] - l + i A - 3

Para encontrar eigenvectores correspondientes a 1 = 1, este valor se sustituye en (3):

[ - I + i - l -l-i][;:]=[;] - 2

Resolviendo este sistema por eliminación de Gauss-Jordan se obtiene (comprobar)

x, =(-1 " Q S , x 2 = s

Así, los eigenvectores de A correspondientes a ;1 = 1 son los vectores diferentes de cero en 62 de la forma

x = [ (- 1 - i)s ]+ll-i]

Page 648: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

10.6 Matrices unitarias, normales y hermitianas / 653

Por tanto, este eigenespacio es unidimensional con base

u= [ - ' l - i ]

En este caso el proceso de Gram-Schmidt es de un solo paso; la normalización de este vector. Como

el vector

es una base ortonormal del eigenespacio correspondiente a il = l . Para encontrar los eigenvectores correspondientes a il = 4, este valor se sustituye en (3):

[ - l + i - " i ] [ ; ; ] 1 = [o] Resolviendo este sistema por eliminación de Gauss-Jordan se obtiene (comprobar)

x, = x* = S

de modo que los eigenvectores de A correspondientes a il = 4 son los vectores diferentes de cero en C? de la forma

X = [(?)S] S = S

Así, el eigenespacio es unidimensional con base

Page 649: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

654 1 Espacios vectoriales complejos

EIGENVALORES DE MATRICES HERMITIANAS Y SIMÉTRICAS

Aplicando el proceso de Gram-Schmidt (es decir, normalizando este vector) se obtiene

Por tanto,

r- - - 1 - i l + i

diagonaliza a A y

P ” A P = [A y ] A

En el teorema 7.3.2 se estableció que los eigenvalores de una matriz simétrica con elementos reales son números reales. Este importante resultado es un corolario del siguiente teorema más general.

Teorema 10.6.5. Los eigenvalores de una matriz hermitiana son números reales.

~~

Demostración. Si A es un eigenvalor y v es un eigenvector correspondiente de una matriz hermitiana A n X n, entonces

Av = Av

Multiplicando por la izquierda cada miembro de esta ecuación por el conjugado transpuesto de v se obtiene

Se demostrará que ambas matrices v*Av y v*v 1 x 1 tienen elementos reales, de modo que por (5) se concluirá que debe ser un número real.

Tanto v*Av como v*v son hermitianas, ya que

(v*Av)* = v*A*(v*)* = V*AV

Page 650: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

I O. 6 Matrices unitarias, normales y hermitianas / 655

Y

(v*v)* = v*(v*)* = v*v

Como las matrices hermitianas tienen elementos reales sobre la diagonal principal y como v * ~ v y v v son 1 x 1, se concluye que estas matrices tienen elementos reales, con lo cual se completa la demostración. 0

*

Teorema 10.6.6. Los eigenvalores de una matriz simétrica con elementos reales son números reales.

Demostración. Sea A una matriz simétrica con elementos reales. Debido a que los elementos de A son reales, se concluye que

A = A

Pero esto indica que A es hermitiana, ya que

Así, por el teorema 10.6.5, A tiene eigenvalores reales. 0

EJERCICIOS DE LA SECCIóN 10.6

1. En cada inciso, encontrar A*.

c) A = [7i O -3i] d) A = '22 '23

2. ¿Cuáles de las matrices siguientes son hermitianas?

3. Encontrar k, I y m de modo que A sea una matriz hennitiana

Page 651: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

656 / Espacios vectoriales complejos

4. Aplicando el teorema 10.6.2. rias.

, determinar cuáles de las siguientes matrices son unita-

r

-1 v5 1

c) ["i 1 - 1 - + i] d) I + i

L

5. En cada inciso, comprobar que la matriz es unitaria y encontrar su inversa.

"

i

v5 0 -

i __ v5

I - v%

i

i 1 d ) 3 - v5

3 f i 4 + 3 i

6. Demostrar que la matriz

es unitaria para todo valor real de 8.

En los ejercicios del 7 al 12, encontrar una matriz unitaria P que diagonalice a A y deter- minar P"AP.

A = [ l ' ; ';;I , . A = [ ; -;] , . A = [ 2 - 2 i 6 2 + 2 i 4 1 [ 3 ( 1 1 3 : ~ 11. A = [ O - 1 - l + i 12. A = -- v5 Z 2 0

r

i i -

2 - --

5 0

O 1

v 5 v 5

O - I - i O i

v5 - 0 2 - -

13. Demostrar que los eigenvalores de la matriz simétrica

no son reales. ¿Este hecho viola el teorema 10.6.6?

14. Encontrar una matnz 2 X 2 que sea hennitiana y unitaria y cuyos elementos no sean todos números reales.

Page 652: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Ejercicios complementarios / 657

15. Demostrar: Si A es una matriz n X n con elementos complejos, entonces l b ' . , ' ! =

det(A). [Sugerencia Primero demostrar que los productos cl ": ' . : : :: ;igno son los conjugados de los productos elementales de A con s ign J

"

__

16. a) Aplicando el resultado del ejercicio 15, demostrar que si A es una matriz n X n con

elementos complejos, entonces det(A*) = det(A).

b) Demostrar: Si A es hermitiana, entonces det(A) es real. c) Demostrar: Si A es unitaria, entonces Idet(A)I = l .

17. Demostrar que los elementos sobre la diagonal principal de una matriz hermitiana son números reales.

18. Sean

matnces con elementos complejos. Demostrar que a) (A*)* = A b) (A + B)* = A * + B* c) (kA)* = kA* d) (AB)* = B*A*

19. Demostrar: Si A es invertible, entonces también A* lo es, en cuyo caso (A*)" = (A")*.

20. Demostrar que si A es una matriz unitaria, entonces también A* es unitaria

21. Demostrar que una matriz n x n con elementos complejos es unitaria si y sólo si sus renglones forman un conjunto ortonormal en C" con el producto interior euclidiano.

22. Usando los ejercicios 20 y 21, demostrar que una matriz n X n es unitaria si y sólo si sus columnas forman un conjunto ortonormal en C" con el producto interior euclidiano.

23. Dzmostrar: Si A = A*, entonces para todo vector x en C", el elemento en la matriz x Ax de 1 X 1 es real.

24. Sean 1 y p eigenvalores distintos de una matriz hermitiana A. a) Demostrar que si x es un eigenvector correspondiente a 1 y y 'es un eigenvector

b) Demostrar el teorema 10.6.4. [Sugerencia Restar las ecuaciones en el inciso a).] correspondiente a p , entonces x*Ay = 1x y y x Ay = px*y. * *

EJERCICIOS COMPLEMENTARIOS

1. Sean u = (uI, u2, . . . , u,) y v = (u l , u2, . . . , u,) vectores en C", y sean - u = (üI, i d 2 , . . . , u,) y v = (U1, ü*, . . . , u,). - -

a) Demostrar: u.V = Ü.V. b) Demostrar: u y v son ortogonales si y sólo si ii y 7 son ortogonales.

Page 653: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

658 / Espacios vectoriales complejos

2. Demostrar que si la matriz

es diferente de cero, entonces es invertible.

3. Encontrar una base para el espacio solución del sistema

4. Demostrar: Si a y b son números complejos tales que + lb12 = 1 y si O es un número real, entonces

es una matriz un~taria

S. Encontrar los eigenvalores de la matriz

donde =

6. a) Demostrar que si z es un número complqo diferente de 1, entonces

Sugerencia Sea S la suma del miembro izquierdo de la ecuación y considérese la cantidad S - zS.

b) Usando el resultado del inciso a), demostrar que si z" = 1 y z # 1 , entonces 1 + z + =2 + . . . + z"-l = 0

c) Usando el resultado del inciso a), obtener la identidad trigonométrica de Lagrange

1 + c o s O + c o s 2 o + ~ ~ ~ + c o s n O " + 1 sen[ (n + + ) O ] 2 2sen(O/2)

para O < O < 277. [Sugerencia Sea z = cos O + i sen O.]

7. Seaw=e2n1'3.Demostrarquelosvectoresvl = ( l / f i ) ( l , 1, 1 ) , v 2 = ( 1 / f i ) ( 1 , w , w

2 ) y v3 = ( I / f i ) (1, w2, w4) forman un conjunto ortonormal en ~ 3 . [Sugerencia u s a r el inciso b) del ejercicio 6.1

Page 654: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Ejercicios con~picmentnrios // 659

8. Demostrar que si U es una matriz unitaria n X n y lz,l= 1z2/ = . . . = I z,I = 1, entonces el producto

también es unitario.

9. Supóngase que A* = -A. a) Demostrar que id es hermitiana. b) Demostrar que A es diagonalizable unitariamente y que tiene eigenvalores imagina-

rios puros.

10. a) Demostrar que el conjunto de números complejos con las operaciones

(a + bi) + (c + di) = (a + c) + (b + d ) i y k(a + bi) = ka + kbi

donde k es un número real, es un espacio vectorial real b) ¿Cuál es la dimensión de este espacio?

Page 655: Inroduccion Algebra lineal Howard Anton 5ta. Edicion
Page 656: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

RESPUESTAS A LOS EJERCICIOS

EJERCICIOS DE LA SECCIóN 1.1 (Página 27)

1. a), c), f ) 2 . 4, b), c)

3. a) x = $ + j t b) x I = {S - 4t + f x I =ir - 0s + i t - u = $q - $r + Qs - QI

y = t x2 = S x2 = r w = q xj = t X) = S x = r

x, = t y = s z = t

o 2

1 2 0 - 1 1

0 0 1 7 0 1 O 0 1 3 '1 c) [. 3 1 o - 1 i] d) [: y S. a) 2x, = O b) 3x, - 2X) = 5 c) 7x1 + 2x2 + X) - 3x4 = 5

3x, - 4x2 = o 7x, + x, + 4x, = - 3 x1 + 2x2 + 4x, = I

d) XI = 7

x3 = 3 x, = 4

x2 = 1 - 2x2 + x3 = 7

x2 = -2

6. a) x - 2y = 5 b) Sea x = r, entonces t -y = 5. Al despejar y se obtieney = it - 5.

8. k = 6: infinidad de soluciones k # 6: no hay soluciones Ningún valor de k produce una solución.

c) Las tres rectas coinciden. 9. a) Las rectas no tienen punto de intersección común. b) Las rectas se intersecan exactamente en un punto

661

Page 657: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

1. a) iildeíXd,J b) 4 X 2 e ) hdefmda d) Indefinida 2. a = 5, b = - 3, c = 4, d = 1 c ) 5 x 5 P) 5 X 2 g ) Indefinida h) 5 X 2 ~] d) [ - 7 -28 -141

5 -21 -7 -35

Page 658: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Respuestas a los ejercicios / 663

e ) [-: :] f) [ y -A] g) [ -13 2 I:] h) [ 1 2 y ] 9 1 9 - 13

3 9 a a O 1 - 6 - 1 - 4 -6

45 e) [ 1: -11 l;] f) [ 21 17 35] 17 g) [ -: h) [:n -2: I:]

6

17 13 24 16

i) 61 (j) 35 (k) 28

7 . a) [67 41 411 b) [63 67 571 c) F:] d) [ :] e) [24 56 971 f ) 67 63

Page 659: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

663 1 Respuestas a los ejercicios

IO. a) [67 41 411 = 3[6 -2 41 - 2 [O 1 31 + 7[7 7 51 [64 21 591 = 6[6 -2 41 + 5 [O 1 31 + 4[7 7 51 [63 67 571 = 0[6 -2 41 + 4[0 1 31 + 9[7 7 51

b) [6 -6 701 = 6[3 -2 71 - 2[6 5 41 +4[0 4 91 [6 17 311 =0[3 - 2 71 + 1[6 5 41 + 3[0 4 91 [63 41 1221 = 7[3 - 2 71 + 7[6 5 41 + 5[0 4 91

r

4 0 13. . ) A = [ ! -3 --: i],x=[:],b=[-a] b ) A = l 5 1

2 -5 o 3

. .

I S.

14. a) 3x, - xz + 2x3 = 2 b) 3w - 2~ + z = O 4x, + 3x, + 7x3 = - 1 5w + 2 y - 2 z = O

-2x, + x, + 5xs = 4 3 w + x + 4 y + 7 z = O - - 2 w + 5 ~ + y + 6 ~ = 0

3 1 O - 8 9 -1 1 1

16. a) [--; -15 -111 b) -15 44 o 5 25 35

2 3 23 24

17. a) A , , esunamatrizde2 X 3 y B , , esunamatriz 2 X 2. A , , B , , noexiste

21. a)

a , , o o o o o O a , , O o o o

0 a 5 5

o o ‘66

Page 660: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Respuestas a los ejercicios / 665

a , , o o o a21 '22 0 0

a31 a32 a33 o '41 '42 '43 '44

a51 a52 a53 a54

'61 '62 a63 a64

22. a) [ '1 b)

2 3 4 5

4 5 6 7 5 6 7 8

'1 1 1 1- 1 2 4 8 1 3 9 2 7

. I 4 16 64-

a , , al2 o o o o '21 a22 '23 o o o o u32 a33 '34 o o 0 0 a 4 3 a 4 4 a 4 5 0

o o o o a65 a66 o o o a54 '56

- 1 - 1 1 1

O 18. OA y A0 no pueden tener el mismo tamaño. 19. [ ' r 1 :]

o k l

20. a) Un ejemplo es

o - 1 b) Un ejemplo es [;

I:].

Page 661: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

666 / Respuestas a los ejerciclos

EJERCICIOS DE LA SECCIóN 1.5 (Página 83)

1. c), 4 , f , 2. a) Sumar tres veces el primer renglón al segundo renglón b) Multiplicar por 3 el tercer renglón. c) Intercambiar el primer renglón y el cuarto renglón. d) Sumar + veces el tercer renglón al primer renglón.

3 . a ) [" O o 1 O '1 b) [: O 1 1 O :] c) [ y "1 d) [A y 1 0 0 - 2 o I 2 0 1

4. No, porque C no se puede obtener efectuando una sola operación en los renglones de B

5. a) [ -: -:] b) [-: z] c) Noes invertible 5 2

- 1 1 1 "

b) No es invertible c) [ -i 8 81 - - " 2 2 2

0 -

I-

1 - 0 0 0

- kl

o - o o I

8. a) k2

1 o o - o , k3

0 0 0 - 1

k4 -

L -1 P

1 0 0 0 -

k'l

0 0 - 0 1

b) k3

1 o - o o

- 0 0 0 1

k2

kl -

O

O

1 k -

O

O

O

1 k -

Page 662: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

“lu

Respuestas a los ejercicios 1 667

16. b) Sumar - 1 veces el primer renglón al segundo renglón. Sumar - 1 veces el primer renglón al tercer renglón. Sumar - 1 veces el segundo renglón al primer renglón. Sumar el segundo renglón al tercer renglón.

EJERCICIOS DE LA SECCIóN 1.6 (Página 92)

16. b , = 2b2 17. b , = b2 + b3 18. No hay restricciones 19. 6 , = b3 + b,, b2 = 26, + 6,

1 1 12 7 3 27 -6 - 8 1 -18 22. a) sólo la solución trivial x 1 = x, = x3 = x4 = O; invertible

- 1 5 -21 9 -38 -35 b) Intinidad de soluciones; no es invertible

EJERCICIOS DE LA SECCIóN 1.7 (Página 100)

- 1 o o 1. a) [’ 0 -1 y ] b)No es invertible c) [ F] 2. a) [“ 4 -:I b ) [ -2; I:: I:]

4 10 60 20 -16 ’ \

b) A z = r l o i, O], o A ” - r 9” :], A - . = [ : 3k O 0 *O]

o o & O O 16 o o 4 k

4. b), c) 5. a) 6. u = 11,b= - 9 , c = -13 7. ~ = 2 , b = - 1

8. a) No conmuta b) Conmuta 10. a) [i - ; b) [O i 61 O $ 0 - 0

- O 0 1

7

/’ + “__ . -

Page 663: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

668 / Respuestas a los ejercicios

3 0 0 11. a) [:!: 1:: 1::][0 5 O] b) No I Y . - ( I + n ) n 2

a32 a33 O O 7

20. a) Es simétrica b) No es simétnca c) Es simétrica d) No es simétrica

24. a) x,=$,x ,= ¡ , x ,= -* b) x ,= -+ ,X ,= - $ , X , = -3

EJERCICIOS COMPLEMENTARIOS DEL CAPíTULO 1 (Página 102)

I . x '= i x++y ,y '= -+x+$ 2. x ' = x c o s ~ + y s e n ~ , y ' = - x s e n ~ - ~ . i v c o s ~

3. Una respuesta posible es 4. 3 monedas de 1 centavo, 4 de 5 centavos y 6 de I O centavos x, - 2x, - x3 - x, = o x, + 5x2 + 2x, = o

S. x = 4, y = 2, z = 3 6. Infmidad si a = 2 o a = --% ninguna en caso contrario

7. a) a f O , b # 2 b ) a # O , b = 2 8. x = $ , y = 9 , 2 = + Y. IC=[: :] C) a = O , b = 2 d ) a = O , b # 2

10. a = 2 , b = - I , c = 1 11. a) X = 6 0 1

b) X= -37 -3i

12. a) Z = -::]X b) z1 = - X , - 7x2+ Ilx, [ y : z2 = 1 4 ~ , + lox2 - 26x3

EJERCICIOS DE LA SECCIóN 2.1 (Página 114)

I . a) 5 b) Y c) 6 d) 10 e) O f) 2

2. a) Impar b) Impar c) Par d) Par e) Par f ) Par

3. 22 4. O S. S2 6. - 3 f i 7. a Z - 5 a + 2 1 8. O 9. -65 10. - 4 11. -123

12. -c4+c3-16c2+8c-2 13. a) a=1,a= -3 b) a= - 2 , ~ = 3 , a = 4

3 t m 16. 275 17. a) = - 120 b) = -120 18. x="--

4

EJERCICIOS DE LA SECCIÓN 2.2 (Pagina 120)

I . a) -30 b) -2 c ) O d) O 3. a ) -S b) - 1 c) 1 4. 30 5. 5 6. -17

7 . 33 8. 39 Y. 6 10. -Q I t . -2 12. a) -6 b) 72 c) -6 d) 18

Page 664: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Respuestas a los ejercicios / 669

EJERCICIOS DE LA SECCIóN 2.3 (Página 129j

1. a) det(2A)= -40=2'det(A) b) det(-2A)= -208=(-2),det(A)

2. det A B = - 170 = (det A)(det B) 4. a) Invertible b) No es invertible c) No es invertible d) No es invertible

S. a) - 189 b) - f c) -3 d) - & e) 7 6. Si x = O, los renglones primero y tercero son proporcionales. Si x = 2, los renglones primero y segundo son proporcionales

5 2 m 12. a ) k = -

2 b) k = - 1 14. a) ["" -2 a-1 -2][::]=[:]

c) ["3 at-3 - I I["'] x, = 1 3

EJERCICIOS DE LA SECCIóN 2.4 (Página 142)

Page 665: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

"

670 Respuestas a los ejercicios

EJERCICIOS COMPLEMENTARIOS DEL CAPíTULO 2 (Página 145)

13. a) Deben intercambiar las columnas i-ésima yj-ésima. h) La i-ésima columna se debe dividir entre c. c) I,a~-ksima columna se debe sumar "c veces a la i-ésima colu~nna

1 % a) k3 + ( -a l l - a22 - a33)12 + (al la2, + u11a33 + u22a33 - a 1 2 ~ 2 1 - a 1 3 ~ 3 1 - u ~ ~ u ~ ~ ) ~ + (alla23a32 + 412u21u33 + a13a22u31 - u11a22a33 - a12u23u31 - u13'21432)

18. a) A = - 5 , 1 = 2 , 1 = 4 ; I-:], [y], [I":] b) A = I ; [ -!] EJERCICIOS DE LA SECCIóN 3.1 (Página 157)

3 . a) PIP2 = ( - I , - 1) + P

b) P 1 P 2 = ( - 7 , -2) c) p,p; = (2, 1) d) p,p; = (a, b)

e ) s = ( - 5 , 12, -6) f) PIP2=(lr -1, -2) g) P,P, =(-a, -b , -c) h) = (a, b, c) - +

4. a) Q(5, IO, - 8) es una respuesta posible. 5 . a) P( - 1, 2, - 4) es una respuesta posible. b) Q( - 7 , - 4, - 2) es una respuesta posible. b) P(7, -2, -6) es una respuesta posible.

6. a) ( - 2 , 1, -4) b) ( - 10, 6 4 ) c) ( - 7 , 1, 10) 7 . x = (-9, t, 9) d) (80, -20, - 80) e ) (132, -24, - 72) f) ( -77 , 8, 94)

8. c , = 2 , c 2 = - l , c , = 2 I O . c, = c, = c 3 = o 1 1 . a) (3, -i, -f) 12. a) x' = 5,y' = 8 b) (23 -9 L)

4 , 4 , 4 b ) x = - l , y = 3

2 ' 2

EJERCICIOS DE LA SECCIóN 3.2 (Página 162)

1. a) 5 b) fl c) 5 d) 2~ e) 3V% f ) 6 2. a) fl b) 2- c) d) 3 f l

3. a) V% b) fi+a c ) 4 f i d ) a e) (- - --) m 3 6 4 f) 1

4 1. k = *x 8. Una esfera de radio 1 con centro en (xo, y,, z0)

Page 666: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Respuestas a los ejercicios / 671

EJERCICIOS DE LA SECCIóN 3.3 (Página 173)

4 v 5 6. a) b b) - c) - d) x 9. a) 102 b) 1252/5 c) 170 d) 170

18 43 5 m

m 3 m 11. COS e, = -, cos e, = -

10 10 , COS '3, = O 12. El ángulo recto está en B.

EJERCICIOS DE LA SECCIóN 3.4 (Página 187)

1. a) (32, -6, -4) b) ( - 14, -20, - 82) C) (27, 40, -42) d) (O, 176, -264) e) (-44, 55, -22) f) (-8, -3, -8)

2. a) (18, 36, - 18) b) (-3, 9, -3) 3. a) fi b) c) O 4. a) - b ) m 2

8. a) -10 b) -110 9. a) -3 b) 3 c) 3 d) -3 e) -3 f ) 0 10, a) 16 b) 45

I I . a) No b) Sí c) No 12.

13. (-, 6 -- 3 4 -), (--,- 6 3 -- 1 2 m

17. a) - b) 3 19. a) -

m m'a m 15* 2(vxu) 16* - 49

a a 2 m m 2 b) 3 21. a) m b) 0 - 40'19

23. a ) m = ( O , l , O ) y n = ( 1 , 0 , 0 ) b)( - l ,O,O) c) (O,O,- I ) 28 . ( -8 ,0 , -8 ) 31. a ) j b ) &

EJERCICIOS DE LA SECCIóN 3.5 (Página 198)

1. a) -2(x + 1) + (y - 3) - (z + 2) = O 2. a) - 2 x + y - z - 7 = 0 b) (x - 1) + 9(y - 1) + 8(2 - 4) = O b ) ~ + 9 ~ + & - 4 2 = 0

d ) x + 2 y + 3 z = O d ) x + 2 y + 3 y = O

c) 2z = o c) 2z = o

3. a) (O, O, 5) es un punto en el plano y n = (-3, 7, 2) es un vector normal de modo que -3(x - O) + 70, - O) + 2(z - 5) = O es una forma punto-normal; otros puntos y otras normales producen otras respuestas correctas.

Page 667: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

672 1 Respuestas a los ejercicios

4. a) 2y - z + 1 = o b) X + 9V - 5z - 26 = O S. a) No son paralelos b) Son paralelos

c) Son paralelos

h. a) Son paralelos b) No son paralelos 7. a) No son perpendiculares b) Son perpendiculares

X. a) Son perpendiculares b) No son perpendiculares 9. a) x = 3 + 2 t , y = - I + t , z = 2 + 3 t b ) x = - 2 + 6 t , y = 3 - 6 t , z = - 3 - 2 t c) x = 2 , v = 2 + t , z = 6 d ) x = t , y = - 2 t , z = 3 t

10. a ) x = 5 + t , y = - 2 + 2 t , z = 4 - 4 t 11. a) X = - 1 2 - 7 t , y = -41 - 2 3 t , z = t b ) ~ = 2 t , ~ ~ = - t , Z = -3 t b ) x = $ t , y = O , z = t

12. a) (-2, 4, 1) .(x + I , y - 2, z - 4) = O 13. a) Son paralelos b) No son paralelos b ) ( - l , 4 , 3 ) . ( X - 2 , ; , ~ + 5 ) = 0 c) ( -1 ,O,O).( .x-5,y+2,z- ])=O d) (a, h, C) * (x, Y , Z) = 0

14. a) Son perpendiculares

b) No son perpendiculares

15. a) (x,y, z) = ( - 1, 2, 3) + t(7, - 1, 5) (-m < t < +m)

c) (x,y,z)=(2, -4, l)+t(O,O, -2) (--co<t< +m) b ) ( x , y , z ) = ( 2 , 0 , - l ) + t ( l , 1, 1) ( - m < t < +m)

d) ( .x ,~v , Z ) = (O, O, O) + t ( ~ , b, C ) (-m < t < +m)

17. 2 ~ + 3 y - 5 ~ + 3 6 = 0 18. a) z = O b) y = O c) x=O

19. a) z - z o = O b) x-x,=O c) y - y , = O 20. 7 ~ + 4 y - 2 ~ = 0 21. 5 ~ - 2 ~ + ~ - 3 4 = 0

22. (-y, -9,y) 2 3 . y + 2 2 - 9 = 0 24. x - y - 4 ~ - 2 = 0 26. x = % t - 2 , y = - % t + 5 , z = t

27. x + ~ v + ~ z - 1 8 = 0 28. ( ~ - 2 ) + ( y + I ) - 3 ( ~ - 4 ) = O 29. 4 ~ + 1 3 ~ - ~ - 1 7 = 0

30. 3 ~ + 1 0 ~ + 4 ~ - 5 3 = 0 31. 3 ~ - ~ - ~ - 2 = 0 32. 5 ~ - 3 , ~ + 2 ~ - 5 = 0

3.3. 2 ~ + 4 v + 8 ~ + 1 3 = 0 36. ~ - 4 ~ + 4 ~ + 9 = 0 3 7 . 3) x = g + & t , . Y = - # - $ t , Z = f b) X = -$t, y = O, z = t

1 4 1 2 39. a) $ b) -qg c) 40. a) - b) O C) -

2 m 6 x - 3

2 42. a) - -

2 - 2 x + 2 y - 3 z + 3 - y + I =- b) -- -

3 6 6 2 -

43. a) X - & - 1 7 = 0 y x + 4 z - 2 7 = 0 esunarespuestaposible b) x - 2y = O y - 7.v + 2z = O es una respuesta posible.

44. a) 0 - 35" b) 0 - 79" 45. 0 - 75"

EJERCICIOS DE LA SECCIóN 4.1 (Página 215)

I . a) ( - 1 , 9, - 11, 1) b) (22, 53, - 19, 14) C) (-13, 13, -36, -2) d) (-90, -114,60, -36) e ) (-9, -5, -5, -3) f ) (27, 29, -27, 9)

2. ( g , d , $ , g ) 3 . ~ , = 1 , c , = I , c , = - I , c , = 1 5. a) b ) 3 c) 13 d ) f i

h. a) m b) m+ V% c) 4V'% d) m e) - - 1 2

di 3 v 5 3 V 5 ' 3 d i

Page 668: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Respuestas a los ejercicios 1 673

8. k = r$ 9. a) 7 b) 14 c ) 7 d) 11 10. a)

1 1 . a) b) 2- c) fi d) 10

14. a) Si b) No c ) Sí d) No e ) No f) Sí 15. a) k = -3 b) k = -2, k = -3

16. S$(-34 ,44 , -6 , l l ) 19. x , = ~ , x , = - l , x 3 = 2 20. -6

33. a) Medida euclidiana de la "caja" en R": a , a2 . . . a,

b) Longltud de la diagonal: \'a? + a: + ' ' ' + ai

EJERCICIOS DE LA SECCIóN 4.2 (Página 235)

1. a) Lineal; R3 + R2 b) No lineal; R2 -+ R3 c ) Lineal; R3 -+ R' d) No lineal; R4 + R2

1 0 0 0

2. a) [' 3 "3 5 o 0 - 1 '1 b) [: -1 111 c) [-: I:] d) [I y :] 1 1 1 1

3. [i -1 I : ] ;T( -1 ,2 ,4)=(3 , -2 , -3)

4. a) [: -:] b) [' O] c) [l 5 O] d) [" :] 1 2 1

o 1 O 0 1 O O - 8

S. a) [ -P 1 -

1

O] b, [ 7 2 - o 1

- 1 o 3 - 1 "1 O

d) [I O

O 1

O O 1 O

- 1

6. a) [ - :] b) [ c) [ 3x, + 5x2 + 7x3] d) [ 2x, + 4x2]

7. a) T( -1 ,4)=(5 ,4) (b) T(2,1, -3)=(0, -2,O)

8. a) (-1, -2) (b) (1,2) c ) (2, -1 ) 9. a) (2, -5, -3) b) (2, 5, 3) c) (-2, - 5 , 3)

-2x, + x2 + 4x, -x, + x2

6x1 x3 7x, + 8x2 -

IO. a) (2,O) (b) (O, - 5 ) 11. a) (-2, 1,O) b) ( -2 ,0 ,3) c) (O, 1, 3)

12. a) ~ ___ ( 3 f i 2 + 4 , 3 - y 3 - 4 v 3 - 3 f i - 4 ?v5 -v5

13. a) ( -2, - ",", ___ +tfi) b) (O, 1 , 2 v 5 ) c ) (-1, -2 ,2)

Page 669: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

674 Respuestas a los ejercicios

v 5 + 2 -1+2v5 15. a) -2,- ( 2 ' 2

b) ( - 2 l h , I , O) c ) (1, 2. 2)

EJERCICIOS DE LA SECCIóN 4.3 (Página 252)

1. a) No es uno a uno b) Es uno a uno c) Es uno a uno d) Es uno a uno e) Esuno auno f) Esunoauno g) Esunoauno

3. Por eJemplo, el vector (1, 3) no está en el dominio.

J. Por ejemplo, el vector ( I , 6,2) no está en el dominio

Page 670: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Respuestas a los ejercicios / 675

S. a) Es uno a uno; ; T - , (MI, , w2) = (+x, - $x,, +xl + $x2) b) No es uno a uno [! -!I 3 5

c) Es uno a uno, [ - o ] ; T P L ( w , , w,) = ( -X,, -xl) d) No es uno a uno o -1

1 - 2 4

6. a) Es uno auno, [I I:]; T"(w,, w2, w3) = (x, - 2x, + 4x3, -XI + 2x2 - 3x3, -X1 3% - 5x3)

d) No es uno a uno

7. a) Reflexión con respecto al eje x. b) Rotación por el ánguio - n/4. e) Contracción por un factor de f . d) Reflexión con respecto al plano yz e) Dilatación por un factor de 5.

8. a) Lineal b) No lineal c) Lineal d) Lineal

9. a) Lineal b) No lineal e) Lineal d) No lineal

10. a) Lineal b) No lineal 11. a) Lineal b) No lineal

12. a) Para una reflexión con respecto al ejey. T(e,) = [ y T(e,) = [ y ] . Portanto, T = [-: P] b) Para una reflexión con respecto al plano xz. T(e,) = [J O T(e2) = [-!) y v e 3 ) = 1 ] .

r1 0 01 Por tanto, T = I O - 1 O I.

Lo 0 11 C) Para una proyección ortogonal sobre el eje x. T(e,) = [A] y í-(e,)= [:l. Portanto, T = [b :]. d) Para una proyección ortogonal sobre el plano z. T(e,) =

e) Para una rotación en un ángulo positivo 0, T(el ) =

Por tanto, T = [ cost) -sen% sen% COS e 1. I

Page 671: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

676 i Respuestas a los ejercicios

f ) Para una dilatación por un factor k 2 1, T ( e , ) = O , T(e,) = k , T(e,) = O . Por tanto, T = O k O L:i 111 [I L: :: :I

1 0 0 b) T(e,) = [a], T(e,) = [!I, y T(e,) = [!l. Por tanto, T = [O O O]

O 0 0

16. a) Transformación lineal de R 2 + R 3 b) Transformación lineal de R3 + R 2

Ix . a) a = 1; [:I b) a= 1; [:I c) a = 1 ; [i] d) L = 3; todos los vectores en R2 son eigenvectores

ti). a) L = 1; [!] y [!] b ) L = I ; [i] y [!I a = - 1; [i] L = o;

Page 672: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Respuestas a los ejercicios /’ 677

EJERCICIOS DE LA SECCIóN 5.1 (Página 263)

1. No es un espacio vectorial. No se cumple el axioma 8.

2. No es un espacio vectorial. No se cumple el axioma 10.

3. No es un espacio vectorial. No se cumplen los axiomas 9 y 10.

4. El conjunto es un espacio vectorial bajo las operaciones dadas.

5. El conjunto es un espacio vectorial bajo las operaciones dadas.

6. No es un espacio vectorial. No se cumplen los axiomas 5 y 6.

7. El conjunto es un espacio vectorial bajo las operaciones dadas.

8. No es un espacio vectorial. No se cumplen los axiomas 7 y 8.

9. No es un espacio vectorial. No se cumplen los axiomas 1, 4, 5 y 6.

10. El conjunto es un espacio vectorial bajo las operaciones dadas.

11. El conjunto es un espacio vectorial bajo las operaciones dadas.

12. El conjunto es un espacio vectorial bajo las operaciones dadas.

13. El conjunto es un espacio vectorial bajo las operaciones dadas.

EJERCICIOS DE LA SECCIóN 5.2 (Página 274)

1. a), c) 2 b) 3. a), b), d) 4. b), 4 , e) 5. a), b)

6. a) Recta, x = - L t , y = - -t, z = t 3 2 2

b) Recta; x = 21, y = t , z = O C) El origen d) El origen e) Recta; x = -3t,y = -2t, z = t f) Plano; x -3y + z = O

7 . a), b), d)

Page 673: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

678 Respuestas a los ejercicios

X. a) ( -9 , -7 , -15)= - 2 u + v - 2 w 9. a) - 9 - 7x - 15x2 = -2p, + p2 - 2p3 b)(6, 1 1 , 6 ) = 4 ~ - 5 ~ + ~ b) 6 + 1 I X + 6x2 4p, - 5p2 + pi c) (O, o, O) = ou + ov + ow c) o = op, + op, + op, d) (7, 8, 9) = Ou - 2u + 3w d) 7 + 8~ + 9x2 = Op, - 2pZ + 3p3

11. a) Los vectores generan. b) Los vectores no generan. 12. a), c), e) 13. No c) Los vectores no generan. d) Los vectores generan.

EJERCICIOS DE LA SECCIóN 5.3 (Página 285)

1. a) u2 es un múltiplo escalar de u , . b) Por el teorema 5.1.3, los vectores son linealmente independientes c) p2 es un múltiplo escalar de p l . d) B es un múltiplo escalar de A .

2. d) 3. Ninguno 4. d)

S. a) No están en un plano. 6. a) No están en la misma recta. b) Están en un plano. b) No están en la misma recta.

c) Están en la misma recta.

7 . b) V , = $v, - +,, v2 = f ~ , + $v3, v, = -&, + gV2 8. a = -1 27 a = 1

17:Si y sólo si el vector es diferente de cero.

18. a) Son linealmente independientes porque vl, v2 y v3 no están en el mismo plano cuando se colocan con SUS

b) No son linealmente independientes porque v, , v2 y v3 están en el mismo plano cuando se colocan con SUS

puntos iniciales en el origen.

puntos iniciales en el origen.

EJERCICIOS DE LA SECCIóN 5.4 (Página 303)

1. a) Una base para R2 tiene dos vectores linealmente independientes. b) Una base para R3 tiene tres vectores linealmente independientes. c) Una base para P2 tiene tres vectores linealmente independientes. d) Una base para MZ2 tiene cuatro vectores linealmente independientes

2. a), b) 3. a), b) 4. c), d) 6. b) Dos vectores cualquiera v l , v2, v,

7 . a) ( w ) ~ = ( 3 , - 7 ) c) (w), = (a,

8. a) ( v ) ~ = (3 , -2, 1) b) ( v ) ~ = ( -2 , O, 1) 9. a) (pis = (4, - 3 , 1) b) (PIS = (0,2, - 1)

10. (A),= ( - 1, 1, - 1, 3 ) 11. Base: (1, O, 1); dimensión= 1

12. Base: ( -& -$, I , O), (O, - I , O, 1); dimensión = 2

Page 674: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Respuestas a los ejercicios / 679

13. Base: (4, 1, O, O), (-3, O, 1, O), (1, O, O, 1); dimensión= 3

14. Base: (3, I , O), ( - 1, O, 1); dimensión= 2 15. No es base, dimensión = O

16. Base: (4, -5, l);dimensión= 1 17. a) (g, 1, 0),(-5,0, 1) b) (1, l , O ) , ( O , O , 1) c) (2, - 1, 4) d) (1, 1, O), (O, 1, 1)

18. a) tndimensional 'b) bidimensional c) unidimensional 19. tndimensional

20. 4 { v l , v2, e l ) o { v l , v2, e 2 ) b) {vl, v2, e l l 0 { v I 1 v2, e21 0 { v I , v2, e31

21. { v l , v2, eZr e 3 ) o { v l , v2, e2 , e41 0. {v , , v2, e3, e4)

26. a) Una respuesta posible es { - 1 + x - 2x2, 3 + 3x + 6x2, 9) b) Una respuesta posible es { 1 + x, x2, - 2 + 2x2}. c ) Una respuesta posible es { 1 + x - 3x2}.

27. a) (O, f i ) b) (1, O) c) ( - 1, f i ) d) (a - b, f i b )

EJERCICIOS DE LA SECCIÓN 5.5 (Pagina 319)

1. r l = ( 2 , - 1 , O , l ) , r 2 = ( 3 , 5 , 7 , - 1 ) , r 3 = ( 1 , 4 , 2 , 7 ) ; c l = 3 , c 2 = 5 , c 3 = 7 , e 4 = [:I [ - I [I1 [-!I

3. a) [;:]=[:I-[-:] b) b no es el espacio columna de A

Page 675: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

680 / Respuestas a los ejercicios

O 1

b) rl = [l - 3 O O], r,=[O 1 O O] , c I = [;]M [ -;] c) rl = [ I 2 4 51, r z = [O 1 - 3 O], r3 = [O O 1 -31, r, = [O O O I],

d) rl = [l 2 - 1 51, r2 = [ O 1 4 31, r3 = [O O 1 -7] ,r4= [O O O I ] ,

[ -;Ilc4=[ -,1

Page 676: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Respuestas a los ejercicios / 681

EJERCICIOS DE LA SECCIóN 5.6 (Página 333)

1. Rango (A) = Rango (AT) = 2

2. a) Nulidad = 1, rango = 2; n = 3. b) Nulidad = 2, rango = 1; n = 3. c) Nulidad = 2, rango = 2; n = 4. d) Nulidad = 3, rango = 2; n = 5. e) Nulidad = 2, rango = 3; n = 5 .

3. a) 2; 1 b) 1; 2 c) 2; 2 d) 2; 3 e) 3; 2

4. a) 3; 3; O; O b) 2; 2; 1; 1 c) 1; 1 ;2 ;2 d) 2; 2; 7; 3 e) 2; 2; 3; 7 f, O; o; 4; 4 g) 2; 2; o; 4

5. a) Rango = 4, nulidad = O b) Rango = 3, nulidad = 2 c) Rango = 3, nulidad = 0 6. Rango = &(m, n), nulidad = n - mín(mj n )

7. a) Sí, O 8. a) Nulidad = O, número de parámetros = O b) No b) Nulidad = 1, número de parámetros = 1

d) Sí, 7 d) Nulidad = 7, número de parámetros = 7 e) No e) Nulidad = 7, número de parámetros = 7

c) si, 2 c) Nulidad = 2, número de parámetros = 2

f, sí, 4 f , Nulidad = 4, número de parámetros = 4 8) si, 0 g) Nulidad = O, número de parámetros = O

9. b , = r, b, = S, b, = 4s - 3r, b, = 2r - S, b, = 8s - 7r

12. a) Rango (A) = 1 si t = 1; rango ( A ) = 2 si t = -2; rango (A) = 3 si t = 1, -2 b) Rango (A) = 2 si t = 1,312; rango ( A ) = 3 si f f 1,312

Page 677: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

682 / Respuestas a los ejercicios

13. El rango es 2 si r = 2 y s = 1

EJERCICIOS COMPLEMENTARIOS DEL CAPíTULO 5 (Página 335)

1. a) Todo R3 2. Una recta que pasa por e1 origen: S = -2 b) Plano: 2~ - 3y + z = O Un plano que pasa por el origen: S = 1 c) Recta: x = 2t, y = t , z = O Sólo el origen: S f 1, -2 d) El origen: (O, O, O) Todo R3; ningún valor de S

3. a) 4 4 , 1, l)+b(O, -1,2) b) ( u + c ) ( ~ , - 1 , 2 ) + b ( 1 , 4 , 1) C) a ( 2 , 3 , 0 ) + b ( - l , 0 , 4 ) + ~ ( 4 , -1, 1)

S. a) v = ( - 1 + Y)V, + (3 - r)vz + rv3; cualquier r 6. A debe ser invertible 7. No

8. a) Rango = 2, nulidad = 1 9. a) Rango = 2, nulidad = 1 b) Rango = 2, nulidad = 2 b) Rango = 3, nulidad = 2 c ) Rango = 2, nulidad = n - 2 c) Rango = n + 1, nulidad = n

1 1 . ( l , x 2 , x 3 , x 4 , x 5 , x 6 , . . . , X") 12. a ) 2 b) 1 c ) 2 d ) 3 13.0,1,0 2

EJERCICIOS DE LA SECCIóN 6.1 (Página 350)

I . a)

3. a)

7. a)

9. a)

10. a)

13. a)

17. a)

18. a)

2 b) 11 c ) -13 d) - 8 e) O 2. a) -2 b) 62 c) -74 d) 8 e) O

3 b) 56 4. a) - 29 b) - 15 5 . b) 29 6. b) - 42

x2 y2 "+"=I 4 16

19. (u, v ) = c , v , + u2vz 22. No se cumple el axioma 4. 27. a) -E b) O 28. a) O b) 1

Page 678: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Respuestas a los ejercicios / 683

EJERCICIOS DE LA SECCIóN 6.2 (Página 363)

1. a) Sí b) No c ) Sí d) No e ) No f) Sí 2. No

1 3 3. a) -- b) -- m c) O 4. a) O b) O 6. a) -

19

v5 1 o v i b) 0

7. a) Ortogonales b) Ortogonales 8. a) k = - 3 b) k = -2, k = - 3 c) Ortogonales d) No son ortogonales

Y. -t#7(-34,44, -6, 1 1 ) 12.y= -$x 13. a) x = t , y = - 2 t , z = -3t b) 2 x - 5 y + 4 z = O

16. a) [ b) [E], [a] c) [I:], [! 1.

- 1 - 1

1 O O

33. (u, v) = tu,v, + Qu,v,

EJERCICIOS DE LA SECCIóN 6.3 (Página 380)

1. a), b), d) 2. b) 3 . b), d) 4. b), d) S. a) 6.

Page 679: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

684 /' Respuestas a los ejercicios

r l 1 1 r

24. a)

d)

1 - v5

v5 1 -

O

L

v5

1 S 1

f) Las columnas no son linealmente independientes -

1 v5 29. v I = -,v2 = a = -

30. a) 1 + x + 4x2 = g V 5 vi + &% v2 + v3 V5

b) 2 - 7x2 = -- 3 V , - g q g " , c) 4 + 3 x = 4 v 5 v , + v z v 2

31. v, = 1, vz = d ( 2 x - l), v3 = d5(6x2 - 6x + 1)

EJERCICIOS DE LA SECCIóN 6.4 (Página 393)

Page 680: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Respuestas a los ejercicios / 685

2. a) O; los vectores columna no son linealmente independientes. b) O; los vectores columna no son linealmente independientes.

4. a) (%,E,#) b) (-5, -4, -9) 5. a) (7,2, 9, 5) b) (-y, -j,V,F) 6. (O, - 1, 1, 1)

7. a) [: :] b) [: y ] 8. a) [A : "1 b) [: y :] O 0 1 O 0 1

9. a) vI = (1, O, - 5), v2 = (O, 1, 3)

55 43 "3% 44x0 + %Yo - &o 10

b) [ 3%] c) [ %O + %YO + b o ] 4 E 15 " -

36 35 - 35x0 + &Yo + %o - 4 2 8

-3i - &x0 - &Yo + #izo

21 21 21 &x0 - &Yo + &o IO. a) vI =(2, -1,4) b) [ -; - " $ -i] - C) [-&X, +&Yo-&zo]

15. P=AT(AAT)"A

EJERCICIOS DE LA SECCIóN 6.5 (Página 408)

Page 681: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

686 i Respuestas a los ejercicios

18. a) ( t f i , 3v5, 5) b) ( --$v5, $a, - 3)

19. a) (-&$u5,2, $--$a) (b) ( l - & b , 6 , -$-ifi) 20. a) ( - l , b & $ v 5 ) (b) (1, -ia,:fi)

21. a) A = [ O 1 O 1 , ) A = [ : cos0 se:0] 22.

23. u' + b2 = 26. a) Rotación b) Rotación

27. a) Rotación seguida de una reflexión b) Rotación

cos 0 O -sení3 O

sen0 O cos O O -sení3 cosí3

u 5 1 "

2 2 - O

v5f ia " - 4 4 2

Page 682: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Respuestas a los ejercicios / 687

12. b) Las diagonales de un paralelogramo son perpendiculares si y sólo si los lados del paralelogramo tienen la misma longitud.

2 1 16. a = O, b = --, c = -; no son ímicos G V 5

EJERCICIOS DE LA SECCIóN 7.1 (Página 423)

I . a) A 2 - 2 A - 3 = o b ) a 2 - 8 a + 1 6 = 0 c ) a2- 1 2 = 0

2. a) L = 3 , L = - 1 b ) a = 4 C) a = m , a = -VE d ) A 2 + 3 = 0 e) L2 = O f) a 2 - 2 a + 1 = o

d) No hay eigenvalores reales e) 1 = O f) = 1

3. a) Base para el eigenespacio correspondiente a A = 3: ; [ ;] [PI

[ t ] base para el eigenespacio correspondiente a A = - 1:

b) Base para el eigenespacio correspondiente a a = 4:

c) Base para el eigenespacio correspondiente a L = a: [+I; base para el eigenespacio correspondiente a 1 = - a: [-"I

d) No hay eigenespacios. e) Base para el eigenespacio correspondiente a A = O:

f) Base para el eigenespacio correspondiente a a = 1 :

4. a) a3 - 6L2 + 1 1 1 - 6 = o b ) a 3 - 2 a = o c) v + g a 2 + + + 8 = 0 d ) a 3 - a 2 - a - 2 = 0 e) a3 - 6a2 + 12L - 8 = o f) A3 - 2L2 - m + 36 = o

d ) a = 2 e) a = 2 f) a = - 4 , a = 3 5. a) a = 1 , a = 2 , ; 1 = 3 b) a = o , n = f l , a = -v5 C) a = -8

[:I [+(I5 +15fi) 1 [+(I5 - : f i ) ] b) A = O : base i ; I = f i : b a s e +(-1 + 2 f i ) ;I= - a : b a s e $(-1 - 2 ~ 5 )

Page 683: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

6118 i Respuestas a los ejercicios

c) il = - 8: base [It] d) .=?:base[ )] e) L=2:base [I!]

f ) A = -4: base [-!];A=': base[-;j

7 . a) (a - 1)2(n + 2)(il+ I ) = o b) (a - 4)2(i12 + 3) = o x. a) a = I , a = - 2 , a = - 1 b) i l = 4

3'

9. a) A. = I : base [i] y [:];A= -2;base[ -;];A= -l:base[ -:] b) A=."[' O O

13. a ) y = x y y = 2 x b) Nohayrectas c) y=O 14. a ) - 5 b) 7

c) a , = 3:

EJERCICIOS DE LA SECCIóN 7.2 (Página 435)

1. 1 , 2 o 3

2. a) 1 = 3,A = 5 b) Parda = 3, el rango de 31 - A es 1 y la nulidad es 2. Para1 = 5, el rango de 51 - A es 2 y la nulidad es 2. c) .4 es diagonalizable, ya que los eigenespacios producen un total de tres vectores básicos.

3. No es diagonizable 4. No es diagonizable

5. No es diagonizable 6. No es diagonizable

7. No es diagonizable

Page 684: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Respuestas a los ejercicios / 689

10. p = [ O 1 0 1 0 l ] ; P - ' A P = [ O O 0 0 1 O] l l . P = [ " i y A ] ; P - ' A . - [ . 3 0 0 3 o]

-1 o 1 O 0 2 1 0 0 O 0 2

12. No es diagonizable 13. F = 14. No es diagonizable

20. a) [A y :] b) 1 y :] c) [A 1: :] d) [E O 0 1 O 0 1 o -1 o -1 "1

21. A" = PD"P" =

EJERCICIOS DE LA SECCIóN 7.3 (Página 441)

1. a) A2 - 5A = O; A= O: unidimensional; A = 5: unidimensional b) A3 - 2 7 A - 54 = O; A = 6 : unidimensional ; A = - 3 : bidimensional c) A3 - 3A2 = O; A = 3 : unidimensional ; A = O: bidimensional d) A3 - 12A2 + 3 6 A - 3 2 = O; A = 2: bidimensional,; A = 8: unidimensional e) A4 - SA3 = O; A = O: tridimensional; A = 8: unidimensional f) A4 - SA3 + 22A2 - 24A+ 9 = O; A = 1: bidimensional;

A = 3 : bidimensional

[: i] 5 . P = [ -a y :]; P"AP= ['H - 3 :] ; P"AP= O

s o 2 O -50

Page 685: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

690 Respuestas a los ejercicios

I o - v5

\% 1 o -

o 0 1 0

25

EJERCICIOS COMPLEMENTARIOS DEL CAPíTULO 7 (Página 442)

1. b) La transformación rota u11 h g u l o 0 los vectores; por consiguiente, si O < 0 < x , entonces ningún vector diferente de cero es transformado en un vector en la misma dirección o en dirección opuesta.

l i 0 2. L=kconmultiplicidad 3. 3 . c) [O 2 1 1 Y. A * = [ ' : A 3 = [ 2 5 75 150 50].

0 0 3

375 750 1875 3750 - 3 - 8

A4 = [ 125 SO], = [ 625 ,:,o] -15 10 I O -24 15

EJERCICIOS DE LA SECCIóN 8.1 (Página 458)

Page 686: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Respuestas a los ejercicios / 691

15. T(x~, X,, X-,) = (-41x1 + 9x2 + 24x3, 14x1 - 3x2 - 8x3); T(7, 13, 7) = (-2, 3)

16. T(2vl - 3v, + 4 ~ 3 ) = ( - 10, - 7, 6)

17. a) Dominio: R2; espacio imagen: R2; (T2 0 Tl)(x, y) = (2x - 3y, 2x + 3y) b) Dominio: R2; espacio imagen: la recta y = gx; (T2 0 Tl)(x, y) = (4x - 12y, 3x - 9y) c) Dominio: R2; espacio imagen: R2; (T2 0 í“,)(x, y) = (2x + 3y, x - 2y) d) Dominio: R2; espacio imagen: the line x = O; (T, 0 Tl)(x, y) = (O, 2x)

18. a) Dominio: R2; espacio imagen: R2; (T-, 0 T2 0 T,)(x, y) = (3x - 2y, X)

b) Dominio: R2; espacio imagen: la recta y = $x; ( T3 0 T, 0 Tl)(x, y) = (4y, 6y)

19. a) U + d b) (T, 0 T,) (A) no existe porque T,(A) no es una matriz 2 X 2.

20. (Tl O T,)@(X)) = PW; (T2 O TI )@(x)) = P(X)

21. T,(v) = ;V 22. (T, 0 T,)(u, + U,X + a2x2) = (uo -t c1 + uz)x + (ul + 2u2)x2 + u2x3

26. b) (3T)(xI, X*) = (6x1 - 3x2, 3x2 + 3x1)

27. b) (TI + TZ)(X, y) = (3.~3 4x1; (T2 - T~)(x, Y) = (Y, 2x1

28. b) No lineal 29. a) 4 b) 3415 c) 1

EJERCICIOS DE LA SECCIóN 8.2 (Página 466)

l . a), c) 2. a) 3. a), b), c) 4. a) 5. b)

c) No existe base.

10. a) [ i], [ p] b) [ -91 c) Rango ( T ) = 2; nulidad ( r ) = 1

11. a) [i] ‘b) [:],[!I c) Rango(T)=l;nulidad(T)=2

Page 687: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

692 / Respuestas a los ejercicios

14. a) Rango: Plano xz, espacio nulo; e jey 15. ker(T) = { O } ; R(7') = V b) Rango: Plano yz; espacio nulo; eje x c) Rango: Plano y = x , espacio nulo; la recta x = - t , x = t, z = O

16. a) Nulidad (7') = 2 b) Nulidad (T) = 4 17. Nulidad (I") = O; Rango (7') = 6 c) Nulidad (I? = 3 d) Nulidad ( r ) = 1

18. a) Dimensión = Nulidad ( r ) = 3 b) No. Para que A x = b sea consistente para todo b en R5, se debe tener R(7') = R5. Pero R(r) f R5, ya que

rango (7') = dim R(73 = 4

25. ker(D) consta de todos los polinomios constantes. 26. ker(J) consta de todos los polinomios de la forma h.

27. ker(D o D) consta de todas las funciones de la forma ax + b.

EJERCICIOS DE LA SECCIóN 8.3 (Página 475)

I . a) ker(T)=(O}; 7esunoauno. b) ker(T)={X[-:]]; T n o e s u n o a u n o

c) ker(T)= { O } ; Tesunoauno. d) ker(T)= { O } ; Tesunoauno

d) T" [I.] = [ -::: ::: y:: ] 4. a) No es uno a uno b) No es uno a uno c ) Uno a uno - 4x, - 5x, + 2x,

5. a) ker(T) = { k [ - :I} b) T no es uno a uno porque ker(T) # { O }

6. a) ker(T) = { O } b) T es uno a uno por el teorema 8.3.2.

7 . a) Tesunoauno. b) Tnoesunoauno. c) Tnoesunoauno. d) Tnoesunoauno. 8. a) T es uno a uno. t) T es uno a uno. 9. No. A no es invertible.

10. a) Tno es uno a uno. b) T"(x, , x2, xj, . . . , x,,) = (x,,, x,- I , x , - 2 . . . . , xl) c) T - y x , , x 2 , x 3 , . . . ,x,) = (X", X I , X,? , . , >x,- I )

Page 688: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Respuestas a los ejercicios / 693

15. a) (1, - 1 ) d) T"(2, 3) = 2 + X

17. a) Tno es uno a uno. b) T es uno a uno. T" [: :I=[; ;.I c ) Tesunoauno. T-' 20. J no es uno a uno porque J(x) = J(x3).

EJERCICIOS DE LA SECCIóN 8.4 (Página 490)

Page 689: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

694 / Respuestas a los ejercicios

b, T:~I) = 16 + 5 1 ~ + 19x2, T(v,) = - 6 - 5x + SX', T(v,) = 7 + 4 0 ~ + 15x2

c) T(a, + u,x + u2x2) =

d) T( 1 + x') = 22 + 56x + 14x2

2 3 9 ~ ~ - 1 6 1 ~ ~ + 2 8 9 ~ ~ 2 0 1 ~ ~ - ill^, + 2 4 7 ~ 2 6 1 ~ 0 - 3 1 ~ ~ + 1 0 7 ~ 24

+ 8

X + 12

X2

1 1 1 12. a) [T,oT,],,,,= 11 2 :] 4 , [ T 2 I B . = [o O o 2 4 , [ T I l B ' , B = [ i S] b, ~ T Z a T ~ ~ B ~ , B ~ ~ T ~ ~ ~ ~ ~ T l ~ ~ ~ , ~

EJERCICIOS DE LA SECCIóN 8.5 (Página 505)

1 4 1 0 0 1 0 0 4. -; - ~ ] , [ * l B , = [-; -; -%I s. [TI ,= [ o 1 o ] , [ T I , , = [ o 1 1 ]

0 0 0 O 0 0

Page 690: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Respuestas a los ejercicios / 695

1 1 1 1 1 O 2 4 6 8

8. a) det(T) = 17 10. a) [ í ‘ I B = b) det(T) = O O 0 0 8 3 2 c) det(T) = 1 O 0 0 O 1 6

donde B es la base normal b) T es uno a uno de P4; rango(T) = 5 y nulidad

( r ) = O .

c) u; = [ij, u; = [!I, u; = [-PI , u; =

13. a) il = - 4, a = 3 b) Rase para el eigenespacio correspondiente a a = - 4: - 2 + $x + x,; base para el eigenespacio correspondiente a J. = 3 : 5 - 2x + x’

14. a) a = I , a = -2, a = - 1

b) Base para el eigenespacio correspondiente a a = 1 :

base para el eigenespacio correspondiente a a = - 2: [-: 3 ;

[-: :I base para el eigenespacio correspondiente a 1 = - 1 :

(3 + y , G4+ 5) 18. b) ~ -

EJERCICIOS COMPLEMENTARIOS DEL CAPíTULO 8 (Página 508)

1. NO. T(x, + x’) = A(x, + x2) + B # (AX, + B ) + (Ax , + B ) = í‘(x,) + í‘(x,), y si c # 1, entonces T(cx) = cAx + B f c(Ax + B ) = cT(x).

cosn0 -senno senno cosn0 1 2. b) A” = i

5. a) T(e,) y dos cualquiera de í‘(e,) , T(e,), y T(e,) constituye una base para el rango; ( - 1, 1, O, 1) es una base para el kernel.

b) Rango = 3 nulidad = 1

6 . a) (-4, --Y, 11, b) (1,0, 0) y ( -2 , 1, O)

7. a) Rango ( r ) = 2 y nulidad ( T ) = 2 b) T no es uno a uno.

Page 691: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

696 /' Respuestas a los ejercicios

1 0 0 0

1 1 . Rango = 3, nulidad = 1 13.

14. a) v, = 2u, + u,, v, = -u1 + u, + u3, v, = 3u, + 4u, + 2u, b) uI = -2v, - 2v, + v3, u, = 5v, + 4v, - 2v3, u3 = -7v, - 5v, + 3v3

- 4 o - 1 15. [ T I E = [ A y -y] 17. [Z']B=[! 1 A] 19. b) x c) e'

o - 1

20. a) [ l!] d) - 3 2 + 3

o 1 o o . " o o 1 o . " o o o 1 . " . . . .

o o o o ' . '

o o o o " '

. . . .

e ) ~ -1 -2

0- O O

o o o " ' o 1 o o " ' o o 4 o " ' O

25. O O $ ' . . O . . . . . .

1 O- o o o . . ' - - n + l

. . . 1

EJERCICIOS DE LA SECCIóN 9.1 (Página 520)

1. a) y, = cle5" - 2c,e-" b) y , = O 2. a) y, = cle7" - 3c,e-" b) y I - - -L 4 ~ e 7 x + s e - x y, =c ,$x+ c,e-" y, = O y, = 2c,e7" + 2c,e-" y, = - me 27 - X

3. a) y, = --,eZ' + c3e3x b) y , = eZ' - 2c3" 4. y , = (c, + c2)e2" + cje& y2 = clex + 2c,e2" - c3e3" y, = ex - 2e2" + 2e3" y, = - c2eh + c3eSx y, = 2c,eZ" - c3e3" y3 = - 2e2" + 2e3+ y, = - cleZ' + c3e"

5. y = cle3* + c2e-Z' 6. y = c,eX + c2e2' + c3e3"

EJERCICIOS DE LA SECCIóN 9.2 (Página 531)

Page 692: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Respuestas a los ejercicios / 697

6. a) Rectángulo con vértices en (O, O), (1, O), (1, -2), (O, -2). b) Rectángulo con vértices en (O, O), (- 1, O), (- 1,2), (O, 2). c) Rectángulo con vértices en (O, O), (1, O), (1, ), (O, ). d) Cuadrado con vértices en (O, O), (2, O), (2,2), (O, 2). e) Paralelogramo con vértices en (O, O), (1, O), (7,2), (6,2). r) Paralelogramo con vértices en (O, O), (1, -2), (1, O), (O, 2)

7. Rectángulo con vértices en (O, O), (-3, O), (O, 1). (-3, 1)

1 1

11. a) Expansión por un factor 3 en la dirección x. b) Expansión por un factor - 5 en la dirección y. c) Deslizamiento cortante por un factor 4 en la dirección x.

12* a) [O ' ] [O '1 factor de2 o o ; expansión en la dirección y por un factor de 3, luego expansión en la dirección x por un

; oblongamiento en la dirección x por un factor de 4, luego oblongamiento en la dirección

; expansión en la dirección y por un factor de -2, luego expansión en la dirección x por un factor de 4, luego reflexión con respecto a y = x

d) [ 1 y ] [ :] [ A - :] ; oblongamiento en la dirección x por un factor de - 3, luego expansión en la dirección y por un factor de 18, luego oblongamiento en la dirección y por un factor de 4

16. 16y- 11x-3=0 17. a ) y = f x b) y = x c ) y = i x d) y = -2x

18. [: -:] 19. b) No. A no es invertible. 22. a) 1 0 0

-I . .. . . ~ . .. .

Page 693: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

698 1 Respuestas a los ejercicios

1 k O

d) a = 1: [A] e) a= 1 : [ ~ ] f ) ( O entero impar múltiplo de T) A = -- 1:

( O entero par múltiplo de x) A. = 1:

( O no múltiplo entero de T) no hay eigenvalores

EJERCICIOS DE LA SECCIóN 9.3 (Página 542)

1. y=++$x 2. ~ = $ + Q x 3. y = 2 + 5 x - 3 x 2 4. y = - 5 + 3 x - 4 x 2 + 2 x 3

8. y = 4 - .2x +- .2x2; si x = 12, entonces y = 30.4 ($30.4 miles

EJERCICIOS DE LA SECCIóN 9.4 (Página 550)

1. a) ( 1 + ~ ) - 2 s e n x - s e n 2 x b) ( 1 + m ) - 2 +- 3

2. a) 4 ~ ’ + 4 cos x + cos 2x + cos 3x - 4 x senx - 23r sen 2x - - sen 3x 4 T 3

coskx b) $7r2+4 x-- 1 1 1 3 - e

2 e - 1 12 2 e - 2 k = l k2 3. a) --+-eX b)

(3 - e)(7e - 19) 3 6 “ 2 4. a) (4e- 10)+(18 -6e)x b) 5. a) -x b) 1 - - 8. -sen(kx)

2 T T 2 k= I k

EJERCICIOS DE LA SECCIóN 9.5 (Página 558)

9 3 -4 1 -5 5 9 o + 3. a) A = [ - : - B b) [-: c ) A = [ $ 1 1 O

z s

:] O

4. a) 2x2 + 5y2 - 6xy b) 7x: + 5x,x, c) x 2 - 3y2 + 5z‘

Page 694: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Respuestas a lcs ejercicios / 699

d) - 2x: + 3x: + 7x1x2 + x1x3 + 12x2x3 e) 2x1x, + 2x1x3 + 2x,x4 + 2x,x3 + 2x2x4 + 2x3x4

5. a) valor máximo = 5 at -t (1, O); valor mínimo = - 1 en -t (O, 1)

11 +m b) valor máximo =

- 1

2

11 -m - 1 valor mínimo =

2

7-m 1 valor mínimo = ~ en* (

2 % 5 i z z ' - 3 + m ) 7

d) valor máximo = I

6. a) valor máximo = 4en -t (-, -, -) ; valor mínimo = - 1 1 2

v3v%v%

b) valor máximo = 3 en (-, -, -) ; valor mínimo = 0 en 2 1 1 1

v%v%v3

c) valor máximo = 4 en? - o,- ;valor mínimo = 2en-t A) 7. b) 9. a)

11. a) Positiva def-mida. * b) Negativa definida. c) Positiva semidefinida. d) Negativa semidefinida. e) Indeffida. f , Indefinida.

12. a) Indefinida. b) Indefinida. c) Positiva definida. d) Indefinida. e) Positiva y negativa semidefinida. f , Positiva definida.

13. c) No. T(kx) # kT(x), a menos de que k = 1.

14. a) k > 4 b) k > 2 c) -&m<k<Qm

16. a) A =

1

- 1 n(n - 1)

n(n - 1)

- 1 - I ___ ~ . . . n(n - 1) n(n - 1) n(n - 1)

1 - 1 n n(n - 1) n(n - 1) - ~ . . . ___

- 1 - 1

b) Positiva s e m i d e f ~ d a

Page 695: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

700 / Respuestas a los ejercicios

EJERCICIOS DE LA SECCIóN 9.6 (Página 572)

3. a) 2x2 - 3xy+ 4y2 b) xz-xy c) 5xy d) 4x2 - 2y' e ) y2

Page 696: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Respuestas a los ejercicios 1 701

6. a) Elipse b) Elipse c) Bpérbola d) fipérbola e) Circunferencia f) Parábola g) Parábola h) Parábola i) Parábola j ) Circunferencia

7. a) 9x” + 4 ~ ‘ ~ = 36, elipse b) x” - 16y” = 16, hipérbola c) yf2 = 8x’, parábola d) x” +y” = 16, circunferencia e) 18y” - 12x” = 419, hipérbola f) y’ = -+x’2, parábola

8. a) fipérbola, ecuaciones posibles son b) Parábola; ecuaciones posibles son 3x’2 - 2y’2 + 8 = o, - 2x’2 + 3y’2 + 8 = o 2 V w 2 + 9x’ - 7y’ = o, 2V5y12 + 7x’ + 9y’ = o

2 v 5 y Q - 7x’ - 9y’ = o, 2v5Xf2 - 9x’ + 7y’ = o

7x’2 + 3y‘2 = 9, 3x‘2 + 7y’2 = 9 4-p - y’2 = 3, ,,’A - = 3 c) Elipse; ecuaciones posibles son d) Hipérbola; ecuaciones posibles son

9. 2xn2 +y”’ = 6, elipse I O . 13~”’ - 4 ~ “ ~ = 81, hipérbola 11. 2x”’ - 3y”’ = 24, hipérbola

12. 6x”’ + 1 ly”’ = 66, elipse 13. 4y“’ - x”’ = O, hipérbola 14. m x ” - 3y’ = O, parábola

15. a) Dos rectas que se cortan, y = x y y = --x. b) No existe gráfica. c) La gráfica es el simple punto (O, O). d) La gráfica es la recta y = x.

e ) La gráfica consta de dos rectas paralelas - x + - y = 2 2. f-) La gráfica es el punto (1,2) 3 2

,m m

EJERCICIOS DE LA SECCIóN 9.7 (Página 578)

1. a) x2 + 2y2 - z2 + 4xy - 5yz b) 3x2 + 7z2 + 2xy - 3x2 + 4yz c) x y + x z + y z d ) X 2 + y 2 - z 2 e) 3z2+ 3x2 f-) 2z2 + 2xz + y2

O ’ L

2. a) [: o -4 - -!] b) [ -2 c) [i P i 0 o - 1

d) [i y :]

2 3. a) [x y z ] [: 2 -;]r]+[7 O 21 [:]--3=o

o -4 - 1 2

Page 697: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

4. a) Elipsoide. 5. a) 9x" + 3 6 ~ ' ~ + 4zt2 = 36, elipsoide. b) Hiperboloide de un manto. b) 6 ~ ' ~ + 3yt2 - 2zI2 = 18, luperboloide de un manto. c ) Kperboloide de dos mantos. 3x12 - 3y0 - z72 = 3, luperboloide de dos mantos. d) Cono elíptico. d) 4x'* + 9y'2 - z'* = O, cono elíptico. e) Paraboloide elíptico. e) x" + 16y" - 162' = O, paraboloide elíptico. f) Paraboloide hiperbólico f , 7xt2 - 3yI2 + z' = O, paraboloide hiperbólico. g) Esfera. g) x'2 + y'2 + 2'2 = 25, esfera.

6. a) 252' - 3yf2 - 5 0 ~ ' ~ - 150 = O, hiperboloide de dos mantos b j 2 2 + 2y'' + 82'' - 5 = O, elipsoide. C) 9 ~ ' ~ + 4y'' - 362' = O, paraboloide elíptico. d) ,Y'? - y'2 + z' = O, paraboloide hlperbólico.

EJERCICIOS DE LA SECCIóN 9.8 (Página 587)

1. Multiplicaciones: mpn; adiciones: mp(n - 1). 2. Multiplicaciones: ( k - l)n3; adiciones: (k - l)(n3 - n2).

3.

Resolver Ax = b por eliminación de Gauss- Jordan

Resolver Ax = b por eliminación de Gauss

Encontrar A" reduciendo [A I I] a [IIA"]

Resolver Ax = b como x =A" b

Encontrar det(A) por reducción de renglones

Resolver Ax = b aplicando la regla de Cramer

n = 5 I n=lO

+: X: 65 50 I +: X : 430 375

t : 810

+: 100 +: 900 X: 150 X : 1100 I

t: 285

n = 100

+: 383,250 X : 343,300

+ ~ : 383,250 X: 343,300

+: 980,100 x : 1,000,000

+: 990,000 x : 1,010,000

+: 328,350 x : 333,399

+: 33,163,350 X : 33,673,399

n = 1000

+: 333,832,500 X : 334,333,000

+ : 333,832,500 X : 334,333,000

+: 998,001,000 x : 1,000,000,000

i : 999,000,000 x : 1,001,000,000

+: 332,833,500 x : 333,333,999

f : 33,316,633 X IO4 X : 33,366,733 X I O 4

Page 698: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Respuestas a los ejercicios / 703

4.

Tiempo de ejecución

I Resolver Ax = b por eliminación de Gauss- x 10-4

Jordan I Resolver Ax = b por eliminación de Gauss

2.84 X 1 0 - ~ Encontrar A-’ reduciendo [A 1 I] a [IIA”]

1.55 X

Resolver A x = b como x = A” b

1.03 X 1 0 - ~ Encontrar det(A) por reducción de renglones

3.50 X

Resolver Ax = b aplicando la regla de Cramer 6.18 x 1 O-4

EJERCICIOS DE LA SECCIÓN 9.9 (Pagina 597)

n = 1 0 I n=100 I n=1000 I

1.05 X 1 0 - ~ 836 ,878

2.41 X 2499 2.49

90.3 x I 83.9 I 834 X IO3

1. x ] = 2, x2 = 1 2. X I = -2 , x2 = 1, x3 = - 3

3. XI = 3, x2 = - 1 4. X I = 4, x2 = - 1

9. X ] = - 3, x2 = 1, x3 = 2, x4 = 1 10. x, = 2, x2 = - 1, x3 = o, x4 = 0

1 0 0 3 0 0 1 - 3 18. A = P L U = o o 1 o 2 o o

[o Ji3 o J 0 !J

Page 699: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

704 / Respuestas a los ejercicios

EJERCICIOS DE LA SECCIóN 10.1 (Página 607)

31

2. a) (2,3) b) (-4,O) c ) (-3, -2) d) (O, -5) 3. a) x = - 2 , y = - 3 b) x = 2 , y = 1

4. a) 5 + 3 i b) - 3 - 7 i c ) 4 - 8 i d) - 4 - 5 i e ) 19+14i f ) - = - E . 2 2 1

5. a) 2 + 3i b) - 1 - 2i c) - 2 + 9 i

31

t t

7 . a)

k 2z = 2 + 21

z = 1 + 1

t

c) , I

+ + 3 i

8. a) k , = -5, k2 = 3 9. a) zlz, = 3 + 3i, 2: = -9, z i = -2i b) k , = 3, k , = 1 b) zlzz = 2 6 , ~ : = -20 + 48i, z: = - 5 - 12i

c ) z,z2 = y - i, z: = 8 - 3 + 44, z: = - 6 - 21

10. a ) 9 - 8 i b) -63+16i c ) -32-24i d ) 2 2 + 1 9 i 11. 76-88i 12. 26-18i

13. - 2 6 + 18i 14. - 1 - l l i IS. -g+i 16. ( 2 + ~) + i(1 - f i ) 17. O 18. -24i

Page 700: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Respuestas a los ejercicios / ,705

19. a) 3 + 8 i 1 + 6 i - 3 + 3 + 12i 7i] b, [3-2 i 3 - 5 i 1 3 + 3 i 6 + 5 i ] c) [ 9 - 5l 1' : 3 + 3 i 2 + 5 i 1 f 9 + i 12+2 i

;18-2i 13+ i 1 ' . 1

13+13i -8+12i -33-22i O 1 b) [ 6 + 2i -11 + 1"-j c) [

- 1 + 6 i - 9 - 5i 7 + 9i - 6 + 61 -16- 16i

22 - l i 2 + 1Oi - 5 - 4 i 6 - Si 22. a) z = - 1 k i b) z = - k - - - i 23. b) i I 1 v 5

2 2 9 - i - 1 - i_

EJERCICIOS DE LA SECCIóN 10.2 (Página 614)

1. a) 2 -7 i b) -3 +5 i c) -5i 2. a) 1 b) 7 c) 5 d) i e) -9 f ) o d ) f i e ) 8 0 0

4. a) --%-gi b) g+gi c) g-#i d) -u+u' 25 25[ e) 6 - j

5. a) - i b) & + A i c) 7i 6. a) f + f i b) - f + + i c) g+yi d) f + + i 7. i+ij

a O s

1 - v 3 1 + v 3 . 8. 9 -1-24' . 625 6251 10. - # + & i 11. -+- 1 12. - & - A i 4 4

13. - & + h i 14. -8 15. a) - 1 -2i b) 25 25l

17. a) $2 , b) 'r) , C) .Y , d) ,

y = - 2

X 1;i X X X

Page 701: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

706 / Respuestas a los ejercicios

34. x , = - ( I - i ) t , x ,= - i t , x , = t 35. a) [ -: f] b) [ - y ii] 1 + i - i

- 7 + 6 i 5 - i 1 + 4 i I 1 +2 i - i 1

EJERCICIOS DE LA SECCIóN 10.3 (Página 627)

I . a) O b) ~ / 2 c) - 7r/2 d) ~ / 4 e ) 2 ~ / 3 f) - rr/4 2. a ) 5n/3 b) - ~ / 3 c) 5 ~ / 3

3. a) 2[cos (;) + isen(:)] b) COS P+ i m;]

c) 5./I[cos(;) +hen(:)] d) 12[cos(T) +isen($)]

e ) 3G[cos(-?) +isen(-?)] f) .[cos(-:) +isen(-:)]

4. a) 6[cos(S) +isen(%)] b) :[cos(;) +isen(;)]

c) ‘[cos( 2 -6) +isen( -E)] d) :[cos(%) +isen($)]

1 + v % 5. 1 6. a) -64 b) - i c) - 6 4 f i - 6 4 i d) -- 2048

7. a)

-

__ \‘2 + Ll T y v2

Page 702: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Respuestas a los ejercicios / 707

8.

11. a) 22 , +2i b) +(2+2i), +(2 -2i)

12. Las raíces son+ (2Il4 + 2'14i), + (2,14 - 2,14i) y la factorización es z4 + 8 = (2' - 2'142 + z3l2). (z2 + 2'142 + 23/2).

13. z gira 90' en el sentido de las manecillas del reloj 14. a) 16 b) 3 i

15. a) Re(z) = -3, Im(z) = O b) Re(z) = -3, Im(z) = O c) Re(z) = O, Im(z) = - fi d) Re@) = - 3, Im(z) = O

EJERCICIOS DE LA SECCl6N 10.4 (Página 6 3 4 )

1. a) (34 -i, -2 - i, 4) b) (3+2i , -1 -2 i , -3+5i , -i) 2. (2 + i, O, -3 + i, -4i) c) ( -1-2i ,2i ,2- i , -1) d ) ( -3+9 i ,3 -3 i , - 3 -6 i ,12+3 i ) e) ( -3+2 i ,3 , -3 -34 i ) f) (-1-5i,3i ,4, -5 )

3. cl = -2- i , c2 =0,c3 = 2 - i 5. a) ~ b) 2 6 c) fi d)

6. a) fl b) fi+V% c) f i + f i i d) m e) (!-$,$,O) f) 1

8. Todo Iklal que f 9. a) 3 b) 2-27i c) -5 - 1Oi

10. El conjunto es un espacio vectorial bajo las operaciones dadas.

11. No es un espacio vectorial. No se cumple el axioma 6; es decir, el conjunto no es cerrado bajo la multiplicación escalar. (Por ejemplo, multiplicar por i).

12. NO, R" no es cerrado bajo la multiplicacibn escalar. (Multiplicar un vector diferente de cero de R" por i.)

13. a) 14. b) 15. a), d) 16. a), b), d)

17. a ) ( 3 - 2 i ) u + ( 3 - i ) v + ( l + 2 i ) w b ) ( 2 + i ) u + ( - l + i ) v + ( - l - i ) w c) ou + ov + ow d) (-5 - 4i)u + (5 + 2i)v + (2 + 4i)w

18. a) Sí b) No c) Yes d) No 19. a), b), c)

20. a) u2 = iu, b) Tres vectores en un espacio bidimensional c) A es un múltiplo escalar de B.

Page 703: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

708 i Respuestas a los ejercicios

21. b), c) 22. f - 3g - 3h = O 23. a) Tres vectores en un espacio bidkensional 24. a), b) b) Dos vectores en un espacio tridimensional

25. a), b), c), d) 26. (- 1 - i, 1); dimensión = 1 27. (1, 1 - i); dimensión = 1

28. (3 t 6i, - 3i, 1); dimensión = 1 29. (jz, -+, 1, O) , (-$, 2i, O , 1); dimensión = 2

EJERCICIOS DE LA SECCIóN 10.5 (Página 642)

2. a) - 12 b) O c) 2i d) 37 4. a) - 4 + 5 i b) O c) 4 - 4i d) 42

S. a) No se cumple el axloma 4. b) No se cumple el.axioma 4. c) No se cumplen los axiomas 2 y 3 d) No se cumplen los axiomas 1 y 4. e) Este es un producto interior.

6. - 9 - 5i 7. No se cumplen los axiomas 1 y 4

9. a) fl b) VÍ6 c) VÍ6 d) O 10. a) VÍ6 b) 2 c) %6 d) O

11. a) ~ b) 2 V 5 c) 5 d) O 12. a) 3 V Í 6 b) 13. a) m b) 2%6

14. a) 2 b) 2 v 3 15. a) 2 G b) 2 v 3 16. a) 7 v 3 b) 2 f l 17. a) -8i b) Paraninguno

18. a), b), c) 20. b) 2 1. b), C)

EJERCICIOS DE LA SECCIóN 10.6 (Página 655)

[ -2 i b) [ T’:i 5 + 7 i 3 1 c) I-:] d) [TI2 %] 1. a)

4 - i (111 a21

l f i 3 - i O - 1 - i i 1 ‘13 ‘23

2. b), d), e ) 3. k = 3 + 5 i , Z = i , m = 2 - 4 i 4. a), b)

Page 704: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Respuestas a los ejercicios / 709

5. b) A"=

L

3 - i - 2m

2 v - E

2m

4 - 3i -

" 5i

7 . P =

8. P = ; P"AP= [o 2] 4 0

"

v5v5

r 1

i

O

O

71; O

1 - v3

P"AP = -1 O -0

O 5 O - 2 :I

Page 705: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

710 Respuestas a los ejercicios

13. a = 2 +- i n ; no, porque A contiene elementos complejos.

14. [ -: d] es una posibilidad.

EJERCICIOS COMPLEMENTARIOS DEL CAPíTULO 10 (Página 657)

3. 1, r] es una posibilidad. 5. A = 1, w, o? (= O) 10. b) Dimensión = 2

o l 1

Page 706: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

ÍNDICE

Adición de vectores, 150,205, 257-258 627

Adjunta, 135-136 +ngulo de rotación, 228 egulo entre vectores, 114,536 Angulos directores, 174 Anticonmutativa, 609 Aplicaciones, 5 13-579

a formas cuadráticas, 5 5 1-578 a ecuaciones diferenciales, 5 13-5 19 a problemas de aproximación,

a series de Fourier, 546-549 543-549

Aproximación por mínimos cuadrados,

+bol de permutaciones, 108-109 Area de un paralelogramo, 180 Argz, 618 Argumento, 6 18

Argumento principal, 6 1 8 Argumento principal, 61 8 Axioma de aditividad, 552,339 Axioma de homogeniedad, 339 Axioma de simetría, 239,638 Axiomas:

384-393, 535-543, 545-546

principal, 6 18

para espacios con producto interior,

para un espacio vectorial, 259-260 339,63 1

Base, 290,291 cambio de, 398-400

399

Base e s t á n d a r :

coordenadas relativas a una, 290,

normal, 246,291,292,294

parahfin, 295 para o", 628 para Pn, 294 p a r a p , 292 pa rap , 292

Base normal de Pn, 294 Base ortogonal, 368 Base ortonormal, 367-377

C(- , + ),268,630 C[a, b] , 268,630 Cambio de base, 399-401 Cauchy, Augustin Louis, 208 cero:

matriz, 64 subespacio, 266 transformación, 448 vector, 150,205

Cerrado bajo la adición, 266 Cerrado bajo la multiplicación escalar,

Circunferencia unitaria, 343

d: 628 C . 132

Cociente de números complejos, 6 1 1 - 614 Codominio, 2 18

266

base normal de, 628

Coeficientes, 50 Coeficientes de Fourier, 548 Columna:

de una matriz, 47 espacio, 307 vector, 306

Combinación lineal, 50,270,627 Complemento ortogonal, 359,360 Componente:

a lo largo de un vector, 169-173 ortogonal a una subespacio, 372-373 ortogonal a un vector, 169-170 deunvector, 152,155,185

Compresión, 523-524 Condición inicial, 5 14 Cónica imaginaria, 573 Cónica no degenerada, 564 Conjugada transpuesta, 547 Conjugado, 77

Conjunto ortogonal, 367 conjunto ortonormal (de vectores), 367, Cono elíptico, 575 Contracción (operador), 230, 448 Coordenada (S):

propiedades del, 614-615,626

de un punto, 154 de un vector, 399 ejes de, 154-155 independiente de las, 685 matriz de, 399 planos de, 154

Cosenos directores, 174

71 1

Page 707: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

712 / hdice

Cramer, Gabriel, 140

De Moivre, Abraham, 622 Desarrollo por cofactores, 131-135 Descomposición de un vector, 169 Descomposición LU, 589-598 Descomposición QR, 377-380

Descomposición triangular, véase

Desigualdad de Cauchy 355,366,645 Desigualdad de Cauchy-Schwa, 208,

Det, 112 Desigualdad de Schwarz, véase

Desigualdad del triángulo, 209 Desviación, 544 Determinante (función):

teorema de, 378

descomposición LU

354,645

desigualdad de Cauchy-Schwa

de un operador lineal, 499 de una matriz 2 X 2,111-1 12 deunamatriz3 ~ 3 , 111-112 definición, 11 1 derivada de, 146-147 desarrollo por cofactores de, 132

Diagonal principal, 49 Diagonalizable, 426

ortogonalmente, 58 unitariamente, 649

Diagonalización ortogonal, 437 Diferencia de vectores, 37 Dilatación, 230, 406 Dimensión, 292,298 Dirac, Paul Adrien Maurice, 609 Distancia:

en un espacio vectorial complejo con producto interior, 639

entre puntos, véase Distancia entre vectores

entre planos paralelos, 196-199 entre rectas paralelas, 196-199 entre un punto y una recta 173 entre un punto y un plano, 196-199 entre vectores, 206-207,

341-342 Distancia euclidiana, 207,80 División de números complejos, 61 1- 613 Dominio, 2 18

Ecuación característica, 127,416,649 Ecuación cuadráiicas:

e n ~ y y , 551-552 enx,yyz,574

Ecuación diferencial, 513-519 condición inicial para una, 5 14 problema con valor inicial, 5 14 solución general, 5 14 solución particular, 5 14

solución de una, 22 Ecuación lineal, 21

Ecuaciones de dependencia, 3 19 Ecuaciones de traslación, 157 Ecuaciones normales, 387 Ecuaciones paramétricas, 193-194 Ecuaciones simétricas, 202 Eigenespacio, 419-420, 502-503

de un operador lineal, 502-503 Eigenvalor, 127 248,413, 502

de un operador lineal, 502-503 Eigenvalores complejos, 418419,601 Eigenvector, 127,248,413,502

de un operador lineal, 502-503 Eje de rotación, 228 Eje imaginario, 603 Eje regal, 603 Elementos, 47 Eliminación de Gauss-Jordan, 33-34, 579,

Eliminación gaussiana, 2942,142,579,

Elipse, 564 Elipsoide, 575 Equivalente por renglones, 80, 81 Error cuadrático medio, 545 Error por redondeo, 41 Escalar, 47,149 Esfera unitaria, 343 Espacio euclidiano n dimensional, 633 Espacio generado, 272 Espacio lineal generado, 272-273 Espacio n euclidiano, 203-2 15

complejo, 633 Espacio vectorial complejo con producto inhior, 632,637 Espacio nulo (kernel), 307 Espacio renglón, 307 Espacio unitario, 637 Espacio(s) vectorial(es):

axiomas de, 257-258 base de, 290-295 complejos, 258,601,627-633 de dimensión fita, 295-298 de dimensión infinita, 295 definición de, 258-259 dimensión de, 298 reales, 257-258,601 subespacio de un, 265

Espacio vectorial con producto interior, 339 distancia en un, 341-342,639 norma en un, 341-342,639

Espacio vectorial de dimensión finita,

Espacio vectorial real con producto

Espacios vectoriales complejos, 258, 601,

Espacios vectoriales de dimensión

580,586

580,586

295-298

interior, 339-340

627-628

infinita,

295 hpacios vectoriales generales, 257-337 Expansión (o compresión), 522-523

Fase. hacia adelante, 580 Fase hacia atrás, 580 Forma cuadrática, 551-558

indefinida, 557 negativa definida, 557 negativa semidefinida, 557 positiva def ida , 555 positiva semidefinida, 557

Forma cuadrática asociada, 55 1-552,

Forma escalonada, 29-30,33-34 Forma escalonada reducida, 29-30,

Forma general de un plano, 19 1 Forma lineal, 55 1 Forma polar, 617-6 18 Fórmula de De Moivre, 622-623 Fourier, Jean Baptiste Joseph, 548 Función con valores complejos, 628-629

Función(es):

563,574

33-34, 124

integral de una, 639

con valores complejos, 628-629 con valores vectoriales, 447 continuas, 267 determinante, 1 12 dominio de una, 2 18 iguales, 218 valor de una, 32

Invariante bajo semejanza, 499 Inversa:

deunamatriz, 66-68,85,137-139 de una matriz 2 X 2,66,68

Inversión en una pennutación, 109 Inverso aditivo, véase Negativo de

un vector

Jordan, Wilhelm, 34

Kernel, 46 1

Lagrange, Joseph Louis, 176 Ley conmutativa:

para la adición, 62 para la multiplicación, 62

Ley de cancelación, 64 Leyes asociativas, 62 Leyes distributivas, 23 Longitud euclidiana, 207, 633 Longitud (norma) de un vector, 161, 207,

343,633

Mapeos, 218,240 MathemahcsMagmme, 34 Matrices de Dirac, 609 Matrices iguales, 22

Page 708: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Índice / 713

Matrices semejantes, 498-499 Matriz acompañante, 444 Matriz antisimétrica, 102 Matriz aumentada, 25,327 Matriz cuadrada, 48 Matriz de coeficientes, 56,327 Matriz de Householder, 105 Matriz de transición, 401 Matriz diagonal, 94,495 Matriz diagonalizable ortogonalmente,

Matriz diagonalizable unitariamente,

Matriz elemental, 75-78 Matriz hermitiana, 649-650 Matriz identidad, 65 Matriz (matrices):

437

649

acompañante, 444 anticonmutativa, 609 aumentada, 25,327 antisimétrica, 102 cero, 64 columnas de una, 47 con elementos complejos, 607 conjugada transpuesta de una, 646 cuadrada, 48 de coeficientes, 56,327 de cofactores, 136-137 de coordenadas, 287-291 de Householder, 105 de transformación, 218,447 de transición, 40 1 de una transformación lineal, 481 -

496 definición de, 24, 47 diagonal, 666,495 diagonal principal de una, 49 diagonalizable, 426,438, 649 diagonalizable odogonalmeente, 437 diagonalizable unitariamente, 649 diagonalizable ortogonalmente, 437 diagonalizable unitariamente, 649 elemental, 75-76 elementos en una, 47 equivalente por renglones, 80,81 espacio columna de una, 47 espacio renglón de una, 307 forma escalonada de una, 29-30,

forma escalonada reducida de una,

hermitiana, 647,649 indefinida, 557 identidad, 65 igualdad de, 49 inversa, 66-68, 85 inversión de, 80 invertible, 66-68, 85, 137-139 multiplicación por un escalar de una,

negativa d e f ~ d a , 557

33-34

29-30, 33-34, 124

49-50

negativa semidefinida, 557 normal, 220-22 1 notación para vectores, 2 12-2 13 orden de una, 48 ortogonal, 62 positiva d e f ~ d a , 555 positiva semidefinida, 555 producto de, 49-50 rango de una 323-324,336 renglones de una, 47 semejante, 498-499

suma de, 49 sustracción de, 49 tamaño de una, 47 transpuesta de una, 57-58 traza de una, 104 triangular, 95 triangular inferior, 95 triangular superior, 95

1 X 1.47

Simétrica, 97-98,437

unitaria, 647-649

Matriz i n d e f ~ d a , 557 Matriz invertible, 66-68,85, 137-139 Matriz normal, 220-22 1 Matriz ortogonal, 395 Matriz simétrica, 97-98,437 Matriz triangular, 95 Matriz triangular inferor, 95 Matriz triangular superior, 95 Matriz unitaria, 647-648 Medida euclidiana, 217 Mejor aproximación, 384-385 Menor, 131 M . 131 M":, 260 Módulo, 610 Muestra:

media de la, 560 variancia de la, 560

Multiplicación por.4 (como una trasfomación): defmición), 220 espacio nulo, 307 recorrido, 46 1

Multiplicación de números complejos,

Multiplicación por bloques, 59 Multiplicidad algebraica, 433 Multiplicidad geométrica, 433 Múltiplo escalar, 49-50,204,257-258,

604,609

630 n-ada ordenada, 203

Negativa definda, 557 Negativa semidef~da, 557 Negativo:

de un número complejo, 604 de un vector, 15 1

Nilpotente, 44 Norma, 161,207,343,633

Norma euclidiana, 207,633 Normal a un plano, 189-190 Normalización de un vector, 367-368 Nulidad de una transformación, 463-465 Número complejo imaginario puro, 604 Número(s) complejo(s), 258,418-419,

601 -606 argumento de, 6 18 argumento principal de, 6 18 conjugado de un, 6 1 O, 6 14-6 1 5 división de, 6 1 1-6 13 forma polar de, 6 17-6 18 imaginario(s) puro(s), 604 iguales, 604 módulo de, 610 multiplicación de, 604,605 negativo de, 604 parte imaginaria de, 419,602,603 parte real de, 603 raíces de, 622-625 suma de, 604-605 sustracción de, 604 valor absoluto de, 61 1

Número imaginario, 602 Números complejos iguales, 604

Operador identidad, 222,448 Operador lineal, 219,447

determinante de un, 499 matriz de un, 481-490

Operador proyección, 225 Operador rotacional, 228 Operaciones (elementales) en los

Operaciones inversas, 76-77 Operaciones normales en R", 205 Operadores reflexión, 223 Orden:

renglones, 26

de una matriz cuadrada, 49 de un polinomio trigonométrico, 546

Origen, 153

Par ordenado, 203-204 Parribola, 565 Paraboloide elíptico, 575 Paralologramo, 18 1 Parte imaginaria, 418,602,603 Parte real, 603 Pase hacia adelante, 580 Pase hacia atrás, 580 Permutación, 108

Permutación impar, 109 Permutación par, 109 Pesos, 333 Pitágoras, teorema generalizado, 358 Plano:

inversión en una, 109

ecuación general del, 19 1 forma punto-normal, 190 forma vectorial del, 193

Plano complejo, 603

Page 709: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

714 / hdice

Plano xy, 154

Planoyr, 154 Pohnomio característico, 416,649 Polinomio mónico, 444 Polinomio trigonométrico, 546

orden de un, 546 Polinomios de Legenbre, 384 Polinomios de Legendre normalizados,

Posición normal, 564,574 Positiva definida, 555

Positiva semidef~da, 557 principal, 21.28 Problema con valor inicial, 514 Proceso de Gram-Schmidt, 375-376,

Producto:

Plano xz, 154

3 84

matriz, 5 5 5

440441,640-641

de matrices, 49-50 de matrices invertibles, 68 de números complejos, 604,605 de un vector por un escalar,

151-152,204,257-258 Producto cruz de vectores,

175-187 Producto elemental, 110

con signo, 11 1 Producto elemental con signo, 11 1 Producto interior:

axiomas del, 339,637 euclidiano, 164, 205,631

Producto interior euclidiano, 164,206, 637-641

como producto de matrices, 2 12-2 13 ponderado, 272 propiedades de, 164, 167-169,63 1

Producto interior euclidiano ponderado,

Producto punto, véase producto interior

Promedio aritmético (media), 341 Proyección ortogonal, 169,372

operador, 225 Punto inicial, 13 1, 149 Punto-normal, 190 Punto terminal, 149 Puntos e n F , 203-205

Raíces latentes, 127

3 40

euclidiano

Raíz (de un número o complejo), 621- 625

Raíz n-ésima, 622-625 Rango:

de una matriz, 322-323,336 de una transformación, 462

base normal de, 29 1 9 , 2 9 1

Recorrido, 461 Recta:

194 ecuaciones paramétricas de la, 37-

ecuaciones siqétricas de la, 202 forma vectorial de la, 195

Reducción de Kronecker, 563 Reducción de Lagrange, 563 Reflexiones, 222-226 Regla de Cramer, 139-142 Regla de la mano derecha, 179 Regla de la mano izquierda, 179 R", 292

Renglón, 47 Retrosustitución hacia atrás, 36-38 Rotación:

base normal de, 292

de ejes, 404-407 de vectores, 227-230

Schmidt, Erhardt, 376 Schwan, Hermann Amandus, 208 Sección cónica (cónica), 563-572

degenerada, 564,573 no degenerada, 564

Sección cónica degenerada, 564,573 Series de Fourier, 546-549 Sistema consistente, 38,56,90,307 Sistema de coordenadas derecho, 154,

Sistema de coordenadas rectangulares,

Sistema de ecuaciones lineales, 21-25

180

154-155

consistente, 23,38,90,307 inconsistente, 23 solución de un, 22

Sistema homogéneo, 38-40,269 Sistema inconsistente, 23 Sistema lineal, 22 Sistema lineal indeterminado, 33 1 Sistema lineal sobredeterminado, 331 Sistema normal, 387 Solución:

conjunto, 23 de un sistema, 22 de una ecuación lineal, 23 espacio, 269

Solución general, 309, 513 Solución trivial, 38 Soluciones no triviales, 38 Soluciones particulares, 309, 514 Subespacio, 265,628 Submatrices principales, 556 Submabiz, 32 Suma:

de cuadrados, 562 de matrices, 50 de números complejos, 604-605 de vectores, 150,205,257-258

Superficie cuádrica, 574-578 Sustitución hacia adelante, 591 Sustracción:

de matrices, 49

de números complejos, 604 de vectores, 15 1,205

Tamaiío de una matriz, 47 Teorema alternativo de Fredholm, 509 Teorema de Cayley-Hamilton, 443 Teorema de la dimensión, 464 Teorema de la mejor aproximación, 384 Teorema de los ejes principales:

para R2, 569-570 p a r a 9 , 577

Teorema de proyección, 372 Teorema de Piagoras generalizado, 358 Términos del producto cruz, 552,

Transformación lineal, 220,22 1 matriz de una, 481-496

Transformaciones inversas, 468-474 Transpuesta, 401

propiedades de la, 71 Traza de una matnz, 104 Triple producto escalar, 18 1 Tripleta ordenada, 203

Valor absoluto, 610 Valores caracteristicos, 127 Valores propios, 127 Variables libres, 30 Variables principales, 30 Vedofles), 149,202,203-337,

565-568

627-646 adición de, 150,204,257-258,627 ángulo entre, 164,356 cero, 150,204 combinación lineal de, 270,627 componente vectorial a lo largo de

componente vectorial ortogonal a un,

columna, 306 de coordenadas, 399 d e f ~ c i ó n de, 257-258 descomposición de, 170 diferencia de, 205 destancia entre, 206-207,341-342,

633 en o", 628-633

equivalentes, 150 iguales, 150,204 imagen de un, 2 19 inverso aditivo,de, véase vectotfes),

negativo de linealmente dependientes,

linealmente independientes,

un, 170-173

169-171

en R", 203-2 15

, 277-279

279-287,628 longitud de un, 161,207,

342,633 múltiplo escalar de un, 204,

257-258,630

Page 710: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

Indice 1 715

negativo de un, 15 1 norma de un, 161,207,342,633 norma euclidiana de, 207,633 normalización de, 367-368 ortogonal, 167-168,357-359,640 ortonormal, 367,640 producto cruz de, 175-176 punto inicial de. un, 131, 149 punto terminal de un, 149 renglón, 306

solución, 269-270 unitario normal, 178-179

Vectores equivalentes, 150 Vectores iguales, 150,204 Vectores linealmente dependientes

(conjunto de), 277-279 Vectores geométricos, 149-152 Vectores linealmente independientes

(conjunto de), 277

Vectores normales unitarios,

Vectores ortogonales, 167-168,

Vectores renglón, 306

Wronskiano, 334

Yuster, Thomas, 34

178-179

357-358,640

Page 711: Inroduccion Algebra lineal Howard Anton 5ta. Edicion

LA EDICIóN, COMPOSICION, DISEÑO E IMPRESION DE ESTA OERA FUERON REALIZADOS BAJO LA SUPERVISION DE GRUPO NORIEGA EDITORES. BALDERAS 95, COL. CENTRO. MCxlco, D.F. C.P. 06040

1200095000801 522DP92001E