112
Apuntes de ´ Algebra Lineal Grado en Ingenier´ ıa de Telecomunicaci´on, UAH Juan Gerardo Alc´ azar

Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

  • Upload
    vancong

  • View
    247

  • Download
    3

Embed Size (px)

Citation preview

Page 1: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

Apuntes de Algebra Lineal

Grado en Ingenierıa de Telecomunicacion, UAH

Juan Gerardo Alcazar

Page 2: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

2

Page 3: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

Indice general

1. Matrices y Sistemas Lineales. 51.1. Matrices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61.2. Determinantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101.3. Rango de una matriz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121.4. Metodo de eliminacion de Gauss. . . . . . . . . . . . . . . . . . . . . . . . 141.5. Matriz inversa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161.6. Sistemas Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

2. Espacios vectoriales. 232.1. Espacios vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242.2. Dependencia lineal. Bases. . . . . . . . . . . . . . . . . . . . . . . . . . . . 262.3. Subespacios vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302.4. Ecuaciones de un subespacio vectorial. . . . . . . . . . . . . . . . . . . . . 352.5. Cambio de base en un espacio vectorial. . . . . . . . . . . . . . . . . . . . . 37

3. Aplicaciones lineales. 393.1. Nociones basicas sobre aplicaciones lineales . . . . . . . . . . . . . . . . . . 393.2. Eucacion matricial de una aplicacion lineal. . . . . . . . . . . . . . . . . . 423.3. Matrices semejantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 463.4. Nucleo e Imagen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

4. Diagonalizacion 514.1. Autovalores, autovectores, autoespacios . . . . . . . . . . . . . . . . . . . . 514.2. Diagonalizabilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

5. Ecuaciones diferenciales lineales. 575.1. Conceptos generales sobre ecuaciones diferenciales. . . . . . . . . . . . . . 595.2. Ecuaciones diferenciales lineales. . . . . . . . . . . . . . . . . . . . . . . . . 615.3. Sistemas de ecuaciones diferenciales. . . . . . . . . . . . . . . . . . . . . . 685.4. Sistemas lineales con coeficientes constantes. . . . . . . . . . . . . . . . . . 71

6. Espacios Euclıdeos. 796.1. Producto escalar. Ortogonalidad. . . . . . . . . . . . . . . . . . . . . . . . 81

3

Page 4: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

4 INDICE GENERAL

6.2. Proyeccion sobre un subespacio vectorial. . . . . . . . . . . . . . . . . . . . 896.3. El metodo de mınimos cuadrados. . . . . . . . . . . . . . . . . . . . . . . . 92

7. Algebra de Boole 977.1. Operadores logicos y Algebras de Boole . . . . . . . . . . . . . . . . . . . . 977.2. Funciones booleanas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1017.3. Formas normales disyuntiva y conjuntiva . . . . . . . . . . . . . . . . . . . 1037.4. Puertas logicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1077.5. Simplificacion de funciones booleanas . . . . . . . . . . . . . . . . . . . . . 108

Page 5: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

Capıtulo 1

Matrices y Sistemas Lineales.

Un circuito electrico es una red electrica cerrada formada por la conexion de varioscomponentes, como por ejemplo fuentes de alimentacion, resistencias, condensadores, so-lenoides, etc. Habitualmente, los circuitos electricos constan de diferentes mallas (caminoscerrados dentro del circuito), y la intensidad de la corriente que circula por diferentes tra-mos del circuito es diferente. Para determinar la intensidad de cada tramo se aplican lasleyes de Kirchoff: (1) en cada nodo (punto del circuito donde concurren varios conducto-res), la suma de las intensidades que entran es igual a la suma de las intensidades quesalen; (2) la suma de los voltajes en cada malla es 0. Aplicando estas leyes a un circuitocomo el de abajo (que solo contiene resistencias),

55 Ω

i3

30 Ω

i21 Ωi1

25 Ω

50 Ω

10 v1 Ω

obtenemos el siguiente sistema de ecuaciones, donde las incognitas son las intensidades decorriente i1, i2, i3:

76i1 − 25i2 − 50i3 = 10−25i1 + 56i2 − i3 = 0−50i1 − i2 + 106i3 = 0

5

Page 6: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

6 CAPITULO 1. MATRICES Y SISTEMAS LINEALES.

El sistema anterior es lineal en las inconitas i1, i2, i3. Circuitos mas complicados (conmas mallas, etc.) dan lugar a sistemas lineales mayores, con mas incognitas y mas ecuacio-nes. Aunque en el caso de pequenos sistemas se puede encontrar la solucion simplementemanipulando las ecuaciones, es necesario disponer de un metodo general que pueda apli-carse a sistemas mas grandes, difıciles o incluso imposibles de resolver “a mano”. Paradesarrollar este sistema necesitamos dos herramientas utiles tanto en este contexto comoen otros campos de las Matematicas y las Ciencias: las matrices y los determinantes.

1.1. Matrices.

Una matriz Am×n es una coleccion de numeros (elementos) ordenados en filas y co-lumnas:

a11 a12 · · · a1n

a21 a22 · · · a2n...

.... . .

...am1 am2 · · · amn

→ r1

→ r2...→ rm

↓ ↓ ↓c1 c2 · · · cn

Las matrices se suelen representar por letras mayusculas A,B, . . . Los aij’s se llaman ele-mentos de la matriz. Decimos que la dimension de A es m × n, donde m representa elnumero de filas, y n el numero de columnas. Si m = n, decimos que A es cuadrada, yque n es el orden de A. Las matrices cuadradas se representan a veces en la forma Anpara explicitar cual es su orden. Si m 6= n, decimos que A es rectangular. Si A es unamatriz cuadrada de dimension n, los elementos de la forma aii, con i = 1, . . . , n, forman ladiagonal principal de la matriz; la suma de estos elementos se llama traza de la matriz:

tr(A) = a11 + a22 + · · ·+ ann.

La transpuesta de una matriz A es la matriz At que se obtiene al intercambiar las filasy las columnas de A; por lo tanto, si la dimension de A es m× n, la de At es n×m.

Podemos distinguir los siguientes tipos de matrices, segun su forma; salvo que se digaexplıcitamente otra cosa, en cada caso se entiende que la matriz es cuadrada.

Matriz diagonal: todos los elementos fuera de la diagonal principal son 0.a11 0 · · · 00 a22 · · · 0...

.... . .

...0 0 · · · ann

La matriz identidad de orden n es la matriz diagonal en la que a11 = a22 = · · · =ann = 1.

Page 7: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

1.1. MATRICES. 7

Si todos los elementos por debajo (resp. por encima) de la diagonal principal son 0,decimos que la matriz es triangular superior (resp. inferior).

La matriz nula de dimension m× n es una matriz cuyos elementos son, todos ellos,nulos.

Una matriz fila es una matriz de dimension 1 × n. Una matriz columna es unamatriz de dimension m× 1. Las matrices B,C de abajo son matrices fila y columna,respectivamente.

B =(a11 a12 · · · a1n

), C =

a11

a21

· · ·am1

La opuesta de una matriz (rectangular o cuadrada) A, que se representa como −A,es la matriz que se obtiene a partir de A cambiando el signo de todos sus elementos.

Una matriz cuadrada es simetrica si At = A. Los elementos de una matriz simetricasituados a ambos lados de la diagonal principal, son iguales. Un ejemplo de matrizsimetrica es:

A =

−3 2 −12 5 0−1 0 4

Una matriz cuadrada es anti-simetrica o hemisimetrica si At = −A. Los elemen-tos de una matriz hemisimetrica situados a ambos lados de la diagonal principal sonopuestos, y los elementos de la diagonal principal son nulos. Un ejemplo de matrizhemisimetrica es:

A =

0 2 −1−2 0 −31 3 0

Las matrices proporcionan un ejemplo, en Matematicas, de objetos que no siendo nume-ros, sin embargo pueden sumarse, restarse y multiplicarse. Obviamente las reglas para estasoperaciones son algo mas complicadas que en el caso de los numeros; de hecho, no todo parde matrices se puede sumar, restar o multiplicar. A continuacion vamos a describir estasoperaciones, comenzando con la suma de matrices: dadas dos matrices A,B de la mismadimension, A + B es la matriz que se obtiene sumando los elementos correspondientes en

Page 8: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

8 CAPITULO 1. MATRICES Y SISTEMAS LINEALES.

A,B:

A =

a11 a12 · · · a1n

a21 a22 · · · a2n...

.... . .

...am1 am2 · · · amn

, B =

b11 b12 · · · b1n

b21 b22 · · · b2n...

.... . .

...bm1 bm2 · · · bmn

⇒ A+B =

a11 + b11 a12 + b12 · · · a1n + b1n

a21 + b21 a22 + b22 · · · a2n + b2n...

.... . .

...am1 + bm1 am2 + bm2 · · · amn + bmn

La suma de matrices satisface las siguientes propiedades:

Conmutativa: A+B = B + A.

Asociativa: A+(B+C) = (A+B)+C. Por lo tanto, tiene sentido escribir A+B+C.

Elemento neutro: para toda matriz A existe una matrix 0, tal que A+ 0 = 0 +A = A(0 es la matriz nula de la misma dimension que A)

Elemento inverso: para toda matriz A existe otra matriz, la opuesta de A, −A, talque A+ (−A) = (−A) + A = 0 (el elemento neutro).

A partir de la suma, la resta o diferencia de dos matrices A,B se define como la sumade la primera matriz mas la opuesta de la segunda; esto es equivalente a restar los elementosde ambas matrices que ocupan igual lugar. La multiplicacion de una matriz A por unnumero λ es la matriz λ ·A que se obtiene multiplicando por λ todos los elementos de A.Esta operacion satisface las siguientes propiedades: para dos matrices A,B cualesquiera dela misma dimension y para dos numeros cualesquiera λ, µ, se tiene:

λ · (A+B) = λ · A+ λ ·B

(λ+ µ) · A = λ · A+ µ · A

λ · (µ · A) = (λ · µ) · A

1 · A = A.

El producto de dos matrices A,B es mas complicado; de hecho, hasta que no veamosla nocion de aplicacion lineal, en el Tema 3, no entenderemos la razon de que esta operacionse defina del modo que vamos a describir. Definimos primero el producto de dos matricesespeciales: sean A,B una matriz fila y una matriz columna, respectivamente, con el mismonumero de elementos en cada caso; el producto de A,B es el numero:

A ·B =(a11 a12 · · · a1n

b11

b21

· · ·bn1

= a11 · b11 + a12 · b21 + · · ·+ a1n · bn1

Page 9: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

1.1. MATRICES. 9

Con mayor generalidad, dadas Am×n, Bn×p (observese que el numero de columnas de A esigual al numero de filas de B; de lo contrario, el producto A · B no existe) el productoA ·B es otra matriz de dimension m×p (es decir, con el mismo numero de filas que A, y elmismo numero de columnas que B) donde el elemento i, j es el resultado de multiplicar lafila i-esima de A por la columna j-esima de B; para realizar dicha multiplicacion, se aplicala regla anterior para el producto de una matriz fila por una matriz columna. Por lo tanto,

(A ·B)ij = ai1b1j + ai2b2j + · · ·+ aimbmj

El producto de matrices verifica las siguientes propiedades:

En general, no es conmutativo1; por lo tanto, en general A ·B 6= B ·A (de hecho, nisiquiera esta garantizado que B · A exista).

Asociativa: A · (B · C) = (A ·B) · C. Por lo tanto, tiene sentido escribir A ·B · C.

Distributiva: A · (B + C) = A ·B + A · C.

Elemento neutro para las matrices cuadradas: la matriz identidad del mismo orden,que se representa por I. En otras palabras, si A es una matriz cuadrada de orden n,e I es la matriz identidad de orden n, A · I = I · A = A.

(A ·B)t = Bt · At.

Observese que mientras que resulta inmediato definir la diferencia de matrices a partirde la suma y de la nocion de matriz opuesta, no esta claro como definir la division dematrices a partir de la multiplicacion. De hecho, la division de matrices no esta definida;en lugar de esto, se utiliza la inversa de una matriz. Sin embargo, esta nocion es massutil que en el caso de la division numerica: solo se aplica a matrices cuadradas, y ni siquieratodas las matrices cuadradas tienen inversa. De momento, introduciremos la definicion, ydaremos algunas de sus propiedades; veremos como calcular matrices inversas mas tarde.Dada una matriz inversa A, la inversa de A, si existe, es la matriz A−1 que cumple:

A · A−1 = A−1 · A = I.

Algunas propiedades:

1. A−1 no siempre existe. Daremos una caracterizacion para su existencia mas adelante,cuando hayamos introducido la nocion de determinante.

2. (A−1)t = (At)−1.

3. (A ·B)−1 = B−1 · A−1

1Puede pasar que dos matrices conmuten; pero esto no sucede en general para dos matrices cualesquiera.

Page 10: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

10 CAPITULO 1. MATRICES Y SISTEMAS LINEALES.

1.2. Determinantes.

Dada una matriz cuadrada A, el determinante de A, que se representa por det(A) o,mas habitualmente, por |A|, es un numero que se asocia con A. Si el orden de A es n, sedice tambien que el orden de |A| es n. Los determinantes se definen de forma recursiva:primero se define el determinante de una matriz de orden 2, a partir de ahı se define eldeterminante de una matriz de orden 3, a continuacion y a partir de este el de una matrizde orden 4, etc. Si A es 2× 2, entonces |A| se define del siguiente modo:

|A| =∣∣∣∣ a11 a12

a21 a22

∣∣∣∣ = a11 · a22 − a12 · a21

Los determinantes de orden 3 requieren un poco mas de trabajo. En primer lugar, se defineel menor correspondiente al elemento aij, αij, como el determinante de orden 2 obtenidoal eliminar la fila y la columna a las que pertenece el elemento aij. El adjunto o menorcomplementario de aij, Aij, es el menor correspondiente a aij multiplicado por 1, si la sumade los subındices i, j es par, o por −1, si la suma de los subındices i, j es impar:

Aij = (−1)i+j · αij.

Finalmente, se define el determinante de una matriz cuadrada A de orden 3, como la sumade los productos de los elementos de cualquier fila o columna por sus adjuntos:

|A| = ap1Ap1 + ap2Ap2 + ap3Ap3,

con p = 1, 2, 3. En este caso decimos que hemos desarrollado el determinante por la fila p.El valor de |A| no depende de la fila por la cual se desarrolla. Ademas, se puede desarrollartambien por una columna

|A| = a1qA1q + a2qA2q + a3qA3q,

y de nuevo el resultado no depende de la eleccion de la columna por la cual se desarrolla.Habitualmente, uno desarrolla por una fila o columna que tenga muchos ceros, de modoque no sea necesario calcular demasiado.

La idea de desarrollar por una fila o una columna permite generalizar el calculo dedeterminantes a cualquier orden. En concreto, si A es una matriz cuadrada de orden n,entonces

|A| = ap1Ap1 + ap2Ap2 + · · ·+ apnApn

donde los Aij’s son los adjuntos de los aij’s, o

|A| = a1qA1q + a2qA2q + · · ·+ apnAnq

Observese que si |A| tiene orden n, entonces los Aij’s son determinantes de orden n − 1.Por lo tanto, si sabemos calcular determinantes de orden 3 entonces podemos calculardeterminantes de orden 4, a partir de estos los de orden 5, etc.

Page 11: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

1.2. DETERMINANTES. 11

En el caso de los determinantes de orden 3, es util conocer la regla de Sarrus:

|A| =

∣∣∣∣∣∣∣∣∣∣∣∣

a11 a12

a13

vva21

""

a22

""

a23

bb

a31

66

a32

EE

a33

∣∣∣∣∣∣∣∣∣∣∣∣−

∣∣∣∣∣∣∣∣∣∣∣∣

a11

a12

||

a13

||a21

((

a22

||

a23

hh

a31 a32

<<

a33

YY

∣∣∣∣∣∣∣∣∣∣∣∣La regla de Sarrus nos dice que valor de |A| es la suma de los productos que aparecen enel primer determinante, menos la suma de los productos que aparecen en el segundo.

Los determinantes poseen muchas propiedades notables:

1. El determinante de una matriz cuadrada A coincide con el de su traspuesta: |A| =|At|.

2. Si A y B son matrices cuadradas del mismo orden, entonces |A ·B| = |A| · |B|.

3. Si todos los elementos de una fila o columna poseen un mismo factor, entonces dichofactor se puede extraer fuera del determinante; por ejemplo,∣∣∣∣∣∣

a11 a12 a13

α · a21 α · a22 α · a23

a31 a32 a33

∣∣∣∣∣∣ = α ·

∣∣∣∣∣∣a11 a12 a13

a21 a22 a23

a31 a32 a33

∣∣∣∣∣∣4. Si todos los elementos de una fila o columna pueden escribirse como suma de dos,

entonces el determinante tambien puede escribirse como suma de dos determinantes:∣∣∣∣∣∣a11 a12 a13

a21 + b21 a22 + b22 a23 + b23

a31 a32 a33

∣∣∣∣∣∣ =

∣∣∣∣∣∣a11 a12 a13

a21 a22 a23

a31 a32 a33

∣∣∣∣∣∣+

∣∣∣∣∣∣a11 a12 a13

b21 b22 b23

a31 a32 a33

∣∣∣∣∣∣5. Si intercambiamos dos filas o dos columnas en un determinante, el determinante

cambia de signo.

6. Si A tiene una fila o una columna de ceros, entonces |A| = 0. Si A tiene dos filas odos columnas iguales o proporcionales, entonces |A| = 0.

Quedan aun dos propiedades, que de hecho son las mas importantes. Para introducirlasnecesitamos la idea de combinacion lineal, que resulta esencial en Algebra Lineal. Sir1, r2, . . . , r` son filas de una matriz A, decimos que otra fila r es combinacion lineal der1, r2, . . . , r` si existen numeros λ1, λ2, . . . , λ` tales que

r = λ1 · r1 + λ2 · r2 + · · ·+ λ` · r`

Page 12: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

12 CAPITULO 1. MATRICES Y SISTEMAS LINEALES.

En ese caso, se dice que r depende linealmente de r1, r2, . . . , r`. Ademas, se dice que variasfilas son linealmente dependientes si una de ellas depende linealmente de las demas. Deforma similar se pueden definir las combinaciones lineales de columnas, o la dependencialineal entre columnas. Si varias filas/columnas no son linealmente dependientes, entoncesse dice que son linealmente independientes.

Con estas ideas, ya estamos en condiciones de introducir las dos ultimas propiedadesde los determinantes:

7. |A| = 0 si y solo si las filas/columnas son linealmente dependientes. En otras palabras,los determinantes permiten detectar la dependencia lineal.

8. El valor del determinante no cambia si a una fila o columna se le suma una combi-nacion lineal de otras filas o columnas.

La propiedad numero 8 puede utilizarse para calcular determinantes de manera eficiente:utilizando esta propiedad podemos hacer ceros a lo largo de una fila o columna, de modo queal desarrollar por ella la mayor parte de los productos sean 0. De hecho, si conseguimos unafila o columna de ceros, el valor del determinante es directamente 0; si todos los elementosde una fila o columna son 0 salvo uno, entonces el determinante es igual al producto dedicho elemento por su adjunto.

1.3. Rango de una matriz.

Dada una matriz no necesariamente cuadrada Am×n, el rango por filas es el numero defilas de A que son linealmente independientes; el rango por columnas se puede definir deforma analoga. Se puede demostrar que el rango por filas es igual al rango por columnas, ypor lo tanto simplemente se habla del rango de A, rg(A). Hay una definicion alternativa derango, en terminos de determinantes. Antes de dar esta definicion necesitamos introducirla nocion de menor: un menor de una matriz A es un determinante obtenido a partir deA, eliminando una o varias filas y/o columnas. El rango de A se puede definir tambiencomo el mayor de los ordenes de los menores no nulos de A.

Veamos algunas observaciones sobre rg(A). En lo que sigue, llamaremos transforma-ciones elementales por filas a las siguientes operaciones: (i) intercambiar dos filas; (ii)multiplicar o dividir los elementos de una fila por un numero; (iii) sumar a una fila unacombinacion lineal de otras filas. De forma analoga pueden definirse las transformacioneselementales por columnas.

Se dice que una matriz cuadrada de orden n tiene rango completo si rg(A) = n.Por definicion de rango, esto sucede si y solo si |A| 6= 0.

rg(A) = rg(At).

Si la dimension de A es m× n, entonces rg(A) ≤ min(m,n).

Page 13: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

1.3. RANGO DE UNA MATRIZ. 13

Una matriz tiene rango 0 si y solo si todos sus elementos son 0.

Una fila/columna de 0’s no cuenta para el calculo del rango de A. Asimismo, unafila/columna que es multiplo de otra fila/columna, o combinacion lineal de variasfilas/columnas, no cuenta tampoco.

El rango no cambia si realizamos transformaciones elementales por filas o columnasen la matriz A.

El calculo de rg(A) es una operacion importante en Algebra Lineal. Cuando realizamoseste calculo, no solo estamos determinando el numero maximo de filas o columnas indepen-dientes, sino que de hecho estamos detectando cuales de ellas son independientes. Hay dosmetodos para determinar rg(A): el metodo de los determinantes, y el metodo de Gauss. Elprimero puede ser util en algunas circunstancias, en particular cuando tenemos matricesno demasiado grandes, o matrices con parametros, pero el metodo mas eficiente, y el que seusa cuando se desea implementar este calculo en un ordenador, es el segundo. De hecho, elmetodo de Gauss (o la eliminacion gaussiana, como se llama a veces) es tan importante quededicaremos enteramente a el la proxima seccion. A continuacion describimos el metodode determinantes para el calculo del rango:

(i) Si A es cuadrada y |A| 6= 0, entonces rg(A) es el orden de A.

(ii) Si A no es cuadrada, o es cuadrada pero |A| = 0, se puede calcular rg(A) empezandodesde rango 1, y ampliando rangos. Si todos los elementos son nulos sabemos (por laspropiedades del rango) que el rango es 0, y hemos terminado. Por lo tanto, suponga-mos que hay algun elemento no nulo, en cuyo caso rg(A) es al menos 1. Escogemosun elemento no nulo; se dice que dicho elemento da rango 1. item [(iii)] Ampliamosahora a rango 2. Para ello, tomando el elemento que nos dio rango 1, comprobamos sihay algun menor de A de orden 2 conteniendo el elemento anterior, que no sea nulo.Si todos son nulos, entonces el rango de A es 1, y hemos terminado. De lo contrario,el rango de A es al menos 2. Elegimos uno de dichos menores no nulos. Es importanteobservar que no hace falta probar con todos los menores de orden 2, sino solo conaquellos que contienen el elemento no nulo que nos dio rango 1.

(iii) Ampliamos ahora a rango 3. Para ello, buscamos menores de orden 3 que contengan elmenor de orden 2 que nos dio rango 2, y que sean no nulos. Si no podemos encontrarninguno, entonces rg(A) = 2; de lo contrario, el rango de A es al menos 3, etc.

(iv) El proceso anterior obviamente termina en algun momento: como rg(A) ≤ min(m,n),en un cierto momento no podemos ampliar mas el rango. La clave de este metodoesta en que no tenemos que probar con todos los menores de un cierto orden, sinosolo con aquellos que contienen el menor no nulo que encontramos en el paso anterior.

Page 14: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

14 CAPITULO 1. MATRICES Y SISTEMAS LINEALES.

1.4. Metodo de eliminacion de Gauss.

El metodo de eliminacion de Gauss permite transformar una matriz A, donde porsimplicidad supondremos que no hay ninguna columna de ceros2, en una matriz triangularA′ utilizando transformaciones elementales por filas, que fueron introducidas en el puntoanterior. Alternativamente se pueden utilizar tambien transformaciones elementales porcolumnas, pero esto es menos habitual; ademas, cuando se aplica este metodo a sistemaslineales, como veremos mas adelante, lo habitual es utilizar transformaciones por filas. Elmetodo produce como salida una matriz A′ en forma escalonada:

A′ =

• ? ? ? ? ? ? ?0 0 • ? ? ? ? ?0 0 0 0 0 • ? ?0 0 0 0 0 0 • ?0 0 0 0 0 0 0 0...

......

......

......

...0 0 0 0 0 0 0 0

Los • representan elementos no nulos. Los ? representan numeros que pueden o no ser 0.Observese que en cada fila los elementos a la izquierda de • son nulos, y en cada columnalos elementos por debajo de • son tambien nulos. El proceso que lleva de A a A′ se llamatriangulacion, y los • se llaman pivotes.

Para triangular (a veces se habla tambien de escalonar) una matriz, se parte de lamatriz A y se trabaja por columnas de la siguiente manera (representamos la fila i-esimapor ri):

(1) El primer objetivo es conseguir que el primer elemento de la primera fila (es decir,el • de la primera fila) sea no nulo. Si a11 6= 0, no hay nada que hacer y pasamosa (2). Si a11 = 0, buscamos el primer elemento no nulo de la primera columna pordebajo de a11, es decir el primer ai1 6= 0 con i > 1, e intercambiamos la fila i-esima,en la que se encuentra ai1, con la fila 1; en ese momento, a11 = 0.

(2) Hacemos ceros en la primera columna, por debajo del elemento a11. Para ello, paracada i = 2, . . . , n sumamos a la fila i-esima la fila 1 multiplicada por − ai1

a11, es decir:

ri → ri −ai1a11

· r1.

(3) Nos movemos al elemento a22, es decir, en diagonal, a partir del elemento a11. Ahoraquerremos que el segundo elemento de la segunda fila sea no nulo. Si a22 6= 0, pasamosa (4). Si a22 = 0 buscamos el primer elemento no nulo de la columna 2 por debajo dea22, es decir el primer ai2 6= 0 con i > 2, e intercambiamos la fila i-esima, en la que se

2Si la hubiera, basta con empezar a trabajar con la primera columna no nula.

Page 15: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

1.4. METODO DE ELIMINACION DE GAUSS. 15

encuentra ai2, con la fila 2; en ese momento, a22 = 0. Si algun elemento de la segundacolumna, ademas de a12, es no nulo, podremos conseguirlo. Si no podemos conseguirlo,en cuyo caso a22 = 0 y todos los elementos de la segunda columna por debajo de a22

son 0, nos movemos en horizontal, es decir, al elemento a23, y repetimos el proceso: sia23 6= 0 pasamos a (4), si a23 = 0 buscamos el primer elemento no nulo de la terceracolumna por debajo de a23, e intercambiamos la fila en la que se encuentra dichoelemento con la fila 2, etc. Eventualmente o bien llegamos a a2j 6= 0, donde todos loselementos de la fila 2 a la izquierda de a2j son nulos, o bien nuestra matriz cumpleque todas las filas por debajo de la primera son nulas. En el primer caso, el • de lasegunda fila es a2j, y en el segundo la matriz ya esta escalonada, y hemos terminado.Si no hemos terminado:

(4) Hacemos ceros en la segunda columna, por debajo del elemento a22; en su caso, sino hemos podido conseguir a22 = 0, hacemos ceros en la columna j-esima por debajodel elemento a2j. Para ello, para cada i = 3, . . . , n sumamos a la fila i-esima la fila 2multiplicada por − ai2

a22; en su caso, si no hemos podido conseguir a22 = 0, para cada

i = 3, . . . , n sumamos a la fila i-esima la fila 2 multiplicada por − aija2j

. Es decir,

ri → ri −ai2a22

· r2

o, en su caso,

ri → ri −aija2j

· r2.

(5) Nos movemos de nuevo en diagonal a partir del elemento anterior, y procedemos denuevo como antes: si el elemento que obtenemos es no nulo hacemos ceros por debajode el, y si es nulo buscamos el primer elemento en su columna, y por debajo de el,que no lo sea...

(6) etc.

Por lo tanto, en general primero conseguimos el • de cada fila, despues hacemos ceros pordebajo de el, y a continuacion nos movemos en diagonal, para conseguir el proximo •, o enhorizontal, si moviendonos en diagonal no conseguimos nada. Una vez determinada la formaescalonada de la matriz A, rg(A) es el numero de filas no nulas. En efecto, por definicionde rango ese es el rango de A′; pero como hemos obtenido A′ aplicando transformacioneselementales por filas a A, y el rango no cambia cuando se aplican transformaciones porfilas, rg(A′) = rg(A).

Para otras aplicaciones, en lugar de la forma escalonada de la matriz se utiliza la formaescalonada reducida:

Page 16: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

16 CAPITULO 1. MATRICES Y SISTEMAS LINEALES.

A′′ =

1 ? 0 ? ? 0 0 ?0 0 1 ? ? 0 0 ?0 0 0 0 0 1 0 ?0 0 0 0 0 0 1 ?0 0 0 0 0 0 0 0...

......

......

......

...0 0 0 0 0 0 0 0

La diferencia entre la forma escalonada reducida y la no reducida es que en esta ultima

el elemento mas a la izquierda de una fila no nula, es decir el pivote, es un 1; ademas, en lascolumnas que contienen un pivote, el unico elemento no nulo es, precisamente, el pivote.Para llegar a esta forma, una vez que hemos alcanzado la forma escalonada, dividimoscada fila no nula por el pivote (para obtener los 1) y despues hacemos ceros por encima decada 1 sumando a las filas correspondientes, la fila del pivote multiplicada por la cantidadadecuada.

1.5. Matriz inversa.

La nocion de inversa de una matriz cuadrada A fue introducida al final de la Seccion1.1, pero aun no hemos dado ningun metodo para calcularla. Dijimos tambien que lainversa A−1 no siempre existe. Ahora podemos precisar cuando existe: A−1 existe si y solosi |A| 6= 0, o, equivalentemente, si y solo si A tiene rango completo. Si A tiene inversadecimos que es regular, de lo contario decimos que es singular. Si A−1 existe hay dosmetodos para calcularla. Uno de ellos utiliza determinantes, y el otro utiliza el metodo deeliminacion de Gauss.

Comenzamos con el metodo que utiliza determinantes. Definimos la matriz adjunta deA, Adj(A), como la matriz que resulta al reemplazar cada elemento aij por su adjunto Aij.Entonces,

A−1 =1

|A| · Adjt(A).

La condicion |A| 6= 0 es esencial para que la expresion anterior tenga sentido. Esta formularesulta comoda si A tiene un orden bajo y contiene varios 0, de modo que el calculo deAdj(A) no resulte demasiado tedioso. Sin embargo, tanto para su implementacion en unordenador como para matrices de orden superior a 3, el mejor metodo es el metodo deGauss, que proporcionamos sin demostracion a continuacion:

1. Escribir (A | I

)donde I representa la matriz identidad del mismo orden que A.

Page 17: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

1.6. SISTEMAS LINEALES 17

2. Aplicar el metodo de eliminacion gaussiana sobre A, hasta alcanzar la matriz iden-tidad. Esto es equivalente a determinar la forma escalonada reducida de A (que, encualquier matriz regular, corresponde a la matriz identidad).

3. Mientras se ejecuta el paso 2, realizar sobre I (a la izquierda) las mismas operacionesque se realicen sobre A (a la derecha).

4. Cuando se alcanza la matriz identidad a la izquierda, la matriz que se tiene a laderecha es la inversa de A, es decir(

A | I)⇒

(I | A−1

)1.6. Sistemas Lineales

Un sistema de ecuaciones lineales, o simplemente un sistema lineal, es un conjuntode ecuaciones del tipo

a11 · x1 + a12 · x2 + · · · a1n · xn = b1

a21 · x1 + a22 · x2 + · · · a2n · xn = b2...

......

am1 · x1 + am2 · x2 + · · · amn · xn = bm

donde los xi’s son las incognitas, los aij’s son los coeficientes, y los bj’s son los terminosindependientes. Al principio del tema vimos un ejemplo de un sistema de este tipo en elcontexto de los circuitos electricos. Estos sistemas se pueden resolver de un modo rapidoy seguro, desde el punto de vista computacional, incluso aunque el numero de ecuacioneso de incognitas sea muy grande; de hecho, los sistemas que encontramos en la practicatienen cientos de ecuaciones e incognitas, y el numero de ecuaciones y de incognitas no esnecesariamente el mismo. Si bien cuando el sistema es pequeno resulta posible encontrarla solucion manipulando sin mas las ecuaciones, para poder resolver sistemas grandes esnecesario disponer de un procedimiento claro y sistematico, que pueda programarse en unordenador. Este procedimiento es el metodo de Gauss, que veremos mas adelante en estaseccion.

Para analizar y resolver un sistema lineal se definen dos matrices relacionadas con elsistema. La primera es la matriz de coeficientes, cuyos elementos son los coeficientes delas incognitas:

A =

a11 a12 · · · a1n

a21 a22 · · · a2n...

.... . .

...am1 am2 · · · amn

La segunda, llamada la matriz ampliada, es el resultado de anadir a la matriz de coefi-cientes la columna formada por los terminos independientes:

Page 18: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

18 CAPITULO 1. MATRICES Y SISTEMAS LINEALES.

B =

a11 a12 · · · a1n b1

a21 a22 · · · a2n b2...

.... . .

......

am1 am2 · · · amn bm

Observese que las filas de estas matrices corresponden a las distintas ecuaciones, mien-tras que las columnas corresponden a las diferentes incognitas. Ademas, haciendo uso delproducto de matrices se puede escribir el sistema en forma matricial:

a11 a12 · · · a1n

a21 a22 · · · a2n...

.... . .

...am1 am2 · · · amn

︸ ︷︷ ︸

A

·

x1

x2...xn

︸ ︷︷ ︸

x

=

b1

b2...bm

,

︸ ︷︷ ︸b

o de forma abreviada, A · x = b. En ocasiones, x y b reciben los nombres de vector deincognitas y vector de terminos independientes, respectivamente.

Lo primero que queremos saber es si el sistema tiene o no solucion; en caso afirmativo,ademas deseamos averiguar cuantas soluciones tiene. Se puede probar que si un sistemade este tipo tiene mas de una solucion, de hecho tiene infinitas. Decimos que el sistemaes incompatible si no tiene solucion. Si tiene solucion, se dice que es compatible, y enese caso puede tener solucion unica, o infinitas soluciones; en el primer caso, diremos quees compatible determinado, y en el segundo caso, compatible indeterminado. Elsiguiente teorema permite clasificar un sistema, es decir, identificarlo como compatible oincompatible, y en caso de compatibilidad, detectar si es determinado o indeterminado. Enel teorema resulta clave la nocion de rango de una matriz.

Teorema 1 (Teorema de Rouche-Frobenius). Sea A · x = b un sistema lineal de m ecua-ciones y n incognitas, y sea B la matriz ampliada del sistema. El sistema es compatible si ysolo si rg(A) = rg(B); ademas, si el sistema es compatible entonces es compatible determi-nado cuando rg(A) = rg(B) = n, y compatible indeterminado cuando rg(A) = rg(B) < n.

Demostracion. Unicamente probaremos la primera parte. La clave esta en escribir el siste-ma en la siguiente forma:

x1 ·

a11

a21...am1

︸ ︷︷ ︸

c1

+x2 ·

a12

a22...am2

︸ ︷︷ ︸

c2

+ · · ·+ xn ·

a1n

a2n...

amn

︸ ︷︷ ︸

cn

=

b1

b2...bm

,

︸ ︷︷ ︸b

donde los ci’s representan las columnas de A. Por lo tanto, el sistema es compatible si ysolo si la columna de terminos independientes es combinacion lineal de las columnas de A.Pero por la definicion de B, esto sucede si y solo si rg(A) = rg(B).

Page 19: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

1.6. SISTEMAS LINEALES 19

Si rg(A) = rg(B) < n, la diferencia n − rg(A) es el numero de grados de libertad delsistema, es decir el numero de parametros de los que dependen las soluciones.

Para resolver sistemas lineales existen, como en la determinacion de rangos o el calculode inversas, dos metodos, en los que se utilizan determinantes y eliminacion gaussiana,respectivamente. El primero se conoce como el metodo de Cramer. Para aplicar estemetodo a partir del sistema original debe obtenerse un sistema donde la matriz de coefi-cientes sea cuadrada y regular (es decir, con determinante distinto de cero). Dicho sistemarecibe el nombre de sistema de Cramer. Para conseguir un sistema ası, calculamos primerorg(A), eliminamos las ecuaciones correspondientes a las filas que no dan rango, y pasamos ala derecha, es decir al lado de los terminos independientes, las incognitas correspondientesa las columnas que no dan rango; estas ultimas incognitas, si las hay, corresponderan alos parametros de los cuales dependeran las soluciones. Suponiendo que A · x = b cumple|A| 6= 0, la incognita xj, i = j, 2, . . . , n es igual a:

xj =1

|A| ·

∣∣∣∣∣∣∣∣∣a11 · · · a1,j−1 b1 a1,j+1 · · · a1n

a21 · · · a2,j−1 b2 a2,j+1 · · · a2n... · · · ...

...... · · · ...

am1 · · · am,j−1 bm am,j+1 · · · amn

∣∣∣∣∣∣∣∣∣Por lo tanto, la incognita j-esima es el cociente de dos determinantes: el determinante queresulta tras reemplazar la columna j-esima de A por la columna de terminos independientes,y el determinante de la matriz de coeficientes.

El metodo anterior es util para sistemas pequenos y para sistemas en los que los coe-ficientes dependen de parametros. Pero en general, y desde luego desde el punto de vistacomputacional, el problema se puede resolver de modo mucho mas eficiente haciendo usode la elminacion gaussiana. Aquı hay dos posibilidades, llamadas metodo de Gauss ymetodo de Gauss-Jordan, respectivamente. La idea en ambos casos es transformar elsistema dado en un sistema triangular, equivalente al primero, donde decimos que dos sis-temas son equivalentes si tienen las mismas soluciones, y que un sistema es triangular sila matriz de coeficientes correspondiente lo es tambien. Para obtener el sistema triangu-lar equivalente se realizan operaciones elementales sobre el sistema original, en concreto:(i) intercambiar dos ecuaciones; (ii) multiplicar o dividir una ecuacion por un numero;(iii) anadir a una ecuacion una combinacion lineal de otras ecuaciones. Se puede obser-var que estas operaciones coinciden con lo que en el contexto de la eliminacion gaussianallamabamos “transformaciones elementales”. De hecho, aplicar operaciones elementales alas ecuaciones de un sistema es equivalente a aplicar las transformaciones correspondientessobre las filas de la matriz ampliada. El aspecto de un sistema triangular es:

a11 · x1+ a12 · x2+ · · ·+ a1,n−1 · xn−1+ a1n · xn = b1

a22 · x2+ · · ·+ a2,n−1 · xn−1+ a2n · xn = b2...

... =...

an−1,n−1 · xn−1+ an−1,n · xn = bn−1

ann · xn = bn

Page 20: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

20 CAPITULO 1. MATRICES Y SISTEMAS LINEALES.

Resolver un sistema ası es inmediato: a partir de la ecuacion n-esima se calcula el valorde xn; despues se sustituye este valor en la ecuacion (n − 1)-esima, para obtener xn−1; acontinuacion sustituimos xn, xn−1 en la (n− 2)-esima ecuacion para obtener xn−2, etc. Enel caso del metodo de Gauss-Jordan, llevamos la misma idea un poco mas alla, a fin deproducir un sistema equivalente, diagonal, de modo que cada ecuacion sea del tipo akk ·xk =bk, que es aun mas sencillo de resolver. Notese que obtener un sistema equivalente de estetipo aplicando transformaciones elementales sobre las ecuaciones originales es equivalentea aplicar la eliminacion gaussiana sobre la matriz ampliada.

Veamos los metodos en detalle. Comenzamos con el metodo de Gauss. En este caso,trabajamos a partir de la matriz ampliada, dispuesta como(

A | b),

donde la matriz de coeficientes A esta a la izquierda, y el vector de terminos independientesb esta a la derecha. Despues aplicamos la eliminacion gaussiana a la matriz A, realizandosobre b las mismas operacions que llevamos a cabo sobre A. Si, por ejemplo, partimos deun sistema con 8 incognitas y m ecuaciones, finalmente llegamos a

x1 x2 x3 x4 x5 x6 x7 x8 b↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓

1a → •1 •2 ? ? ? ? ? ? ?2a → 0 0 •3 •4 •5 ? ? ? ?3a → 0 0 0 0 0 •6 ? ? ?4a → 0 0 0 0 0 0 •7 •8 ?5a → 0 0 0 0 0 0 0 0 ?

......

......

......

......

......

ma → 0 0 0 0 0 0 0 0 ?

Los •k’s corresponden a coeficientes no nulos, mientras que los terminos ?’s pueden serigual a 0, o no. Ademas, las columnas corresponden a los coeficientes de cada incognita enlas nuevas ecuaciones, mientras que las filas corresponden a las nuevas ecuaciones 1a, 2a,3a, etc. Estos coeficientes definen un nuevo sistema, equivalente al original:

•1 · x1+ •2 · x2+ ? · x3+ ? · x4+ ? · x5+ ? · x6+ ? · x7+ ? · x8 = ?•3 · x3+ •4 · x4+ •5 · x5+ ? · x6+ ? · x7+ ? · x8 = ?

•6 · x6+ ? · x7+ ? · x8 = ?•7 · x7+ • · x8 = ?

0 = ?...

0 = ?

Las ecuaciones, al final del sistema, del tipo 0 = ? nos permiten decidir si el sistema escompatible o no: si algun ? es no nulo en alguna de esas ecuaciones, entonces el sistema

Page 21: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

1.6. SISTEMAS LINEALES 21

es incompatible porque 0 no puede ser igual a un numero no nulo; en cambio, si todosesos ? son 0, el sistema es compatible. Para encontrar la solucion, primero observamosque el sistema de arriba puede no ser triangular, es decir, puede haber varios •’s en unmismo escalon (ecuacion): por ejemplo, en la primera ecuacion tenemos dos, •1, •2, en lasegunda hay tres, •3, •4, •5, etc. Por tanto, para obtener un sistema triangular debemosdejar un unico • en cada ecuacion; los terminos correspondientes a los demas • pasanal lado derecho, donde juegan el papel de parametros. Notese que hay varias posibilidadesaquı (por ejemplo, en la primera ecuacion podrımos enviar x1 o x2 a la derecha, etc.), lo cualda lugar a soluciones aparentemente distintas, que en realidad son la misma. Procediendode este modo, y eliminando las filas nulas, obtendrıamos, en el mismo ejemplo,

•1 ? ? ? ?1

0 •3 ? ? ?2

0 0 •6 ? ?3

0 0 0 •7 ?4

Observese que ahora los ? han absorbido algunas incognitas; por ejemplo, x2 ha sido absor-bida en la primera fila, x4, x5 en la segunda, etc. Por lo tanto, el sistema correspondientees:

•1 · x1+ ? · x3+ ? · x6+ ? · x7 = ?1

•3 · x3+ ? · x6+ ? · x7 = ?2

•6 · x6+ ? · x7 = ?3

•7 · x7 = ?4

Como los •k’s son no nulos, de la ultima ecuacion obtenemos x7. Sustituyendo su valor enla tercera ecuacion, calculamos x6. Sustituyendo x6, x7 en la segunda ecuacion obtenemosx3, y finalmente de la primera ecuacion deducimos el valor de x1. En general, primero seresuelve la ultima ecuacion, y despues procedemos de abajo hacia arriba, sustituyendo lasincognitas por los valores que ya han sido determinados.

El metodo se puede llevar mas alla, lo cual da lugar al metodo de Gauss-Jordan. Paraello, en vez de la forma escalonada de A, buscamos la forma escalonada reducida de A,

1 0 0 0 ?1

0 1 0 0 ?2

0 0 1 0 ?3

0 0 0 1 ?4

que es equivalente al sistema

x1 = ?1

x3 = ?2

x6 = ?3

x7 = ?4

Ası, los terminos independientes ?k son de hecho los valores de las incognitas. Este es elmetodo que se utiliza en los paquetes de software matematico. Con este metodo, sistemas

Page 22: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

22 CAPITULO 1. MATRICES Y SISTEMAS LINEALES.

lineales de cientos de ecuaciones y cientos de incognitas se pueden resolver en cuestion desegundos.

Tambien se puede observar que si A es cuadrada y |A| 6= 0, la solucion de A · x = b sepuede expresar como x = A−1 · b, lo cual sugiere otro metodo para resolver el sistema, enconcreto calcular primero la inversa A−1 y despues multiplicarla por b. Sin embargo, estemetodo no se suele utilizar en la practica.

Finalmente, consideremos un tipo especial de sistemas lineales, que sin embargo apare-cen una y otra vez en Algebra Lineal. Decimos que un sistema lineal es homogeneo si elvector de terminos independientes es cero, es decir

a11 · x1 + a12 · x2 + · · · a1n · xn = 0a21 · x1 + a22 · x2 + · · · a2n · xn = 0

......

...am1 · x1 + am2 · x2 + · · · amn · xn = 0

Como en este caso la matriz ampliada y la matriz de coeficientes difieren solo en unacolumna de ceros, sus rangos coinciden. Por lo tanto, por el Teorema de Rouche-Frobeniusestos sistemas siempre son compatibles. De hecho, cualquier sistema homogeneo admite loque llamamos solucion trivial, x1 = x2 = · · · = xn = 0. Lo interesante en un sistemahomogeneo es si este admite otras soluciones, ademas de la trivial. De hecho, si admite otrassoluciones ademas de la trivial significa que la solucion no es unica, y por lo tanto el sistemaadmite infinitas soluciones. Si rg(A) = n, por el Teorema de Rouche-Frobenius el sistematiene solucion unica, y puesto que la solucion trivial siempre esta ahı, la unica soluciones la trivial. Si rg(A) < n hay infinitas soluciones distintas de la trivial. Si el sistema escuadrado, es decir si tiene tantas incognitas como ecuaciones, entonces el sistema tienesoluciones no triviales si y solo si |A| = 0.

Page 23: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

Capıtulo 2

Espacios vectoriales.

Las matrices, los polinomios y las funciones tienen algo en comun, ademas del hechode ser habitantes del “universo matematico”. En los tres conjuntos podemos definir dosoperaciones, suma y producto por un numero, que dan lugar a otros elementos del mismoconjunto. Para ser mas precisos, consideremos el conjunto de las matrices Am×n. Dadasdos matrices A,B ∈ Am×n sabemos como calcular A + B; ademas, A + B ∈ Am×n. Porotra parte, dado λ ∈ R sabemos tambien calcular λ ·A, y λ ·A ∈ Am×n. Analogamente, lasuma de dos polinomios (resp. dos funciones) produce otro polinomio (resp. otra funcion),y el producto de un polinomio (resp. una funcion) por un numero proporciona, de nuevo,un polinomio (resp. una funcion). Podemos resumir todo esto diciendo que en cualquierade estos casos, dados dos elementos A,B del conjunto y dos numeros λ, µ ∈ R, la expresionλ ·A+µ ·B tiene sentido, y corresponde a otro elemento del mismo conjunto. La operacionλ · A + µ · B aparecio ya en el Tema 1, Seccion 1.2: la llamamos combinacion lineal. Porlo tanto, podemos decir que en el conjunto de matrices de una cierta dimension, en elconjunto de los polinomios o en el de las funciones, la nocion de combinacion lineal tienesentido, y produce un nuevo elemento dentro del mismo conjunto.

Para ver que la idea anterior es mas profunda de lo que podrıa pensarse, consideremosahora un ejemplo ligeramente mas complicado. Del mismo modo que una ecuacion comox2 − 4 = 0 representa una relacion satisfecha por determinados numeros que queremosencontrar (en este caso, aquellos cuyo cuadrado es igual a 4), una ecuacion diferencial esuna relacion satisfecha por una cierta funcion o funciones desconocidas, y algunas de susderivadas. Por ejemplo, la ecuacion diferencial

y′′(t) + y(t) = 0,

representa a aquellas funciones cuya derivada segunda es igual al opuesto de la propiafuncon. Una funcion que satisface esta ecuacion, y que por lo tanto es una solucion de lamisma, es y(t) = cos(t) (porque y′(t) = −sin(t) y por tanto y′′(t) = −cos(t) = −y(t)).Pero no es la unica. Se puede comprobar que sin(t) tambien satisface la ecuacion, y dehecho que como consecuencia de las propiedades de la derivada, dadas dos solucionesy1(t), y2(t) cualesquiera de la ecuacion y dados dos numeros reales cualesquiera λ, µ ∈ R,λ · y1(t) +µ · y2(t), es decir cualquier combinacion lineal de y1(t), y2(t), es tambien solucion

23

Page 24: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

24 CAPITULO 2. ESPACIOS VECTORIALES.

de la ecuacion. En consecuencia, si uno considera el conjunto de funciones

V = y(t)|y′′(t) + y(t) = 0,se tiene que la combinacion lineal de dos elementos de V pertenece tambien V . Desdeluego, esto no sucede siempre: si consideramos la siguiente ecuacion diferencial, ligeramentediferente de la anterior,

y′′(t) + y(t) = 1

entonces la combinacion lineal de soluciones no es, sin embargo, solucion de la ecuacion.Por ejemplo, si y′′1(t) + y1(t) = 1 y y′′2(t) + y2(t) = 1, entonces y1(t) + y2(t), que es unacombinacion lineal de y1(t), y2(t), cumple

(y1(t) + y2(t))′′ + (y1(t) + y2(t)) = y′′1(t) + y1(t) + y′′2(t) + y2(t) = 1 + 1 = 2 6= 1

Por lo tanto, si representamos por V ′ el conjunto de soluciones de la ecuacion diferen-cial anterior, no toda combinacion lineal de elementos de V ′ (por ejemplo y1(t) + y2(t))permanece en V ′.

Si en un conjunto V tiene sentido la nocion de combinacion lineal, y ademas se cumpleque cualquier combinacion lineal de elementos de V produce otro elemento de V , decimosque V es un espacio vectorial. Los espacios vectoriales aparecen muy a menudo en dife-rentes campos de las Matematicas, y aunque se trata de un concepto abstracto, resultasin embargo muy util para resolver problemas muy concretos. Por ejemplo, en el Tema 5los utilizaremos para resolver ecuaciones diferenciales, y en el Tema 6 los usaremos paradesarrollar el metodo de mınimos cuadradados. Para dar una idea de la relevancia de es-tos problemas, diremos que las ecuaciones diferenciales aparecen al estudiar circuitos conelementos como condensadores o solenoides, y el metodo de mınimos cuadrados aparececuando queremos estudiar un sistema de ecuaciones lineales que es casi compatible; esta si-tuacion, que explicaremos en su momento, es muy habitual en Matematica Aplicada, dondea menudo se trabaja con cantidades aproximadas, y aparece por ejemplo en el contexto dela tecnologıa GPS. El objetivo de este tema es presentar el concepto de espacio vectorial ycomenzar a entender sus aplicaciones.

2.1. Espacios vectoriales.

Para definir un espacio vectorial necesitamos cuatro ingredientes: (a) un conjunto V ,cuyos elementos pueden tener una naturaleza muy variada (pueden ser vectores del planoo del espacio, matrices, polinomios, funciones...); (b) otro conjunto, numerico, que en nues-tro caso asumiremos igual a R (aunque tambien puede utilizarse C) a cuyos elementosllamaremos escalares, y al que a veces nos referiremos como “cuerpo de escalares”; (c) unaoperacion +, que llamaremos suma, definida entre dos elementos cualesquiera de V ; (d)otra operacion · definida entre un elemento de V y un escalar, que llamaremos productopor un numero o producto por escalares. Decimos que V es un espacio vectorial,silas operaciones +, · satisfacen propiedades muy concretas, como se precisa en la siguientedefinicion.

Page 25: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

2.1. ESPACIOS VECTORIALES. 25

Definicion 2. Decimos que (V,+, ·) es un espacio vectorial sobre R (si estuvieramosusando C en vez de R como cuerpo de escalares hablarıamos de un espacio vectorial sobreC) si se cumplen las siguientes propiedades:

(i) (V,+) es un grupo conmutativo1, es decir, + verifica las siguientes propiedades:

• Es una ley interna: ∀u, v ∈ V , u+ v ∈ V .

• Associativa: ∀u, v, w ∈ V , u+ (v + w) = (u+ v) + w.

• Elemento neutro: existe 0 ∈ V tal que u ∈ V , u+ 0 = u.

• Elemento inverso: para todo u ∈ V , existe −u ∈ V such that u+ (−u) = 0.

• Conmutativa: ∀u, v ∈ V , u+ v = v + u.

(ii) La operacion · verifica lo siguiente:

• ∀λ ∈ R, ∀u, v ∈ V , λ · (u+ v) = λu+ λv.

• ∀λ, µ ∈ R, ∀u, v ∈ V , (λ+ µ) · u = λu+ λv.

• ∀λ, µ ∈ R, ∀u, v ∈ V , λ · (µu) = (λ · µ) · u.

• 1 · u = u.

Para precisar que el cuerpo de escalares es, por ejemplo, R, se escribe (V (R),+, ·) (sifuera C, escribirıamos (V (C),+, ·)). Son espacios vectoriales sobre los reales (y sobre loscomplejos tambien) el conjunto de matrices de una dimension fija, el de polinomios o el defunciones. Ademas los conjuntos de vectores del plano R2 y de vectores del espacio R3 sontambien espacios vectoriales. Estos ultimos se pueden generalizar a cualquier dimension,no solo 2 o 3, dando lugar al conjunto Rn: los elementos de Rn, n ∈ N, son los conjuntosde n-tuplas:

Rn = (x1, x2, . . . , xn)|xi ∈ R ∀i = 1, 2, . . . , n.La suma en Rn se define de un modo natural,

(x1, x2, . . . , xn) + (y1, y2, . . . , yn) = (x1 + y1, x2 + y2, . . . , xn + yn).

El producto por escalares tambien es natural:

λ · (x1, x2, . . . , xn) = (λ · x1, λ · x2, . . . , λ · xn).

En particular, si n = 2 o n = 3 tenemos las operaciones habituales en R2 o R3. Sepuede comprobar que estas operaciones satisfacen las propiedades de la definicion anterior,de modo que (Rn,+, ·) es efectivamente un espacio vectorial. Para n ≥ 4 no es posible

1Se dice que una operacion ? da a un conjunto E estructura de grupo, y la operacion ? es una leyinterna en el conjunto E, y satisface las propiedades asociativa, elemento neutro y elemento opuesto. Siademas ? es conmutativa, entonces se dice que (E, ?) es un grupo conmutativo.

Page 26: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

26 CAPITULO 2. ESPACIOS VECTORIALES.

visualizar los elementos de Rn: sin embargo, a pesar de que no podamos visualizarlos esposible operar con ellos, porque conocemos las reglas formales que definen dichos espacios.

Los elementos de V se llaman vectores. En particular, en el futuro, cuando hablemosde vectores no debe asumirse que estemos hablando de elementos de R2 o R3: un vector,de ahora en adelante, sera simplemente un elemento de un espacio vectorial. Por lo tanto,decir que una matriz, un polinomio o una funcion es un vector no es incorrecto, ya quetodos ellos son elementos de espacios vectoriales.

En cualquier espacio vectorial se cumple el siguiente resultado.

Proposicion 3. Sea (V (R),+, ·) un espacio vectorial sobre R. Entonces para todo λ ∈ Ry para todo u ∈ V , se cumple que:

(1) λ · 0 = 0.

(2) 0 · u = 0.

(3) λ · u = 0 si y solo si λ = 0 o u = 0.

(4) λ · (−u) = (−λ) · u = −(λ · u).

Una propiedad notable de los espacios vectoriales es que en muchos casos el conjunto en-tero se puede construir a partir de unicamente algunos elementos, mediante combinacioneslineales de estos. Esta idea es la que inspira la siguiente seccion.

2.2. Dependencia lineal. Bases.

Aunque ya hemos introducido los conceptos de combinacion lineal y dependencia eindependencia lineal en el tema anterior, los incluiremos aquı de nuevo en el contexto delos espacios vectoriales. Una combinacion lineal de vectores u1, u2, . . . , un es otro vectorde la forma

λ1u1 + λ2u2 + · · ·+ λnun

donde λi ∈ R para i = 1, . . . , n. Los coeficientes λ1, . . . , λn se llaman coeficientes de lacombinacion lineal. Se puede observar que el vector 0 se puede considerar combinacionlineal de cualesquiera vectores u1, u2, . . . , un, porque 0 = 0 · u1 + 0 · u2 + · · ·+ 0 · un.

Decimos que u1, u2, . . . , un son linealmente dependientes (l.d.) si uno de ellos escombinacion lineal del resto. Si u1, u2, . . . , un no son l.d., diremos que son linealmenteindependientes. En particular, dos vectores son linealmente dependientes si y solo siuno de ellos es un multiplo del otro. Comprobar si varios vectores son o no linealmenteindependientes, o decidir cuantos de ellos son independientes, es un problema importante.Si los vectores son elementos de Rn sabemos, de hecho, como resolver este problema apartir de la Seccion 1.3 del Tema 1: construimos una matriz que tenga como columnasa los vectores, y determinamos su rango. Esta idea se puede generalizar a otros espaciosvectoriales distintos de Rn, pero requiere la idea de coordenadas respecto a una base, queintroduciremos al final de la seccion.

El siguiente resultado esta relacionado con la deteccion de la dependencia lineal.

Page 27: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

2.2. DEPENDENCIA LINEAL. BASES. 27

Teorema 4. Los vectores u1, u2, . . . , un son linealmente independientes si y solamentesi la unica combinacion lineal λ1u1 + · · ·+λnun de estos vectores que proporciona el vector~0, es aquella cuyos coeficientes son, todos ellos, iguales a cero: es decir,

λ1u1 + · · ·+ λnun = ~0⇒ λ1 = · · · = λn = 0.

Demostracion. Para comprobar (⇒), supongamos por reduccion al absurdo que u1, u2, . . . , unson independientes, pero existen λi’s, no todos cero, tales que λ1u1 + · · · + λun = ~0. Su-pongamos sin perdida de generalidad que λ1 6= 0. Entonces podemos escribir

u1 = −λ2

λ1

u2 − . . .−λnλ1

un,

con lo cual u1, u2, . . . , un son linealmente dependientes, lo cual contradice la hipotesisde que eran independientes. En la direccion (⇐), de nuevo por reduccion al absurdo, siu1, u2, . . . , un son linealmente independientes, entonces uno de ellos, por ejemplo u1,depende linealmente de los demas. Por lo tanto existen µ2, . . . , µn ∈ R tales que u1 =µ2 · u2 + · · ·+ µn · un. Sin embargo, en ese caso 1 · u1 − µ2 · u2 − · · · − µn · un = 0; y como1 6= 0, deducimos que existe una combinacion lineal de los vectores, con coeficientes notodos nulos, que proporciona el vector 0.

Nos planteamos ahora si es posible encontrar algunos vectores que puedan generarcualquier otro vector del espacio, por medio de combinaciones lineales. En caso afirmativo,nos preguntamos que condiciones deben cumplir esos vectores, y cual es el mınimo numerode vectores que necesitamos. En la respuesta a estas preguntas las nociones de dependenciae independencia lineal seran importantes. Las siguientes dos definiciones tienen que ver conestas preguntas.

Definicion 5. Decimos que S = u1, . . . , un es un sistema de generadores de V sicualquier vector de V se puede escribir como combinacion lineal de vectores de S.

Definicion 6. Decimos que B = u1, . . . , un es una base de V si es un sistema degeneradores de V y los vectores de B son linealmente independientes.

Para ilustrar estos conceptos, consideremos el conjunto R2 y los vectores de R2 siguien-tes: u1 = (1, 0), u2 = (0, 1), u3 = (−1, 2). Se puede comprobar que S = u1, u2, u3 esun sistema de generadores de R2: en efecto, dado cualquier vector u = (u1, u2) ∈ R2, secumple que

u = u1 · (1, 0) + u2 · (0, 1) + 0 · (−1, 2)

Por lo tanto, cualquier u se puede escribir como combinacion lineal de u1, u2, u3. Sinembargo, S no es una base, porque u3 = (−1) · (1, 0) + 2 · (0, 1); por lo tanto u3 dependelinealmente de u1, u2 y en consecuencia los vectores de S no son linealmente independientes.Por otra parte, S ′ = u1, u2 es una base de R2: los vectores de S ′ son tambien sistema degeneradores de R2, y no son linealmente dependientes porque u1 y u2 no son multiplos eluno del otro. Observemos que no decimos que (0, 1), (1, 0) sea la base de R2, sino unabase de R2, porque hay otras bases; por ejemplo, (1, 1), (1,−1) es otra base de R2, y dehecho hay infinitas. Otros ejemplos:

Page 28: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

28 CAPITULO 2. ESPACIOS VECTORIALES.

En Rn, se puede comprobar que

Bc = (1, 0, . . . , 0)︸ ︷︷ ︸e1

, (0, 1, . . . , 0)︸ ︷︷ ︸e2

, n. . ., (0, 0, . . . , 1)︸ ︷︷ ︸en

es una base. Esta base recibe el nombre de base canonica de Rn.

En Rn[t], es decir, el espacio vectorial de los polinomios de grado a lo sumo n,

1, t, t2, . . . , tn

es una base (tambien llamada base canonica de Rn[t]).

En A2×2, el espacio vectorial de las matrices cuadradas de orden 2, (1 00 0

),

(0 10 0

),

(0 01 0

),

(0 00 1

) es tambien una base.

La diferencia entre una base y un sistema de generadores es que en un sistema degeneradores puede haber elementos superfluos, en concreto aquellos que se puedan generar apartir de otros elementos del sistema. De hecho, si quitamos todos esos elementos superfluosdel sistema de generadores, obtendremos una base. En una base, sin embargo, todos loselementos son necesarios.

En todos los ejemplos anteriores las bases que hemos dado tienen una cantidad finita devectores. Decimos que un espacio vectorial tiene dimension finita si admite una base conuna cantidad finita de vectores. Los conjuntos Rn, Rn[t], o Am×n son ejemplos de espaciosde dimension finita. Pero no todos los espacios vectoriales son ası: por ejemplo, el espaciovectorial de las funciones reales de variable real no tiene dimension finita, lo que significaque no podemos generar todas las funciones a partir de unas pocas mediante combinacioneslineales. Sin embargo, en lo que sigue nos restringiremos al caso de espacios vectoriales dedimension finita. Por otra parte, intuitivamente puede decirse que la dimension de unespacio vectorial es el numero de variables que necesitamos para identificar un elementoconcreto del espacio. Por ejemplo, los elementos de Rn estan definidos por n parametros,luego su dimension es n; los elementos de Rn[t], que son los polinomios de grado a lo sumon,

p(t) = antn−1 + · · ·+ a1t+ a0,

estan definidos por n + 1 parametros (los n + 1 coeficientes an, . . . , a1, a0), y por lo tantola dimension de este espacio vectorial es n+ 1; un elemento de An×n queda fijado cuandofijamos el valor de los n2 elementos de la matriz, y en consecuencia dim(An×n) = n2.

Ya hemos dicho que en general un espacio vectorial puede tener muchas bases diferentes.De hecho, todos los espacios vectoriales que hemos mencionado hasta ahora tienen infinitasbases. Sin embargo, el siguiente teorema, que damos sin demostracion, afirma que todasesas bases comparten algo.

Page 29: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

2.2. DEPENDENCIA LINEAL. BASES. 29

Teorema 7. Si V tiene dimension finita, entonces todas las bases de V tienen el mismonumero de vectores.

El teorema anterior justifica la siguiente definicion.

Definicion 8. Sea V un espacio vectorial de dimension finita. La dimension de V ,dim(V ), es el numero de vectores de que consta cualquier base de V .

Si dim(V ) = n, a veces escribimos Vn, para especificar la dimension de V . El siguienteresultado contiene algunas consecuencias importantes del concepto de dimension.

Proposicion 9. Sea V un espacio vectorial de dimension finita, y sea dim(V ) = n. Lassiguientes afirmaciones son ciertas:

(i) Si S genera V , se puede extraer de S una base de V .

(ii) Todo conjunto de mas de n vectores es linealmente dependiente.

(iii) Todo sistema de generadores contiene al menos n vectores.

(iv) Dado un conjunto de n vectores B = u1, . . . , un ⊂ V , son equivalente: (a) B esbase; (b) B es linealmente independiente; (iii) B es un sistema de generadores.

Finalmente, vamos a ver que siempre que trabajemos en un espacio de dimension finita,en un cierto sentido podemos actuar como si estuvieramos en Rn. La clave es el siguienteconcepto.

Definicion 10. Sea B = u1, . . . , un una base de V , y sea v ∈ V . Las coordenadas dev con respecto a B son los coeficientes λ1, . . . , λn ∈ R tales que

v = λ1u1 + . . .+ λnun

Habitualmente escribimosv = (λ1, . . . , λn) en B

La nocion anterior implica que todo vector de V viene representado por una n-tupla(λ1, . . . , λn), que de hecho se puede identificar con un elemento de Rn. Podemos pregun-tarnos si estas coordenadas son unicas. El siguiente teorema proporciona una respuestaafirmativa.

Teorema 11. Sea V un espacio vectorial de dimension finita n, y sea B = u1, . . . , ununa base de V . Las coordenadas de un vector v ∈ V en B son unicas.

Demostracion. Supongamos, por reduccion al absurdo, que v tiene coordenadas (λ1, λ2, . . . , λn)y (µ1, µ2, . . . , µn) con respecto a la base B. Por definicion de coordenadas,

λ1u1 + λ2u2 + · · ·+ λnun = µ1u1 + µ2u2 + · · ·+ µnun

Page 30: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

30 CAPITULO 2. ESPACIOS VECTORIALES.

Por lo tanto,(λ1 − µ1)u1 + (λ2 − µ2)u2 + · · ·+ (λn − µn)un

Puesto que B es una base, en particular u1, . . . , un son linealmente independientes. Ası,por el Teorema 4 se tiene que λi − µi = 0 para i = 1, 2, . . . , n, y en consecuencia λi = µipara todo i. Luego las coordenadas (λ1, λ2, . . . , λn) y (µ1, µ2, . . . , µn) son iguales.

Volvamos al problema de comprobar la independencia lineal de un conjunto de vectores.Si trabajamos en un espacio vectorial de dimension n, y fijamos una base B, entonces losvectores estan representados por n-tuplas, como dijimos antes. Por lo tanto, para comprobarsi son o no linealmente independientes, una posibilidad es calcular sus coordenadas respectoa B, construir una matriz con dichas coordenadas, y finalmente calcular el rango de lamatriz. Este es un modo eficiente de resolver el problema.

2.3. Subespacios vectoriales.

Recordemos que un espacio vectorial es simplemente un conjunto V en el que tiene sen-tido realizar combinaciones lineales, y en el que dichas combinaciones lineales permanecendentro del conjunto. Ahora consideremos un subconjunto W ⊂ V , es un decir un partemas pequena de V . Puesto que W esta “dentro”de V , hereda las operaciones +, · (sumade elementos de V , producto de los elementos de V por escalares) que dan a V estructurade espacio vectorial, y por lo tanto la nocion de combinacion lineal tiene sentido dentro deW . Si las combinaciones lineales de elementos de W permanecen en W , entonces (W,+, ·)es tambien un espacio vectorial, que esta contenido dentro de otro espacio vectorial mayor,(V,+, ·): en ese caso, decimos que W es un subespacio vectorial de V .

Definicion 12. Sea (V (R),+, ·) un espacio vectorial. Decimos que W ⊂ V es un subes-pacio vectorial de V si (W (R),+, ·) tiene tambien estructura de espacio vectorial.

En la definicion anterior consideramos R como el cuerpo de escalares, pero, como enotras ocasiones, puede sustituirse R por C. Los subespacios vectoriales se pueden caracte-rizar en terminos de combinaciones lineales, como expresa el siguiente resultado.

Teorema 13. Sea V un espacio vectorial sobre R. W ⊂ V es un subespacio vectorial si ysolo si ∀ u, v ∈ W , ∀λ, µ ∈ R, λu+ µv ∈ W (es decir, si y solo si la combinacion lineal dedos vectores cualesquiera de W , permanece en W ).

La Figura 2.1 pretender sugerir geometricamente la idea de subespacio vectorial: enesta figura tenemos un plano L que pasa por el origen. Sea W1 ⊂ R3 el conjunto de todoslos vectores del espacio que estan contenidos en L, es decir los vectores cuyo origen esta enel origen de coordenadas2, y cuyo extremo es un punto de L. Si tomamos dos vectorescualesquiera u, v en W1 y consideramos cualquier combinacion lineal de ellos, el vector

2En Rn consideramos que todo vector posee un origen y un extremo, siendo el primero el origen decoordenadas (0, 0, . . . , 0).

Page 31: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

2.3. SUBESPACIOS VECTORIALES. 31

x

y

z

Y

u

v

w = λu + µvL

Figura 2.1: Un ejemplo de subespacio vectorial

X

Z

M

u

v

w = λu + µv

Figura 2.2: No es subespacio vectorial

w que resulta pertenece al plano L, y por lo tanto esta en W1; en consecuencia W1 es unsubespacio vectorial de R3. Sin embargo, no sucede lo mismo si consideramos un planoMque no pase por el origen (vease la Figura 2.2, donde hemos dibujado el perfil del plano),y el conjunto W2 de vectores del espacio cuyo extremo es un punto de M: en este caso,cuando sumamos dos vectores de W2 obtenemos otro vector cuyo extremo no esta en M;por lo tanto W2 no es un subespacio vectorial de R3.

En particular, si W es un subespacio vectorial de V tiene estructura de espacio vectorialy debe tener un 0, de hecho el mismo 0 de V . Por lo tanto, si 0 no esta dentro de W , locual se puede observar en la Figura 2.2, no puede ser subespacio vectorial. De hecho, en R2

las rectas que pasan por el origen dan lugar a subespacios vectoriales, y las rectas que nopasan por el origen, no; de forma similar, en el espacio las rectas o los planos que pasan porel origen dan lugar a subespacios vectoriales, mientras que los que no pasan por el origen,no. Ademas, el conjunto que se reduce al vector cero, 0, es un subsespacio vectorial

Page 32: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

32 CAPITULO 2. ESPACIOS VECTORIALES.

que puede encontrarse en cualquier espacio vectorial; obviamente no es un ejemplo muyinteresante, razon por la cual recibe el nombre de subespacio trivial.

Como los subespacios vectoriales son subconjuntos de donde no “escapan”las combina-ciones lineales, un modo de generar un subespacio vectorial es, precisamente, tomar unoscuantos vectores y considerar el conjunto formado por todas sus combinaciones lineales.

Definicion 14. Sea S = u1, . . . , un un subconjunto de V . La variedad lineal generadapor S (o la clausura o envoltura lineal de S) es el conjunto formado por todos losvectores que son combinaciones lineales de los vectores de S, es decir,

L(S) = x ∈ V |x = λ1u1 + · · ·+ λnun

Resulta interesante observar que:

L(S) es un subespacio vectorial, y su dimension es igual al rango del sistema S, esdecir, al numero de vectores linealmente independientes de S.

En R2, la clausura lineal de un vector es una recta.

En R3, la clausura lineal de un vector es tambien una recta; la clausura lineal de dosvectores linealmente independientes es un plano.

En Rn, n ≥ 4, un vector genera una recta, dos vectores independientes generan unplano, tres vectores independientes generan un espacio, etc.

Algunas operaciones elementales con subespacios vectoriales dan lugar a otros subes-pacios vectoriales. Consideremos en concreto las siguientes:

Definicion 15. Sean S1, S2 dos subespacios vectoriales de V . Se definen las siguientesoperaciones:

(i) La interseccion S1 ∩ S2 de S1, S2:

S1 ∩ S2 = x ∈ V |x ∈ S1 y x ∈ S2

(ii) La suma S1 + S2:

S1 + S2 = x ∈ V |x = u+ v, u ∈ S1, v ∈ S2

La interseccion de subespacios S1, S2 es el conjunto de todos los vectores que per-tenecen simultaneamente a S1, S2. Por ejemplo, si S1, S2 ⊂ R3 son dos planos que pasanpor el origen, S1 ∩ S2 es la recta que pertenece a ambos planos, es decir el conjunto detodos los vectores paralelos a la recta interseccion (vease la Figura 2.3). La interseccion desubespacios vectorial siempre es un subespacio vectorial. Dos subespacios S1, S2 siempretienen al menos un vector en comun, 0; ciertamente puede pasar que S1 ∩ S2 = 0, y dehecho este caso surgira mas adelante. Como hemos dicho que 0 es el subespacio trivial,si S1 ∩ S2 = 0 se sigue cumpliendo que S1 ∩ S2 es subespacio vectorial.

Page 33: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

2.3. SUBESPACIOS VECTORIALES. 33

x

y

z

Y

S1

S2

S1 ∩ S2

Figura 2.3: Interseccion de subespacios vectoriales.

La suma de subespacios vectoriales S1, S2 es el conjunto de todos los vectores que pue-den expresarse como un vector de S1 mas otro de S2. Si S1, S2 son subespacios vectoriales,S1 + S2 siempre es subespacio vectorial, y contiene a S1, S2 (y por lo tanto, tambien aS1 ∩ S2). Por ejemplo, si S1, S2 ⊂ R3 son dos rectas diferentes que pasan por el origen,S1 +S2 es el plano que las contiene y pasa por el origen. Si V es el espacio “ambiente”dondeviven S1, S2, resulta perfectamente posible que S1 + S2 = V ; por ejemplo, si tomamos dosrectas que pasan por el origen en R2, la suma de los subespacios correspondientes es R2, ysi tomamos en R3 un plano que pasa por el origen y una recta que pasa por el origen, nocontenida en el plano, su suma sera igual a R3.

Como un subespacio vectorial W ⊂ V es de hecho un espacio vectorial, tiene sentidohablar de la dimension de W , dim(W ), o de una base de W , BW . Ademas, si V es dedimension finita entonces W es tambien de dimension finita. Resulta que las dimensionesde los espacios S1, S2, S1 ∩ S2 y S1 + S2 estan relacionadas.

Teorema 16. Se verifica que:

dim(S1 + S2) = dim(S1) + dim(S2)− dim(S1 ∩ S2)

El teorema anterior sugiere un modo de encontrar una base de S1 +S2: tomar una basede S1, otra de S2, poner los vectores de una y otra en comun, y determinar de entre ellos losque sean independientes. De hecho, los vectores que sean descartados estaran en S1 ∩ S2,y tomando aquellos que sean independientes encontraremos una base de S1 ∩ S2.

Regresemos ahora al caso S1 ∩ S2 = 0. Comenzamos con la siguiente definicion.

Definicion 17. Se dice que dos subespacios vectoriales S1, S2 son independientes si todovector x ∈ S1 +S2 se puede expresar de forma unica como suma de vectores de S1 y S2, esdecir, si la descomposicion x = u+ v donde u ∈ S1 y v ∈ S2, es unica. En esta situacion,se dice tambien que la suma es directa, lo cual se representa S1

⊕S2.

Cabe preguntarse por que resulta interesante la definicion anterior. En Matematicasno es infrecuente descomponer, si es posible, un objeto como suma de otros dos objetos

Page 34: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

34 CAPITULO 2. ESPACIOS VECTORIALES.

de naturaleza “especial”. En ese caso, es importante saber si la descomposicion es unicao no. Hay diferentes razones para esto: por un lado, si hay diferentes descomposicionesde un mismo objeto es posible que queramos encontrarlas todas. Por otro lado, podrıaser que alguna fuera “la mejor”, en algun sentido. Por ejemplo, se sabe que dada unamatriz cuadrada A, siempre se pueden encontrar una matriz simetrica S y una matrizhemisimetrica T tales que A = S + T , lo cual resulta interesante porque las matricessimetricas y hemisimetricas poseen propiedades especiales que podemos aprovechar. Sepuede comprobar que S = A+At

2, T = A−At

2para cualquier matriz A. Si esta descomposicion

es unica, entonces no necesitamos pensar mas, pero si no lo es deberıamos buscar otrasposibilidades. El concepto de suma directa tiene que ver con este problema de unicidad/nounicidad en la descomposicion: si W = S1 + S2 entonces todo elemento de W se puededescomponer como suma de un elemento de S1 y un elemento de S2, y si la suma esdirecta, dicha descomposicion es unica. Por lo tanto, volviendo al problema de descomponeruna matriz cuadrada, resulta que el subconjunto de matrices simetricas y el subconjuntode matrices hemisimetricas son subespacios vectoriales de An, el conjunto de matricescuadradas de orden dado n. Por consiguiente, si An = S⊕ T (como es, de hecho, el caso),se tiene entonces que la descomposicion matricial anterior A = S+T es unica. En el Tema6 apareceran otros ejemplos de esta misma situacion.

Parece entonces interesante abordar el problema de detectar si una suma es o no directa.Esto puede hacerse utilizando el siguiente resultado.

Teorema 18. S1

⊕S2 si y solo si S1 ∩ S2 = 0.

Demostracion. Empezamos con (⇒). Por tanto, supongamos que S1

⊕S2, y supongamos

tambien por reduccion al absurdo que existe u ∈ S1 ∩ S2, u 6= 0. Entonces

u = u︸︷︷︸∈S1

+ 0︸︷︷︸∈S2

,

ou = 0︸︷︷︸

∈S1

+ u︸︷︷︸∈S2

,

lo cual contradice que u se pueda escribir de forma unica como un elemento de S1 mas unelemento de S2. Por lo tanto se cumple (⇒). Veamos ahora (⇐). Para ello, supongamosque S1 ∩ S2 = 0 y supongamos ademas, por reduccion al absurdo, que la suma de S1, S2

no es directa. Por lo tanto, existe v ∈ V tal que

v = v1 + v2 = v′1 + v′2,

donde v1, v′1 ∈ S1, v1 6= v′1, v2, v

′2 ∈ S2, v2 6= v′2. Sin embargo, en este caso tenemos que

v1 − v′1 = −(v2 − v′2). Notese que el vector de la izquierda es un elemento de S1, porque esel resultado de restar dos elementos de S1, que es un subespacio vectorial; por la mismarazon, el vector de la derecha es un elemento de S2. Por lo tanto, tenemos que un elementode S1 es igual a un elemento de S2, y en consecuencia dicho elemento pertenece a S1 ∩ S2.

Page 35: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

2.4. ECUACIONES DE UN SUBESPACIO VECTORIAL. 35

Pero como S1 ∩ S2 = 0, deducimos que v1 − v′1 = 0, v2 − v′2 = 0, luego v1 = v′1, v2 = v′2.Sin embargo, esto es una contradiccion porque habıamos supuesto que v1 6= v′1, v2 6= v′2.Por consiguiente se cumple (⇐).

2.4. Ecuaciones de un subespacio vectorial.

Cuando hablamos de ecuaciones en Geometrıa Analıtica (la ecuacion de una recta,de un plano, etc.) nos referimos a una expresion matematica que identifica el objeto delque estamos hablando, y que permite realizar dos tareas fundamentales: comprobar siun punto pertenece o no al objeto de nuestro interes, y generar tantos puntos del objetocomo queramos (por ejemplo, para poder visualizarlo en una pantalla de ordenador). Otrastareas adicionales donde las ecuaciones resultan utiles tienen que ver con realizar ciertasoperaciones sobre ese objeto o de hecho sobre varios objetos a la vez: intersecar dos deellos (dos rectas, una recta y un plano, etc.), construir un objeto por condiciones (un planoparalelo a otro por un punto dado), etc.

Queremos desarrollar algo similar para subespacios vectoriales, y de hecho con fines muyparecidos (identificar si un vector pertenece o no a un cierto subespacio, generar tantosvectores del subespacio como queramos, realizar operaciones sobre el subespacio). Comosucede tambien en Geometrıa Analıtica, hay diferentes tipos de ecuaciones: ecuaciones pa-rametricas, ecuaciones implıcitas, ecuaciones explıcitas, etc. En lo que sigue describiremoslos distintos tipos, y explicaremos como determinarlas en la practica. Para ello, sea V unespacio vectorial de dimension n, y sea B = u1, . . . , un una base de V . Ademas, seaW ⊂ V un espacio vectorial de dimension m ≤ n, y sea BW = v1, . . . , vm una base deW , donde

v1 = a11u1 + a12u2 + · · ·+ a1nunv2 = a21u1 + a22u2 + · · ·+ a2nun...vm = am1u1 + am2u2 + · · ·+ amnun

Consideramos entonces los siguientes tipos de ecuaciones.

1. Ecuacion vectorial. Por definicion de base, sabemos que W puede verse como elconjunto de todas las combinaciones lineales de vectores de los vectores de BW , esdecir el conjunto de todos los vectores

v = λ1 · v1 + λ2 · v2 + · · ·+ λm · vm

con λ1, λ2, . . . , λm ∈ R. Si dejamos los λi’s como parametros, decimos que la expresionanterior es la ecuacion vectorial de W . En particular, si damos distintos valores alos λi’s, generamos distintos elementos de W .

2. Ecuaciones parametricas. Si en la ecuacion vectorial escribimos v = x1·u1+x2·u2+· · ·+ xn · un, y escribimos v1, . . . , vm en la base B, identificando las correspondientes

Page 36: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

36 CAPITULO 2. ESPACIOS VECTORIALES.

coordenadas tenemosx1 = λ1 · a11 + λ2 · a21 + · · ·+ λm · am1

x2 = λ1 · a12 + λ2 · a22 + · · ·+ λm · am2...xn = λ1 · a1n + λ2 · a2n + · · ·+ λm · amn

(2.1)

que reciben el nombre de ecuaciones parametricas de W . De hecho, no hablamosde las ecuaciones parametricas, sino de unas ecuaciones parametricas, porque la apa-riencia de estas ecuaciones cambia segun la base que se utilice (aunque el conjuntoque definimos es exactamente el mismo en todos los casos). Observemos que parai = 1, 2, . . . ,m cada λi multiplica a las coordenadas de vi en B. De nuevo, dandodistintos valores a los λi’s generamos distintos elementos de W . Sin embargo, conestas ecuaciones no resulta inmediato comprobar si un vector dado pertenece o no aW (aunque puede hacerse). Este problema motiva la introduccion del siguiente tipode ecuaciones.

3. Ecuaciones implıcitas. Las ecuaciones implıcitas de W tienen la siguiente forma:b11 · x1 + b12 · x2 + · · ·+ b1n · xn = 0b21 · x1 + b22 · x2 + · · ·+ b2n · xn = 0

...bp1 · x1 + bp2 · x2 + · · ·+ bpn · xn = 0

(2.2)

donde cada ecuacion es linealmente independiente de las demas, es decir, ninguna deellas se puede obtener a partir de combinaciones lineales del resto. Notese que estasecuaciones son lineales en las variables x1, x2, . . . , xn, y no dependen de los parame-tros λi’s, que sı aparecıan en las ecuaciones parametricas. Por ello resultan utiles paracomprobar rapidamente si un vector (c1, c2, . . . , cn) pertenece o no a W : basta consustituir xj = cj para j = 1, . . . , n y comprobar si obtenemos 0 en todos los casos.Estas ecuaciones resultan de eliminar los parametros λi’s de las ecuaciones parametri-cas, y de hecho definen un sistema (homogeneo!) de ecuaciones lineales cuya soluciones, precisamente, el conjunto de vectores definido por las ecuaciones parametricas.Para hallar en la practica estas ecuaciones, se puede utilizar lo siguiente: si (2.2) es elsistema lineal cuya solucion es (2.1), entonces para cada (x1, x2, . . . , xn) en W existenλ1, λ2, . . . , λm que satisfacen (2.1). Por lo tanto, si vemos (2.1) como un sistema linealdonde los λi’s son las incognitas y los xj’s son los parametros, ese sistema debe sercompatible. Esto sucede si y solo si los rangos de las matrices (aij) y (aij|x) coinciden,lo cual, a su vez, implica que ciertos determinantes (que dependen de las coordena-das de x) sean nulos. De todos modos, en la practica y siempre que la dimension delproblema sea manejable, a menudo es mas sencillo eliminar simplemente los λi’s delas ecuaciones parametricas con manipulaciones sencillas.

Si tenemos las ecuaciones implıcitas y queremos obtener las ecuaciones parametricas,basta ver el conjunto de ecuaciones implıcitas como un sistema lineal homogeneo, y resol-verlo: el conjunto solucion corresponde a unas ecuaciones parametricas.

Page 37: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

2.5. CAMBIO DE BASE EN UN ESPACIO VECTORIAL. 37

2.5. Cambio de base en un espacio vectorial.

Sea V un espacio vectorial de dimension n, y sean B1 = u1, u2, . . . , un, B2 =u′1, u′2, . . . , u′n dos bases diferentes de V . Ademas, supongamos que conocemos las coor-denadas de los vectores de B2 en la base B1, es decir,

u′1 = a11u1 + a12u2 + · · ·+ a1nunu′2 = a21u1 + a22u2 + · · ·+ a2nun...u′n = an1u1 + an2u2 + · · ·+ annun

lo cual puede escribirse en forma matricial comou′1u′2...u′n

=

a11 a12 · · · a1n

a21 a22 · · · a2n...

.... . .

...an1 an2 · · · ann

︸ ︷︷ ︸

A

·

u1

u2...un

(2.3)

Sea ahora x un vector cualquiera de V , y sean (x1, x2, . . . , xn) las coordenadas de xen B1. Queremos encontrar las coordenadas (x′1, x

′2, . . . , x

′n) de x in B2. Por definicion de

coordenadas respecto a una base, tenemos que

x = x′1u′1+x′2u

′2+· · ·+x′nu′n = en forma matricial =

(x′1 x′2 · · · x′n

u′1u′2...u′n

(2.4)

Por lo tanto, de (2.3) tenemos

x =(x′1 x′2 · · · x′n

a11 a12 · · · a1n

a21 a22 · · · a2n...

.... . .

...an1 an2 · · · ann

·

u1

u2...un

(2.5)

Por otra parte, de la definicion de coordenadas respecto a la base B1 deducimos que

x = x1u1+x2u2+· · ·+xnun = en forma matricial =(x1 x2 · · · xn

u1

u2...un

(2.6)

Por lo tanto, de (2.5) y (2.6) tenemos que

(x′1, x′2, . . . , x

′n) · A = (x1, x2, . . . , xn)

Page 38: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

38 CAPITULO 2. ESPACIOS VECTORIALES.

o equivalentemente, despues de trasponer la igualdad anterior,

At︸︷︷︸P

·

x′1x′2...x′n

=

x1

x2...xn

(2.7)

La matriz P = At se llama matriz de cambio de base de B1 a B2, y cumple lassiguientes propiedades:

(i) Las columnas de P son las coordenadas de los vectores de B2 (la nueva base) en B1

(la base anterior).

(ii) La matriz P siempre es invertible: la razon es que A es invertible porque B2 es unabase (y por lo tanto los u′i’s son independientes, con lo cual las columnas de A sontambien independientes).

(iii) El nombre es enganoso: si queremos calcular las nuevas coordenadas de x, es decirlas coordenadas en B2, entonces de (2.7),

x′1x′2...x′n

= P−1 ·

x1

x2...xn

(2.8)

Por tanto, para determinar las nuevas coordenadas multiplicamos P−1 por las coor-denadas originales.

(iv) P−1 es la matriz de cambio de base de B2 a B1. Las columnas de la matriz corres-ponden a las coordenadas de los vectores de B − 1 en la base B2.

Page 39: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

Capıtulo 3

Aplicaciones lineales.

En el primer tema definimos las matrices como “colecciones de numeros ordenados enfilas y columnas”, lo cual es correcto. Sin embargo, en este tema veremos que las matricesposeen una conexion mas profunda con la idea de espacio vectorial. A la luz de esa conexionsera posible entender mejor la multiplicacion de matrices, o el concepto de matriz inversa.

3.1. Nociones basicas sobre aplicaciones lineales

El concepto de aplicacion es esencial en Matematicas. Una aplicacion entre dos con-juntos S y S ′ es una regla que permite asignar a cada elemento de un conjunto S uno ysolo un elemento de otro conjunto S ′; si la regla asigna a un elemento a ∈ S otro elementoa′ ∈ S ′, se dice que a′ es la imagen de a mediante f , y escribimos

f(a) = a′

La figura 3.1 ilustra este concepto: notese que se trata de un concepto muy general, puestoque no estamos precisando la naturaleza de los elementos de S o de S ′. Si S = S ′ =R, el conjunto de los numeros reales, tenemos entonces la nocion familiar de funcion,fundamental en Calculo. Ademas, decimos que una aplicacion f es (vease la figura 3.2):(i) inyectiva, si no hay dos elementos diferentes de S que tengan la misma imagen (esdecir, distintos elementos de S tienen imagenes distintas. f(x) = f(y) implica x = y); (ii)sobreyectiva, o simplemente “sobre”, si todo elemento de S ′ es la imagen de algun elementode S mediante f ; (iii) biyectiva, si es tanto inyectiva como sobreyectiva. Decimos ademasque S es el conjunto inicial, y S ′ el conjunto final.

En lo que sigue nos centraremos en un tipo especial de aplicaciones entre espacios vecto-riales; por lo tanto, en particular los conjuntos inicial y final seran espacios vectoriales, quepueden ser diferentes, o no. Puesto que el concepto que motivo la definicion de espacio vec-torial es el de combinacion lineal, nos centraremos en aplicaciones que se comporten “bien”,en lo que respecta a las combinaciones lineales, en concreto aplicaciones que preserven lascombinaciones lineales.

39

Page 40: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

40 CAPITULO 3. APLICACIONES LINEALES.

a

b

c

a’

c’

f(a) = a′

Figura 3.1: Una aplicacion entre dos conjuntos.

Definicion 19. Sean V, V ′ dos espacios vectoriales, y sea f : V → V ′ una aplicacion deV a V ′. Decimos que f es lineal si ∀u, v ∈ V , ∀α, β ∈ R, se tiene

f(αu+ βv) = αf(u) + βf(v)

Por lo tanto, una aplicacion f : V → V ′ entre espacios vectoriales es lineal si y solo sila imagen de cualquier combinacion lineal es igual a la combinacion lineal de las imagenes.Veamos algunos ejemplos:

1. Sea f : R2 → R2, f(x, y) = (x − y, 2x + y). Para comprobar si es lineal o no,debemos comprobar su comportamiento con respecto a las combinaciones lineales.Por lo tanto, sean u = (u1, u2), v = (v1, v2), y sea cualquier combinacion linealαu+ βv = (αu1 + βv1, αu2 + βv2). Entonces,

f(αu+ βv) = f(αu1 + βv1︸ ︷︷ ︸x

, αu2 + βv2︸ ︷︷ ︸y

) =

= ((αu1 + βv1)− (αu2 + βv2)︸ ︷︷ ︸x−y

, 2(αu1 + βv1) + (αu2 + βv2)︸ ︷︷ ︸2x+y

) =

= α · (u1 − u2, 2u1 + u2)︸ ︷︷ ︸f(u)

+β · (v1 − v2, 2v1 + v2)︸ ︷︷ ︸f(v)

=

= αf(u) + βf(v).

Por consiguiente f es lineal.

2. Sea f : A2×2(R)→ R (es decir, f va del espacio de las matrices cuadradas de orden2, que es un espacio vectorial de dimension 4, al conjunto de los numeros reales, quees un espacio vectorial de dimension 1), definida como f(A) = |A|. Es decir, f llevacada matriz cuadrada de orden 2 en su determinante. La aplicacion f es lineal si

Page 41: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

3.1. NOCIONES BASICAS SOBRE APLICACIONES LINEALES 41

f inyectiva f sobreyectiva

f biyectiva

Figura 3.2: Aplicaciones inyectivas, sobreyectivas y biyectivas.

Page 42: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

42 CAPITULO 3. APLICACIONES LINEALES.

f(αA + βB) = αf(A) + βf(B), es decir, si los determinantes de orden 2 satisfacenla siguiente propiedad: |αA + βB| = α|A| + β|B|. Sin embargo, esto no es cierto engeneral: si tomamos A = I (la matriz identidad), B = −I, y α = β = 1, entoncesαA + βB = 0, y por tanto f(αA + βB) = |αA + βB| = 0. Pero αf(A) + βf(B) =α|A|+ β|B| = |A|+ |B| = 1 + 1 = 2 6= 0. Por lo tanto f no es lineal.

Toda aplicacion lineal satisface las siguientes propiedades. En particular, las propieda-des 2 y 3 implican que las aplicaciones lineales no solo respetan combinaciones lineales,sino tambien la dependencia lineal, y los subespacios vectoriales.

Proposicion 20. Sea f : V → V ′ una aplicacion lineal. Entonces:

(1) f(0) = 0.

(2) Si u1, . . . , un son linealmente independientes, entonces f(u1), . . . , f(un) tambienson linealmente independientes.

(3) Si S ⊂ V es un subespacio vectorial de V , entonces f(S) es un subespacio vectorialde V ′.

Sin embargo, en general las aplicaciones lineales no preservan la independencia lineal, yen consecuencia no transforman necesariamente una base de V en una base de V ′; a veceslo hacen, y mas tarde veremos cuando, pero no siempre.

Definicion 21. Una aplicacion lineal f : V → V ′ se llama

(i) Monoformismo, si es inyectiva.

(ii) Epimorfismo, si es sobreyectiva.

(iii) Isomorfismo, si es biyectiva.

(iv) Endomorfismo, si V = V ′, es decir si f : V → V .

3.2. Eucacion matricial de una aplicacion lineal.

Llamamos ecuacion de una aplicacion lineal a una expresion que, a partir de las coor-denadas de un vector x, proporciona las coordenadas de su imagen y mediante una ciertaaplicacion lineal f . Para poder encontrar esta expresion es necesario fijar previamente tan-to una base del espacio de partida como una base del espacio de llegada. De hecho, laecuacion de la aplicacion lineal depende de dichas bases. Por lo tanto, sea f : V → V ′ unaaplicacion lineal, sea B = u1, . . . , un una base de V , y sea B′ = u′1, . . . , u′m una base

Page 43: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

3.2. EUCACION MATRICIAL DE UNA APLICACION LINEAL. 43

de V ′. Puesto que la aplicacion lineal f es conocida, supondremos tambien conocidas lascoordenadas de las imagenes f(u1), f(u2), . . . , f(un) de los vectores de B, en la base B′:

f(u1) = a11u′1 + a21u

′2 + · · ·+ am1u

′m

f(u2) = a12u′1 + a22u

′2 + · · ·+ am2u

′m

...f(un) = a1nu

′1 + a2nu

′2 + · · ·+ amnu

′m

(3.1)

La informacion anterior basta para determinar la imagen de cualquier vector x ∈ V . Enefecto, escribamos x en la base B como

x = x1u1 + x2u2 + · · ·+ xnun

Queremos encontrar y = f(x) en la base B′, lo que equivale a encontrar y1, y2, . . . , ym talesque y = f(x) = y1u

′1 + y2u

′2 + · · ·+ ymu

′m. Como f es lineal, se tiene que

f(x) = f(x1u1 + x2u2 + · · ·+ xnun) = f linear = x1f(u1) + x2f(u2) + · · ·+ xnf(un)(?)=

(3.2)Escribiendo (3.2) en forma matricial, y usando (3.1),

(?)= (x1, x2, . . . , xn)·

f(u1)f(u2)

...f(un)

= (x1, x2, . . . , xn)·

a11 a21 · · · am1

a12 a22 · · · am2...

.... . .

...a1n a2n · · · amn

·

u′1u′2...u′m

(3.3)

Esto es igual a

y = f(x) = y1u′1 + y2u

′2 + · · ·+ ymu

′m = (y1, y2, . . . , ym) ·

u′1u′2...u′m

(3.4)

De (3.3) y (3.4), se tiene que

(y1, y2, . . . , ym) = (x1, x2, . . . , xn) ·

a11 a21 · · · am1

a12 a22 · · · am2...

.... . .

...a1n a2n · · · amn

(3.5)

Finalmente, transponiendo la igualdad anterior,y1

y2...ym

︸ ︷︷ ︸

y

=

a11 a12 · · · a1n

a21 a22 · · · a2n...

.... . .

...am1 am2 · · · amn

︸ ︷︷ ︸

A

·

x1

x2...xn

︸ ︷︷ ︸

x

(3.6)

Observaciones:

Page 44: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

44 CAPITULO 3. APLICACIONES LINEALES.

(i) En notacion compacta, la igualdad (3.6) se escribe y = A · x, o f(x) = A · x. Lamatriz A se llama la matriz asociada con la aplicacion lineal en las bases B,B′,o simplemente la matriz de f en las bases B,B′. Para precisar las bases con quetrabajamos, a veces se denota A =M(f ;B,B′). Para encontrar A basta escribir lasimagenes de los vectores de B como columnas de la matriz A. Una vez que estanfijadas las bases, la matriz A define f completamente. Especificar las bases con quetrabajamos resulta esencial: si las bases no se especifican, por defecto entenderemosque trabajamos con las bases canonicas de los espacios inicial y final.

(ii) Si cambiamos las bases en el espacio de partida, B → B1, en el de llegada, B′ → B′1,o en ambos,la matriz que define la aplicacion lineal cambia tambien; es decir, se tieneA→ A′, donde A′ =M(f ;B1, B

′1). En el siguiente apartado estudiaremos la relacion

que existe entre A y A′.

(iii) Si la dimension del espacio de partida es n y la dimension del espacio de llegada esm, entonces A tiene dimension m× n. En particular, si f es un endomorfismo de unespacio de dimension n, entonces A es una matriz cuadrada de orden n.

(iv) Notese la analogıa entre y = A ·x y las funciones lineales habituales en Calculo, queresponden a la expresion y = ax.

(v) Cada coordenada de y es lineal en las variables x1, . . . , xn: para todo i = 1, . . . ,m,

yi = ai1x1 + ai2x2 + · · ·+ ainxn

Esta propiedad permite a veces distinguir entre aplicaciones lineales y otras que no loson: por ejemplo, f(x, y) = (x2, x− y) no es lineal porque en la primera componentehay un cuadrado; g(x, y) = (2x+ 3y, 3x− 2y + 5) no es lineal porque en la segundacomponente aparece una constante; h(x, y) = (sin(xy), x− y) no es lineal porque enla primera componente aparece una funcion seno. Sin embargo, j(x, y, z) = (x− y +2z,−x+ z) es una aplicacion lineal de R3 a R2.

(vi) Si escribimos f(x) = (f1(x), f2(x), . . . , fm(x)), se cumple que f es lineal si y solosi fi es lineal para i = 1, 2, . . . ,m, es decir, si y solo si cada fi es de la formafi(x) = ai1x1 + ai2x2 + · · ·+ ainxn.

Dada una aplicacion lineal f y bases B,B′, la matriz que define f en las bases B,B′ esunica. Al reves, si elegimos dos bases B,B′ de Rn y Rm, respectivamente, para cada matrizA ∈ Am×n existe una unica aplicacion lineal f : Rn → Rm tal que A es la matriz asociadaa f en esas bases. Por lo tanto, existe una correspondencia biyectiva:

Matrices ↔ Aplicaciones lineales

Ademas, en el caso de las matrices cuadradas, se tiene una biyeccion:

Matrices cuadradas ↔ Endomorfismos

Page 45: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

3.2. EUCACION MATRICIAL DE UNA APLICACION LINEAL. 45

Por lo tanto, las matrices y las aplicaciones lineales son, desde el punto de vista del Algebra,la misma cosa: si tenemos una matriz tenemos una aplicacion lineal asociada a ella, yviceversa. Esta es la conexion, prometida al comienzo del tema, entre matrices y espaciosvectoriales. El siguiente resultado profundiza en esta conexion.

Proposicion 22. Sean f : Vn → V ′m, g : Vn → V ′m dos aplicaciones lineales con matricesasociadas Af y Ag, respectivamente, y sea k ∈ R. Se verifica entonces:

(1) f + g tambien es lineal, y su matriz asociada es Af + Ag.

(2) k · f tambien es lineal, y su matriz asociada es k · Af .

La siguiente proposicion continua explorando la conexion entre matrices y aplicacioneslineales, y explica por que el producto de matrices se define de un modo tan “peculiar”.

Proposicion 23. Sean f : Vn → V ′m, g : V ′m → V ′′p dos aplicaciones lineales, con matricesasociadas Af y Ag, respectivamente. Entonces la composicion g f : Vn → V ′′p tambien eslineal, y la matriz asociada a g f es Ag · Af .

Es decir, que el producto de matrices esta definido de modo que corresponda a la com-posicion de las aplicaciones lineales correspondientes. Esta proposicion merece un ejemplo(observese que lo que sigue no es una demostracion de la proposicion, sino simplementeuna comprobacion en un ejemplo particular). Consideremos el siguiente diagrama:

R2 f R g R3

g f

donde f : R2 → R, f(x, y) = x+y, g : R→ R3, g(x) = (3x, 2x,−x). Luego g f : R2 → R3

y(g f)(x, y) = g[f(x, y)] = g(x+ y) = (3x+ 3y, 2x+ 2y,−x− y)

Por tanto,

Agf =

3 32 2−1 −1

Por otra parte, se cumple que

Af = (1, 1), Ag =

31−1

y se tiene 3

2−1

︸ ︷︷ ︸

Ag

· (1, 1)︸ ︷︷ ︸Af

=

3 32 2−1 −1

︸ ︷︷ ︸

Agf

Por lo tanto, la igualdad Agf = Ag · Af se satisface, en este caso.

Page 46: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

46 CAPITULO 3. APLICACIONES LINEALES.

3.3. Matrices semejantes.

Antes dijimos que la matriz asociada a una aplicacion lineal cambia cuando cambianlas bases con las que trabajamos. Vamos a utilizar el resultado de la Proposicion 23 paraver como cambia. Sea f : V → V ′ una aplicacion lineal; sean B,B1 dos bases de V , y sea

P la matriz de cambio de base de B a B1, BP→ B1. Sean tambien B′, B′1 dos bases de

V ′, y sea Q la matriz de cambio de base de B′ a B′1, B′Q→ B′1. Ffinalmente, sean A =

M(f ;B,B′), y A′ =M(f ;B1, B′1). Queremos determinar la relacion entre A′, A,Q, P . Para

ello, representamos por idV , idV ′ a las identidades en V, V ′, respectivamente1. Consideramosentonces la siguiente secuencia de aplicaciones:

VidV // V

f// V ′

idV ′ // V ′

B1

OO

B

OO

B′

OO

B′1

OO

En la primera fila aparece la aplicacion que actua en cada momento; en la segunda fila,la base que se considera en cada paso. Por lo tanto, en el primer paso la aplicacion queactua es la identidad, pero la base cambia de B1 a B, lo que equivale a un cambio de base,que puede ser considerado, tambien, como una aplicacion lineal cuya matriz asociada esP ; en el segundo paso actua f , y consideramos la base B en V , y la base B′ en V ′; enel tercer y ultimo paso la matriz es la identidad en V ′, pero la base cambia de B′ a B′1,lo que equivale a otro cambio de base cuya matriz asociada es Q−1. Componiendo estasaplicaciones lineales y aplicando Proposicion 22, tenemos que

M(f ;B1, B′1)︸ ︷︷ ︸

A′

=M(idV ′ ;B′, B′1) · M(f ;B,B′)︸ ︷︷ ︸

A

·M(idV ;B1, B)

Como M(idV ′ ;B′, B′1) = Q−1, M(idV ;B1, B) = P , se tiene

A′ = Q−1 · A · P (3.7)

Lo anterior motiva la siguiente definicion.

Definicion 24. Dos matrices A,A′ se llaman equivalentes si existen dos matrices regu-lares P,Q tales que

A′ = Q−1 · A · P

Las matrices equivalentes cumplen las siguientes propiedades:

Si dos matrices representan la misma aplicacion lineal pero en diferentes bases, en-tonces son equivalentes, y las matrices Q,P de la definicion anterior son las matricesde cambio de base entre las bases.

1La identidad idV en V es la aplicacion f(v) = v; en particular, es una aplicacion lineal.

Page 47: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

3.4. NUCLEO E IMAGEN. 47

Recıprocamente, dos matrices equivalentes representan una misma aplicacion linealen dos bases distintas, cuyas matrices de cambio de base son Q,P .

Si dos matrices son equivalentes, tienen el mismo rango.

Ademas, si f es un endomorfismo, cuando consideramos la misma base B tanto en elespacio de partida como en el de llegada, de (3.7) se tiene que

A′ = P−1 · A · P (3.8)

Definicion 25. Dos matrices cuadradas A,A′ son semejantes si existe una matriz regularP tal que

A′ = P−1 · A · PPor tanto, las matrices que representan un mismo endomorfismo en bases distintas

son semejantes; ademas, la matriz P de la definicion anterior define el cambio de baseentre ambas bases. Recıprocamente, dos matrices semejantes cualesquiera representan lamisma aplicacion lineal en dos bases diferentes. En particular dos matrices semejantes sonequivalentes (con P = Q), y por lo tanto tienen el mismo rango.

3.4. Nucleo e Imagen.

Las ideas en esta seccion son utiles, como veremos al final de la misma, para detectar siuna aplicacion lineal es inyectiva, sobreyectiva, o biyectiva. Comenzamos con la siguientedefinicion:

Definicion 26. Sea f : V → V ′ una aplicacion lineal.

(i) El nucleo de f , Ker(f) o N(f), es el conjunto de todos los vectores de V que setransforman en el vector 0 ∈ V ′.

(ii) La imagen de f , Im(f), es el conjunto de todos los vectores de V ′ que son imagende algun vector de V .

Observese que Ker(f) vive en el espacio de partida V , mientras que Im(f) vive enel espacio de llegada V ′. En los siguientes resultados veremos que Ker(f) y Im(f) sonsubespacios vectoriales de los conjuntos en los que habitan.

Proposicion 27. Ker(f) es un subespacio vectorial de V .

Demostracion. Para demostrar que Ker(f) es un subespacio vectorial, debemos ver quetoda combinacion lineal de vectores de Ker(f) permanece en Ker(f). Sean por tanto u, v ∈Ker(f), y sean α, β ∈ R. Queremos ver que αu + βv ∈ Ker(f). Por definicion de Ker(f),un vector w ∈ Ker(f) si y solo si f(w) = 0. Por tanto, consideremos f(αu + βv); como fes lineal, entonces f(αu + βv) = αf(u) + βf(v); y como u, v ∈ Ker(f), entonces f(u) =f(v) = 0. Por lo tanto, f(αu+βv) = α · 0 +β · 0 = 0, lo que implica que αu+βv ∈ Ker(f).

Page 48: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

48 CAPITULO 3. APLICACIONES LINEALES.

Proposicion 28. Las siguientes afirmaciones son ciertas:

(i) Im(f) es un subespacio vectorial de V ′.

(ii) Im(f) = L(f(u1), . . . , f(un)), donde B = u1, . . . , un es una base de V .

(iii) La dimension de Im(f) es rg(A), donde A es la matriz asociada a f en alguna base.

Demostracion. Veamos primero (i). Para ello, sea u′, v′ ∈ Im(f); por tanto existen u, v ∈ Vtales que f(u) = u′, f(v) = v′. Nos preguntamos si dados α, β ∈ R, αu′ + βv′ ∈ Im(f).Como f es lineal, se tiene que

f(αu+ βv) = α f(u)︸︷︷︸u′

+ βf(v)︸ ︷︷ ︸v′

= αu′ + βv′

Por tanto αu′+βv′ es la imagen de αu+βv, y en consecuencia pertenece a Im(f). Veamosahora (ii). Para demostrar Im(f) = L(f(u1), . . . , f(un)), demostraremos que Im(f) ⊂L(f(u1), . . . , f(un)) y que L(f(u1), . . . , f(un)) ⊂ Im(f), tambien. Si w′ ∈ Im(f) en-tonces existe w ∈ V tal que f(w) = w′. Escribiendo w = w1u1 +· · ·+wnun, como f es linealse tiene que f(w) = w1f(u1) + · · · + wnf(un), y por tanto f(w) ∈ L(f(u1), . . . , f(un)),con lo que Im(f) ⊂ L(f(u1), . . . , f(un)). Por otra parte, si w′ ∈ L(f(u1), . . . , f(un))entonces podemos escribir w′ = w′1f(u1) + · · · + w′nf(un). Como f es lineal, entoncesw′ = f(w′1u1+· · ·+w′nun) y por lo tanto vemos que w′ es la imagen de w′1u1+· · ·+w′nun me-diante la aplicacion f ; ası, w′ ∈ Im(f), y L(f(u1), . . . , f(un)) ⊂ Im(f). Finalmente, (iii)se obtiene a partir de (ii) teniendo en cuenta que las columnas de A son f(u1), . . . , f(un).

El siguiente resultado, que damos sin demostracion, muestra la relacion existente entrelas dimensiones de Ker(f) y Im(f).

Teorema 29. Si V es un espacio vectorial de dimension finita y f : V → V ′ es unaaplicacion lineal, se tiene que:

dimV = dim(Ker(f)) + dim(Im(f))

El corolario siguiente se deduce de Teorema 29 y la afirmacion (iii) de Proposicion 28.

Corolario 30. Sea f : V → V ′ una aplicacion lineal, sea A =M(f ;B,B′) donde B,B′ sonbases de V, V ′ respectivamente, y sea dim(V ) = n. Se cumple entonces que dim(Ker(f)) =n− rg(A).

Veamos ahora como caracterizar la inyectividad y la sobreyectividad a partir de Ker(f)y Im(f).

Teorema 31. Sea f : V → V ′ una aplicacion lineal. Las siguientes afirmaciones sonciertas:

Page 49: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

3.4. NUCLEO E IMAGEN. 49

(1) f es inyectiva si y solo si Ker(f) = 0.

(2) f es sobreyectiva si y solo si Im(f) = V ′.

Demostracion. Veamos (1), y empecemos con (⇒). Si f es inyectiva entonces f(u) = f(v)implica u = v. Si w ∈ Ker(f) entonces f(w) = 0; sin embargo, como f es lineal entonces dela afirmacion (1) de Proposicion 20, se tiene que f(0) = 0. Por tanto, f(w) = f(0) y comof es inyectiva w = 0, lo que implica que Ker(f) = 0. Recıprocamente, supongamos queKer(f) = 0 y supongamos tambien, por reduccion al absurdo, que existen u, v ∈ V, u 6= vtales que f(u) = f(v). Por lo tanto f(u) − f(v) = 0 y como f es lineal, f(u − v) = 0,lo que implica que u − v ∈ Ker(f). Como u 6= v entonces u − v 6= 0, lo que contradiceKer(f) = 0. La afirmacion (2) se deduce de la definicion de aplicacion sobreyectiva.

El corolario siguiente, que proporciona una herramienta muy practica para estudiar elcaracter inyectivo o sobreyectivo de una aplicacion, se deduce de Teorema 31, Teorema 29y de la afirmacion (iii) de Proposicion 28.

Corolario 32. Sea f : Vn → Vm una aplicacion lineal, y sea A ∈ Am×n la matriz asociadaa f en las bases B,B′. Las siguientes afirmaciones son ciertas:

(i) f es inyectiva si y solo si rg(A) = n.

(ii) f es sobreyectiva si y solo si rg(A) = m.

(iii) f es biyectiva si y solo si m = n y A es una matriz cuadrada regular.

Las aplicaciones lineales biyectivas, tambien llamadas isomorfismos (vease Definicion21) son importantes porque transforman bases de V en bases de V ′ (recuerdese que estono es cierto, en general, para cualquier aplicacion lineal).

Teorema 33. Si f : V → V ′ es un isomorfismo y u1, . . . , un es una base de V , entoncesf(u1), . . . , f(un) es una base de V ′.

Terminamos con algunas ideas sobre endomorfismos, es decir, sobre aplicaciones linealesf : V → V . En este caso, la matriz A asociada con f en cualquier base es cuadrada. DeCorolario 32 se deduce que:

(1) Si |A| 6= 0 entonces f es bijyectiva. En ese caso, se dice que f es un automorfismo(endomorfismo biyectivo).

(2) Si |A| = 0 entonces f no es inyectiva ni sobreyectiva.

Si f es un automorfismo, entonces f−1 existe. Veamos un ejemplo: consideremos f :R2 → R2, f(x, y) = (x+ y,−x+ y). Para encontrar f−1 hacemos x′ := x+ y, y′ := −x+ y;entonces x = x′−y′

2, y = x′+y′

2, y por tanto f−1 : R2 → R2, f−1(x′, y′) = (1

2x′− 1

2y′, 1

2x′+ 1

2y′).

Page 50: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

50 CAPITULO 3. APLICACIONES LINEALES.

Observemos que f−1 tambien es lineal. Como f, f−1 son ambas lineales, podemos compararsus matrices asociadas:

Af =

(1 1−1 1

)Af−1 =

(12−1

212

12

)Observamos que Af−1 = A−1

f . De hecho se tiene el siguiente resultado, que justifica elnombre “inversa”para la matriz inversa.

Proposicion 34. Sea f : V → V un automorfismo, y sea Af la matriz de f . La inversaf−1 : V → V es lineal, y su matriz asociada es A−1.

Page 51: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

Capıtulo 4

Diagonalizacion

En el Tema 3 hemos visto que las matrices asociadas a un mismo endomorfismo endiferentes bases son semejantes. Es decir, si A,A′ son las matrices asociadas a una aplicacionlineal f : V → V en dos bases distintas, y P es la matriz de cambio de base entre dichasbases, entonces

A′ = P−1 · A · P.Podemos preguntarnos si existe alguna base en la cual la matriz A′ tenga una formaespecialmente sencilla, en particular una base en la que sea diagonal. Queremos averiguarsi existe una base ası, y en caso afirmativo queremos encontrar un metodo para calculardicha base, y la matriz A′. Este es el problema que estudiaremos en este tema. Ahoramismo, esta cuestion puede parecer un tanto abstracta o teorica, pero en el siguiente temaveremos que resulta muy util para resolver cuestiones muy concretas.

4.1. Autovalores, autovectores, autoespacios

Comenzamos con la siguiente definicion:

Definicion 35. Sea f : V → V un endomorfismo. Decimos que λ ∈ R o C es un autovalorde f si existe v ∈ V , v 6= 0, tal que f(v) = λv. Ademas, en ese caso decimos que v es unautovector asociado al autovalor λ. Si A es la matriz de f en una cierta base, a menudose habla de los autovalores o los autovectores de A, para referirse a los autovalores oautovectores del endomorfismo f(v) = Av definido por A.

Veamos un ejemplo. Sea f : R2 → R2, f(x, y) = (x+ 2y, 2x+ y) en la base canonica. Sepuede ver que f(1,−1) = (−1, 1) = (−1) · (1,−1); por lo tanto, λ = −1 es un autovalor, y(1,−1) es un autovector asociado a λ = −1. La matriz asociada con f en la base canonicaes

A =

(1 22 1

)Por tanto, se dice tambien que λ = −1 es un autovalor de A, y que (−1, 1) es un autovectorde A.

51

Page 52: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

52 CAPITULO 4. DIAGONALIZACION

Los autovalores de una matriz, como consta en la definicion de autovalor, pueden serreales o complejos. Determinar los autovalores complejos puede ser util en determinadascircunstancias, como veremos en el proximo tema. Ademas, si un autovalor de una matrizA con elementos reales es complejo, sus autovectores son complejos tambien (es decir, suscoordenadas son numeros complejos).

Para determinar los autovalores observamos lo siguiente:

f(v) = λ · v ⇔ A · v = λ · v ⇔ (A− λ · I)v = 0,

donde I es la matriz identidad. Como por definicion v 6= 0, buscamos λ tal que el sistemahomogeno (A−λ ·I)v = 0 tenga soluciones distintas de la trivial. Sin embargo, esto sucedesi y solo si |A− λ · I| = 0. Se dice que

p(λ) = |A− λ · I|

es el polinomio caracterıstico de la matriz A (o del endomorfismo f). Por lo tanto, losautovalores de A son las raıces, reales o complejas, de p(λ). Observemos que el grado dep(λ) es el orden de la matriz cuadrada A (es decir, la dimension del espacio vectorial Vdonde esta definido el endomorfismo f). Ademas, si λ = λi es una raız de multiplicidad nide p(λ), es decir si se cumple que

p(λ) = (λ− λi)ni · q(λ),

decimos que ni es la multiplicidad algebraica de λi. Si ni = 1 decimos que el autovalores simple, y si ni 6= 1, que es multiple.

Los subespacios vectoriales aparecen tambien en este contexto.

Proposicion 36. El conjunto de todos los autovectores asociados a un mismo autovalor λde una matriz A forma un subespacio vectorial.

Demostracion. Sea λ un autovalor de una matriz A, y sea f el endomorfismo asociado aA. Ademas, sea Lλ el conjunto de todos los vectores asociados con λ, es decir el conjuntode todos los w ∈ V tales que f(w) = λ · w. Sean ademas u, v ∈ Lλ, y sean α, β ∈ R; nospreguntamos si αu+ βv ∈ Lλ. Como f es lineal entonces

f(αu+ βv) = αf(u) + βf(v) = α · λu+ β · λv = λ · (αu+ βv)

Por lo tanto, αu+ βv ∈ Lλ y se verifica el resultado.

La Proposicion 36 justifica la definicion siguiente.

Definicion 37. Para cada autovalor λi, el subespacio vectorial de todos los autovectoresasociados con λi recibe el nombre de autoespacio de λi. Lo representamos por Lλi. Ladimension de Lλi se llama multiplicidad geometrica de λi.

Los autoespacios satisfacen las siguientes propiedades, que se deducen de las definicionesanteriores:

Page 53: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

4.2. DIAGONALIZABILIDAD. 53

(1) Lλi es el conjunto de soluciones de (A− λiI) · v = 0.

(2) dim(Lλi) = n− rg(A− λiI), donde n es el orden de A.

Ademas, los siguientes resultados, que utilizaremos mas adelante, se verifican tambien.

Teorema 38. Sea ni la multiplicidad algebraica de un autovalor λi. Se cumple que

1 ≤ dim(Lλi) ≤ ni

Teorema 39. Sea f : V → V una aplicacion lineal con p autovalores distintos λ1, . . . , λp.Entonces, los autovectores v1, . . . , vp asociados a ellos son linealmente independientes.

En particular, si la matriz A tiene n autovalores distintos, del teorema anterior sededuce que hay n autovectores linealmente independientes, y por lo tanto una base deautovectores. Veremos que conseguir una base de autovectores es precisamente la clavepara resolver nuestro problema.

4.2. Diagonalizabilidad.

En este apartado estudiamos el problema propuesto al principio del tema. Dada unamatriz A, que corresponde a un cierto endomorfismo f , nos preguntamos si existe algunabase en la que la matriz sea diagonal (es decir, tal que la matriz asociada al endomorfismof definido por A sea diagonal). Esto equivale a preguntarse si A es semejante a algunamatriz diagonal, es decir, si existen alguna matriz diagonal D y alguna matriz regular Ptales que

D = P−1 · A · P (4.1)

Definicion 40. Sea A una matriz cuadrada, y sea f el endomorfismo que representa.Decimos que A (o f) es diagonalizable si existe alguna base tal que la matriz asociada af en dicha base sea diagonal, es decir, si la matriz A es semejante a alguna matriz diagonalD.

El siguiente teorema proporciona una primera caracterizacion de las matrices (o equi-valentemente de los endomorfismos) diagonalizables.

Teorema 41. Un endomorfismo f : V → V es diagonalizable si y solo si V tiene una basede autovectores.

Demostracion. Veamos (⇒). Si f : V → V es diagonalizable, entonces existe una baseB = u1, u2, . . . , un donde la matriz de f es diagonal, es decir, donde la matriz tiene elsiguiente aspecto:

λ1 0 · · · 00 λ2 · · · 0...

.... . .

...0 0 · · · λn

Page 54: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

54 CAPITULO 4. DIAGONALIZACION

Como las columnas de esta matriz son las imagenes de los vectores de la base B, se tieneque f(ui) = λi · ui para i = 1, 2, . . . , n. Por lo tanto, cada vector de B es un autovctor.Veamos ahora (⇐). Si hay una base B = u1, u2, . . . , un de autovectores, entonces parai = 1, 2, . . . , n se cumple que f(ui) = λi · ui; como las columnas de la matriz de f en la baseB son los f(ui)’s escritos en la base B, deducimos que la matriz en esa base es diagonal.

El teorema anterior sugiere que si existe una matriz diagonal D equivalente a A, enton-ces los elementos de la diagonal principal de D son los autovalores de la matriz A. Si dichoselementos son reales, se dice que A es diagonalizable sobre los reales. Ademas, la base enla que A es diagonalizable es precisamente la base formada por los autovectores; en otraspalabras, las columnas de la matriz P son los vectores de esa base. Aunque el Teorema 41ya proporciona una herramienta util para identificar si A es diagonalizable o no, podemoshacerlo aun mejor.

Teorema 42. Sea V un espacio vectorial sobre R de dimension n, y sea f : Vn → Vnun endomorfismo. Entonces f es diagonalizable sobre los reales si y solo si se cumplen lassiguientes dos condiciones:

(i) El numero total de autovalores reales, contando multiplicidades, es n.

(ii) La multiplicidad geometrica de cada autovalor es igual a su multiplicidad algebraica.

Demostracion. Veamos (⇒). Sea p(λ) = an(λ− λ1)n1 · · · (λ− λp)np · q(λ), donde λi ∈ R yq(λ) tiene unicamente raıces complejas conjugadas. Como el grado de p(λ) es igual a n, setiene que n1 + · · ·+np+deg(q(λ)) = n, donde deg(q(λ)) representa el grado de q(λ). Comopor el Teorema 38 se cumple que 1 ≤ dim(Lλi) ≤ ni para i = 1, . . . , p, se puede ver que siq(λ) no es constante, es decir si existen autovalores complejos, entonces n1 + · · ·+ np < ny no podemos conseguir una base de autovectores; por lo tanto la condicion (i) se deducedel Teorema 41. Ademas, si todos los autovalores son reales entonces n1 + · · · + np = n,pero como 1 ≤ dim(Lλi) ≤ ni para i = 1, . . . , p la unica forma de conseguir una base deautovectores es que dim(Lλi) = ni para i = 1, . . . , p. La implicacion (⇐) se deduce delTeorema 39.

El siguiente corolario se deduce del Teorema 42 y el Teorema 38.

Corolario 43. Si todos los autovalores de una matriz A son reales y distintos, entonces Aes diagonalizable.

Se puede probar, aunque la demostracion no es trivial, que toda matriz simetrica esdiagonalizable.

Terminamos con una aplicacion al calculo de potencias de matrices, que sera deutilidad en el siguiente tema. Supongamos que A es diagonalizable. Queremos calcular demanera eficiente el valor de la potencia An, donde n es un entero positivo, es decir, elresultado de multiplicar A por sı misma n veces. De (4.1), sabemos que A = P ·D · P−1.Por tanto,

An = A · A n· · · A = (P ·D · P−1) · (P ·D · P−1)n· · · (P ·D · P−1)

(?)=

Page 55: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

4.2. DIAGONALIZABILIDAD. 55

Como el producto de matrices es asociativo y P−1 · P = I (la matriz identidad), se tieneque

(?)= P ·D · (P−1 · P )︸ ︷︷ ︸

I

·D n· · · D (P−1 · P )︸ ︷︷ ︸I

·D · P−1 = P ·Dn · P−1

Finalmente, como D es diagonal, Dn es tambien una matriz diagonal, cuyos elementos sonlas potencias n-esimas de los elementos de D, es decir, las potencias λni ’s; por lo tanto, unavez que conocemos D y P , podemos calcular An facilmente. Resumimos estas ideas en elsiguiente resultado.

Proposicion 44. Sea A una matriz diagonalizable, A = P ·D · P−1. Entonces,

An = P ·Dn · P−1

Page 56: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

56 CAPITULO 4. DIAGONALIZACION

Page 57: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

Capıtulo 5

Ecuaciones diferenciales lineales.

Consideremos el siguiente circuito electrico:

E

R L

C

A medida que fluye la corriente el condensador se va cargando, es decir su carga q = q(t)va aumentando. Para encontrar la funcion q(t) que proporciona la carga en cada instante,es necesario resolver la siguiente ecuacion diferencial, que se obtiene al aplicar las leyes quegobiernan los circuitos electricos:

L · d2q(t)

dt2+R · dq(t)

dt+

1

C· q(t) = E (5.1)

La igualdad anterior representa una relacion entre una funcion desconocida, q(t), y algunasde sus derivadas (hasta segundo orden: es un ecuacion diferencial de segundo orden). En elcaso de (5.1) solo tenemos una incognita, es decir una funcion desconocida, pero podrıamostener varias. Por ejemplo, consideremos el siguiente circuito, mas complicado:

57

Page 58: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

58 CAPITULO 5. ECUACIONES DIFERENCIALES LINEALES.

1 Ω 2 Ω

i3

1 H i1

i2 3 Ω

1 H 1 H

Deseamos determinar las intensidades de corriente i1, i2 e i3. Aplicando de nuevo principiosbasicos, podemos ver que estas intensidades tambien dependen del tiempo, es decir i1 =i1(t), i2 = i2(t), i = i3(t); ademas, dichos principios proporcionan las ecuaciones siguientes:

di1dt

= −i2 − 2i3

di2dt

= −4i2 + i3

di3dt

= 2i2 − 6i3

(5.2)

En las ecuaciones anteriores aparecen distintas funciones, junto con sus derivadas; esteconjunto de ecuaciones recibe el nombre de sistema de ecuaciones diferenciales.

Cierto tipo de ecuaciones diferenciales y sistemas de ecuaciones diferenciales, llamadaslineales, resultan perfectos para ilustrar todos los conceptos que hemos visto hasta aho-ra en la teorıa de espacios vectoriales y aplicaciones lineales. De hecho, veremos como laaplicacion de la abstracta teorıa de los temas anteriores permite resolver los problemas,muy concretos, que se plantean en este tema, y que resultan cruciales, por ejemplo, en elestudio de circuitos. Aunque los resultados que vamos a desarrollar se refieren unicamentea ecuaciones y sistemas lineales, conviene mencionar que este tipo de ecuaciones aparececon mucha frecuencia en la naturaleza, no solo en el estudio de circuitos electricos, sino enmuchos otros campos, como por ejemplo oscilaciones mecanicas, movimiento planetario,desintegracion radiactiva, dinamica de poblaciones (ecologıa), etc. En primer lugar estu-diaremos las ecuaciones diferenciales, y despues pasaremos a los sistemas de ecuacionesdiferenciales.

Page 59: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

5.1. CONCEPTOS GENERALES SOBRE ECUACIONES DIFERENCIALES. 59

5.1. Conceptos generales sobre ecuaciones diferencia-

les.

Una ecuacion diferencial ordinaria (e.d.o.) es una relacion entre una funcion des-conocida y, la variable de la cual depende, t (de modo que y = y(t)) y sus derivadas hastaun cierto orden, n:

F (t, y, . . . , y(n)) = 0 (5.3)

Hemos proporcionado un ejemplo fısico en el que aparece una ecuacion diferencial en laintroduccion del tema, en el contexto de los circuitos electricos. Pero de hecho la familiarSegunda Ley de Newton proporciona otro ejemplo natural: esta ley dice que F = m · a,donde F es la fuerza que se ejerce sobre un objeto, m es su masa y a es la aceleracion queF induce sobre el objeto. Sin embargo, habitualmente cuando aplicamos esta ley lo querealmente queremos encontrar es no la aceleracion, sino la posicion del objeto; si suponemosque el objeto se mueve en una sola dimension, su posicion puede describirse como s = s(t),y por lo tanto la Segunda Ley de Newton da lugar a

d2s(t)

dt2=F

m.

Es decir, la derivada segunda de la funcion s(t) es igual a F/m. Por lo tanto, de una formanatural llegamos a una ecuacion diferencial. Para encontrar la solucion tendrıamos queintegrar F/m dos veces; de hecho, cada vez que integramos una funcion f(t) estamos dehecho resolviendo la ecuacion diferencial y′ = f(t).

El numero n en (5.3), es decir el mayor orden de las derivadas que aparecen en lae.d.o., recibe el nombre de orden de la ecuacion diferencial. Por ejemplo, consideremos lassiguientes ecuaciones diferenciales:

(1) y2 + cos(y · y′′′ + y′) = 1

(2) y′ = y.

(3) 3y′′ − 2y′ + y = et.

(4) y′′ − t2y′ + y = 0.

La ecuacion (2) es una ecuacion diferencial de primer orden. En (3), (4) tenemos ecua-ciones diferenciales de segundo orden. En (1) tenemos una ecuacion diferencial de tercerorden. Ademas, una solucion explıcita de (5.3) es una funcion y = φ(t) que cumple laecuacion, es decir que verifica

F (t, φ(t), φ′(t), . . . , φ(n)(t)) = 0

Ejemplos:

(a) Las soluciones de y′(t) = y(t) son y(t) = C · et, para cualquier constante C.

Page 60: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

60 CAPITULO 5. ECUACIONES DIFERENCIALES LINEALES.

(b) Se puede comprobar que y1(t) = sen(t) y y2(t) = cos(t) son soluciones de y′′(t) =−y(t). De hecho, cualquier funcion de la forma C1 · sin(t) o C2 · cos(t) es tambiensolucion; mas aun, cualquier funcion de la forma C1 · sin(t) +C2 · cos(t) donde C1, C2

son constantes, es una solucion de la ecuacion diferencial.

En algunos casos es difıcil o incluso imposible obtener soluciones explıcitas, pero sin em-bargo pueden encontrarse soluciones implıcitas, es decir, relaciones del tipo f(t, y) = 0entre la variable y y la variable t de la cual depende, donde no necesariamente podre-mos despejar y. Los ejemplos anteriores muestran que, en general, una ecuacion diferencialtiene infinitas soluciones. Una expresion dependiente de n (el orden de la ecuacion dife-rencial) parametros y que proporcione infinitas soluciones de una e.d.o., recibe el nombrede solucion general; por ejemplo, y(t) = C1 · sin(t) +C2 · cos(t) es la solucion general dey′′(t) = −y(t). Si la e.d.o. tiene orden n, la solucion general depende de n parametros, esdecir, es de la forma

φ(t, y, C1, . . . , Cn)

Cada solucion de una ecuacion diferencial recibe el nombre de solucion particular.En muchos casos no estamos interesados en todas las soluciones de una ecuacion dife-

rencial, sino solo en la solucion o soluciones que satisfacen condiciones relativas a ciertosvalores de t. En este sentido, un problema de valor inicial (P.V.I.) es una e.d.o. juntocon algunas condiciones iniciales que se refieren a un mismo valor de t; por ejemplo:

(i) y′(t) = y(t)y(0) = 1

(ii) y′(t) =

√y(t)

y(0) = 0

(iii) y′′(t) + y(t) = 0y(0) = 0y′(0) = 1

El primer P.V.I. tiene solo una solucion, y(t) = et. Sin embargo, el segundo tiene dos,y(t) = 1

4t2 y y(t) = 0. El tercero tambien tiene solo una solucion, y(t) = sin(t). Para resolver

un P.V.I., una posibilidad es encontrar primero la solucion general de la ecuacion, y utilizardespues las condiciones iniciales para elegir, de entre las funciones de la solucion general,aquellas que las satisfagan; esta estrategia tiene limitaciones en algunos casos, no obstante,porque la ecuacion diferencial puede tener soluciones singulares, es decir, soluciones queno provienen de una expresion general (este es el caso de, por ejemplo, y(t) = 0 en (ii)).Observemos que podemos tener varias soluciones, solamente una solucion, y en ciertos casosincluso ninguna solucion.

Si las condiciones iniciales no se refieren, todas ellas, al mismo valor de t, decimos queestamos ante un problema de valores en la frontera (P.V.F.); por ejemplo,

Page 61: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

5.2. ECUACIONES DIFERENCIALES LINEALES. 61

(i) y′′(t) + y(t) = 0y(0) = 1y(π

2) = 1

(ii) y′′(t) + y(t) = 0y(0) = 1y(π) = 5

La solucion de (i) es y(t) = sin(t) + cos(t). Sin embargo, se puede comprobar que (ii) notiene solucion. Por lo tanto, tanto los P.V.I. como los P.V.F. pueden o no tener solucion, yen caso de que la tengan puede ser unica, o no.

5.2. Ecuaciones diferenciales lineales.

En general, las ecuaciones diferenciales, los P.V.I. y los P.V.F. son difıciles de resolver,y en muchos casos no pueden ser resueltas de forma exacta, sino solo aproximada. Aquı nosrestringiremos al caso mas sencillo, que es el de las ecuaciones diferenciales linealesde coeficientes constantes, que sı pueden ser resueltas de forma exacta. Decimos que unaecuacion diferencial es lineal si es de la forma

an(t)yn + an−1(t)yn−1 + · · ·+ a0(t)y = b(t)

Aunque se trata de un tipo especial de ecuacion diferencial, sin embargo, como dijimos enla introduccion al tema, este tipo de ecuacion aparece muy frecuentemente en la naturaleza.Decimos que una ecuacion lineal es homogenea si b(t) es identicamente 0; en otro caso,decimos que es no-homogenea. Ademas, si ai(t) = ai para i = 1, . . . , n decimos que eslineal con coeficientes constantes.

El siguiente resultado recibe el nombre de Teorema de Existencia y Unicidad desoluciones. Aunque existen formas mas generales que la que presentamos aquı, para nues-tros propositos sera suficiente con esta formulacion. La idea fundamental es que un P.V.I.sobre una ecuacion diferencial lineal de cualquier orden cuyos coeficientes sean funcionescontinuas en un entorno del valor de t que aparece en las condiciones iniciales, tiene solucionunica, valida en dicho entorno.

Teorema 45. Sea an(t)yn + an−1(t)yn−1 + · · · + a0(t)y = b(t), y sea J ⊂ R un intervalodonde todas las funciones ai(t)’s y b(t) son continuas. Entonces, para cualquier t0 ∈ J , y

para cualquier eleccion de y0, y′0, . . . , y

(n−1)0 ∈ R, el P.V.I.

an(t)yn + an−1(t)yn−1 + · · ·+ a0(t)y = b(t)y(t0) = y0

y′(t0) = y′0...

y(n−1)(t0) = y(n−1)0

Page 62: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

62 CAPITULO 5. ECUACIONES DIFERENCIALES LINEALES.

tiene una unica solucion, que esta definida sobre todo J .

En lo que sigue siempre consideraremos ecuaciones diferenciales lineales donde los ai(t)’sy b(t) sean continuos sobre algun intervalo real.

Veamos como el concepto de espacio vectorial aparece en este contexto. Para ello,comenzamos con ecuaciones diferenciales de primer orden. Su forma general es

y′(t) + a(t)y(t) = b(t)

Consideramos primero el caso homogeneo,

y′(t) + a(t)y(t) = 0

Teorema 46. El conjunto de soluciones de una ecuacion diferencial lineal de primer ordentiene estructura de espacio vectorial de dimension 1.

Demostracion. En este caso podemos calcular explıcitamente la solucion general de laecuacion. En efecto, escribamos la ecuacion como

y′(t)

y(t)= −a(t)

Podemos reconocer a la izquierda de la igualdad la derivada de log(y(t)) (“log”significa“logaritmo neperiano”). Por lo tanto, integrando,

log(y(t)) = −∫a(t)dt+ k

donde k es la constante de integracion. Obtenemos entonces

y(t) = ek︸︷︷︸C

· e−∫a(t)dt︸ ︷︷ ︸

φ(t)

= C · φ(t)

En consecuencia, las soluciones de la ecuacion son los multiplos de φ(t), y por consiguienteel conjunto de soluciones tiene estructura de espacio vectorial de dimension 1, siendo φ(t)una base.

La demostracion del Teorema 46 proporciona un metodo practico para resolver unaecuacion diferencial homogenea de primer order. Por ejemplo, consideremos

y′ − 2ty = 0.

Entonces a(t) = −2t, y por tanto φ(t) =∫

2tdt = t2. Ası, la solucion general es y(t) = C ·et2 .Consideremos ahora el caso no homogeneo,

y′(t) + a(t)y(t) = b(t).

Fijando b(t) = 0 conseguimos una ecuacion homogenea, a la que nos referiremos como laecuacion homogenea asociada. Ademas, utilizaremos la siguiente notacion: ynh(t) representala solucion general de la ecuacion no-homogenea, yh(t) la solucion general de la ecuacionhomogenea, e yp(t) una solucion particular de la ecuacion no homogenea. Entonces secumple el siguiente resultado.

Page 63: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

5.2. ECUACIONES DIFERENCIALES LINEALES. 63

Teorema 47. La solucion general de la ecuacion lineal de primer orden no homogenea,verifica

ynh(t) = yh(t) + yp(t)

Demostracion. Por definicion, ynh(t) cumple

y′nh(t) + a(t)ynh(t) = b(t) (5.4)

Ademas, tambien por definicion yp(t) satisface

y′p(t) + a(t)yp(t) = b(t) (5.5)

Restando (5.5) y (5.4), se tiene que

(ynh(t)− yp(t))′(t) + a(t)(ynh(t)− yp(t)) = 0 (5.6)

Por lo tanto, ynh(t) − yp(t) es una solucion de la ecuacion homogenea asociada. Ademas,como ynh(t) es una familia dependiente de n parametros, entonces ynh(t)−yp(t) es tambienuna familia dependiente de n parametros. Ası, ynh(t) − yp(t) depende de n parametros yrepresenta infinitas soluciones de la ecuacion homogena; por lo tanto coincide con yh(t).

Existen metodos practicos para buscar soluciones particulares yp(t) de una ecuacion nohomogenea; sin embargo, nosotros no exploraremos aquı esta cuestion.

Como muestra el Teorema 46, la nocion de espacio vectorial aparece en el contexto delas ecuaciones diferenciales. Sin embargo, podrıamos haber resuelto la ecuacion diferenciallineal homogenea de primer orden sin referencia alguna al concepto de espacio vectorial:bastarıa haber hablado de “multiplos”de una cierta funcion. En cambio, los conceptosrelacionados con la estructura de espacio vectorial se vuelven mucho mas necesarios cuandoabordamos las ecuaciones lineales de segundo orden. La forma general de estas ecuacioneses:

y′′(t) + p(t)y′(t) + q(t)y(t) = b(t) (5.7)

Como antes, si b(t) = 0 decimos que la ecuacion es homogenea, de lo contrario decimosque es no-homogenea. Ahora bien, si consideramos la ecuacion homogenea,

y′′(t) + p(t)y′(t) + q(t)y(t) = 0, (5.8)

no esta tan claro ahora como resolverla, ya que no podemos encontrar explıcitamente unaexpresion general para y(t). Sin embargo, el Teorema 46 nos da una pista: si la soluciongeneral de la ecuacion diferencial lineal homogenea tiene estructura de espacio vectorial dedimension 1, tal vez en el caso de la ecuacion de segundo orden tengamos un espacio vec-torial de dimension 2. Veamos en primer lugar que efectivamente el conjunto de solucionestiene estructura de espacio vectorial; abordaremos la dimension mas tarde.

Proposicion 48. El conjunto de soluciones de la ecuacion diferencial lineal de segundoorden tiene estructura de espacio vectorial .

Page 64: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

64 CAPITULO 5. ECUACIONES DIFERENCIALES LINEALES.

Demostracion. Para demostrar el resultado tenemos que ver que la combinacion lineal desoluciones de la ecuacion es tambien solucion de la ecuacion. Por tanto, sean y1(t), y2(t)dos soluciones de (5.8). Entonces,

y′′1(t) + p(t)y′1(t) + q(t)y1(t) = 0 (5.9)

yy′′2(t) + p(t)y′2(t) + q(t)y2(t) = 0 (5.10)

Sean ahora α, β ∈ R. Queremos ver si αy1(t) + βy2(t) es una solucion de (5.8) o no. Paraello, queremos comprobar si (αy′′1(t)+βy′′2(t))+p(t)(αy′1(t)+βy′2(t))+q(t)(αy1(t)+βy2(t))es 0 o no. Sin embargo,

(αy′′1(t) + βy′′2(t)) + p(t)(αy′1(t) + βy′2(t)) + q(t)(αy1(t) + βy2(t)) == α · (y′′1(t) + p(t)y′1(t) + q(t)y1(t))︸ ︷︷ ︸

(5.9)

+β · (y′′2(t) + p(t)y′2(t) + q(t)y2(t))︸ ︷︷ ︸(5.10)

A partir de (5.9) y (5.10) deducimos que la expresion anterior es identicamente 0, y porconsiguiente se tiene el resultado.

Demostrar que la dimension del conjunto de soluciones es 2 es mas difıcil. Sin embar-go, esto resulta crucial desde el punto de vista practico, porque significa que si podemosencontrar dos soluciones linealmente independientes de la ecuacion, entonces las solucionesrestantes son simplemente combinaciones lineales de ellas. No sabemos tampoco, ahoramismo, como comprobar la independencia lineal en este contexto, y como encontrar esassoluciones independientes. Pero abordaremos estas cuestiones mas adelante; de momento,veamos el siguiente resultado, donde se muestra que la dimension es la esperada.

Teorema 49. El conjunto de soluciones de la ecuacion lineal homogenea de segundo ordentiene dimension 2.

Demostracion. Sea t0 un numero real tal que p(t), q(t) son continuas en un entorno det = t0. Definamos dos funciones y1(t), y2(t) de la siguiente forma: y1(t) es la solucion delP.V.I.

y′′ + p(t)y′ + q(t)y = 0y(t0) = 1y′(t0) = 0

(5.11)

Por otra parte, y2(t) es la solucion del P.V.I.y′′ + p(t)y′ + q(t)y = 0y(t0) = 0y′(t0) = 1

(5.12)

Demostremos que y1(t), y2(t) es una base del conjunto de soluciones de la ecuacion y′′+p(t)y′ + q(t)y = 0. Comenzamos comprobando que son linealmente independientes: enefecto, dos vectores son linealmente dependientes si y solo si uno de ellos es multiplo del

Page 65: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

5.2. ECUACIONES DIFERENCIALES LINEALES. 65

otro. Por tanto, supongamos que y1(t) = α·y2(t). Entonces α 6= 0, porque si α = 0 entoncesy1(t) = 0 y y1(t0) = 0 6= 1. Sin embargo, si α 6= 0 incurrimos tambien en contradiccion,porque y′1(t0) = α · y′2(t0) = α 6= 0, y de (5.11) se deduce que y′1(t0) = 0. Por tanto,y1(t), y2(t) son linealmente independientes. Ahora necesitamos comprobar que forman unsistema de generadores, es decir que cualquier otra solucion de la ecuacion diferencial escombinacion lineal de y1(t), y2(t). Para ello, sea y(t) cualquier otra solucion de la ecuacion,y sean y0 = y(t0), y′0 = y′(t0). Entonces y(t) satisface el P.V.I.

y′′ + p(t)y′ + q(t)y = 0y(t0) = y0

y′(t0) = y′0

(5.13)

Sin embargo, y(t) = y0·y1(t)+y′0·y2(t) tambien satisface (5.13): en efecto, por la Proposicion48, y(t) es tambien solucion de la ecuacion, y cumple y(t0) = y0, y′(t0) = y′0. Como porel Teorema 45 la solucion de (5.13) es unica, deducimos que y(t) = y(t) y por lo tantoy(t) = y0·y1(t)+y′0·y2(t), es decir y(t) es combinacion lineal de y1(t), y2(t). Ası, y1(t), y2(t)es un sistema de generadores, y el teorema es cierto.

En la demostracion del teorema anterior necesitabamos verificar si dos funciones y1(t), y2(t)eran o no linealmente independientes. Pudimos hacer esto comprobando si una era o nomultiplo de la otra. Sin embargo, si tenemos mas de dos funciones el problema resulta mascomplicado, y necesitamos un criterio efectivo. A fin de obtener un criterio de este tipo,introducimos primero la siguiente definicion.

Definicion 50. El wronskiano W (y1, y2, . . . , yn) de y1(t), y2(t), . . . , yn(t) es el determi-nante

W (y1, y2, . . . , yn) =

∣∣∣∣∣∣∣∣∣y1 y2 . . . yny′1 y′2 . . . y′n...

.... . .

...

y(n−1)1 y

(n−1)2 . . . y

(n−1)n

∣∣∣∣∣∣∣∣∣Observemos que W (y1, y2, . . . , yn), en general, es una funcion de t. El siguiente resultado

muestra la utilidad de la definicion anterior.

Proposicion 51. Si y1(t), . . . , yn(t) son linealmente dependientes, entonces W (y1, y2, . . . , yn) =0 (es decir, el wronskiano es identicamente nulo).

Demostracion. Por el Teorema 4 del Tema 2, si y1(t), . . . , yn(t) son linealmente dependien-tes, entonces existen λ1, . . . , λn ∈ R, no todos nulos, tales que λ1 ·y1(t)+ · · ·+λn ·yn(t) = 0.Sin embargo, como esta igualdad se cumple para cualquier valor de t, derivandola n − 1veces se obtiene

λ1 · y1(t) + · · ·+ λn · yn(t) = 0λ1 · y′1(t) + · · ·+ λn · y′n(t) = 0

......

λ1 · y(n−1)1 (t) + · · ·+ λn · y(n−1)

n (t) = 0

Page 66: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

66 CAPITULO 5. ECUACIONES DIFERENCIALES LINEALES.

Viendo el sistema anterior como un sistema homogeneo en λ1, . . . , λn, como no todos losλi’s son 0 se deduce que el sistema tiene otras soluciones, ademas de la trivial. Por lo tanto,el determinante de la matriz de coeficientes debe ser nulo. Puesto que este determinanteses W (y1, y2, . . . , yn), se tiene el resultado.

El resultado anterior proporciona una condicion suficiente para probar que y1(t), . . . , yn(t)son linealmente independientes: si W (y1, y2, . . . , yn) 6= 0, por la Proposicion 51 las funcionesson independientes.

Falta resolver la cuestion de como encontrar dos soluciones independientes de la ecua-cion diferencial lineal homogenea de segundo orden. Incluso en el caso lineal, este problemaes, en general, difıcil. Por ello nos restringiremos a un caso mas simple, en concreto el casoen que los coeficientes p(t), q(t) son constantes. Nos referimos a este caso como “el caso decoeficientes constantes”:

y′′(t) + a1y′(t) + a0y(t) = 0 (5.14)

Inspirandonos primero en lo que sucede para orden uno, vemos que una ecuacion diferenciallineal, homogena, de coeficientes constantes, de primer orden, tiene la forma y′(t)+ay(t) =0, donde a es una constante. De la demostracion del Teorema 46 deducimos que la soluciongeneral es y(t) = C · e−at. Nos preguntamos si en nuestro caso podrıamos tener tambiensoluciones particulares de la forma y(t) = ert, para algun valor de r (que serıa necesariocalcular). Para comprobar esta posibilidad, sustituimos y = ert en (5.14):

r2 · ert + a1 · r · ert + a0 · ert = (r2 + a1 · r + a0) · ert = 0

De este modo vemos que r debe verificar la llamada ecuacion caracterıstica,

r2 + a1 · r + a0 = 0

Sean r1, r2 las raıces de esta ecuacion. Distiguimos tres casos:

(1) r1, r2 ∈ R, r1 6= r2 (raıces reales distintas): en este caso obtenemos dos solucionesparticulares, y1(t) = er1t, y2(t) = er2t. Para ver si son o no linealmente independientes,observamos que

W (y1, y2) =

∣∣∣∣ er1t er2t

r1er1t r2e

r2t

∣∣∣∣ = (r2 − r1) · e(r1+r2)t = r2 6= r1 6= 0

Por tanto, de la Proposicion 51 deducimos que y1(t), y2(t) son independients, y apli-cando el Teorema 49 se tiene que la solucion general de (5.14) es

yh(t) = C1 · er1t + C2 · er2t

(2) r1 = r2 (una raız real doble): en este caso tenemos que y1(t) = er1t es solucion de(5.14), pero se puede probar que y2(t) = ter1t tambien es solucion. Procediendo comoen (1) vemos que son independientes y por lo tanto

yh(t) = C1 · er1t + C2 · ter1t

Page 67: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

5.2. ECUACIONES DIFERENCIALES LINEALES. 67

(3) r1 = a + ib, r2 = a − ib (raıces complejas conjugadas): se puede probar quey1(t) = eatsin(bt), y2(t) = eatcos(bt) son soluciones independientes de (5.14), y por lotanto

yh(t) = C1 · eatsin(bt) + C2 · eatcos(bt)

El resultado del Teorema 47 se cumple tambien en el caso de la ecuacion diferencial(5.7). Utilizamos aquı la misma notacion del Teorema 47.

Teorema 52. La solucion general de la ecuacion diferencial lineal no homogenea de se-gundo orden, verifica lo siguiente:

ynh(t) = yh(t) + yp(t)

De nuevo, aunque existen metodos para determinar yp(t) en ciertos casos, la cuestion quedafuera del alcance del curso.

Finalmente, toda esta teorıa puede trasladarse al caso de orden n. En ese caso, laecuacion tiene el siguiente aspecto:

an(t)yn + an−1(t)yn−1 + · · ·+ a0(t)y = b(t)

Si b(t)id.= 0 tenemos una ecuacion homogenea, y se verifica el siguiente resultado.

Teorema 53. El conjunto de soluciones de una ecuacion diferencial lineal de orden n tieneestructura de espacio vectorial de dimension n. Por tanto, la solucion general de una e.d.o.de este tipo es de la forma

yh(t) = C1y1(t) + C2y2(t) + · · ·+ Cnyn(t),

donde y1(t), y2(t), . . . , yn(t) son soluciones linealmente independientes.

En el caso no homogeneo, obtenemos el mismo resultado que en los casos n = 1, n = 2:

Teorema 54. Si ynh(t) representa la solucion general de una ecuacion lineal no homogeneade orden n, yh(t) es la solucion general de la ecuacion homogenea asociada y yp(t) es unasolucion particular de la no-homogenea, entonces ynh(t) = yh(t) + yp(t).

Ademas, en el caso de coeficientes constantes, es decir si ai(t) = ai para i = 0, 1, . . . , n, laecuacion homogenea verifica lo siguiente:

Como en el caso n = 2, podemos definir la ecuacion caracterıstica, que en estecaso es anr

n + an−1rn−1 + · · ·+ a0 = 0.

Como en el caso n = 2, cada raız rk (real o compleja), de multiplicidad mk, da lugara mk soluciones independientes:

• Cada raız real rk de multiplicidad mk da lugar a erkt, terkt, . . . , tmk−1erkt.

• Cada par de raıces complejas conjugadas ak±ibk de multiplicidad mk da lugar aeaktsin(bkt), te

aktsin(bkt), . . ., tmk−1eaktsin(bkt), y eaktcos(bkt), te

aktcos(bkt), . . .,tmk−1eaktcos(bkt).

De nuevo, hay metodos para obtener soluciones particulares de la ecuacion no homogenea,pero esta cuestion queda fuera del alcance del curso.

Page 68: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

68 CAPITULO 5. ECUACIONES DIFERENCIALES LINEALES.

5.3. Sistemas de ecuaciones diferenciales.

En lo que sigue utilizaremos la siguiente notacion: escribiremos

u(t) = (u1(t), u2(t), . . . , un(t)),

de modo que u(t) representara un vector de Rn dependiente de la variable t. La derivada de

u(t), que representamos por du(t)dt

, es el vector de Rn cuyas componentes son las derivadasde u(t), es decir

du(t)

dt=

(du1(t)

dt,du2(t)

dt, . . . ,

dun(t)

dt

)Ademas, escribiremos

F (t, u) = (f1(t, u), f2(t, u), . . . , fn(t, u)),

de modo que F (t, u) representara un vector de Rn dependiente de t, u. En lo que sigueconsideraremos el siguiente sistema de ecuaciones diferenciales de primer orden:

du(t)

dt= F (t, u) (5.15)

Desarrollando (5.15),

du1

dt= f1(t, u1, u2, . . . , un)

du2

dt= f2(t, u1, u2, . . . , un)

......

dundt

= fn(t, u1, u2, . . . , un)

(5.16)

En efecto, se trata de un sistema porque estamos buscando n funciones, en concreto lascomponentes u1(t), u2(t), . . . , un(t) de u(t); ademas, es de primer orden porque tenemossolo tenemos derivadas primeras. Si n = 2 solemos escribir u(t) = (x(t), y(t)), de modo queu1 := x, u2 := y; si n = 3, escribimos u(t) = (x(t), y(t), z(t)), es decir u1 := x, u2 := y,u3 := z. Por ejemplo, los siguientes son sistemas de primer orden del tipo que estamosconsiderando aquı:

(1) x′ = yy′ = −x (5.17)

(2) x′ = t3x− ty2

y′ = 3x3 − 2tsiny(5.18)

Page 69: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

5.3. SISTEMAS DE ECUACIONES DIFERENCIALES. 69

(3) x′ = 2x− yy′ = x+ y − zz′ = x− y − z + cos(t)

(5.19)

Como sucede tambien con las e.d.o.’s, en general un sistema de primer orden tiene infinitassoluciones. Una solucion del sistema se llama una solucion particular; Por ejemplo, enel caso de (5.17), x(t) = sin(t), y(t) = cos(t) (o (sin(t), cos(t)), en forma vectorial) esuna solucion particular, como tambien lo es x(t) = cos(t), y(t) = −sin(t). Una soluciongeneral es una expresion que contiene infinitas soluciones particulares del sistema, y quedepende de una constante vectorial1, C = (C1, C2, . . . , Cn) ∈ Rn; en notacion vectorial, lassoluciones generales tienen el siguiente aspecto:

u(t, C) = (u1(t, C), u2(t, C), . . . , un(t, C)) == (u1(t, C1, C2, . . . , Cn), u2(t, C1, C2, . . . , Cn), . . . , un(t, C1, C2, . . . , Cn))

Por ejemplo, en el caso de (5.17) la solucion general esx(t) = C1cos(t) + C2sin(t)y(t) = −C1sin(t) + C2cos(t)

,

que puede escribirse (C1cos(t) + C2sin(t),−C1sin(t) + C2cos(t)) en notacion vectorial. Siincorporamos ademas la condicion inicial u(t0) = u0, donde u0 ∈ Rn, entonces tenemos unP.V.I.:

du(t)

dt= F (t, u)

u(t0) = u0

(5.20)

Por ejemplo, si anadimos la condicion inicial u(0) = (0, 1)t al sistema (5.17), entoncestenemos el P.V.I.

x′ = yy′ = −xx(0) = 0y(0) = 1

Este P.V.I. tiene una unica solucion, en concreto x(t) = sin(t), y(t) = cos(t). Como en elcaso de las e.d.o.s, un P.V.I. puede tener solucion o no, y en caso afirmativo puede serunica, o no.

Los sistemas de primer orden tienen conexion con las ecuaciones diferenciales de ordensuperior. Consideremos la ecuacion diferencial de orden n,

y(n)(t) = f(t, y, y′, . . . , y(n−1))

1Notese que la constante vectorial tendra tantas componentes como incognitas

Page 70: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

70 CAPITULO 5. ECUACIONES DIFERENCIALES LINEALES.

Introduciendo nuevas variables, esta ecuacion es equivalente al sistema de primer orden dela derecha:

u1 = yu2 = y′

......

un = y(n−1)

u′1 = u2

u′2 = u3...

...u′n = f(t, u1, u2, . . . , un)

(5.21)

Por ejemplo, consideremos una ecuacion lineal de segundo orden:

y′′ + p(t)y′ + q(t)y = b(t)

Esta ecuacion es equivalente al sistema

u1 = yu2 = y′

u′1 = u2

u′2 = −q(t)u1 − p(t)u2 + b(t),

que se puede escribir en forma vectorial como(u1

u2

)′=

(0 1−q(t) −p(t)

)·(u1

u2

)+

(0b(t)

)(5.22)

Como sucede tambien con las e.d.o.s, en general los sistemas de primer orden sondemasiado difıciles de resolver. Por esa razon, nos centramos en tipos especiales de sistemas,mas sencillos, pero que aparecen con frecuencia suficiente en las aplicaciones y resultan portanto relevantes. El caso mas importante es el de los sistemas lineales de primer orden,

du

dt= A(t) · u+ b(t) (5.23)

donde A(t) representa una matriz cuadrada de orden n cuyos elementos dependen de lavariabe t, y b(t) representa un vector de Rn cuyas componentes dependen de la variable t.Al desarrollar (5.23) se obtiene

du1

dt= a11(t)u1 + a12(t)u2 + · · ·+ a1n(t) + b1(t)

du2

dt= a21(t)u1 + a22(t)u2 + · · ·+ a2n(t) + b2(t)

......

dundt

= an1(t)u1 + an2(t)u2 + · · ·+ ann(t) + bn(t)

donde

A(t) =

a11(t) a12(t) · · · a1n(t)a21(t) a22(t) · · · a2n(t)

......

. . ....

an1(t) an2(t) · · · ann(t)

.

Page 71: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

5.4. SISTEMAS LINEALES CON COEFICIENTES CONSTANTES. 71

Un ejemplo de un sistema de este tipo es (5.22). Pero (5.17) o (5.18) son tambien sistemaslineales: el primero se puede escribir como(

xy

)′=

(0 1−1 0

)·(xy

)mientras que el ultimo es x

yz

′ =

2 −1 01 1 −11 −1 −1

· x

yz

+

00

cos(t)

De hecho, en estos dos casos se puede observar que los elementos de la matriz A(t) sonconstantes, es decir, no dependen de t. Este es el caso que vamos a estudiar. Por lo tanto,un sistema de ecuaciones diferenciales lineales de primer orden, con coeficientesconstantes es

du

dt= A · u+ b(t) (5.24)

donde A es una matriz constante. Si b(t) es identicamente 0 (el caso de (5.17)) el siste-ma se llama homogeneo, de lo contario (el caso de (5.18)) se llama no homogeneo.Dedicaremos el resto del tema a la resolucion de este tipo de sistemas, en ciertos casos.

5.4. Sistemas lineales con coeficientes constantes.

Consideramos primero el caso homogeneo:

du

dt= A · u (5.25)

Si n = 1 entonces no tenemos un sistema, sino solo la ecuacion y′ = a · y, cuya soluciongeneral es y(t) = C · eat, o y(t) = eat · C, invirtiendo el orden de los terminos. Si estopudiera generalizarse a nuestro caso, la solucion de nuestro problema deberıa ser entoncesu(t) = eAt · C, donde ahora C serıa un vector constante. La pregunta logica es que significaeAt: la suma o diferencia de matrices parecen operaciones naturales, pero calcular unapotencia cuyo exponente es una matriz, ciertamente no parece muy natural. Sin embargo,veamos que la exponencial de una matriz ciertamente puede definirse, tiene sentido, yde hecho permite resolver nuestro problema.

Para definir eAt necesitamos recordar que es la serie Taylor de la funcion exponencial,f(x) = ex. Aunque una descripcion completa de este concepto esta fuera del alcance deestas notas, y pertenece, de hecho, al reino del Calculo, introduzcamos brevemente laidea. Sea f(x) una funcion real, derivable hasta orden n + 1 en x = 0. Supongamos quequeremos aproximar f(x) por un polinomio P (x) de orden n, de modo que la aproximacionsea buena cuando estamos cerca de x = 0. Logicamente, para que la aproximacion seabuena debemos pedir que f(x) y P (x) coincidan en x = 0, de modo que f(0) = P (0). Si

Page 72: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

72 CAPITULO 5. ECUACIONES DIFERENCIALES LINEALES.

ademas imponemos que las tangentes a y = f(x), y = P (x) coincidan en x = 0, tenemos lacondicion f ′(0) = P ′(0). Para mejorar la aproximacion, podemos pedir tambien que f ′′(0) =P ′′(0), y ası podemos continuar, imponiendo f (k)(0) = P (k)(0) para k = 0, 1, 2, . . . , n. Siescribimos ahora

P (x) = a0 + a1x+ a2x2 + · · ·+ anx

n,

las condiciones anteriores permiten expresar a0, a1, a2, . . . en funcion de f(0), f ′(0), f ′′(0), . . ..En concreto, se tiene

a0 = f(0), a1 =f ′(0)

1!, a2 =

f ′′(0)

2!, . . . , an =

f (n)

n!

Por lo tanto, el polinomio P (x) que buscabamos es

P (x) = f(0) +f ′(0)

1!x+

f ′′(0)

2!x2 + · · ·+ f (n)(0)

n!xn

Este polinomio recibe el nombre de polinomio de Taylor de orden n de f(x) en x = 0.Observemos que f(x) ≈ P (x), es decir P (x) aproxima bien f(x) en la vecindad de x = 0,pero f(x) y P (x) no son iguales. Si f es derivable en x = 0 para cualquier orden, entoncespodemos conseguir la igualdad a lo largo de un cierto intervalo I que contenga a x = 0 alprecio de tomar no algunos terminos del polinomio, sino infinitos: en ese caso, tenemos

f(x) = f(0) +f ′(0)

1!x+

f ′′(0)

2!x2 + · · ·+ f (n)(0)

n!xn + · · ·

y la expresion de la derecha se llama la serie Taylor de f(x) en x = 0, o la serie de McLaurin de f(x). En general, la igualdad es valida unicamente en un intervalo I ⊂ R, peroen algunos casos sucede que I = R, de modo que la serie de Taylor representa a f(x) encualquier punto. Ası sucede, en concreto, con la funcion exponencial, f(x) = ex; en estecaso, tenemos

ex = 1 +x

1!+x2

2!+ · · ·+ xn

n!+ · · ·

para todo x ∈ R. Esto es exactamente lo que necesitamos para definir eAt.

Definicion 55. Sea A ∈ An×n. La exponencial de A, eA, es otra matriz que se definede la siguiente forma:

eA = I +A

1!+A2

2!+ · · ·+ An

n!+ · · ·

Analogamente,

eAt = I +At

1!+A2t2

2!+ · · ·+ Antn

n!+ · · · (5.26)

De modo que eAt es una suma infinita de matrices, cada una de ellas correspondientea una potencia de A. El lector puede sentirse un tanto sorprendido ante la idea de sumarinfinitas matrices, pero veremos que esa aparente dificultad se puede evitar en varios casosinteresantes. De momento, centremonos en las siguientes propiedades de la exponencial deuna matriz:

Page 73: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

5.4. SISTEMAS LINEALES CON COEFICIENTES CONSTANTES. 73

1. si

D =

λ1 0 · · · 00 λ2 · · · 0...

.... . .

...0 0 · · · λr

,

entonces

eD =

eλ1 0 · · · 00 eλ2 · · · 0...

.... . .

...0 0 · · · eλr

2. e0 = I.

3. Si A,B conmutan (es decir, A ·B = B · A), entonces eA+B = eA · eB

4. La matriz eA es regular, y (eA)−1 = e−A

5. La matriz eAt es diferenciable (decimos que una matriz es diferenciale si todos suselementos lo son), y

d(eAt)

dt= A · eAt (5.27)

Mientras que la primera propiedad demuestra que es trivial calcular la exponencialde una matriz diagonal, las propiedades 2-5 muestran extraordinarias coincidencias conlas propiedades habituales de las potencias. Ademas, la propiedad 5 permite demostrar elsiguiente resultado.

Teorema 56. La solucion general de

du

dt= A · u

es

u(t) = eAt · C

Demostracion.

du

dt=d(eAt · C)

dt=d(eAt)

dt· C = propiedad 5 = A · eAt · C = A · u

Si ahora incorporamos la condicion inicial u(t0) = u0, donde u0 ∈ Rn, entonces puedeprobarse que el P.V.I. que obtenemos tiene solucion unica para cualquier u0. De hecho,podemos incluso dar una expresion cerrada para la solucion.

Page 74: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

74 CAPITULO 5. ECUACIONES DIFERENCIALES LINEALES.

Teorema 57. La solucion del P.V.I.du

dt= A · u

u(t0) = u0

es

u(t) = eA(t−t0) · u0

Por lo tanto, de este teorema se desprende que siempre que sepamos calcular la ex-ponencial de una matriz, podemos resolver nuestro problema. Es claro como calcular laexponencial de una matriz en el caso en que la matriz es diagonal. Veamos ahora comocalcularla cuando la matriz no es diagonal, pero sin embargo es diagonalizable. En es-te caso, sabemos que la matriz A es semejante a una matriz diagonal D, de modo queA = P ·D · P−1, con P regular. Se tiene entonces el siguiente resultado.

Proposicion 58. Let A = P ·B · P−1, with P regular. Then it holds that

eAt = P · eBt · P−1 (5.28)

Demostracion. Utilizando la definicion de matriz exponencial y la Proposicion 44 del Tema4,

eAt = I + At1!

+ A2t2

2!+ · · ·+ Antn

n!+ · · · =

= (P · I · P−1) +(P · Bt

1!· P−1

)+(P · B2t2

2!· P−1

)+ · · ·+

+(P · Bntn

n!· P−1

)+ · · ·

Como el producto de matrices es distributivo, se tiene que

eAt = P ·(I +

Bt

1!+B2t2

2!+ · · ·+ Bntn

n!+ · · ·

)︸ ︷︷ ︸

eBt

·P−1

y se deduce el resultado.

En particular, si A es diagonalizable entonces eAt = P · eDt ·P−1 con D diagonal; como eDt

es muy facil de calcular en este caso, eAt es facil de calcular, tambien. Pero aun podemoshacerlo mejor. Para ello, supongamos que hemos calculado previamente los autovaloresλ1, λ2, . . . , λn de A y los atuovectores v1, v2, . . . , vn, en una cierta base u1, u2, . . . , un.Ademas, como A es diagonalizable sabemos que los vi’s forman tambien una base de Rn.Suponemos que las coordenadas de los vi en la base de los uj0’s son conocidas:

v1 = a11u1 + a12u2 + · · ·+ a1nunv2 = a21u1 + a22u2 + · · ·+ a2nun...

...vn = an1u1 + an2u2 + · · ·+ annun

Page 75: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

5.4. SISTEMAS LINEALES CON COEFICIENTES CONSTANTES. 75

Como las columnas de la matriz P son las coordenadas de los vi’s, tenemos que

P =

a11 a21 · · · an1

a12 a22 · · · an2...

.... . .

...a1n a2n · · · ann

Sabemos que eAt · C = P ·eDt ·P−1 · C︸ ︷︷ ︸

C?

. Por simplicidad, y abusando de notacion, llamemos

C? = (C1, C2, . . . , Cn)t; entonces se tiene que

eAt · C == P · eDt · C? =

=

a11 a21 · · · an1

a12 a22 · · · an2...

.... . .

...a1n a2n · · · ann

·

eλ1t 0 · · · 00 eλ2t · · · 0...

.... . .

...0 0 · · · eλnt

·

C1

C2...Cn

=

y multiplicando estas matrices, obtenemos

=

a11e

λ1t a21eλ2t · · · an1e

λnt

a12eλ1t a22e

λ2t · · · an2eλnt

......

. . ....

a1neλ1t a2ne

λ2t · · · anneλnt

·

C1

C2...Cn

=

=

C1e

λ1ta11 + C2eλ2ta21 + · · ·+ Cne

λntan1

C1eλ1ta12 + C2e

λ2ta22 + · · ·+ Cneλntan2

...C1e

λ1ta1n + C2eλ2ta2n + · · ·+ Cne

λntann

=

= C1 ·

a11

a12...a1n

︸ ︷︷ ︸

v1

·eλ1t + C2 ·

a21

a22...a2n

︸ ︷︷ ︸

v2

·eλ2t + · · ·+ Cn ·

an1

an2...ann

︸ ︷︷ ︸

vn

·eλnt

Por tanto, en cada termino aparece un autovalor, junto con un autovector asociado a el. Sihay autovalores multiples, cada autovalor aparecera tantas veces en la expresion anteriorcomo indique su multiplicidad.

Consideremos ahora el caso no homogeneo,

du

dt= A · u+ b(t) (5.29)

Como en el caso de las e.d.o.s, fijando b(t) := 0 obtenemos el sistema homogeneoasociado. Representemos por unh(t) la solucion general del sistema no homogeneo, repre-sentemos por uh(t) la solucion del sistema homogeneo asociado, y sea up(t) una solucion

Page 76: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

76 CAPITULO 5. ECUACIONES DIFERENCIALES LINEALES.

particular del sistema no homogeneo. Se verifica entonces el siguiente resultado, analogoal Teorema 47, que puede demostrarse de una forma similar.

Teorema 59. La solucion general del sistema lineal no homogeneo de primer orden verifica

unh(t) = uh(t) + up

Resulta claro a partir de los resultados anteriores como calcular uh(t) en determinadoscasos. Para determinar up(t) utilizaremos el metodo de variacion de parametros. La ideaes la siguiente: sabemos que uh(t) = eAt ·C es la solucion general de la ecuacion homogenea.Por lo tanto, buscamos una solucion particular de la ecuacion no homogenea de la formaup(t) = eAt · C(t), donde C(t) es una funcion vectorial desconocida. Para determinarla,imponemos que up(t) = eAt · C(t) sea solucion de (5.29):

A · eAt · C(t) + eAt · C ′(t)︸ ︷︷ ︸

u′(t)

=

A · eAt · C(t)︸ ︷︷ ︸

A·u(t)

+b(t)

Como eA es invertible tambien lo es eAt; ademas,(eAt)−1

= e−At = eA(−t). Por tanto,tenemos que

C′(t) = e−At · b(t),

y ası

C(t) =

∫e−As · b(s)ds

En consecuencia tenemos el siguiente resultado.

Teorema 60. La solucion del P.V.I.du

dt= A · u+ b(t)

u(t0) = u0

es

u(t) = eA(t−t0) · u0 + eAt ·∫ t

t0

e−As · b(s)ds

Es natural preguntarse que hacer si A no es diagonalizable. Este caso puede resolversetambien, pero aquı solamente daremos una idea general del metodo, y no una descripcioncompleta. Si A no es diagonalizable se puede probar que A es equivalente a una matrizllamada matriz de Jordan de A, que es “diagonal por bloques”:

J =

J1 0 · · · 00 J2 · · · 0...

.... . .

...0 0 · · · Jr

Page 77: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

5.4. SISTEMAS LINEALES CON COEFICIENTES CONSTANTES. 77

Cada Ji (bloque de Jordan) es de la forma

Ji =

λi 1 · · · 0 00 λi · · · 0 0...

.... . .

......

0 0 · · · λi 10 0 · · · 0 λi

donde λi es un autovalor. El numero de bloques de Jordan correspondientes a un ciertoautovalor coincide con su multiplicidad geometrica, y la suma de los tamanos de los bloquesde Jordan es igual a su multiplicidad algebraica. El algoritmo completo para calcular lamatriz de Jordan queda fuera del alcance de estas notas, pero mencionaremos dos reglasbasicas:

(1) si dim(Lλi) = nλi , entonces λi tiene nλi bloques de tamano 1 (de modo que todosellos, juntos, dan lugar a un bloque diagonal de tamano nλi)

(2) si dim(Lλi) = 1 6= nλi , entonces λi tiene un unico bloque de tamano nλi , con 1’s porencima de la diagonal principal.

Como A y J son semejantes, existe una matriz regular P tal que A = P ·J ·P−1. Se cumpleque:

Todos los autovectores independientes que podamos obtener, asociados a diferentesautovalores, dan lugar a columnas de P . Sin embargo, de esta manera no vamos apoder construir todas las columnas de P .

Una posibilidad, no muy eficiente, para calcular las columnas restantes es utilizarque A · P = P · J . De nuevo, un metodo mejor para calcular dichas columnas existe,pero queda fuera de los lımites de estas notas.

Una vez que hemos determinado P, J , de la Proposicion 58 tenemos que eAt = P · eJt ·P−1. Ademas, se verifica que

eJt =

eJ1t 0 · · · 00 eJ2t · · · 0...

.... . .

...0 0 · · · eJrt

Por lo tanto, si sabemos como determinar eJit, podemos calcular eAt. Para ello, observamosque Ji = λiI +N , donde I es la identidad y

N =

0 1 0 · · · 00 0 1 · · · 0...

......

. . ....

0 0 0 · · · 10 0 0 · · · 0

Page 78: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

78 CAPITULO 5. ECUACIONES DIFERENCIALES LINEALES.

Se puede comprobar que λiI y N conmutan. Por lo tanto, eJit = eλiIt · eNt. Como λiI esdiagonal resulta inmediato calcular eλiIt. Para calcular eNt, observamos que

N2 =

0 0 1 · · · 00 0 0 · · · 0...

......

. . ....

0 0 0 · · · 10 0 0 · · · 00 0 0 · · · 0

A medidad que vamos calculando potencias mayores de N , la diagonal de 1’s va subiendohacia la esquina superior derecha, de modo que el numero de elementos no nulos va dis-minuyendo; de hecho, para k ≥ `, donde ` es el orden de la matriz, se tiene que Nk = 02.Finalmente, de la definicion de matriz exponencial, se tiene que

eNt = I +Nt

1!+N2t2

2!+ · · ·+ N `−1t`−1

(`− 1)!

2Si una matriz verifica que existe k ∈ N con Nk = 0, decimos que es nilpotente.

Page 79: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

Capıtulo 6

Espacios Euclıdeos.

En los temas anteriores no ha aparecido en ningun momento el concepto de “distancia”,porque no lo hemos necesitado. Sin embargo, en este tema la idea de distancia, tanto enespacios bien conocidos (como el plano o el espacio) como en otro tipo de espacios, vaa ser una pieza fundamental. De hecho, el concepto de distancia puede generalizarse aun espacio vectorial abstracto V , en determinadas circunstancias. Ello permite generalizarotras nociones tambien, como el concepto de angulo o de perpendicularidad.

El parrafo anterior puede sugerir que este tema, como los temas 2, 3, 4, va a tenerun fuerte contenido abstracto. En parte es cierto, pero sin embargo veremos que estasherramientas abstractas permiten resolver dos problemas importantes y muy concretos, elprimero fuertemente ligado a las Telecomunicaciones, y el segundo ubicuo en MatematicaAplicada. El primer problema tiene que ver con la descomposicion de senales. Desde unpunto de vista matematico, una senal es una funcion f(t) dependiente del tiempo, queproporciona informacion sobre un cierto fenomeno. Dada una senal, en Telecomunicacioneses util escribir

f(t) = a0 + a1sin(t) + a2sin(2t) + · · ·+ b1cos(t) + b2cos(2t) + · · · == a0 +

∑∞n=1[ansin(nt) + bncos(nt)]

La expresion de la derecha se llama serie de Fourier de f(t). Esencialmente, las seriesde Fourier permiten descomponer las senales en senales mas simples, con frecuencias cre-cientes; se cumple ademas que a menudo, la informacion mas relevante esta contenida enlos terminos de menor frecuencia, es decir, en los primeros. El problema de determinarlos coeficientes ai, bi’s tiene que ver, curiosamente, con las ideas anteriores; de hecho, loresolveremos en este contexto.

El segundo problema tiene que ver con la tecnologıa GPS. Esencialmente, para averi-guar la posicion de un punto Q, un dispositivo GPS recibe informacion de varios satelites,S1, S2, . . . , Sp. Para i = 1, 2, . . . , p la informacion recibida es, basicamente, la distancia dial satelite, mas la posicion Pi = (xi, yi, zi) del propio satelite. Como Q se encuentra sobrela esfera centrada en Pi, de radio di, para i = 1, 2, . . . , p, podemos determinar Q hallandola interseccion de todas esas esferas.1 En principio, para determinar nuestra posicion ne-

1La situacion real es algo mas complicada, porque la distancia di se calcula a partir del tiempo que la

79

Page 80: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

80 CAPITULO 6. ESPACIOS EUCLIDEOS.

cesitamos llamar a tres satelites, porque en general la interseccion de tres esferas son dospuntos2; tıpicamente uno de los puntos que obtenemos esta muy alejado de la superficieterrestre, y por lo tanto se descarta, de modo que el punto restante corresponde a nuestraposicion. Sin embargo, habitualmente tenemos mas de tres satelites.

Figura 6.1: La idea tras la tecnologıa GPS.

Como los satelites estan lejos de la superficie terrestre, en la vecindad de la posicion acalcular las esferas se pueden aproximar por planos (como sucede con la propia superficiede la Tierra en la vecindad de un punto) (vease la Figura 6.2).

Figura 6.2: Las esferas se pueden aproximar por planos.

De modo que para determinar nuestra posicion necesitamos intersecar planos. Recordemosque la ecuacion de un plano es de la forma Ax+By+Cz+D = 0. Por lo tanto, intersecar

senal tarda en ir y venir del dispositivo GPS al satelite. Sin embargo, para que esa distancia se calcule sinerrores, los relojes del satelite y del dispositivo GPS deben estar sincronizados, y siempre hay una ciertadiscrepancia entre ellos. En cualquier caso, por simplicidad nosotros soslayaremos este fenomeno.

2En realidad, el retraso temporal que puede haber entre los relojes de los satelites y del GPS introduceuna variable mas, y hace que sea necesario tener al menos cuatro satelites

Page 81: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

6.1. PRODUCTO ESCALAR. ORTOGONALIDAD. 81

varios planos es, de hecho, equivalente a resolver un sistema de ecuaciones lineales como elde (6.1):

a11 · x+ a12 · y + · · · a13 · z = b1

a21 · x+ a22 · y + · · · a23 · z = b2...

......

am1 · x+ am2 · y + · · · am3 · z = b3

(6.1)

donde m > 3. Sin embargo, en la practica, toda medida, por sofisticado que sea el aparatoque utilicemos, conlleva un cierto error. Puesto que las ecuaciones anteriores se calculan apartir de datos que hemos medido (posiciones, tiempos, distancias), las ecuaciones de losplanos que hemos obtenido son aproximadas, no exactas. Y como consecuencia, a pesarde que en teorıa estos planos deben cortarse en un punto, que es el punto cuya posicionqueremos calcular, en la practica los planos estaran muy proximos a cortarse, pero no secortaran (vease la Figura 6.3)

Figura 6.3: Por inexactitudes en las medidas, los planos no se cortan en un punto.

Puesto que los planos no tienen ningun punto en comun (a pesar de estar proximosa tenerlo), el sistema (6.1) es incompatible, aunque esta muy “cerca”de ser compatible.Serıa injusto descartar un sistema ası como incompatible cuando esta tan proximo a tenersolucion. Por esa razon, nos preguntamos si podrıamos encontrar un punto que pudieraconsiderarse una “solucion”, o “casi una solucion”del sistema. La respuesta a esta preguntaes el metodo de mınimos cuadrados, que se utiliza con mucha frecuencia en MatematicaAplicada, no solo en el contexto de la tecnologıa GPS.

6.1. Producto escalar. Ortogonalidad.

Comenzamos con la siguiente definicion.

Definicion 61. Sea V un espacio vectorial sobre R. Un producto escalar es una opera-cion · entre dos elementos de V , que satisface las siguientes tres propiedades:

(1) Conmutatividad: u · v = v · u para todo u, v ∈ V .

Page 82: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

82 CAPITULO 6. ESPACIOS EUCLIDEOS.

(2) Linealidad: u · (λv + µw) = λ(u · v) + µ(u · w) para todo u, v, w ∈ V y todo λ, µ ∈ R.

(3) Positividad: para todo u ∈ V , u 6= 0, se cumple que u · u ≥ 0; ademas, u · u = 0 si ysolo si u = 0.

A veces el producto escalar de u, v se representa por < u, v >.

Veamos algunos ejemplos de productos escalares:

(1) Sea V = Rn, y sean u = (x1, x2, . . . , xn), v = (y1, y2, . . . , yn), referidos a la basecanonica. Entonces

u · v = x1 · y1 + x2 · y2 + · · ·+ xn · ynes un producto escalar, llamado el producto escalar usual o estandar de Rn.

(2) Sea V = C([a, b]) el espacio de las funciones reales que son continuas sobre el intervalo[a, b]. Se puede ver que este es un espacio vectorial sobre los reales. Consideremos lasiguiente operacion:

< f, g >=

∫ b

a

f(t) · g(t)dt

Esta operacion efectivamente define un producto escalar:

(i) Conmutatividad:

< f, g >=

∫ b

a

f(t) · g(t)dt =

∫ b

a

g(t) · f(t)dt =< g, f >

(ii) Linealidad:

< f, λg + µh > =∫ baf(t) · (λg(t) + µh(t))dt =

= λ ·∫ baf(t) · g(t)dt+ µ ·

∫ baf(t) · h(t)dt =

= λ· < f, g > +µ· < f, h >

(iii) Positividad:

< f, f >=

∫ b

a

f 2(t)dt ≥ 0

Ademas, ∫ b

a

f 2(t)dt = 0⇔ f(t)id= 0

Definicion 62. Un espacio vectorial V sobre R, equipado con un producto escalar ·, recibeel nombre de espacio vectorial euclıdeo.

Por tanto, (Rn, ·) o (C([a, b]), ·), con los productos escalares anteriores, son espacios euclıdeos.A partir del concepto de producto escalar se puede definir el siguiente concepto, que gene-raliza la nocion de longitud y por tanto la de distancia (como la “longitud”de la diferenciaentre dos elementos).

Page 83: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

6.1. PRODUCTO ESCALAR. ORTOGONALIDAD. 83

Definicion 63. Sea V un espacio vectorial sobre R. Una norma es una aplicacion

‖ · ‖ : V → Rx → ‖x‖

que satisface las siguientes propiedades:

(1) Positividad: ‖x‖ ≥ 0 para todo x ∈ V ; ‖x‖ = 0⇔ x = 0

(2) ‖αx‖ = |α|‖x‖ ∀x ∈ V , α ∈ R.

(3) Desigualdad triangular: ‖x+ y‖ ≤ ‖x‖+ ‖y‖, ∀x, y ∈ V .

Dos ejemplos:

(1) Sea V = Rn, y sea x = (x1, x2, . . . , xn), escrita en la base canonica. La norma usuales

‖x‖ =√x2

1 + x22 + · · ·+ x2

n

Si n = 2 o n = 3 puede reconocerse aquı la formula usual del modulo de un vectorplano o espacial.

(2) Sea V = C([a, b]). La norma L2 de C([a, b]) se define como

‖f‖ =

√∫ b

a

f 2(t)dt

Definicion 64. Un espacio vectorial V sobre R, equipado con una norma ‖ · ‖, recibe elnombre de espacio normado.

Por tanto Rn o C([a, b]) son espacios normados. Dos ideas importantes sobre espaciosnormados:

Si V admite un producto escalar entonces podemos definir la norma:

‖x‖ =√x · x

En este caso decimos que la norma deriva de un producto escalar. Los dos ejemplosanteriores son de este tipo. Por tanto, cualquier espacio euclıdeo es tambien un espacionormado, lo que implica que siempre que tenemos un producto escalar, tenemos unaidea de “longitud”.

Podemos definir una nocion de distancia en un espacio normado (V, ‖ · ‖): dadosx, y ∈ V , consideramos

d(x, y) = ‖x− y‖Esto resulta util porque en algunos casos puede que no este tan claro lo que significa“estar cerca o lejos”. Por ejemplo, llamemos f(t) a una senal que hemos emitido, y

Page 84: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

84 CAPITULO 6. ESPACIOS EUCLIDEOS.

llamemos g(t) a la misma senal, recibida en un cierto punto. Deseamos evaluar si elproceso de recepcion se esta haciendo correctamente (es decir, si el nivel de ruidoes admisible), lo cual equivale equivale a comprobar si f(t), g(t) estan “cerca”. Paraello, se suele considerar la siguiente distancia:

d(f(t), g(t)) =

√∫ b

a

(f(t)− g(t))2dt

Un resultado importante en espacios normados, que proporcionamos sin demostracion,es el siguiente. Utilizaremos este resultado mas adelante.

Teorema 65. (Desigualdad de Cauchy-Schwartz) Sea V un espacio vectorial sobre R. Paratodo u, v ∈ V ,

|u · v| ≤ ‖u‖ · ‖v‖Queremos generalizar ahora la idea de “angulo”. En R2 y R3, el angulo entre dos

vectores u, v se define como

cos(θ) =u · v‖u‖ · ‖v‖

Ademas, en R2 y R3 decimos que u, v son ortogonales (o perpendiculares) si θ = 90o, esdecir si cos(θ) = 0. Observese que si u, v 6= 0, esto sucede si y solo si u · v = 0. Todas estasideas estan basadas en el concepto de producto escalar, que hemos introducido en generalpara espacios vectoriales. Por lo tanto, podemos generalizarlas a un espacio euclıdeo.

Definicion 66. Dado un espacio vectorial euclıdeo V (por tanto equipado con la corres-pondiente norma, que deriva del producto escalar) y u, v ∈ V , definimos el angulo entreellos como el angulo θ que verifica

cos(θ) =u · v‖u‖ · ‖v‖

De forma similar, decimos que u, v ∈ V son ortogonales si cos(θ) = 0.

Lema 67. Sea V un espacio vectorial euclıdeo, y sean u, v ∈ V , u, v 6= 0. Entonces u, vson ortogonales si y solo si u · v = 0.

Definicion 68. Decimos que una base B de un espacio vectorial euclıdeo V es ortogonal,si todo par de vectores ui, uj ∈ B, con i 6= j, verifican ui · uj = 0. Ademas, decimos que Bes ortonormal, si es ortogonal y ‖ui‖ = 1 para todo i.

Por ejemplo, la base canonica de Rn es ortonormal. La razon por la que resulta utiltrabajar con bases ortonormales, es que, como muestra la siguiente proposicion, en unabase ası es facil obtener las coordenadas de un vector.

Proposicion 69. Sea B = u1, u2, . . . , un una base ortonormal, y sean (x1, x2, . . . , xn)las coordenadas del vector x respecto a B. Entonces para i = 1, 2, . . . , n, se cumple que

xi = x · ui

Page 85: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

6.1. PRODUCTO ESCALAR. ORTOGONALIDAD. 85

Demostracion. Sean (x1, x2, . . . , xn) las coordenadas de x en B. Por lo tanto, por la defi-nicion de coordenadas respecto a una base,

x = x1u1 + x2u2 + · · ·+ xiui + · · ·+ xnun

Multipliquemos (escalarmente) los dos lados de la igualdad por ui. Como el producto escalares lineal, entonces

x · ui = x1(u1 · ui) + x2(u2 · ui) + · · ·+ xi(ui · ui) + · · ·+ xn(un · ui)

Como B es ortonormal, tenemos que uj · ui es 0 si j 6= i, y 1 si j = i. Por tanto,

x · ui = xi

y se tiene el resultado.

Veamos un ejemplo no trivial de todas estas ideas, relacionado con una de las cuestionesque aparecıan en la introduccion del tema. Sea V = C([−π, π]), y sea

S = 1, sin(t), sin(2t), . . . , sin(nt), . . . , cos(t), cos(2t), . . . , cos(mt), . . .

Como V es un espacio vectorial de dimension infinita, aquı no tiene sentido hablar debases; de hecho, estos espacios aparecen en el contexto, mas avanzado, de los espaciosde Hilbert, que quedan fuera del alcance de estas notas. Por tanto, veamos que S es unconjunto ortogonal (es decir, que dos elementos cualesquiera de S son ortogonales). Paraello introducimos la funcion δmn, llamada funcion delta de Kronecker:

δmn =

1 if m = n0 if m 6= n

En Calculo es bien conocido que para m,n ≥ 1, m,n ∈ N,∫ π

−πsin(mt) · sin(nt)dt =

∫ π

−πcos(mt) · cos(nt)dt = π · δmn,

∫ π

−πsin(mt) · cos(nt)dt =

∫ π

−πsin(mt)dx =

∫ π

−πcos(nt)dt = 0

La primera igualdad implica, por ejemplo, que < sin(mt), sin(nt) >= 0 para m 6= n, y< sin(mt), sin(mt) >= π. Analogamente, utilizando el resto de igualdades vemos que S esortogonal, pero no ortonormal. Sin embargo, se puede comprobar que el siguiente conjuntosı es ortonormal:

S ′ = 1√2π, 1√

πsin(t), 1√

πsin(2t), . . . , 1√

πsin(nt), . . . ,

1√πcos(t), 1√

πcos(2t), . . . , 1√

πcos(mt), . . .

Page 86: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

86 CAPITULO 6. ESPACIOS EUCLIDEOS.

Sea entonces f(t) ∈ C([−π, π]), y supongamos que f(t) puede escribirse3 como

f(t) = a0 + a1sin(t) + a2sin(2t) + · · ·+ b1cos(t) + b2cos(2t) + · · ·Nos preguntamos como calcular los ai’s y los bi’s. Para ello, escribamos primero a0 =√

2π · a0, y ai =√π · ai, bi =

√π · bi para i ≥ 1. Por tanto,

f(t) = a0 ·1√2π

+ a1 ·1√π

sin(t) + a2 ·1√π

sin(2t) + · · ·+ b1 ·1√π

cos(t) + b2 ·1√π

cos(2t) + · · ·

Ahora apliquemos la idea de la Proposicion 69:

a0 = < f,1√2π

>=1√2π·∫ π

−πf(t)dt⇒ a0 =

1

2π·∫ π

−πf(t)dt

Analogamente,

an =< f,1√π>=

1√π·∫ π

−πf(t) · sin(nt)dt⇒ an =

1

π·∫ π

−πf(t) · sin(nt)dt

bn =< f,1√π>=

1√π·∫ π

−πf(t) · cos(mt)dt⇒ bn =

1

π·∫ π

−πf(t) · cos(mt)dt

Estos son los coeficientes de la serie de Fourier de una funcion f(t). Como mencionabamosen la introduccion, esta serie permite descomponer una senal en senales mas sencillas, defrecuencia creciente.

Si una base es ortogonal pero no ortonormal, es facil obtener una base ortonormal a par-tir de ella, dividiendo cada vector de B por su norma. Nos preguntamos ahora como obteneruna base ortonormal a partir de otra base que no sea ortogonal. Esto se puede conseguirmediante el proceso de ortogonalizacion de Gram-Schmidt. Sea B = u1, u2, . . . , ununa base no ortogonal. A partir de B y al cabo de n pasos, obtenemos una nueva baseortonormal B′ = e1, e2, . . . , en; la idea es que en cada paso construiremos un nuevo vec-tor ej, que es combinacion lineal de uj y de los j − 1 vectores ej’s anteriores, y que esperpendicular a e1, . . . , ej−1; en concreto, consideramos los siguientes pasos:

Paso 1: e1 =u1

‖u1‖.

Paso 2: Sea e?2 := u2 + α1 · e1, donde no conocemos α1. Imponemos que e?2 sea perpendiculara e1. Por tanto, multiplicando por e1 tenemos que

e?2 · e1 = u2 · e1 + α1 = 0,

y ası α1 = −u2 · e1, lo que implica e?2 = u2 − (u2 · e1) · e1. Finalmente, e2 =e?2‖e?2‖

.

3No estamos afirmando que esa expresion pueda encontrarse siempre. Se puede demostrar que bajociertas condiciones ası es, pero en cualquier caso aquı partimos de que dicha expresion existe.

Page 87: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

6.1. PRODUCTO ESCALAR. ORTOGONALIDAD. 87

Paso 3: Sea e?3 := u3 + β1e1 + β2e2, donde no conocemos β1, β2. Imponemos que e?3 sea per-pendicular a e1, e2. Por lo tanto, multiplicando e?3 por e1, e2 y teniendo en cuenta quee1 ⊥ e2,

e?3 ⊥ e1 ⇒ u3 · e1 + β1 = 0⇒ β1 = −u3 · e1

e?3 ⊥ e2 ⇒ u3 · e2 + β2 = 0⇒ β2 = −u3 · e2

Entonces, e?3 = u3 − (u3 · e1)e1 − (u3 · e2)e2. Finalmente, e3 =e?3‖e?3‖

.

Step 4: Etc.

Tenemos entonces el siguiente algoritmo.

Algorithm 1 Proceso de ortogonalizacion de Gram-Schmidt.

1: Sea B = u1, u2, . . . , un una base no ortogonal.2: Desde j = 1 hasta n, calculamos e?j := uj − (uj · e1)e1 − · · · − (uj · ej−1)ej−1

3: Desde j = 1 hasta n, calculamos ej :=e?j‖e?j‖

.

4: B′ = e1, e2, . . . , en es una base ortonormal.

Page 88: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

88 CAPITULO 6. ESPACIOS EUCLIDEOS.

Finalmente, algunas observaciones adicionales sobre el concepto de ortogonalidad. Has-ta ahora hemos extendido este concepto al caso de vectores. Pero tambien puede extenderseal caso de subespacios vectoriales, gracias al resultado siguiente.

Lema 70. Sean v1, . . . , vn elementos de V , y sea W = v ∈ V |v ⊥ vi ∀i = 1, . . . , n.Entonces W es un subespacio vectorial de V .

Demostracion. Sean w1, w2 ∈ W , y sean α, β ∈ R. Queremos comprobar si αw1+βw2 ∈ W .Para ello, necesitamos comprobar si αw1+βw2 es ortogonal a todos los vis. Por la linealidaddel producto escalar, y como w1, w2 son ortogonales a todos los vi’s, tenemos que

(αw1 + βw2) · vi = α(:0

w1 · vi) + β(:0

w2 · v2) = 0

Por lo tanto se tiene el resultado.

En el lema anterior podemos llamar a W el “subespacio ortogonal a v1, . . . , vn”. Sepuede comprobar que cada vector de W es ortogonal a cada vector de L(v1, . . . , vn). Portanto, podemos escribir W ⊥ L(v1, . . . , vn).

Definicion 71. Dos subespacios vectoriales U y V son ortogonales si cada vector de Ues ortogonal a cada vector de V , y viceversa.

Conviene no confundir la Definicion 71 con la idea habitual de perpendicularidad. Porejemplo, si consideramos un plano que pasa por el origen y la recta perpendicular al planotambien por el origen, los subespacios vectoriales correspondientes son ortogonales. Sinembargo, si consideramos dos planos perpendiculares que pasan por el origen, los corres-pondientes subespacios vectoriales no son ortogonales, puesto que hay vectores en el elprimer plano que no son perpendiculares al segundo.

Definicion 72. Dado un subespacio vectorial U , el espacio de todos los vectores que sonortogonales a U recibe el nombre de complemento ortogonal de U . Se representa porU⊥.

Por ejemplo, el complemento ortogonal a un plano que pasa por el origen es la rectaperpendicular a el. Terminamos con el siguiente resultado, que utilizaremos mas adelante.Aquı reaparece el concepto de “suma directa”, que estudiamos en el Tema 2.

Proposicion 73. Sea V un espacio vectorial, y sea U ⊂ V un subespacio vectorial. SiW = U⊥ entonces W⊥ = U (es decir, U⊥⊥ = U) y dim(U) + dim(W ) = n. Por tanto,

U⊕

U⊥ = V = todo el espacio ambiente

Notese que dos subespacios pueden ser ortogonales aunque uno no sea el complementoortogonal del otro (por ejemplo, dos rectas perpendiculares en el espacio).

Page 89: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

6.2. PROYECCION SOBRE UN SUBESPACIO VECTORIAL. 89

6.2. Proyeccion sobre un subespacio vectorial.

Sea V un espacio vectorial, y sea U ⊂ V un subespacio vectorial. Ademas, sea v ∈ V .Como por la Proposicion 73 se tiene que U

⊕U⊥ = V , entonces existen u ∈ U , u⊥ ∈ U⊥,

unicos, tales que u + u⊥ = v. El vector u recibe el nombre de proyeccion de v sobreU , y escribimos u = projU(v). Ademas, en ocasiones nos referimos a la norma de u⊥

como la distancia de v a U , y lo representamos ‖u⊥‖ = d(v, U) (vease la Figura 6.1).Efectivamente, el siguiente lema muestra que u es el vector de U que esta mas proximoa v; y por lo tanto, la “distancia”de v a U es la “longitud”(la norma) de la diferencia,u⊥ = v − u.

Lema 74. Sea u? ∈ U . Se verifica que:

‖v − u‖ ≤ ‖v − u?‖,

es decir, u es el elemento de U mas proximo a v.

Demostracion. Escribamos

v − u? = (v − u) + (u− u?)

Calculando el producto escalar (v − u?) · (v − u?), obtenemos

‖v − u?‖2 = ‖v − u‖2 + ‖u− u?‖2 + 2(v − u) · (u− u?)

Observemos que v − u = u⊥, que es ortogonal a U . Como u, u? ∈ U y U es un subespaciovectorial, entonces u− u? ∈ U tambien; por tanto (v − u) · (u− u?) = 0 y tenemos que

‖v − u?‖2 = ‖v − u‖2 + ‖u− u?‖2

Como ‖u− u?‖2 ≥ 0, se sigue el resultado.

U

v

projU (v)

u⊥

Figura 6.4: Proyeccion de un vector v sobre un subespacio vectorial U

Page 90: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

90 CAPITULO 6. ESPACIOS EUCLIDEOS.

Si escribimos v = u + u⊥, donde u ∈ U , u⊥ ∈ U⊥, entonces u = projU(v). Por tanto,una posibilidad para determinar projU(v) es calcular U⊥, y determinar projU(v) a partirde la descomposicion v = u + u⊥. No obstante, nosotros veremos aquı un metodo alter-nativo que utiliza la llamada matriz de proyeccion. En lo que sigue, supondremos queu1, u2, . . . , un es una base de U , y que las coordenadas de los ui’s en una cierta basee1, e2, . . . , em son conocidas:

u1 = a11e1 + a21e2 + · · ·+ am1emu2 = a12e1 + a22e2 + · · ·+ am2em...

...un = a1ne1 + a2ne2 + · · ·+ amnem

De la notacion anterior, se desprende que dim(U) = n y dim(V ) = m. Sea tambien

A =

a11 a12 · · · a1n

a21 a22 · · · a2n...

.... . .

...am1 am2 · · · amn

↓ ↓ ↓u1 u2 · · · un

Para mayor simplicidad, escribiremos p = u = projU(v) y e = u⊥, de modo que v = p + e,donde p ∈ U , e ∈ U⊥. Como e ∈ U⊥, por definicion de U⊥ se verifica que e es ortogonala cualquier vector de U , y en particular a todos los vectores de la base de U . Por tanto,e ⊥ ui para todo i = 1, 2, . . . , n. Sea ahora e = (e1, e2, . . . , em) 4. Entonces la condicione ⊥ ui implica que e · ui = 0, y en consecuencia

e1a1i + e2a2i + · · ·+ emami = 0

para i = 1, 2, . . . , n. Ası,

(e1, e2, . . . , em︸ ︷︷ ︸et

) ·

a11 a12 · · · a1n

a21 a22 · · · a2n...

.... . .

...am1 am2 · · · amn

︸ ︷︷ ︸

A

= (0, 0, . . . , 0︸ ︷︷ ︸0

).

Por consiguiente, et · A = 0 y trasponiendo, At · e = 0, tambien. Por otra parte, comop ∈ U y u1, u2, . . . , un es base de U , entonces p ∈ L(u1, u2, . . . , un). Ası, p pertenece alsubespacio vectorial generado por las columnas de A. Si vemos A como la matriz asociada

4No debe confundirse ei, que es el i-esimo vector de una cierta base, y ei, que es la i-esima coordenadade e

Page 91: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

6.2. PROYECCION SOBRE UN SUBESPACIO VECTORIAL. 91

a una cierta aplicacion, se tiene entonces que p pertenece a la imagen de dicha aplicacionlineal, p ∈ Im(A); luego existe x ∈ V tal que A · x = p.

Finalmente, sea v = p + e. Multiplicando por At, y teniendo en cuenta que At · e = 0,se tiene que

At · v = At · p.Como p = A · x, entonces

At · v = (AtA) · x.Veremos mas tarde que (At · A) es invertible; admitiendo esto, tenemos que

(AtA)−1 · At · v = x.

Multiplicando por A, y dado que p = A · x, se tiene

p = A · (AtA)−1 · At︸ ︷︷ ︸P

·v

Decimos que P es la matriz de proyeccion sobre el subespacio U . Observemos que estamatriz se construye a partir de la matriz A, cuyas columnas son los vectores de una basede U . Para que P este definida correctamente, segun hemos visto, debemos asegurar queAtA es invertible. Para probar esto, necesitamos primero el siguiente resultado.

Lema 75. Se verifica que Ker(AtA) = Ker(A).

Demostracion. Probaremos el resultado mostrando que Ker(AtA) ⊂ Ker(A) y Ker(A) ⊂Ker(AtA). Comenzamos con la segunda inclusion. Sea entonces x ∈ Ker(A). Por la defini-cion de nucleo, A · x = 0. Multiplicando por At, obtenemos que

(AtA)x = At · (A · x︸︷︷︸0

) = At · 0 = 0.

Ası, x ∈ Ker(AtA). Consideremos ahora la primera inclusion. Sea x ∈ Ker(AtA). De nuevopor la definicion de nucleo, AtA · x = 0. Sea y = A · x. Entonces tenemos que

yt · y︸︷︷︸‖y‖2

= xt · At · A · x︸ ︷︷ ︸0

= xt · 0 = 0

Sin embargo, la igualdad de arriba implica que ‖y‖ = 0, y como ‖ · ‖ es norma, concluimosque y = 0. Como y = A · x, se tiene que x ∈ Ker(A).

Corolario 76. La matriz AtA es invertible.

Demostracion. Como las columnas de A son los vectores de una base de U entonces sonlinealmente independientes, y A tiene rango maximo. Por lo tanto, Ker(A) = 0. Por elLema 75 se deduce que Ker(AtA) = Ker(A), y entonces Ker(AtA) = 0. En consecuenciaAtA tiene rango maximo, y al ser cuadrada, es invertible.

Page 92: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

92 CAPITULO 6. ESPACIOS EUCLIDEOS.

Consideramos entonces la siguiente definicion:

Definicion 77. Sea V un espacio vectorial, y sea U ⊂ V un subespacio vectorial. SeaB = u1, u2, . . . , un una base de U , y sea A la matriz cuyas columnas son los ui’s. Lamatriz de proyeccion sobre el subespacio U es la matriz

P = A · (AtA)−1 · At

La matriz de proyeccion tiene las siguientes propiedades:

1. La proyeccion de v ∈ V sobre U es projU(v) = P · v.

2. P es cuadrada y simetrica.

3. P 2 = P (es decir, es una matriz idempotente)

4. La matriz de proyeccion depende unicamente del subespacio sobre el cual se proyecte,y no del vector a proyectar.

6.3. El metodo de mınimos cuadrados.

Esta ultima seccion esta dedicada al segundo problema que planteabamos en la intro-duccion del tema. Sea un sistema incompatible A · x = b:

a11x1 + a12x2 + · · ·+ a1nxn = b1

a21x1 + a22x2 + · · ·+ a2nxn = b2...

...am1x1 + am2x2 + · · ·+ amnxn = bm

,

y sea

A =

a11 a12 · · · a1n

a21 a22 · · · a2n...

.... . .

...am1 am2 · · · amn

.

Si el sistema no es compatible, entonces para todo x ∈ Rn se tiene A · x 6= b, es decire = b− A · x 6= 0. Consideremos entones el siguiente problema.

Problema. Encontrar el vector x que minimiza ‖b− A · x‖2.

Decimos entonces que x es la solucion mınimos cuadrados del sistema A · x = b.

Como hemos expuesto en la introduccion al tema, la motivacion para este problemaproviene de que los coeficientes de los sistemas lineales que aparecen en contextos aplicadosse estiman a partir de medidas. Puesto que cualquier proceso de medida introduce errores,

Page 93: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

6.3. EL METODO DE MINIMOS CUADRADOS. 93

los valores de dichos coeficientes no son exactos, y en consecuencia el sistema puede volver-se incompatible, incluso aunque la teorıa (que habitualmente asume que los parametros,coeficientes, etc. se conocen de manera exacta) predice que deberıa tener solucion. Por lotanto, el sistema es incompatible aunque “proximo a ser compatible”. Dimos un ejemplode esta situacion al comienzo del tema, cuando hablamos de la tecnologıa GPS. En estasituacion, resulta injusto desechar el sistema como “incompatible”, porque aunque en sen-tido estricto lo sea, esta muy proximo a tener una solucion. Dicho de otro modo, una ligeraperturbacion (aunque desconocida) de los coeficientes darıa lugar a un sistema perfecta-mente compatible. Asumiendo esta situacion, querrıamos encontrar un buen candidato quepodamos considerar “casi una solucion”del sistema, en algun sentido.

Veamos como precisar esto. Para ello, observemos que si el sistema es compatibleentonces la solucion es el vector x? que satisface Ax? = b, es decir, que verifica quee = b − Ax? = 0. Por lo tanto, el candidato a “solucion”deberıa ser el vector x quehace que ‖e‖2 = ‖b−Ax‖2 sea tan proximo a 0 como sea posible, es decir, el que que mini-miza ‖b−A · x‖2. De hecho, una vez que x ha sido calculado podemos evaluar ‖b−A · x‖2

para ver hasta que punto el sistema esta “proximo a ser compatible”: cuanto mas proximoa cero sea ‖b − A · x‖2, mas cercano a la compatibilidad esta el sistema. Veamos comodeterminar x.

El sistema Ax = b es consistente si y solo si b ∈ Im(A), es decir si x pertenece al subes-pacio vectorial generado por las columnas de la matriz A. Si el sistema no es compatibleentonces la situacion es la que aparece en Figura 6.2 (observese la analogıa con la Figura6.1: U = Im(A), v = b, projU(v) = b?, u⊥ = e), y por el Lema 74, x es el vector que cumpleA · x = b?, donde b? es la proyeccion de b sobre Im(A). Notese que como b? ∈ Im(A), elsistema A · x = b? sı es compatible. Si las columnas de A son independientes, entonces dela demostracion del Corolario 76 se tiene que AtA es invertible, y la matriz de proyeccionsobre el subespacio Im(A) es P = A · (AtA)−1 · At; por tanto b? = A · (AtA)−1 · At · b, ycomo A · x = b?, tenemos que

Ax = A · (AtA)−1 · At · b,

y asıA ·(x− (AtA)−1 · Atb

)= 0.

En consecuencia, se tiene que x − (AtA)−1 · Atb ∈ Ker(A). Suponiendo que las columnasde A son independientes, Ker(A) = 0, y por tanto x− (AtA)−1 · Atb = 0. Finalmente,

x = (AtA)−1 · Atb

Esta es la solucion mınimos cuadrados del sistema. Ademas, x es la solucion del sistema

AtA · x = Atb,

que recibe el nombre de sistema de ecuaciones normales.

Page 94: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

94 CAPITULO 6. ESPACIOS EUCLIDEOS.

Im(A)

b

b?

e

Figura 6.5: Metodo mınimos cuadrados.

Para determinar la solucion mınimos cuadrados se puede proceder del sisguiente modo,a partir del sistema:

Ax = b

⇓ [multiplicamos por At]

AtAx = Atb [ecuaciones normales]

⇓ [multiplicamos por (AtA)−1]

x = (AtA)−1At · b [solucion mınimos cuadrados]

La hipotesis sobre las columnas de A suele cumplirse. De hecho, como las ecuaciones delsistema provienen habitualmente de observaciones (procesos de medida), la aleatoriedad delos errores en las observaciones garantiza que las situaciones singulares, es decir, aquellasen las que las columnas de A son linealmente dependientes, son, en general, evitadas.

Para ilustrar la tecnica anterior, consideremos el problema de la regresion lineal, bienconocido en Estadıstica. El problema es el siguiente: sean x, y dos variables que aparecenen un cierto contexto, y que probablemente estan relacionadas: por ejemplo, podrıan serx=temperatura e y=coeficiente de dilatacion, x=salario medio en un paıs e y=emisiones deCO2, x=altura de un individuo e y=peso de un individuo, etc. Suponiendo que efetivamentex, y estan relacionados, querrıamos detectar si y puede o no escribirse como una funcionde x, y en caso afirmativo, querrıamos estimar esa funcion. Para ello, habitualmente serecogen datos correspondientes a x, y, del tipo que se muestra en la siguiente tabla:

Page 95: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

6.3. EL METODO DE MINIMOS CUADRADOS. 95

x yx1 y1

x2 y2...

...xp yp

Cada observacion corresponde a un par (xi, yi), que a su vez da lugar a un punto Pi delplano. El conjunto de los Pi’s recibe el nombre de diagrama de dispersion o nube depuntos (vease la Figura 6.3, a la izquierda). Si el diagrama de dispersion sugiere alguntipo de curva (una recta, una parabola, una cubica, una funcion exponencial, etc.) se diceque las variables x, y estan correlacionadas, y el tipo de curva sugiere cual puede ser eltipo de relacion que liga las variables: lineal, si el diagrama de dispersion sugiere una recta,cuadratica, si el diagrama sugiere una parabola, etc.

Si los puntos del diagrama se encuentran aproximadamente sobre una recta (veasede nuevo la Figura 6.3), decimos entonces que las variables x, y estan correlacionadaslinealmente, es decir, entre ellas se da aproximadamente una relacion y = mx + n. Elsiguiente paso es, entonces, determinar los valores de m,n, lo que equivale a encontrar “lamejor aproximacion lineal”posible, es decir, la que permite predecir con mayor exactitudlos valores de y a partir de x. Podemos decir tambien que queremos encontrar los valoresm,n tales que la recta y = mx + n produce la mejor aproximacion posible de la nube depuntos. Este problema recibe el nombre de regresion lineal.

x

y

x

y Regression line y = mx + n

ei = yi − yi

Figura 6.6: Recta de regresion

Este problema esta relacionado con el metodo mınimos cuadrados. En efecto, observe-

Page 96: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

96 CAPITULO 6. ESPACIOS EUCLIDEOS.

mos que los valores m,n que deseamos encontrar satisfacen el sistema lineal:mx1 + n = y1

mx2 + n = y2...

mxp + n = yp

Como no todos los puntos estan alineados, el sistema anterior es incompatible, y por lotanto tiene sentido aplicar el metodo mınimos cuadrados para “resolverlo”5. Escribamos elsistema en forma matricial:

x1 1x2 1...

...xp 1

︸ ︷︷ ︸

A

·(mn

)︸ ︷︷ ︸

x

=

y1

y2...yp

︸ ︷︷ ︸

b

Observamos que a menos que todos los xi’s coincidan (lo cual tiene poco sentido, ya queimplicarıa que hemos observado un solo valor de x), las columnas de A son independientes.Por lo tanto, podemos aplicar el metodo mınimos cuadrados para determinar los valoresde m,n en el sistema anterior. La recta y = mx + n donde (m,n) es la solucion mınimoscuadrados del sistema recibe el nombre de recta de regresion de y sobre x. Como hemosvisto antes, esta solucion minimiza ‖e‖2, donde

e = b− Ax = (e1, e2, . . . , ep)t =

y1 − (mx1 + n)y2 − (mx2 + n)

...yp − (mxp + n)

Para cada x = xi, yi = mxi + n representa el valor de y predicho por la recta de regresion.Ası, ei = yi − yi, es decir ei es la diferencia entre el valor de y que medimos para x = xi,y el predicho por la recta de regresion. Los ei’s se llaman residuos. La recta de regresiondeterminada mediante el metodo mınimos cuadrados minimiza ‖e‖2; como ‖e‖2 =

∑pi=1 e

2i ,

deducimos que la recta de regresion minimiza la suma de residuos. De hecho, en el contextode la Estadıstica es habitual introducir la recta de regresion como la recta que minimiza estasuma de cuadrados. La regresion lineal es una tecnica habitual y muy util en MatematicaAplicada, y un tema de estudio importante en Estadıstica.

5Observermos que no tiene sentido hablar de resolucion, en sentido estricto, porque el sistema es in-compatible.

Page 97: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

Capıtulo 7

Algebra de Boole

En realidad este capıtulo1 no es parte del Algebra lineal, sino mas bien de la Logica.Pero se incluye aquı porque resulta importante en Electronica e Informatica. Los operadoreslogicos fundamentales (AND, OR, NOT) fueron descubiertos en el siglo XIX. En esencia, unordenador es una maquina capaz de realizar operaciones aritmeticas y logicas a velocidadesextremadamente altas. Para simular operaciones aritmeticas, se traducen los numeros alsistema binario, se realizan las operaciones necesarias y despues se traducen de vuelta alsistema decimal. Sin embargo, no esta tan claro como simular operaciones logicas en unordenador. El Algebra de Boole, inventada por George Boole (1815-1864), proporciona larespuesta a esta cuestion. A grandes rasgos, la idea es que las operaciones logicas se puedenefectuar de manera aritmetica, en un entorno binario. Las ideas de Boole fueron aplicadasmas tarde por Shannon (en 1938) al diseno de circuitos. El presente capıtulo esta dedicadoa entender estas ideas y resolver algunos problemas relacionados.

7.1. Operadores logicos y Algebras de Boole

Los tres operadores logicos fundamentales son OR, AND y NOT. Con ellos se puedenconstruir proposiciones mas complejas conectando otras mas simples. Dada una proposi-cion, su valor de verdad es “cierto” o “falso”.

(1) OR: si A=“Tengo clase”, B=“Tengo sueno”, entonces A OR B=“Tengo clase o tengosueno”. Observa que A OR B es cierto si alguna de A o B (quiza ambas) es cierta.Ası, tenemos la siguiente tabla de verdad:

A B A OR BT T TT F TF T TF F F

1Este capıtulo esta elaborado a partir de material propio, y materiales del Prof. David Orden (UAH).

97

Page 98: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

98 CAPITULO 7. ALGEBRA DE BOOLE

(2) AND: si A=“Tengo clase”, B=“Tengo sueno”, entonces A AND B=“Tengo clase ytengo sueno”. En este caso A AND B es cierta si, y solo si, ambas A y B son ciertas.Ası, tenemos la siguiente tabla de verdad:

A B A AND BT T TT F FF T FF F F

(3) NOT: si A=“Tengo clase”, entonces NOT A=“No tengo clase”. La expresion NOT Ase suele denotar tambien como A. En este caso A es cierto si, y solo si, A es falso.Ası, tenemos:

A NOT AT FF T

La siguiente definicion se inspira en las tablas de verdad anteriores. La idea es codificaroperaciones logicas como operaciones aritmeticas en sistema binario, que puedan simularseen un dispositivo electronico. Para ello, codificaremos “cierto” con el numero 1 y “falso”con el numero 0.

Definicion 78. El Algebra de Boole es el conjunto B = 0, 1 dotado de las operaciones(+, ·,−), que cumplen

(i) Suma (+)

1 + 1 = 11 + 0 = 10 + 1 = 10 + 0 = 0

(ii) Producto (·)1 · 1 = 11 · 0 = 00 · 1 = 00 · 0 = 0

(iii) Negacion (−)

0 = 11 = 0

Page 99: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

7.1. OPERADORES LOGICOS Y ALGEBRAS DE BOOLE 99

La suma booleana + proviene del operador OR; observa que la tabla que define la suma secorresponde exactamente con la tabla de verdad de este operador y, de hecho, coincide conla suma usual excepto por la regla “1+1=1”. El producto booleano · se corresponde con eloperador AND y los valores de su tabla coinciden con el producto usual. Por ultimo, nohay duda de que la negacion booleana corresponde al operador NOT.

Usando las operaciones anteriores, se puede probar la siguiente lista de propiedadesbasicas del Algebra de Boole:

(1) Leyes de identidad:x+ 0 = xx · 1 = x

(2) Leyes de complemento:x+ x = 1x · x = 0

(3) Leyes asociativas:

(x+ y) + z = x+ (y + z) = x+ y + z(x · y) · z = x · (y · z) = x · y · z

(4) Leyes conmutativas:x+ y = y + xx · y = y · x

(5) Leyes distributivas:

x+ (y · z) = (x+ y) · (x+ z)x · (y + z) = (x · y) + (x · z)

Estas propiedades son la clave para generalizar la definicion de Algebra de Boole a unmarco mas general (y abstracto):

Definicion 79. Un Algebra de Boole abstracta (B,∨,∧, ) es un conjunto B dotadode dos operaciones binarias ∨ y ∧, con dos elementos 0 y 1, y con una operacion unaria, tales que ∀ x, y, z ∈ B se cumplen las siguientes propiedades:

(1) Leyes de identidad:x ∨ 0 = xx ∧ 1 = x

(2) Leyes de complemento:x ∨ x = 1x ∧ x = 0

Page 100: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

100 CAPITULO 7. ALGEBRA DE BOOLE

(3) Leyes asociativas:

(x ∨ y) ∨ z = x ∨ (y ∨ z) = x ∨ y ∨ z(x ∧ y) ∧ z = x ∧ (y ∧ z) = x ∧ y ∧ z

(4) Leyes conmutativas:

x ∨ y = y ∨ xx ∧ y = y ∧ x

(5) Leyes distributivas:

x ∨ (y ∧ z) = (x ∨ y) ∧ (x ∨ z)x ∧ (y ∨ z) = (x ∧ y) ∨ (x ∧ z)

La operacion ∨ se llama disyuncion, mientras que ∧ se llama conjuncion; la operacion− se llama negacion o complemento. La Definicion 78 es un ejemplo evidente de algebrade Boole abstracta, pero hay otros ejemplos:

(1) Sea E un conjunto, es decir, una coleccion de entes. Se define el conjunto potenciade E, denotado P(E), como la coleccion de todos los subconjuntos que puedenextraerse de E. Por ejemplo, si E = 1, 2, 3, entonces

P(E) = ∅, 1, 2, 3, 1, 2, 1, 3, 2, 3, E

donde ∅ representa el conjunto vacıo. Si ahora tomamos B = P(E) y

∧ = ∩∨ = ∪

= (complemento)0 = ∅1 = P(E)

entonces (P(E),∪,∩,−) tiene estructura de algebra de Boole abstracta.

(2) Sea B el conjunto de todos los enunciados, y sea

∧ = AND∨ = OR

= NOT0 = “FALSO”1 = “CIERTO”

entonces B tiene estructura de algebra de Boole abstracta.

Page 101: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

7.2. FUNCIONES BOOLEANAS 101

7.2. Funciones booleanas

Definicion 80. Sea B = 0, 1. Una variable x se llama variable booleana si solo tomavalores en B, es decir, si sus unicos valores posibles son 0 y 1. Una funcion booleanade grado n es una expresion booleana que depende de n variables booleanas.

Ejemplos de variables booleanas, con dos posibles valores, son las posiciones on/off deun interruptor, los valores de verdad cierto/falso de un enunciado, etcetera. Ejemplos defunciones booleanas son, para x, y, z variables booleanas, F1(x, y) = x · y o F2(x, y, z) =x · y + z (aquı +, ·,− son las operaciones de la Definicion 78). Si piensas en que x, y, zrepresentan enunciados, entonces una funcion booleana puede verse como un enunciadomas complicado, construido a partir de estas proposiciones mas simples. La lista de valoresque toma una funcion booleana para todos los posibles valores de los que depende se llamala tabla de verdad (o simplemente tabla) de la funcion. Por ejemplo, para F1(x, y) = x· ytenemos:

x y F1(x, y)0 0 00 1 01 0 11 1 0

Observa que la tabla de verdad define por completo la funcion booleana.Vamos a tener en cuenta tambien las siguientes definiciones.

Definicion 81. El complemento de la funcion booleana F es la funcion F , donde

F (x1, . . . , xn) = F (x1, . . . , xn)

Definicion 82. La suma booleana F + G y el producto booleano F · G se definen,respectivamente, como

(F +G)(x1, . . . , xn) = F (x1, . . . , xn) +G(x1, . . . , xn)(F ·G)(x1, . . . , xn) = F (x1, . . . , xn) ·G(x1, . . . , xn)

Dos funciones booleanas que parezcan distintas pueden ser, de hecho, iguales. Por ejem-plo, F (x, y) = x+ y y G(x, y) = xy + xy + y son iguales, porque

G(x, y) = xy + xy + y = ley distributiva = x(y + y) + y == ley del complemento = x · 1 + y = ley identidad = x+ y

Para ser mas precisos, tenemos la siguiente definicion:

Definicion 83. Dos funciones booleanas F y G de n variables son iguales cuando F (b1, . . . , bn) =G(b1, . . . , bn) para todos los valores posibles de b1, . . . , bn. Dos expresiones booleanas dife-rentes que representan la misma funcion se llaman equivalentes.

Page 102: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

102 CAPITULO 7. ALGEBRA DE BOOLE

Para demostrar que dos funciones booleanas son iguales se pueden aplicar algunas leyes,como antes, o se pueden construir sus tablas de verdad y comprobar que coinciden. Si F,Gson iguales, a la expresion F = G se le llama identidad. La siguiente tabla contiene lasidentidades basicas proporcionadas al comienzo del capıtulo, junto con algunas identidadesadicionales que resultan de utilidad. En cada caso se puede demostrar que la identidad secumple, comprobando que las funciones booleanas de ambos lados son iguales.

Identidad Nombre

x = x Ley del doble complementox+ x = xx · x = x

Leyes de idempotencia

x+ 0 = xx · 1 = x

Leyes de identidad

x+ 1 = 1x · 0 = 0

Leyes de dominacion

x+ y = y + xx · y = y · x Leyes conmutativas

x+ (y + z) = (x+ y) + zx(yz) = (xy)z

Leyes asociativas

x+ yz = (x+ y) · (x+ z)x(y + z) = xy + xz

Leyes distributivas

(x · y) = x+ y

(x+ y) = x · y Leyes de De Morgan

x+ xy = xx(x+ y) = x

Leyes de absorcion

x+ x = 1 Propiedad del unoxx = 0 Propiedad del cero

Se puede observar que muchas de las identidades de arriba vienen en parejas. De hecho,esto expresa un principio con mas profundidad, para cuya formulacion necesitamos lassiguientes definiciones.

Definicion 84. El dual de una expresion booleana se obtiene intercambiando sumas yproductos (booleanos) e intercambiando 0s y 1s.

Definicion 85. El dual de una funcion booleana F , denotado F d, es la funcion represen-tada por la expresion dual a la de F .

Principio de dualidad: Una identidad entre funciones dadas por expresiones booleanassigue siendo cierta cuando se toman los duales en ambos lados de la identidad.

Page 103: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

7.3. FORMAS NORMALES DISYUNTIVA Y CONJUNTIVA 103

Este principio es consecuencia del hecho de que las identidades basicas del algebra booleana,introducidas al comienzo del capıtulo, vienen en pares duales. Puesto que esas identidadesproporcionan la base axiomatica para el algebra booleana (es decir, cualquier otra identidadse deriva de ellas), las nuevas identidades se generan tambien en pares.

7.3. Formas normales disyuntiva y conjuntiva

En esta seccion vamos a tratar el siguiente problema: Dada una tabla de verdad, quedefinira una cierta funcion booleana, ¿podemos encontrar una expresion para esta funcion?

Por ejemplo, imagina que queremos construir un dispositivo controlado por tres inte-rruptores y que, por razones de seguridad, pedimos que al menos dos de los interruptoresesten en posicion “on” para que el dispositivo este encendido. Esta descripcion define porcompleto la funcion booleana que representa el dispositivo; como hay tres interruptores,tenemos tres variables booleanas x, y, z, cada una correspondiente a un interruptor, y latabla de verdad:

x y z F (x, y, z)0 0 0 00 0 1 00 1 0 00 1 1 11 0 0 01 0 1 11 1 0 11 1 1 1

Esta tabla de verdad determina una funcion F (x, y, z) y nos preguntamos como encontraruna expresion booleana para ella.

Para resolver este problema, primero necesitamos los siguientes conceptos:

Definicion 86. Una literal es una variable booleana o su complementario. Un mintermde las variables booleanas x1, . . . , xn es un producto booleano y1y2 · · · yn donde para cada yise tiene que yi = xi o yi = xi; es decir, es un producto de n literales con un literal paracada variable. Un maxterm de x1, . . . , xn es una suma booleana y1 + y2 + · · ·+ yn dondepara cada yi se tiene que yi = xi o yi = xi; es decir, es una suma de n literales, con unliteral para cada variable.

Definicion 87. Se dice que una funcion booleana F (x1, . . . , xn) esta en forma normaldisyuntiva (f.n.d.) si esta escrita como una suma de minterms en la que cada uno deellos contiene todas las variables x1, . . . , xn (es decir, para cada i ∈ 1, . . . , n se tiene queo bien xi o bien xi estan presentes en el minterm).

Por ejemploF (x, y, z) = xyz + xyz + xyz + xyz

Page 104: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

104 CAPITULO 7. ALGEBRA DE BOOLE

esta en f.n.d. Lo que nos interesa es que cualquier funcion booleana se puede escribir de estaforma. Si tenemos la tabla de verdad de una funcion F (x1, . . . , xn), hacemos lo siguiente:

(1) Buscamos los valores en los que F es 1.

(2) Para cada uno de estos valores, escribimos un minterm que incluya, bien xi si xi = 0,o bien xi si xi = 1.

(3) Por ultimo, sumamos todos esos minterms.

Veamos que esto es correcto. De hecho, el valor de una suma booleana es 1 si, y solo si,al menos uno de sus terminos es igual a 1. Es mas, cada termino es un minterm y comocada minterm es un producto booleano, este es igual a 1 si, y solo si, todas las variablesdel minterm son iguales a 1. Esto asegura que cada minterm vale 1 en un punto y vale 0en los demas.

En nuestro ejemplo de los tres interruptores, estas reglas nos dan F (x, y, z) = xyz +xyz+xyz+xyz. Observa que escribiendo un 0 para xi y un 1 para xi, los terminos de estafuncion corresponden a los numeros 011, 101, 110, 111 del sistema binario o, equivalente-mente, 3, 5, 6, 7 en el sistema decimal. Ası, denotamos la funcion F como

∑m(3, 5, 6, 7).

Recıprocamente, si nos dan la expresion∑m(3, 5, 6, 7) podemos escribir la correspondiente

funcion booleana convirtiendo los numeros 3, 5, 6, 7 al sistema binario y despues escribien-do un minterm para cada numero con la regla anterior (xi para 0, xi para 1). Las formasnormales disyuntivas se suelen representar como

∑m(j1, . . . , jr).

Por tanto, si conocemos la tabla de verdad de una funcion booleana, podemos escribiresta en f.n.c. Ahora veremos otra posibilidad para escribir nuestra funcion.

Definicion 88. Decimos que una funcion booleana F (x1, . . . , xn) esta en forma normalconjuntiva (f.n.c.) si esta escrita como un producto de maxterms, en la que cada unode ellos contiene todas las variables x1, . . . , xn (es decir, para cada i ∈ 1, . . . , n se tieneque o bien xi o bien xi estan presentes en el minterm).

Por ejemplo,

F (x, y, z) = (x+ y + z)(x+ y + z)(x+ y + z)(x+ y + z)

esta en f.n.c. De nuevo, toda funcion booleana se puede escribir de este modo: Si tenemosla tabla de verdad de una funcion F (x1, . . . , xn) para calcular su f.n.c. hacemos lo siguiente:

(1) Buscamos los valores en los que F es 0.

(2) Para cada uno de estos valores, escribimos un maxterm que incluya, bien xi si xi = 0,o bien xi si xi = 1.

(3) Por ultimo, multiplicamos todos esos maxterms.

Page 105: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

7.3. FORMAS NORMALES DISYUNTIVA Y CONJUNTIVA 105

Esto es correcto porque un producto booleano es igual a 0 si, y solo si, al menos uno de susfactores es 0. Pero los factores son maxterms, y como cada maxterm es una suma booleana,esta es igual a 0 si, y solo si, todas las variables en la suma son iguales a 0. Estas reglasgarantizan que cada maxterm es igual a 0 exactamente en el punto en el que F es 0.

En nuestro ejemplo, obtenemos F (x, y, z) = (x+ y+ z)(x+ y+ z)(x+ y+ z)(x+ y+ z).Escribiendo un 1 para xi y un 0 para xi, los maxterms en esta funcion dan la secuencia111, 110, 101, 011, que corresponde a 7, 6, 5, 3. Entonces podemos denotar la funcioncomo M(3, 5, 6, 7). Recıprocamente, si nos dan la expresion M(3, 5, 6, 7) podemos convertircada numero al sistema binario y entonces usar la regla anterior (xi para un 1, xi paraun 0) y ası recuperar la f.n.c. Las formas normales conjuntivas se suelen representar como∏M(k1, . . . , ks).Es mas, dada

∑m(j1, . . . , jr) (f.n.d.), podemos calcular directamente

∏M(k1, . . . , ks)

(f.n.c.) de la siguiente manera:

Sea n el numero de variables; ası, las j pertenecen al conjunto 0, 1, . . . , 2n − 1.

El complemento de una posicion k se define como la posicion 2n − 1− k.

Dada∑m(j1, . . . , jr) hacemos lo siguiente: (1) Encontrar los complementos de j1, . . . , jr;

(2) Eliminar estos valores de la lista 0, 1, . . . , 2n−1; (3) Con los elementos restantes,formar

∏M(k1, . . . , ks).

La conversion de∏M(k1, . . . , ks) a

∑m(j1, . . . , jr) se realiza exactamente de la misma

manera. En la siguiente pagina puede encontrarse un resumen del Prof. David Orden(UAH), sobre la conversion entre la f.n.d. y la f.n.c.

Page 106: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar
Page 107: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

7.4. PUERTAS LOGICAS 107

7.4. Puertas logicas

Las puertas logicas son dispositivos electronicos que simulan operaciones logicas. Lastres puertas logicas principales son las siguientes:

(1) Puerta OR: implementa la suma booleana x+ y

xy

x+ y

(2) Puerta AND: implementa el producto booleano x · y

xy

x · y

(3) Puerta NOT: implementa el complemento booleano x y se le suele llamar inversor.

x x

Estas son las puertas logicas basicas, pero hay otras que se obtienen combinando algunasde estas (XOR, NAND, etc.) Si combinamos varias puertas logicas obtenemos un cir-cuito combinacional, tambien llamado red combinacional. Estos circuitos modelizanuna funcion booleana y, recıprocamente, cualquier funcion booleana se puede implementarusando circuitos de este tipo.

Por ejemplo, considera una luz controlada por dos interruptores y que este “on” pre-cisamente cuando ambos interruptores esten en la misma posicion (ambos “on” o ambos“off”). La funcion booleana correspondiente es F (x, y) = x · y + x · y (se puede compro-bar construyendo su tabla de verdad). Esta funcion se puede implementar, usando puertaslogicas, de la siguiente manera:

y

x

xy

xy + xy

Page 108: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

108 CAPITULO 7. ALGEBRA DE BOOLE

7.5. Simplificacion de funciones booleanas

De acuerdo con la seccion anterior, una funcion booleana complicada dara lugar a uncircuito combinacional complicado, con muchas puertas logicas y muchas conexiones. Enel mundo real, cuanto mas complicado sea el circuito, mas caro, complicado de construiry menos eficiente sera. Por ello, serıa conveniente poder simplificar una funcion booleana,es decir, encontrar una funcion booleana equivalente con una expresion mas sencilla.

Para construir un circuito combinacional, se suele empezar por una funcion booleanadefinida por su tabla. Sabemos que a partir de la tabla se puede calcular la f.n.d. de lafuncion y, a partir de esta, se puede disenar el circuito. Sin embargo, la f.n.d. puede contenermas terminos de los necesarios. Por ejemplo, considera la funcion

F (x, y, z) = xyz + xyz

Para construir un circuito con esta funcion, necesitarıamos un inversor, dos puertas AND(con tres entradas cada una) y una puerta OR. No obstante, se puede ver que

F (x, y, z) = xyz + xyz = xz (y + y)︸ ︷︷ ︸1

= xz,

y para implementar esta funcion equivalente xz solo necesitamos una puerta AND, lo quees obviamente mas simple y conveniente.

Ası, dada una funcion booleana en f.n.d. querremos encontrar una funcion equivalente,escrita como suma de productos (pero no necesariamente en f.n.d.) con el menor numeroposible de productos y de manera que estos productos contienen el menor numero posiblede literales. Este problema se conoce como minimizacion de una funcion booleana.

Hay varios metodos para resolver este problema, pero aquı mencionaremos solo el meto-do basado en mapas de Karnaugh (llamados K-mapas para abreviar). Este metodo fueintroducido en 1953 por M. Karnaugh y se puede aplicar comodamente hasta 4 variables,incluso hasta 6 con un poco mas de cuidado. Para presentar el metodo comenzaremos conel caso de 2 variables.

Puesto que estamos asumiendo que nuestra funcion booleana esta en f.n.d., podemosrepresentarla en una cuadrıcula 2-dimensional (ver la Figura 7.1) a la que llamaremos K-mapa. Cada casilla de este K-mapa corresponde a un minterm, que puede estar presenteen la funcion (en cuyo caso escribimos un 1 en la casilla) o no (en cuyo caso no escribimosnada, aunque algunos autores recomiendan escribir un 0). Diremos que dos casillas delK-mapa son adyacentes si comparten una arista.

Consideremos entonces la funcion booleana F (x, y) = xy + xy, cuyo K-mapa apareceen la Figura 7.2. Esta funcion se puede simplificar usando la ley del complemento y la leydistributiva:

F (x, y) = xy + xy = (x+ x)︸ ︷︷ ︸1

·y = y

Se puede ver que las dos casillas correspondientes a los terminos que se combinan parasimplificar la funcion F (x, y) = xy+ xy son adyacentes en el K-mapa, lo que es de esperar

Page 109: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

7.5. SIMPLIFICACION DE FUNCIONES BOOLEANAS 109

x

x

y y

Figura 7.1: K-mapa

x

x

y y

1

1

Figura 7.2: K-mapa de F (x, y) = xy + xy

porque la adyacencia expresa el hecho de tener un literal en comun (y en este caso). Decimosque estas dos casillas adyacentes forman un bloque. La razon por la que los K-mapas sonutiles es porque se pueden usar para encontrar adyacencias, de modo que cada adyacenciacorresponde a un termino simplificado.

Por ejemplo, consideremos G(x, y) = xy + xy + xy. Su K-mapa con adyacencias semuestra en la Figura 7.3. De nuevo, usando identidades se puede proceder como sigue:

G(x, y) = xy + xy + xy = Ley de idempotencia = xy + xy + xy + xy == Distributiva = (x+ x)︸ ︷︷ ︸

1

y + x (y + y)︸ ︷︷ ︸1

= x+ y

y los terminos involucrados en cada simplificacion corresponden a casillas adyacentes. Usan-do el K-mapa observamos que cada bloque de 1s (en este caso rectangulos compuestos pordos casillas adyacentes) da lugar a un termino en la funcion simplificada.Pasemos ahora al caso de 3 variables. En este caso se puede usar un K-mapa como el quese muestra en la Figura 7.4, y aparecen algunos detalles: Mientras que en el caso de dosvariables simplemente buscabamos bloques de 1s que tuvieran tamano 2, ahora buscaremosbloques de 1s de tamanos 2 o 4. En cada caso, el bloque dara lugar a un nuevo termino,que es igual al producto de los literales que aparecen en todas las casillas involucradas enel bloque. De nuevo, aquı subyacen las leyes de complemento e idempotencia.

Page 110: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

110 CAPITULO 7. ALGEBRA DE BOOLE

x

x

y y

11

1

y

x

Figura 7.3: K-mapa de F (x, y) = xy + xy + xy

Ademas, veremos el K-mapa como un cilindro, de modo que, por ejemplo, las casillasde las esquinas correspondientes a xyz y xyz tambien seran adyacentes.

x

x

yz yz yz yz

Figura 7.4: K-mapa para 3 variables

Por ejemplo, consideremos F (x, y, z) = xyz + xyz + xyz + xyz + xyz. Como se ve enla Figura 7.5, se tiene un bloque de tamano 4 y otro de tamano 2, en este caso consistenteen dos casillas de esquinas adyacentes. La funcion es entonces equivalente a y + xz, dondeel primer termino viene del bloque de tamano 4 y el segundo del bloque de tamano 2.

Con 3 variables el proceso para obtener bloques es menos obvio que en el caso de 2variables y por ello necesitamos un procedimiento claro. Este sera el Metodo de Kar-naugh:

(1) Si la funcion depende de n variables, buscamos bloques de 1s de tamano 2k, con k ≤ n(si hubiera un bloque de tamano 2n, entonces todas las casillas contendrıan un 1 yla funcion serıa constante e igual a 1).

Page 111: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

7.5. SIMPLIFICACION DE FUNCIONES BOOLEANAS 111

x

x

yz yz yz yz

1 1

111

yxz

Figura 7.5: K-mapa para F (x, y, z) = xyz + xyz + xyz + xyz + xyz

(2) Un bloque de tamano 2k corresponde a un termino con n − k literales. Las literalesque aparecen en este termino son los elementos comunes a las celdas del bloque.

(3) Se procede como sigue:

(3.1) Localizar los 1s en la tabla.

(3.2) Agrupar todos los 1s en bloques de tamano 2k, siguiendo estas reglas:

Usar primero los bloques del mayor tamano posible.

Agrupar los 1s restantes, usando tambien los bloques del mayor tamanoposible y usando el menor numero posible de bloques.

No usar un bloque contenido dentro de otro.

Considerar adyacentes las filas/columnas extremas, de modo que tambienpueden dar lugar a bloques.

Finalizaremos con un ejemplo de una funcion booleana en 4 variables. En este casose puede usar un K-mapa como el que aparece en la Figura 7.6. Considera la funcionF (w, x, y, z) = wxyz + wxyz + wxyz + wxyz + wxyz + wxyz + wxyz, cuyo K-mapa semuestra en la Figura 7.7. En este caso tenemos dos bloques de tamano 4, uno de ellosconsistente en casillas de esquina y el otro consistente en la primera columna. Tambientenemos un bloque de tamano 2, en la ultima fila. De este modo, obtenemos la funcionequivalente F (w, x, y, z) = xz + yz + wxy. Como podras comprobar, el dominio de estemetodo requiere una buena dosis de practica.

Page 112: Apuntes de Algebra Lineal - uah. · PDF fileApuntes de Algebra Lineal Grado en Ingenier a de Telecomunicaci on, UAH Juan Gerardo Alc azar

112 CAPITULO 7. ALGEBRA DE BOOLE

wx

wx

wx

wx

yz yz yz yz

Figura 7.6: K-mapa para el caso de 4 variables

wx

wx

wx

wx

yz yz yz yz

1

1

1

1

1

11 wxy

xz

yz

Figura 7.7: K-mapa para F (w, x, y, z) = wxyz+wxyz+wxyz+wxyz+wxyz+wxyz+wxyz