27
Contenidos fundamentales de Álgebra II página 1 1 ESPACIOS VECTORIALES EUCLÍDEOS Y HERMÍTICOS 1.1 Producto escalar y norma asociada Sea E un espacio vectorial real. Un producto escalar en E es una aplicación: , : E E × R con las tres propiedades siguientes: ) Simetría: , , ) Lineal en la 1ª variable: + , , , ) Definida-positiva , 0, si ; , 0, sólo si a b c α β α β = = + > = = uv vu u vw uw vw uu u 0 uu u 0 El producto escalar estándar (ó euclídeo) en n R se expresa matricialmente en la forma: 1 1 2 2 , ... T T n n x y xy xy = = = + + + xy xy yx . 1.2 Definición de espacio vectorial euclídeo Un espacio vectorial euclídeo es un espacio vectorial real, de dimensión finita, dotado de un pro- ducto escalar. 1.3 Definición de norma de un vector Una norma es una aplicación : E R con las siguientes propiedades: 1. 0, ; 0 si y sólo si 2. , , 3. , , E E E α α α = = + + = u u u u 0 u v u v uv u u R u En un mismo espacio vectorial pueden definirse distintas normas que cumplan estas condiciones. La norma es una medida del tamaño de un vector. La raíz cuadrada positiva del producto escalar , uu cumple las condiciones de las normas. En este caso, se dice que la norma está inducida por el producto escalar: , = uu u . 1.4 Desigualdad de Cauchy-Schwarz Establece que: , uv u v . La igualdad se satisface si y sólo si u y v son linealmente depen- dientes. 1.5 Ángulo entre dos vectores La desigualdad de Cauchy-Schwarz se puede escribir en una forma que permite definir el coseno del ángulo formado por dos vectores no nulos: , , , 1 1 cos θ uv uv u v uv u v u v u v 1.6 Familias de vectores ortogonales e independencia lineal Dos vectores , E uv son ortogonales si , 0 = uv . El vector E u es unitario si 1 = u . El vector nulo es el único vector que es ortogonal a cualquier otro vector del espacio. Si en un espa- cio de dimensión n un vector es ortogonal a una base, dicho vector es el vector nulo. Una familia de vectores { } 1 2 , ,..., n u u u , no nulos y ortogonales dos a dos, es una familia libre, es decir, formada por vectores linealmente independientes. Si además los vectores son unitarios, la

Nu Cleo Algebra i i Final

Embed Size (px)

Citation preview

Page 1: Nu Cleo Algebra i i Final

Contenidos fundamentales de Álgebra II página 1

1 ESPACIOS VECTORIALES EUCLÍDEOS Y HERMÍTICOS 1.1 Producto escalar y norma asociada

Sea E un espacio vectorial real. Un producto escalar en E es una aplicación: , : E E× → R con las tres propiedades siguientes:

) Simetría: , ,

) Lineal en la 1ª variable: + , , ,

) Definida-positiva , 0, si ; , 0, sólo si

a

b

c

α β α β

=

= +

> ≠ = =

u v v u

u v w u w v w

u u u 0 u u u 0

El producto escalar estándar (ó euclídeo) en nR se expresa matricialmente en la forma:

1 1 2 2, ...T Tn nx y x y x y= = = + + +x y x y y x .

1.2 Definición de espacio vectorial euclídeo

Un espacio vectorial euclídeo es un espacio vectorial real, de dimensión finita, dotado de un pro-ducto escalar.

1.3 Definición de norma de un vector Una norma es una aplicación : E → R con las siguientes propiedades:

1. 0, ; 0 si y sólo si

2. , ,

3. , ,

E

E

Eα α α

≥ ∀ ∈ = =

+ ≤ + ∀ ∈

= ∀ ∈ ∀ ∈

u u u u 0

u v u v u v

u u R u

En un mismo espacio vectorial pueden definirse distintas normas que cumplan estas condiciones. La norma es una medida del tamaño de un vector.

La raíz cuadrada positiva del producto escalar ,u u cumple las condiciones de las normas. En este caso, se dice que la norma está inducida por el producto escalar: , =u u u .

1.4 Desigualdad de Cauchy-Schwarz

Establece que: , ≤ ⋅u v u v . La igualdad se satisface si y sólo si u y v son linealmente depen-dientes.

1.5 Ángulo entre dos vectores

La desigualdad de Cauchy-Schwarz se puede escribir en una forma que permite definir el coseno del ángulo formado por dos vectores no nulos:

, ,

, 1 1 cosθ− ⋅ ≤ ≤ ⋅ ⇔ − ≤ ≤ ⇔ ≡⋅ ⋅

u v u vu v u v u v

u v u v

1.6 Familias de vectores ortogonales e independencia lineal

Dos vectores , E∈u v son ortogonales si , 0=u v . El vector E∈u es unitario si 1=u .

El vector nulo es el único vector que es ortogonal a cualquier otro vector del espacio. Si en un espa-cio de dimensión n un vector es ortogonal a una base, dicho vector es el vector nulo.

Una familia de vectores { }1 2, ,..., nu u u , no nulos y ortogonales dos a dos, es una familia libre, es decir, formada por vectores linealmente independientes. Si además los vectores son unitarios, la

Page 2: Nu Cleo Algebra i i Final

Contenidos fundamentales de Álgebra II página 2

familia se dice ortonormal u ortonormada. En un espacio de dimensión n dicha familia forma una base ortonormal.

Si [ ]1 2 n≡ ∈ n×nQ q q q R es una matriz cuyas columnas iq son los vectores de una base or-tonormal (respecto del producto escalar estándar), las coordenadas de un vector a en esa base son:

1 1 2 2 ... Tn nα α α= + + + = ⇒ =a q q q Qα α Q a

1.7 Relación de polarización

( )2 2 21,2

= + − −v w v w v w

Sirve para expresar el producto escalar en función de la norma por él inducida:

1.8 Teorema de Pitágoras generalizado

Sean los vectores , E∈v w ; v y w son ortogonales si y sólo si: 2 2 2+ = +v w v w .

Para un conjunto de p vectores ortogonales se verifica: 2 222 2

1 1 1 1p p p pλ λ λ λ+ + = + +v v v v .

1.9 Expresión matricial del producto escalar: matriz de Gram Sea cual sea el espacio euclídeo E, con una base cualquiera ( )1 2, ,..., nb b b , si los vectores u y v se expresan en la forma 1 1 2 2 1 1 2 2... , ...n n n nu b b b v b b bα α α β β β= + + + = + + + , su producto escalar se representa matricialmente en la forma:

1 1 1 1

, ; , , n n n n Ti i j j i j i ji j i j

u,v b , b b bα β α β ×= = = =

= = = ∈ ∈∑ ∑ ∑ ∑ n n nu Gv u v R G R

siendo [ ] [ ]1 2 1 2, y ,T Tn n ij i jg b bα α α β β β= = =u v . G es la matriz de Gram, que

es simétrica y definida-positiva pues 0, Tu,u = > ∀ ≠u Gu u 0 . Si la base es ortonormal =G I . El producto escalar estándar en nR se expresa en la forma: , T=u v u v

1.10 Definición de matriz ortogonal

Una matriz Q es ortogonal si es cuadrada y sus columnas constituyen una base ortonormal respec-to al producto escalar estándar: T

i j ijδ=q q en nR . Una matriz ortogonal satisface:

( )1, T T T−= = =Q Q QQ I Q Q

Una matriz rectangular ( ) m n∈ >m×nQ R cuyas columnas tienen norma unidad y son ortogonales entre sí, cumple T =Q Q I , pero no es una matriz ortogonal porque no es cuadrada. En general se cumple T ≠QQ I . Esta matriz se puede denominar matriz de columnas ortonormales.

1.11 Método de ortonormalización de Gram-Schmidt

A partir de un conjunto de n vectores linealmente independientes ai, pertenecientes a un espacio de dimensión m ( m n≥ ), se puede hallar un conjunto de n vectores qi que constituyen una familia or-tonormal, de modo que 1 2 1 2, ,..., , ,..., , 1, 2,..., .j jL L j n⎡ ⎤ ⎡ ⎤= =⎣ ⎦ ⎣ ⎦a a a q q q

El vector q1 se halla normalizando a1. El vector q2 se halla eliminando de a2 su componente en la dirección de q1 y normalizándolo. El vector qi se halla quitando a ai sus componentes según los vectores q1,…qi−1, y normalizándolo. Utilizando un vector intermedio bi:

1 1 2 2 1 1, , ... , , i i i i i i i i i i− −= − − − − =b a a q q a q q a q q q b b

Page 3: Nu Cleo Algebra i i Final

Contenidos fundamentales de Álgebra II página 3

Si el número de vectores es igual a la dimensión del espacio ( n m= ), dichos vectores iq constitu-yen una base ortonormal. Si n m< , dichos vectores pueden completarse por el teorema de la base incompleta hasta formar una base ortonormada del espacio.

1.12 Factorización QR de una matriz A

Si las columnas de A son linealmente independientes y se ortonormalizan por Gram-Schmidt, cada vector ai se expresa como combinación lineal de q1,…,qi. Esta propiedad se expresa matricialmente en la forma A=QR, donde Q es una matriz de columnas ortonormales y R es triangular superior con elementos diagonales positivos. En estas condiciones, esta factorización es única.

Los elementos de la columna i de R indican las coordenadas de ai respecto de la base q1,…,qn.

1.13 Subespacio ortogonal a un conjunto de vectores

Sea E un espacio euclídeo y F E⊂ un conjunto no vacío de vectores. Se define el subespacio orto-gonal a F en la forma:

{ }: , 0, F u E u v v F⊥ = ∈ = ∀ ∈

1.14 Subespacios ortogonales y suplemento ortogonal de un subespacio Dos subespacios F y G son ortogonales cuando , 0, y u v u F v G= ∀ ∈ ∀ ∈ .

Sea E un espacio vectorial de dimensión finita n, y sea F en subespacio vectorial de E: F E⊂ . El suplemento ortogonal de F, denotado como F ⊥ , es único y es el subespacio de todos los vectores que son ortogonales a cualquier vector de F. La suma de F y F ⊥ es directa: E F F ⊥= ⊕ . La suma de las dimensiones de F y F ⊥ es n (la dimensión de E).

En toda matriz ∈ m×nA R se verifica que ( ) ( )Ker Im T⊥ =A A , y que ( ) ( )Im Ker T⊥ =A A .

1.15 Espacios hermíticos

Un espacio vectorial hermítico es un espacio vectorial complejo, de dimensión finita, dotado de un producto escalar.

El producto escalar en los espacios hermíticos se define de forma diferente que en los espacios eu-clídeos. En este caso el producto escalar cumple las propiedades siguientes:

( )) Hermítica: , ,) Lineal: + , , , sólo en la primera variable) Positiva: , 0, si ; , 0, si y sólo si

abc

α β α β=

= +> ≠ = =

u v v uu v w u w v w

u u u 0 u u u 0

El producto escalar estándar en Cn es , T=u v v u . La norma inducida es 22 Tiu= =∑u u u

1.16 Matrices hermíticas y matrices unitarias

La matriz conjugada transpuesta de una matriz compleja A se denota en la forma HA .

Se dice que una matriz es hermítica cuando es igual a su conjugada transpuesta: H =A A . En el caso real, las matrices hermíticas son matrices simétricas.

Se llama matriz unitaria a una matriz cuadrada y compleja cuyas columnas tienen norma unidad y son ortogonales dos a dos con el producto escalar estándar de nC . La inversa de una matriz unitaria es su matriz conjugada transpuesta: ( )1, H H H−= = =U U UU I U U .

Page 4: Nu Cleo Algebra i i Final

Contenidos fundamentales de Álgebra II página 4

2 PROYECCIONES, SIMETRÍAS Y GIROS 2.1 Matriz de proyección ortogonal sobre un subespacio Sea E un espacio euclídeo o hermítico, y F un subespacio de E. Sea E∈v un vector cualquiera de E. Se dice que ∗w es la proyección ortogonal de v sobre F si F∗ ∈w y F∗ ⊥− ∈v w .

Si E = nR existe una matriz de proyección P tal que ∗ =w Pv .

2.2 Propiedades de la matriz de proyección La matriz P es una matriz de proyección si es idempotente: 2 =P P . Si además P es hermítica, se trata de una proyección ortogonal (no es una matriz ortogonal). En lo sucesivo sólo se considerarán proyecciones ortogonales.

El subespacio F sobre el que se proyecta está determinado por ( )F Im= P . En general, salvo cuan-do ( ) F E= =P I , las proyecciones no son transformaciones invertibles, lo que se refleja en que

( ) ( )rango dim F n= <P . El subespacio ( )F Ker⊥ = P está formado por los vectores que tienen proyección nula.

Si P es la matriz de proyección sobre el subespacio F, (I−P) es la matriz de proyección sobre F ⊥ .

La matriz de proyección sobre el subespacio de dimensión 1 determinado por el vector v es:

H

H=vvPv v

Análogamente, si las columnas de A son independientes, la matriz de proyección sobre el subespa-cio ( )Im F=A es:

( ) 1H H−=P A A A A

2.3 Teorema de la proyección ortogonal Sea E un espacio euclídeo o hermítico, y F un subespacio de E. Sea E∈v un vector cualquiera de E. Las tres condiciones siguientes son equivalentes:

22

proyección de sobre minF

F∗ ∗

∈⇔ − = −

ww v v w v w

Además, dicha aproximación óptima es única. A partir de aquí sólo se considerará el producto esca-lar estándar.

2.4 Simetría ortogonal respecto de un subespacio

La matriz de simetría S respecto a un subespacio F está estrechamente relacionada con la matriz de proyección P respecto a dicho subespacio: el vector más su simétrico es dos veces la proyección:

2 2+ = ⇒ = −v Sv Pv S P I

La simetría es invertible: si se aplica dos veces se obtiene el punto inicial. La matriz de simetría es simétrica y unitaria, es decir, coincide con su inversa: 2 1 H−= ⇒ = =S I S S S

2.5 Transformaciones de Householder La matriz de Householder H representa una simetría respecto a un hiperplano. La matriz de pro-yección sobre el hiperplano (cuyo complemento ortogonal está generado por v) será:

H H= −P I vv v v . La matriz de simetría respecto a este hiperplano será:

Page 5: Nu Cleo Algebra i i Final

Contenidos fundamentales de Álgebra II página 5

( )2 2 2 2 2 , si 1H H

HH H= − = − − = − = − =

vv vvH P I I I I H I uu uv v v v

La matriz de Householder H se utiliza para trasformar un vector cualquiera x sobre el vector e1:

1 0 0T

= = ⎡ ⎤⎣ ⎦Hx x e x

Para ello basta tomar como vector v el vector 1= −v x x e .

2.6 Factorización QR con matrices de Householder

Las matrices de Householder se pueden utilizar para hacer ceros en los elementos de una matriz A debajo de la diagonal, en forma similar al proceso de eliminación de Gauss. Para hacer m−k ceros en la columna k de la matriz A se utiliza una matriz ( ) ( )∈ m-k+1 × m-k+1H R , completada con k−1 filas y columnas de la matriz identidad. El proceso se puede expresar en la forma:

1 1 11 2 1 1 2 1 1 2 1... ... ...n n n

− − −− − −= ⇒ = = ≡U U U A R A U U U R U U U R QR

Esta es la llamada factorización QR completa, porque la matriz Q obtenida es cuadrada y ortogonal. La matriz R no es cuadrada sino del mismo tamaño que A, siendo nulas las últimas m−r filas, donde r es el rango de A.

2.7 Giros y matriz de rotación

La matriz ∈ 3×3A R representa un giro si es ortogonal ( T T= =AA A A I ) y tiene determinante uni-dad ( det 1= +A ). A esta matriz se le suele llamar matriz de rotación. Los giros forman un grupo no conmutativo respecto al producto matricial.

Teniendo en cuenta que la proyección de un vector sobre el eje no cambia al girar y que la compo-nente ortogonal al eje gira θ radianes, la expresión general de la matriz de rotación A correspon-diente a un giro de θ radianes alrededor del eje determinado por el vector unitario u es:

( ) ( )cos sen , , 1Tθ θ= + − + − ≡ =A P I P u I P P uu u

La matriz P calcula la proyección sobre el eje de giro, que no varía; la matriz ( )cosθ−I P determi-na cómo va a variar la componente perpendicular al eje de giro; finalmente, ( )senθ−u I P repre-senta la componente perpendicular a la anterior y al eje de giro que aparece al rotar.

La matriz antisimétrica u permite definir el producto vectorial de vectores como producto de matriz por vector, y se forma a partir del vector u del modo siguiente:

3 2 3 2 1 2 3 3 2

3 1 3 1 2 3 1 1 3

2 1 2 1 3 1 2 2 1

0 00 , 0

0 0

u u u u v u v u vu u u u v u v u vu u u u v u v u v

− ⎛ − − ⎞⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎜ ⎟⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥= − = − = − = ×⎜ ⎟⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎜ ⎟⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥− − −⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦⎝ ⎠

u uv u v

Sea ∈ 3×3A R la matriz de un giro de un ángulo ϕ respecto a un eje [ ] ( ) L ≠a a 0 , y sean los vecto-res ( )1 2 3, ,e e e una base ortonormada de 3R , de modo que 1 =e a a y 3 1 2= ×e e e (lo que implica que [ ]1 2 3, ,≡Q e e e es una matriz ortogonal con ( )det 1=Q ). Entonces, las matrices de giro respecto a la base anterior y respecto a la base canónica de 3R son, respectivamente:

1 0 0 1 0 00 cos sen , 0 cos sen0 sen cos 0 sen cos

Te ϕ ϕ ϕ ϕ

ϕ ϕ ϕ ϕ

⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥= − = −⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦

A A Q Q

Page 6: Nu Cleo Algebra i i Final

Contenidos fundamentales de Álgebra II página 6

2.8 Forma exponencial de la matriz de rotación

El vector ( ) 1θ= =a u u contiene toda la información acerca del giro del ángulo θ alrededor de u. El conjunto de matrices antisimétricas a definidas a partir de los vectores θ=a u , es un espacio vectorial de dimensión 3 (respecto a la suma de matrices).

La exponencial de una matriz antisimétrica es una matriz de rotación. Teniendo en cuenta que 3 4 2 5 6 2, , , , ...= − = − = =u u u u u u u u , la matriz de rotación se puede expresar en la forma:

( )

( )

2 3 2 3 4 52 3 2 2

3 5 2 4 62 2

exp ... ...2! 3! 2! 3! 4! 5!

... ... sen 1 cos3! 5! 2! 4! 6!

θ θ θ θ θ θθ θ θ

θ θ θ θ θθ θ θ

= = + + + + = + + − − + + =

⎛ ⎞ ⎛ ⎞= + − + − + − + − = + + −⎜ ⎟ ⎜ ⎟

⎝ ⎠ ⎝ ⎠

A u I u u u I u u u u u

I u u I u u.

A cada vector θ=a u le corresponde una matriz de rotación A. Toda matriz de rotación A se puede representar mediante un vector θ=a u , pero esta representación no es única, pues también la repre-sentan por ejemplo los vectores ( )2kθ π= ±a u .

2.9 Matrices de rotación de Givens

Las matrices de Givens son una extensión de las rotaciones 2-D a dimensión n. La matriz de Givens ijG es una matriz cuyos elementos coinciden con los de la matriz identidad a excepción de los cua-

tro elementos siguientes: cos ; senii jj ji ijg g g gα α= = = − = .

Las matrices de Givens son ortogonales con determinante +1. Con el producto ijG A se puede hacer cero el elemento (j,i) de A. Aplicando repetidamente esta transformación puede reducirse A a forma triangular, lo que constituye una nueva forma de realizar la factorización QR de una matriz.

Las transformaciones de Givens son más económicas que las de Householder y se utilizan cuando sólo hay que hacer cero unos pocos elementos debajo de la diagonal.

Page 7: Nu Cleo Algebra i i Final

Contenidos fundamentales de Álgebra II página 7

3 SISTEMAS LINEALES INCOMPATIBLES. SISTEMAS COMPATIBLES INDETERMINADOS 3.1 Repaso del método de eliminación de Gauss Si en un sistema de ecuaciones lineales a una ecuación se le suma una combinación lineal de las de-más, la solución del sistema de ecuaciones lineales no varía.

El método de eliminación de Gauss tiene dos fases:

1. Mediante operaciones elementales entre filas, el sistema se transforma en un sistema de ecua-ciones equivalente cuya matriz es triangular superior.

Suponiendo que se han hecho ceros debajo de la diagonal en las 1k − primeras columnas y se desea hacer ceros en la columna k , estas operaciones elementales son de dos tipos. Si el ele-mento de la diagonal kka es cero o próximo a cero, la fila k se intercambia con una fila poste-rior i tal que 0ika > . Si 0kka ≠ , se hace cero el elemento ika restando a la fila i la fila k multiplicada por un factor ik ik kkm a a= .

2. Con el sistema en forma triangular, la variable nx puede calcularse a partir de la última ecua-ción. Con nx conocida, 1nx − puede calcularse a partir de la penúltima ecuación, y se procede así sucesivamente hasta calcular 1x de la primera ecuación.

3.2 Equivalencia entre el método de Gauss y la factorización LU

El hacer ceros en la primera columna de A equivale a mul-tiplicar por la matriz 1P . El hacer ceros en las columnas 1, 2, …, n−1 equivale a multiplicar por las matrices

1 2 1, ,..., n−P P P :

1 1 11 2 1 1 2 1... ...n n

− − −− −= ⇒ = =P P P A U A P P P U LU

Las inversas 1i−P se obtienen simplemente cambiando el

signo a los factores ijm . El producto 1 1 11 2 1... n− − −

− =P P P L se obtiene simplemente superponiendo dichas matrices.

3.3 Resolución del sistema Ax=b conociendo la factorización A=LU La factorización =A LU (supuesta posible) se puede calcular independientemente del término b, incluso antes de conocerlo. Después, el sistema =Ax b equivale a resolver dos sistemas con matri-ces triangulares: ( ) ( ) ( ) = → = ≡ → = → → = →Ax b LUx b y Ux Ly b y Ux y x .

3.4 Pivotamiento por columnas

El método de Gauss hace un cero en la posición (i,k) restando a la fila i la fila k multiplicada por el factor ik ik kkm a a= . Este procedimiento falla cuando 0kka . Este elemento no nulo es el pívot.

El pivotamiento por columnas consiste en hacer ceros en la columna k, no utilizando como pívot el elemento de la diagonal, sino buscando el mayor elemento en valor absoluto de la columna k (sin contar los elementos que están en las filas de los pivots anteriores). Si todos los elementos candidatos a pívot son cero (o muy próximos a cero), se concluye que la columna k no tiene pívot y que corres-ponde a una variable libre, y se pasa a buscar el pívot en la columna siguiente k+1.

El pivotamiento por columnas exige almacenar la fila en la que ha aparecido el pívot en cada colum-na. El costo del pivotamiento por columnas es reducido. Si la matriz A es regular se obtiene la solu-ción correcta (errores numéricos en las operaciones aritméticas excluidos).

11 12 1' '

21 22 21

' '1 2

1 0 01 0 0

0 1 0

n

n

n n nn

a a am a a

m a a

⎡ ⎤⎡ ⎤⎢ ⎥⎢ ⎥− ⎢ ⎥⎢ ⎥= =⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥− ⎢ ⎥⎣ ⎦ ⎣ ⎦

P A A

21

1 2

1 0 01 0

1n n

m

m m

⎡ ⎤⎢ ⎥⎢ ⎥=⎢ ⎥⎢ ⎥⎣ ⎦

L

Page 8: Nu Cleo Algebra i i Final

Contenidos fundamentales de Álgebra II página 8

3.5 Factorizaciones LDLT y de Choleski

Si la matriz A es simétrica es fácil demostrar que TU = DL , con lo cual TA = LDL . Basta almacenar U o bien L y D (en la diagonal de L).

Si A es definida positiva 0iid > y se puede hacer 1 2 1 2T T T= = =A LDL LD D L LL ( 1 2D es la matriz diagonal formada por las raíces cuadradas positivas de los elementos de D), que es la factorización de Choleski.

Los apartados que siguen están específicamente orientados a matrices y vectores reales, pero prácti-camente todo lo que dice podría ser referido a sistemas complejos sustituyendo el indicativo T de matriz transpuesta por el indicativo H de matriz conjugada y transpuesta. En todo el tema se conside-rará el producto escalar usual en nR .

3.6 Sistemas incompatibles (caso m>n=r). Solución de mínimo error cuadrático. Ecuaciones normales.

Sea el sistema ( )( ), , rango r= ∈ =m×nAx b A R A , con ( )m n r> = . El sistema tiene más ecuacio-nes que incógnitas. Si ( )Im∈b A el sistema tiene solución única (no hay variables libres). Si

( )Im∉b A el sistema no tiene solución. En virtud del teorema de la proyección ortogonal, la solu-ción única de mínimo error en norma cuadrática se obtiene cuando el residuo = −r b Ax es ortogonal a ( )Im A , es decir cuando la solución x es tal que ˆAx es la proyección de b sobre ( )Im A :

( ) ( ) ( ) 1ˆ ˆ ˆ0 ecs. normales T T T T T T−

= − = ⇔ = ⇔ =A r A b Ax A Ax A b x A A A b

3.7 Planteamiento alternativo a las ecuaciones normales Las ecuaciones = −r b Ax y T =A r 0 se pueden plantear conjuntamente para dar el sistema:

T

⎡ ⎤ ⎡ ⎤ ⎡ ⎤=⎢ ⎥ ⎢ ⎥ ⎢ ⎥

⎣ ⎦ ⎣ ⎦ ⎣ ⎦

I A r bA 0 x 0

3.8 Matrices de columnas ortonormales. Productos QTQ y QQT Sea Q una matriz de columnas ortonormales ( ) m n∈ >m×nQ R . Se verifica que:

− Tn=Q Q I .

− ( ) ( )1 T T T−

= = ∈ m×mP Q Q Q Q QQ P R es una proyección ortogonal sobre ( )Im Q , de dimen-sión n.

3.9 Ecuaciones normales cuando se conoce la factorización QR

Si se conoce la factorización =A QR , las ecuaciones normales ˆT T=A Ax A b se transforman en un sistema con una matriz triangular superior, muy sencillo de resolver:

ˆ ˆ ˆ ˆ T T T T T T T T T T= ⇒ = ⇒ = ⇒ =A Ax A b R Q QRx R Q b R Rx R Q b Rx Q b

3.10 Sistemas de ecuaciones indeterminados (caso r=m<n). Solución general y solu-ción de mínima norma

Sea el sistema ( )( ), , rango m= ∈ =m×nAx b A R A . Sea Px una solución cualquiera tal que P =Ax b . Sea ( )∈ n× n-mN R una matriz cuyas columnas son una base de ( )Ker A .

− La solución general de =Ax b viene dada por ( ) P= + ∀ ∈ n-rx x Nu u R .

− La solución de mínima norma única ∗x será aquella que pertenezca ( )Ker ⊥A , es decir aque-lla que pertenezca a su complemento ortogonal, que es ( )Im TA :

Page 9: Nu Cleo Algebra i i Final

Contenidos fundamentales de Álgebra II página 9

( ) ( )1 1, T T T T T− −∗= ∈ ⇒ = = ⇒ = ⇒ =rx A v v R Ax AA v b v AA b x A AA b

3.11 Solución de mínimo error y mínima norma en el caso r<min(m,n). Matriz pseu-doinversa

Sea el sistema ( ) ( )( ), , rango min ,r m n= ∈ = <m×nAx b A R A . Como r m< , puede ocurrir que ( )Im∉b A y el sistema no tendrá solución; como r n< , hay variables libres y la solución −exacta o

de mínimo error− no será única. Se pretende hallar la solución de mínimo error y mínima norma.

La matriz A siempre se puede factorizar en la forma , con y = ∈ ∈m×r r×nA BC B R C R , donde B y C son de rango máximo (las filas de C son una base para ( )Im TA ; las columnas de B son una base para ( )Im A ). Esta factorización no es única.

El sistema =Ax b se puede escribir como = , siendo = ⇒ ≡BCx b By b y Cx . El sistema =By b es un sistema incompatible de rango máximo cuya solución de mínimo error se puede poner como

( ) 1ˆ T T−=y B B B b . A partir de esta y la solución de mínima norma del sistema indeterminado de ran-

go máximo ˆ=Cx y se puede escribir como ( ) 1´ ˆT T −∗ =x C CC y . Uniendo ambas expresiones:

( ) ( ) ( ) ( ) ( )1 1 1 1 1ˆ , T T T T T T T T T T− − − − −∗ + += = = ≡x C CC y C CC B B B b A b A C CC B B B

La matriz +A es la matriz pseudoinversa de A. Esta matriz es única, aunque B y C no lo sean.

3.12 Casos particulares de la matriz pseudoinversa

En los siguientes casos particulares la pseudoinversa se reduce a alguna expresión ya estudiada:

– Si r m n= = , 1+ −=A A .

– Si m n r> = , ( ) 1T T−+ =A A A A , n+ =A A I .

– Si r m n= < , ( ) 1T T −+ =A A AA , m+ =AA I .

3.13 Analogías y diferencias entre las matrices inversa y pseudoinversa − Analogías: ( )++ =A A ; ( ) ( )T T ++ =A A ; ( ) ( ) ( ) ( )r r r r+ + += = =A A AA A A ;

− Diferencias: En general ( ) ( ) ( ); , ; pp

m n

++ + + + + +≠ ≠ ≠ ≠AB B A AA I A A I A A .

Page 10: Nu Cleo Algebra i i Final

Contenidos fundamentales de Álgebra II página 10

4 REDUCCIÓN POR SEMEJANZA UNITARIA 4.1 Transformaciones de semejanza unitaria y matrices unitariamente diagonaliza-

bles Dos matrices cuadradas y complejas ∈ n×nA, B C se dicen matrices semejantes si están relacionadas mediante una transformación de semejanza en la forma 1−=B P AP , siendo ∈ n×nP C una matriz no singular (regular).

Si P es una matriz unitaria U ( )1 H− =U U , la transformación H=B U AU es una transformación de semejanza unitaria. En este caso, las matrices A y B son unitariamente semejantes.

Una matriz A es unitariamente diagonalizable si es unitariamente semejante a una matriz diago-nal D. Hay matrices diagonalizables que no son unitariamente diagonalizables.

4.2 Lema de Schur

Para cualquier matriz cuadrada real o compleja ∈ n×nA C existe una matriz unitaria U tal que ( ) H= ∈ n×nT U AU T C es una matriz triangular superior.

Las matrices A y T tienen los mismos valores propios, que son los elementos de la diagonal de T.

4.3 Definición y propiedades de matriz normal

Se dice que una matriz ∈ n×nA C es normal cuando el producto por su matriz conjugada traspuesta HA es conmutativo: H H=AA A A .

Algunas propiedades de las matrices normales:

− Todas las matrices hermíticas, antihermíticas o unitarias en n×nC son normales. Como ca-so particular, todas las matrices simétricas, antisimétricas u ortogonales en n×nR son nor-males (existen otras matrices normales que no pertenecen a las categorías precedentes).

− Todas las matrices B unitariamente semejantes a una matriz normal A son también matrices normales.

− Los valores propios de HA son los conjugados de los valores propios de A. Además, si A es normal, los vectores propios de HA son los mismos que los de A:

H

H H H H H⇔ ⇒ = =U AU = D U A = DU A U UD UD

4.4 Enunciado del teorema espectral para matrices normales. Importancia

Sea ∈ n×nA C una matriz cuyos valores propios son ( )1 2, ,..., nλ λ λ . Las siguientes afirmaciones son equivalentes entre sí (cada una de ellas implica todas las demás):

a) La matriz A es normal.

b) La matriz A es unitariamente diagonalizable.

c) Se verifica la igualdad: 2 2

, 1 1

n nij ii j i

a λ= =

=∑ ∑

d) Existe una base ortonormada formada por vectores propios de la matriz A, es decir, los subespacios propios son ortogonales dos a dos.

El teorema espectral tiene una gran importancia práctica, por la frecuencia con la que aparecen en ingeniería las matrices normales: hermíticas, antihermíticas, simétricas, antisimétricas, unitarias,

Page 11: Nu Cleo Algebra i i Final

Contenidos fundamentales de Álgebra II página 11

ortogonales… Estas matrices siempre son diagonalizables, nunca son defectivas (la dimensión del subespacio propio nunca es menor que la multiplicidad del valor propio correspondiente).

4.5 Corolarios del teorema espectral

a) La matriz normal A es hermítica si y sólo si sus valores propios son reales:

, realH H H H H H= ⇔ = = ⇔ = ⇔A A U AU D U A U D D D D

b) La matriz normal A es antihermítica si y sólo si sus valores propios son imaginarios puros:

, : imaginarios purosH H H H Hiid= − ⇔ = = = − ⇔A A U AU D U A U D D D

c) La matriz normal A es unitaria si y sólo si sus valores propios tienen módulo unidad:

( )( ) H H H H H H H H= ⇔ = = = ⇔ =A A I A A UD U UDU UD DU I D D I

4.6 Descomposición espectral de las matrices normales

Toda matriz normal se expresa como suma de matrices de rango 1: 1

nH Hk k kkλ

== ∑A = UDU u u ,

con 1 2, ,..., nu u u ortogonales dos a dos.

Las matrices de rango 1 asociadas con valores propios de multiplicidad 1im ≥ se pueden agrupar en una matriz iP de rango 1im ≥ , y se obtiene: ( )1 1 2 2 1 2... ...s s sm m m nλ λ λ= + + + + + + =A P P P .

Cada una de las matrices iP es una matriz de proyección ortogonal sobre el subespacio propio aso-ciado con el valor propio iλ .

4.7 Matrices que conmutan

Las matrices normales A y B conmutan ( )=AB BA si y sólo si existe una base común ortonormal de vectores propios de A y B.

Esto no quiere decir que A y B tengan los mismos valores propios, o que los tengan con las mismas multiplicidades.

4.8 Propiedades de los valores y vectores propios de una matriz hermítica (simé-trica)

Los valores propios de una matriz hermítica (o simétrica) son reales. Los vectores propios asocia-dos con valores propios distintos son ortogonales. Con cada valor propio de multiplicidad m hay asociado un subespacio propio de dimensión m, en el que pueden elegirse m vectores propios orto-gonales entre sí.

4.9 Valores y vectores propios de una matriz de rotación A

Las matrices de rotación A son ortogonales y tienen determinante unidad. Son por tanto unitaria-mente diagonalizables. Además, todos los valores propios tienen módulo unidad (corolario del teo-rema espectral). En R3 las matrices de rotación representan giros o movimientos de sólido rígido.

En una rotación general hay un valor propio real 1 (asociado con un vector propio en la dirección del eje de giro) y dos valores propios complejos conjugados ie θ y ie θ− (asociados a vectores pro-pios complejos), cuya fase θ es el ángulo de giro.

Page 12: Nu Cleo Algebra i i Final

Contenidos fundamentales de Álgebra II página 12

4.10 Valores y vectores propios de una matriz de proyección P sobre un subespa-cio F

Las matrices de proyección son matrices normales por ser hermíticas.

Los valores propios de una matriz de proyección no trivial valen 1 y 0. Todos los vectores de ( )ImF = P son vectores propios asociados con valor propio 1 (coinciden con su proyección). To-

dos los vectores del complemento ortogonal ( ) ( )Im KerF ⊥ = − =I P P son vectores propios de P asociados con el valor propio 0 (su proyección sobre F es el vector nulo).

4.11 Valores y vectores propios de una matriz de simetría S

Las matrices de simetría S son matrices normales por ser hermíticas y por ser unitarias.

La matriz de simetría respecto a F es 2= −S P I , donde P es la matriz de proyección no trivial so-bre F. Como los valores propios de P son 1 y 0, los valores propios de S son 1 y −1.

Todos los vectores de F son vectores propios de S asociados con un valor propio +1 (se transforman en sí mismos). Todos los vectores de F ⊥ son vectores propios de S asociados con un valor propio −1 (se transforman en los opuestos de sí mismos).

Page 13: Nu Cleo Algebra i i Final

Contenidos fundamentales de Álgebra II página 13

5 FORMAS BILINEALES Y CUADRÁTICAS 5.1 Definición de forma bilineal. Matriz asociada Dado el espacio vectorial E sobre R se define una forma bilineal f sobre E como una aplicación de E E× en R tal que:

( ) ( ) ( )( ) ( ) ( )

, , , , , , , ,

, , , , , , , ,

u v w E f u v w f u w f v w

u v w E f u v w f u v f u w

λ μ λ μ λ μ

λ μ λ μ λ μ

∀ ∈ ∀ ∈ + = +

∀ ∈ ∀ ∈ + = +

R

R

Se dice que la forma bilineal f es simétrica si ( ) ( ), , , ,u v E f u v f v u∀ ∈ = .

Supuesto E de dimensión finita, sean ( )1 2, ,..., ne e e una base de E y [ ]1 2, ,..., Tnx x x=x ,

[ ]1 2, ,..., Tny y y=y los vectores de coordenadas, respecto de dicha base, de ,u v E∈ , respectivamen-

te, se cumple:

( ) ( ), 1

, ,n

i j i ji j

f u v x y f e e=

= ∑

que, matricialmente, puede expresarse como:

[ ]

( ) ( ) ( )( ) ( ) ( )

( ) ( ) ( )

1 1 1 2 1 1

2 1 2 2 2 21 2

1 2

, , ,, , ,, , ,

, , ,

n

Tnn

nn n n n

f e e f e e f e e yf e e f e e f e e yx x x

yf e e f e e f e e

⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥⎢ ⎥ =⎢ ⎥⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥⎣ ⎦⎣ ⎦

x Ay

5.2 Matrices congruentes.

Dos matrices , ∈ n×nA B R , se dice que son congruentes, si y sólo si ∃P regular tal que T=B P AP .

La congruencia es una relación de equivalencia en el conjunto de las matrices reales. Dos matrices congruentes tienen el mismo rango. Si A es simétrica también lo es B y viceversa.

A partir de ahora el espacio E será nR .

5.3 Formas cuadráticas.

Dada una forma bilineal f sobre nR se define la forma cuadrática asociada a f, como la aplicación fc de nR en R definida por

( ) ( ), ,cf f∀ ∈ =nu R u u u

Dada una base ( )1 2, ,..., ne e e de nR y ( )1 2, ,..., Tnx x x el vector de coordenadas, respecto de dicha

base, de ∈ nu R , se cumple:

( ) [ ]

( ) ( ) ( )( ) ( ) ( )

( ) ( ) ( )

1 1 1 2 1 1

2 1 2 2 2 21 2

1 2

, , ,, , ,, , ,

, , ,

n

nc n

nn n n n

f f f xf f f xf x x x

xf f f

⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥⎢ ⎥= ⎢ ⎥⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥⎣ ⎦⎣ ⎦

e e e e e ee e e e e eu

e e e e e e

que se expresará en la forma , 1

n

ij i ji j

a x x=∑ , donde ij jia a= ; es decir,

Page 14: Nu Cleo Algebra i i Final

Contenidos fundamentales de Álgebra II página 14

( ) 2

, 1

2n

Tc ii i ij i j

i j i j

f a x a x x= <

= + =∑ ∑u x Ax

donde [ ]1 2, ,..., Tnx x x=x y ( )ija=A es simétrica.

Mientras que existen múltiples formas bilineales que definen a una misma forma cuadrática, sólo una de ellas es simétrica. Si B es la matriz asociada a una cualquiera de dichas formas bilineales, respecto de una base de nR , la matriz, respecto de dicha base, de dicha forma bilineal simétrica es

( )12

T+B B

En un cambio de base, de ( )1 2, ,..., ne e e a ( )1 2, ,..., nv v v , de matriz P, de modo que =x Py , se tiene

( ) T T Tcf = =u x Ax y P APy

donde las matrices simétricas A y TP AP son congruentes.

5.4 Diagonalización de formas cuadráticas. Forma canónica Toda forma cuadrática real, Tx Ax , puede ser reducida a una suma de cuadrados, mediante un cambio de variables (cambio de base).

Existen distintos métodos para efectuar dicha reducción:

1. Método de Gauss-Lagrange: consiste en ir formando cuadrados perfectos de expresiones lineales, de tal modo que al menos una de las variables no aparezca fuera del cuadrado per-fecto. Aplicando sucesivamente esta técnica, el número de variables que aparecen fuera de los cuadrados perfectos se llega a anular. Este método exige que algunos elementos de la di-agonal sean distintos de cero. Si no es así, es fácil hacer un cambio de dos variables que haga aparecer elementos distintos de cero en la diagonal.

2. Método por congruencia: Realizando operaciones elementales de filas en la matriz A, se-guidas de similares operaciones elementales de columnas en dicha matriz, es posible llegar a una matriz diagonal D:

1, 13 12 12 13 1,T T T Tn n n n− − = =M M M AM M M P AP D

Para calcular al mismo tiempo la matriz 12 13 1,n n−=P M M M , basta partir de la matriz uni-dad In, y aplicar a sus columnas las mismas transformaciones aplicadas a las columnas de A:

( )( )( )( )12 13 1,n n−=P IM M M

Haciendo el cambio de variables =x Py se tiene:

2 2 21 1 2 2 ...T T T T

n nd y d y d y= = = + + +x Ax y P APy y Dy

3. Método de la diagonalización ortogonal: Como A es simétrica, existe Q ortogonal tal que ( )1diag ,...,T

nλ λ=Q AQ , donde los jλ son los valores propios de A.

Haciendo el cambio de variables =x Qy , se tiene:

2 2 21 1 2 2 ...T T T

n ny y yλ λ λ= = + + +x Ax y Q AQy .

Page 15: Nu Cleo Algebra i i Final

Contenidos fundamentales de Álgebra II página 15

Este método entraña la dificultad del cálculo de los valores propios y sólo es recomendable, en cálculos manuales, cuando dichos valores propios son fáciles de calcular.

5.5 Ley de inercia de Sylvester. Rango y signatura de las formas cuadráticas

Todas las expresiones diagonales de una forma cuadrática real, obtenidas por cambio de variables, tienen igual número de términos positivos, negativos y nulos.

El rango de una forma cuadrática es el rango de su matriz simétrica asociada, y es igual a la suma del número de términos positivos y del número de términos negativos de una cualquiera de sus ex-presiones diagonales.

La signatura se define como el número de términos positivos menos el número de términos negati-vos, también de una cualquiera de sus expresiones diagonales.

Dos formas cuadráticas tienen igual rango e igual signatura si y sólo si sus matrices simétricas asociadas son congruentes.

La expresión canónica de una forma cuadrática es aquella expresión diagonal cuyos términos to-man los valores 1, −1 ó 0.

Nótese que los valores propios de una matriz simétrica real A tienen los mismos signos que los elementos diagonales de la matriz D, y, de existir valores propios nulos, coinciden en número con el de los elementos nulos de la diagonal de D.

5.6 Clasificación de las formas cuadráticas

A continuación se clasifican las formas cuadráticas reales, Tx Ax , con A real y simétrica, y se indi-can criterios equivalentes para cada una de las clases.

Formas cuadráticas definidas positivas:

1. , , 0T∀ ∈ ≠ >nx R x 0 x Ax 2. Valores propios de A reales y positivos. 3. rango = signatura = n

Formas cuadráticas definidas negativas:

1. , , 0T∀ ∈ ≠ <nx R x 0 x Ax 2. Valores propios de A reales y menores que cero. 3. rango = n; signatura = –n

Formas cuadráticas semidefinidas positivas:

1. , 0 y , tal que 0T T∀ ∈ ≥ ∃ ≠ =nx R x Ax y 0 y Ay . 2. Valores propios de A reales y mayores o iguales que cero, existiendo, al menos, uno nulo. 3. signatura = rango < n

Formas cuadráticas semidefinidas negativas:

1. , 0 y , tal que 0T T∀ ∈ ≤ ∃ ≠ =nx R x Ax y 0 y Ay . 2. Valores propios de A reales y menores o iguales que cero, existiendo, al menos, uno nulo. 3. rango < n; signatura = –rango

Formas cuadráticas indefinidas:

1. , tal que 0 y 0T T∃ ≠ > <y z 0 y Ay z Az .

Page 16: Nu Cleo Algebra i i Final

Contenidos fundamentales de Álgebra II página 16

2. Valores propios reales y existen de signo positivo y de signo negativo (pudiendo ser nulos algunos de ellos).

3. rango ≠ |signatura|

A las matrices simétricas asociadas a las formas cuadráticas se las denomina de la misma forma que a estas últimas (es decir, matrices definidas positivas, semidefinidas positivas, etc.).

5.7 Caracterización de las matrices definidas positivas

Una matriz simétrica ∈ n×nA R es definida positiva si y sólo si se cumple alguna de las condiciones siguientes (todas ellas equivalentes entre sí):

1. Todos los valores propios son reales y positivos: 1 20 nλ λ λ< ≤ ≤ ≤

2. Criterio de Sylvester: Todos sus menores principales son estrictamente positivos. Es decir, las siguientes matrices:

11 12 13

11 1211 21 22 23

21 2231 32 33

, , , ..., a a aa aa a a aa a a a a

⎡ ⎤⎡ ⎤ ⎢ ⎥⎢ ⎥ ⎢ ⎥⎣ ⎦

⎣ ⎦

A

tienen determinante estrictamente positivo.

3. Todos los pivots en la factorización T=A LDL son positivos.

4. La matriz A se puede descomponer en la forma T=A B B , donde B es una matriz cuadrada e invertible.

5. Como caso particular, toda matriz simétrica definida positiva admite factorización de Cho-leski única (véase punto 3.6), T=A LL , en donde L es triangular inferior.

Como corolario, si A es definida negativa, entonces −A es definida positiva y los menores principa-les de A toman alternativamente valores menores y mayores que cero (comenzando por 11 0a < ).

Se recuerda que toda matriz simétrica definida positiva A define un producto escalar en : , .T=nR x y x Ay

5.8 Caracterización extremal de los valores propios. Cociente de Rayleigh Este tema se verá conjuntamente con el problema generalizado de valores y vectores propios, en el Tema 9.

Page 17: Nu Cleo Algebra i i Final

Contenidos fundamentales de Álgebra II página 17

6 CÓNICAS Y CUÁDRICAS 6.1 Secciones de una superficie cónica La intersección de una superficie cónica con un plano da lugar a distintas curvas en dicho plano, dependiendo de la posición relativa entre plano y cono. Las tres clases de cónicas no degeneradas son la elipse, la hipérbola y la parábola.

6.2 Definición de las cónicas como lugar geométrico Elipse: Una elipse es el lugar geométrico de los puntos A del plano cuya suma de las distancias a dos puntos fijos y distintos llamados focos (F1 y F2), es constante:

( )2 2

2 2 21 2 2 22 1 x yAF AF a a b c

a b+ = ⇒ + = = +

Hipérbola: Una hipérbola es el lugar geométrico de los puntos A del plano, cuya diferencia de distancias a dos puntos fijos llamados focos (F1 y F2), es constante en valor absoluto:

( )2 2

2 2 21 2 2 22 1x yAF AF a a b c

a b− = ± ⇒ − = + =

Las rectas que pasan por O y son tangentes a la hipérbola en sus puntos del infinito son las asíntotas de la hipérbola.

Parábola: Una parábola es el lugar geométrico de los puntos A del plano cuya distancia a una recta llamada directriz y a un punto B llamado foco son iguales:

2 2AB AF y px= ⇒ =

La parábola no tiene asíntotas.

6.3 Clasificación de las cónicas

La forma más general de una curva algebraica de 2º grado es la siguiente:

2 211 12 22 1 22 2 2 0a x a xy a y a x a y a+ + + + + =

o bien, en forma matricial:

[ ] [ ]11 121 2

12 22

2 0a a x x

x y a a aa a y y⎡ ⎤ ⎡ ⎤ ⎡ ⎤

+ + =⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦⎣ ⎦

Se plantean ahora dos cuestiones: 1) Si toda curva algebraica de 2º grado con coeficientes reales define una cónica, y 2) Si se puede establecer fácilmente de qué cónica se trata a partir de dichos coeficientes.

La matriz de la parte cuadrática es real y simétrica, y por tanto diagonalizable ortogonalmente. La forma general de las cónicas puede modificarse mediante una rotación y una traslación, con objeto de expresar la cónica en unos nuevos ejes similares a los de las Figuras 3-5. La rotación es una transformación ortogonal que pretende diagonalizar la parte cuadrática de la cónica.

Figura 1. Elipse.

Figura 2. Hipérbola.

Figura 3. Parábola.

A(x,y)

F1(c,0) F2(-c,0) a

c

c b

a

b

c

A(x,y)

F2(-c,0) F1(c,0)

a

A(x,y) B(–p/2,y)

F(p/2,0)

2p

2p

Page 18: Nu Cleo Algebra i i Final

Contenidos fundamentales de Álgebra II página 18

[ ] [ ]11 121 2

12 22

, 2 0T a ax u u uu v a a a

a ay v v v⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤

= + + =⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦⎣ ⎦

Q Q Q Q

2 21 2 1 22 2 0u v b u b v bλ λ+ + + + =

donde 1 2 y λ λ son los valores propios reales de la matriz, y 1 2, y b b b son coeficientes escalares que dependen de los coeficientes anteriores y de los elementos de Q. Los valores propios 1 2 y λ λ pue-den tener signo positivo o negativo, y uno de ellos podría ser nulo.

Introduciendo en la forma diagonal de la curva algebraica la traslación del origen al punto ( ),e f (u r e= + , v s f= + ), y agrupando términos se llega a:

( ) ( ) ( ) ( )

( ) ( ) ( )

2 22 21 2 1 2 1 2 1 2

2 2 2 21 2 1 1 2 2 1 2 1 2

2 2 2 2

2 2 2 2 2 2 0

u v b u b u b r e s f b r e b s f b

r s e b r f b s e f b e b f b

λ λ λ λ

λ λ λ λ λ λ

+ + + + = + + + + + + + + =

= + + + + + + + + + + =

Si 1 0λ ≠ , 2 0λ ≠ y 0d ≠ , la traslación ( ),e f se puede elegir de modo que se anulen los términos lineales y se llega a la expresión:

2 2

2 21 2 2 2

1 2

1r sr s dd d

λ λ

λ λ

+ = ⇒ + =⎛ ⎞ ⎛ ⎞⎜ ⎟ ⎜ ⎟⎝ ⎠ ⎝ ⎠

En función de los signos de 1 2, y dλ λ se distinguen los siguientes casos (se supone 0d ≥ ):

1. Si 1 2 0λ λ > se pueden presentar varios casos:

a) Si 0d > y 1 0λ > , la cónica es una elipse.

b) Si 0d = la curva se reduce a un punto (dos rectas imaginarias que se cortan en él).

c) Si 0d > y 1 0λ < , la cónica es una elipse imaginaria (no hay puntos reales que satisfa-gan 2 2

1 2r s dλ λ− − = ).

2. Si 1 2 0λ λ < se presentan dos casos:

a) Si 0d > la cónica es una hipérbola.

b) Si 0d = la cónica degenera en dos rectas reales que se cortan en un punto.

3. Si 1 2 0λ λ = es que un valor propio se anula, por ejemplo 1 0λ = . En ese caso no se puede eli-minar el término lineal en r. La expresión de la cónica es 2

2 2s pr dλ + = .

a) Si 0p ≠ , se trata de una parábola, en cuya ecuación se puede eliminar el término cons-tante d con una traslación adicional.

b) Si 0p = se obtiene la ecuación 22s dλ = , que en el caso 2 0dλ > son dos rectas parale-

las, si 0d = es una recta doble, y si 2 0dλ < se trata de dos rectas paralelas imagina-rias.

6.4 Cuádricas

Una cuádrica es el conjunto de soluciones (x, y, z) de un polinomio algebraico de segundo grado en las variables (x, y, z), que ordinariamente representa una superficie en el espacio euclídeo R3. La expresión general de una cuádrica es:

2 2 211 22 33 12 13 23 1 2 32 2 2 2 2 2 0a x a y a z a xy a xz a yz a x a y a z a+ + + + + + + + + = (1)

Page 19: Nu Cleo Algebra i i Final

Contenidos fundamentales de Álgebra II página 19

6.5 Reducción a forma canónica

Las cuádricas en la forma general presentan los mismos problemas de clasificación que las cónicas, pero como es lógico con una mayor complejidad debido al mayor número de casos que se pueden presentar. Aquí se considerarán principalmente los casos no degenerados. Supóngase que la matriz simétrica de la parte cuadrática de la forma general se diagonaliza por semejanza ortogonal median-te una matriz Q que representa un cambio de coordenadas. Se llega a:

2 2 21 2 3 1 2 32 2 2 0u v w b u b v b w bλ λ λ+ + + + + + = (2)

En lo que sigue se supondrá la constante 0d > , en el 2º miembro (multiplicar por –1 si no es así).

1. Caso 1 2 3 0λ λ λ ≠ . Se pueden eliminar en (2) los términos lineales mediante una traslación:

22 2

2 2 231 21 2 3 1 2 3

1 2 3

bb bu v w d r s t dλ λ λ λ λ λλ λ λ

⎛ ⎞⎛ ⎞ ⎛ ⎞+ + + + + = ⇒ + + =⎜ ⎟⎜ ⎟ ⎜ ⎟

⎝ ⎠ ⎝ ⎠ ⎝ ⎠

a. Si 1 2 30, 0, 0λ λ λ> > > , se tiene un elipsoide: 2 2 2

2 2 2 1x y za b c

+ + =

b. Si 1 2 30, 0, 0λ λ λ> > < , se tiene un hiperboloide de una hoja: 2 2 2

2 2 2 1x y za b c

+ − =

c. Si 1 2 30, 0, 0λ λ λ< > < , se tiene un hiperboloide de dos hojas: 2 2 2

2 2 2 1x y za b c

− + − =

d. Si 1 2 30, 0, 0λ λ λ< < < , se tiene un elipsoide imaginario.

2. Caso 1 2 30, 0, 0λ λ λ≠ ≠ = . En (2) no se puede eliminar el término lineal en w. La cuádrica es:

2 21 2 32r s b t dλ λ+ + =

a. Si 3 1 20, 0, 0, 0b d λ λ= > > > , se tiene un cilindro elíptico: 2 2

2 2 1x ya b

+ =

b. Si 3 1 20, 0, 0, 0b d λ λ= ≠ > < , se tiene un cilindro hiperbólico: 2 2

2 2 1x ya b

− =

c. Si 3 1 20, 0 y 0b d λ λ= = > , se tiene una recta, intersección de dos planos imaginarios.

d. Si 3 1 20, 0 y 0b d λ λ= = < , se tienen dos planos reales que se cortan en una recta.

e. Si 3 1 20 y 0b λ λ≠ > , se tiene un paraboloide elíptico: 2 2

2 2

x y za b

+ =

f. Si 3 1 20 y 0b λ λ≠ < , se tiene un paraboloide hiperbólico: 2 2

2 2

x y za b

− =

3. Caso 1 2 30, 0λ λ λ≠ = = . En (2) no se pueden eliminar los términos lineales en v y w. La cuá-drica se puede poner en la forma:

21 2 32 2r b s b t dλ + + =

a. Si 2 3 0b b= = , la cuádrica es 21r dλ = . Los casos posibles son dos planos paralelos

( 1 0λ > ), un plano doble ( 0d = ), o dos planos imaginarios ( 1 0λ < ).

b. Si 2 30 ó 0b b≠ ≠ , se trata de un cilindro parabólico: 2 2 21 2 32 0x b b yλ + + =

Page 20: Nu Cleo Algebra i i Final

Contenidos fundamentales de Álgebra II página 20

Figura 4. Elipsoide.

Figura 5. Hiperboloide de 1 hoja. Figura 6. Hiperboloide de 2 hojas.

Figura 7. Cono elíptico.

Figura 8. Cilindro elíptico.

Figura 9. Cilindro hiperbólico.

Figura 10. Paraboloide elíptico. Figura 11. Paraboloide hiperbólico.

Figura 12. Cilindro parabólico.

6.6 Cuádricas regladas.

Se dice que una cuádrica es reglada cuando por cada uno de sus puntos pasa al menos una recta que está totalmente contenida en la superficie de la cuádrica.

Son cuádricas regladas el hiperboloide de una hoja, el paraboloide hiperbólico, los cilindros, los conos, los planos y las rectas.

Page 21: Nu Cleo Algebra i i Final

Contenidos fundamentales de Álgebra II página 21

7 DIAGONALIZACIÓN SIMULTÁNEA DE FORMAS CUADRÁTICAS 7.1 Valores y vectores propios generalizados. Dadas dos matrices , ∈ n×nA B R simétricas y B definida positiva, se define valor propio generaliza-do de A respecto de B a λ∈R tal que ∃ ∈ nx R , no nulo, que verifica λ=Ax Bx ; y se define vector propio generalizado de A respecto de B a ∈ nx R , no nulo, tal que λ∃ ∈R , que verifica λ=Ax Bx .

Si , λ= ≠Ax Bx x 0 , x es un vector propio generalizado asociado al valor propio generalizado λ .

Obsérvese que los valores y vectores propios generalizados de A respecto de In son los valores y vectores propios de A.

Los valores propios generalizados son las raíces del polinomio en λ , ( )det λ−A B , y son todos reales. Los vectores propios generalizados, asociados a un valor propio generalizado λ , son los vectores no nulos del núcleo de λ−A B ; es decir, se determinan calculando los vectores solución no nulos del sistema lineal homogéneo ( )λ− =A B x 0 .

Para todo valor propio generalizado jλ , la dimensión del núcleo de jλ−A B es igual a la multipli-cidad de jλ . Dicho núcleo se denomina subespacio propio generalizado asociado a jλ .

Los subespacios propios generalizados son B-ortogonales; es decir, son ortogonales respecto del producto escalar definido por la matriz simétrica definida positiva B.

7.2 Teorema de la diagonalización simultánea

Si A, B son dos matrices reales simétricas y B es definida positiva, existe una matriz regular P, real, tal que T

n=P BP I y ( )1 2diag , ,...,Tnλ λ λ=P AP , donde 1 2, ,..., nλ λ λ son los valores propios

generalizados y las columnas 1,..., nP P de P son sus correspondientes vectores propios generaliza-dos asociados.

La matriz P se calcula de la forma siguiente: como sus columnas constituyen una base B-ortonormada (es decir, formada por vectores ortogonales y unitarios, respecto del producto escalar definido por B), formada por vectores propios generalizados, basta calcular bases B-ortonormadas de cada subespacio propio generalizado y efectuar la unión de dichas bases. Obsérvese que P no será, en general, ortogonal ( 1 T− ≠P P ).

Nota: Los valores propios generalizados tienen los mismos signos que los valores propios de la matriz A. De existir valores propios generalizados nulos, coinciden en número con el de los valores propios nulos de la matriz A.

7.3 Cociente de Rayleigh Si A, B son dos matrices reales simétricas y B es definida positiva, se define el cociente de Rayleigh para dichas matrices, a la aplicación R de { }\nR 0 en R, definida por

( ) , T

TR = ≠x Axx x 0x Bx

Si los valores propios generalizados de A respecto de B cumplen 1 2 nλ λ λ≤ ≤ ≤ , se verifica

1 min ; maxT T

nT Tλ λ≠ ≠

= =x 0 x 0

x Ax x Axx Bx x Bx

alcanzándose dichos mínimo y máximo para x igual a cualquier vector propio generalizado asocia-do a 1λ y nλ , respectivamente.

Page 22: Nu Cleo Algebra i i Final

Contenidos fundamentales de Álgebra II página 22

Asimismo, se cumple que

[1] 1 1 1min ; maxT T

nλ λ= =

= =B Bx x

x Ax x Ax

donde 2 T=B

x x Bx , alcanzándose dichos mínimo y máximo para x igual a cualquier vector propio

generalizado, tal que 1=B

x , asociado a 1λ y nλ , respectivamente.

Nota: Si n=B I , la definición del cociente de Rayleigh para la matriz A, real y simétrica, es

( ) , T

TR = ≠x Axx x 0x x

y se obtienen los mismos resultados anteriores, sustituyendo los valores y vectores propios generali-zados por los respectivos valores y vectores propios de A, y se tomará, en las fórmulas [1],

21=x .

7.4 Sistemas de ecuaciones diferenciales de segundo orden. El sistema de ecuaciones diferenciales de segundo orden:

′′ =Bx Ax

donde x es una función de R en nR , , ∈ n×nA B R simétricas y B definida positiva, con las condicio-nes iniciales ( ) ( )0 0 0 0, t t′= =x x x v , admite una única solución.

Para calcular dicha solución se resuelve el siguiente problema de valor propio generalizado:

λ=Ax Bx

y, una vez obtenida la matriz P, se efectúa el cambio =x Py , donde [ ]1 2, ,..., Tny y y=y , llegándose

a un sistema equivalente desacoplado

( )1 2 diag , ,..., , 1,...,T Tn j j jy y j nλ λ λ λ′′ ′′ ′′ ′′= ⇔ = ⇔ = ⇔ = =Bx Ax P BPy P APy y y

Los valores de las soluciones ( )jy t se determinan a partir de las condiciones iniciales

( ) ( )1 10 0 0 0; t t− −′= =y P x y P v

La solución buscada es ( ) ( )t t=x Py .

Page 23: Nu Cleo Algebra i i Final

Contenidos fundamentales de Álgebra II página 23

8 NORMAS DE MATRICES Y NÚMEROS DE CONDICIÓN 8.1 Norma vectorial

Una norma vectorial en nC es una aplicación : →nC R que cumple:

1. , 0; 0 =∀ ∈ ≥ = ⇔nx C x x x 0

2. , α α α∀ ∈ ∀ ∈ = ⋅nC x C x x

3. , ∀ ∈ + ≤ +nx y C x y x y

Casos particulares: Sea [ ]1 2, ,..., Tnx x x= ∈ nx C :

1. Norma 1: 11 nx x= + +x

2. Norma 2, norma euclídea: ( )1 22 212 nx x= + +x

3. Norma ∞, norma del supremo o norma infinita: 1max jj n

x∞ ≤ ≤=x

Las normas anteriores pueden considerarse como casos particulares de una norma más general (norma p):

1

1

, 1p

n p

jpj

x p=

⎛ ⎞= ≥⎜ ⎟⎝ ⎠∑x

8.2 Norma matricial

Una norma matricial es una aplicación : →m×nC R que cumple:

1. ( ), 0; 0 = matriz nula∀ ∈ ≥ = ⇔m×nA C A A A 0

2. , α α α∀ ∈ ∀ ∈ = ⋅m×nC A C A A

3. , ∀ ∈ + ≤ +m×nA B C A B A B

Además, para las normas matriciales inducidas por normas vectoriales y para la norma de Frobe-nius, si se cumple la condición , ∀ ∈ ∀ ∈ ≤ ⋅m×s s×nA C B C AB A B , se dice que la norma matri-cial es multiplicativa. Todas las normas matriciales que se ven en este tema son multiplicativas.

8.3 Norma de Frobenius

Dada la matriz ∈ m×nA C , se define la norma de Frobenius de A, F

A , como:

22

1 1

m n

jkFj k

a= =

=∑∑A

Se cumple ( ) ( )2 traza trazaH HF= =A A A AA .

El producto por una matriz unitaria conserva la norma de Frobenius. En efecto, dadas , ∈ n×nA U C , U unitaria, se cumple

( ) ( )2 2traza trazaH H HF F= = =UA A U UA A A A

Page 24: Nu Cleo Algebra i i Final

Contenidos fundamentales de Álgebra II página 24

Análogamente se demuestra que se cumple: 2 2

F F=AU A .

8.4 Norma matricial inducida por una norma vectorial

La norma matricial de ∈ m×nA C , inducida por normas vectoriales definidas en nC y mC , se define como:

1

max max , ≠ =

≡ = ∈ m×n

x 0 u

AxA Au A C

x

y es una norma matricial en m×nC . Se cumple que:

, , y , , ∀ ∈ ∀ ∈ ≤ ∃ ∈ ≠ =n m×n nx C A C Ax A x y C y 0 Ay A y

Obsérvese que si m n≠ , los vectores x y Ax en las expresiones anteriores pertenecen a espacios vectoriales de distinta dimensión. Lo mismo sucede con u y Au.

Cada una de las normas vectoriales 1 2, y

∞ induce la correspondiente norma matricial.

Sea ( ), jka∈ =m×nA C A :

1. ( ) ( )1

1 21 1 1 1 11 1 1max max max , ,..., columna de

m

jk n jk n ja j

= ≤ ≤=

⎛ ⎞= = =⎜ ⎟

⎝ ⎠∑x

A Ax A A A A A

2. ( ) ( )2

2 21max , matriz hermítica de valores propios 0H Hρ

== = ≥

xA Ax A A A A

3. ( ) ( )1 2

1 1 11 1 1

max max max , ,..., fila de n

n kjkj m k

a k∞

∞ ∞= ≤ ≤=

⎛ ⎞= = =⎜ ⎟⎝ ⎠∑x

A Ax A A A A A

8.5 Normas de matrices normales

Sea ∈ n×nA C una matriz normal cuyos valores propios están ordenados en la forma 1 2 nλ λ λ≤ ≤ ≤ . Para la norma euclídea se verificará:

1. ( ) ( ) ( )2

2H

nρ ρ ρ λ= = = =A A A A A

2. Si además A es regular: ( )1 112

1ρ λ− −= =A A

8.6 Número de condición de una matriz regular Sean ∈ n×nA C regular y = ≠Ax b 0 un sistema compatible y determinado, cuya solución es 0x ; sea δb una modificación (normalmente considerada pequeña) del vector b y el sistema δ= +Ax b b tiene por solución es 0 0δ+x x . Se tiene que:

[1] 0 1

0

δ δ−≤x b

A Ax b

En esta expresión la cota superior para el error es alcanzable, lo que quiere decir que es óptima.

El factor por el que se multiplica el error en los datos es el número de condición ( )κ A (también llamado condición numérica) de la matriz A. De una forma más general, válida para cualquier tipo de matriz, el número de condición se define en la forma:

Page 25: Nu Cleo Algebra i i Final

Contenidos fundamentales de Álgebra II página 25

[2] ( ) 1

1

max

minκ =

=

= x

x

AxA

Ax

El resultado [1] indica que la modificación la solución del sistema =Ax b debida a una variación en el vector b, depende de esta variación y del valor del número de condición de la matriz, que mi-de, desde un punto de vista numérico, la sensibilidad del sistema frente a modificaciones en los da-tos o errores de redondeo.

El número de condición depende de la norma, pero siempre es ( ) 1κ ≥A .

Si la matriz ∈ n×nA C es regular, el número de condición definido en [2] es ( ) 1κ −=A A A .

Si el rango de A es menor que n, ∃ ∈ ny C , no nulo, tal que =Ay 0 y, por tanto, 1

min 0=

=x

Ax . Si A no es la matriz nula,

1max 0

=>

xAx . En esta situación, como extensión a la definición de número de

condición, se dice que ( )κ = ∞A .

8.7 Número de condición para la norma euclídea

Si en la definición de número de condición se utiliza la norma euclídea se tiene el número de condi-ción espectral. Se tienen los casos siguientes:

1. ∈ m×nA C de rango igual a n m≤ ; para la norma euclídea (o espectral), ( )2 1nκ μ μ=A , donde 1 y nμ μ son, respectivamente, el menor y el mayor de los valores propios de HA A .

2. ∈ n×nA C normal y regular: ( )2 1nκ λ λ=A , donde 1 y nλ λ son, respectivamente, el menor y el mayor en módulo de los valores propios de A.

3. En el caso de las matrices cuadradas, se tiene que , α α ∈U C no nulo, U unitaria, y sola-mente ellas, cumplen que su número de condición espectral es igual a la unidad.

Page 26: Nu Cleo Algebra i i Final

Contenidos fundamentales de Álgebra II página 26

9 VALORES SINGULARES 9.1 Valores singulares Dada una matriz ∈ m×nA C , se definen los valores singulares jσ de A como las raíces cuadradas positivas o nulas de los p mayores valores propios de HA A ( , 1,...,j j pμ = , que son reales y mayo-res o iguales que cero), siendo { }min ,p m n= .

9.2 Existencia de la Descomposición de Valores Singulares (DVS) Dada la matriz ∈ m×nA C , ∃ ∈ m×mU C unitaria y ∃ ∈ n×nV C unitaria tal que

( )1 2, diag , ,...,Hpσ σ σ ×= = ∈ m nA UΣV Σ R

donde { } ( )1 2 1 0, min , y rangor r p p m n rσ σ σ σ σ+≥ ≥ ≥ > = = = = = A .

p m n= <

( )1

1 2

0 0 0 0diag , ,...,

0 0 0 0p

m

σσ σ σ

σ

⎡ ⎤⎢ ⎥= =⎢ ⎥⎣ ⎦

Σ

m n p> =

( )

1

1 2

0

0diag , ,...,0 0

0 0

np

σ

σσ σ σ

⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥= =⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦

Σ

9.3 Construcción y propiedades de la DVS En el caso m n≥ se puede proceder del siguiente modo: Para el cálculo de la matriz V se diagonali-za unitariamente la matriz H ∈ n×nA A C : sea V unitaria tal que ( )2 2

1diag ,..., ,0,...,0H Hrσ σ=V A AV ,

donde r es el rango de A, igual al número de valores propios no nulos de HA A .

Para el cálculo de la matriz U se tiene en cuenta que ( )2 21diag ,..., ,0,...,0rσ σ=AV U , de modo que

, 1, 2,...,j j j j pσ= =AV U , donde ,j jU V denotan las columnas j-ésimas de las matrices U y V, res-pectivamente. Sabiendo que 0jσ ≠ , para 1,2,...,j r= , se determinan , 1, 2,...,j j j j rσ= =U AV . El sistema ortonormado ( )1 2, ,..., rU U U se completa hasta una base ortonormada ( )1 2 1, ,..., , ,...,r r m+U U U U U de mC , cuyos vectores constituirán las columnas de la matriz U.

En el caso m n< el procedimiento anterior conduce a la diagonalización unitaria de la matriz H ∈ n×nA A C , que es de mayor tamaño que H ∈ m×mAA C . En este caso se puede proceder de dos

maneras:

1. Calcular por el método anterior la DVS de la matriz ˆ ˆ ˆH H=A UΣV . A partir de este resulta-do, la DVS buscada es ˆ ˆ ˆT H=A VΣ U .

2. Calcular U a partir de la diagonalización unitaria de ( )2 21diag ,..., ,0,...,0H H

rσ σ=U AA U . Después, partiendo de H H=U A ΣV , se calculan las r primeras columnas de V a partir de

, 1, 2,...,Hj j j j rσ= =V A U , y las columnas restantes de modo que se complete una base

ortonormada en nC .

Page 27: Nu Cleo Algebra i i Final

Contenidos fundamentales de Álgebra II página 27

El cálculo del número de valores singulares no nulos es un método, numéricamente muy estable, para el cálculo del rango de una matriz.

Se obtienen los siguientes resultados:

1. 1

r Hj j jj

σ=

=∑A U V

2. [ ]1Ker ,...,r nL +=A V V

3. [ ]1Im ,..., rL=A U U

4. [ ]1Ker ,...,Hr mL +=A U U

5. [ ]1Im ,...,HrL=A V V

6. Si ∈ m×nA C es normal, los valores singulares de A son los módulos de los valores propios de A.

9.4 Relación con las normas y número de condición para la norma euclídea

Sea ∈ m×nA C . Se verifica, denotando maxσ y minσ a los valores singulares máximo y mínimo de A:

1. max2σ=A

2. Si ∈ n×nA C es regular, 2

1min22 1

1 min 1 σ−

== =

xA Ax

3. Si ( )rango n=A , ( )2 max minκ σ σ=A

9.5 Cálculo de la matriz pseudoinversa a partir de la DVS

Si

1 0

0 r

σ

σ

⎡ ⎤⎢ ⎥⎢ ⎥= ∈⎢ ⎥⎢ ⎥⎣ ⎦

m×n0Σ R

0 0

, su pseudoinversa es

11

1

0

0 r

σ

σ

+−

⎡ ⎤⎢ ⎥⎢ ⎥= ∈⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦

n×m0Σ R

0 0

, donde

0 representa una matriz nula del tamaño adecuado.

Si H=A UΣV es una DVS de la matriz A, entonces la pseudoinversa de A es:

1

1

rH H

j j jjσ+ + −

=

= =∑A VΣ U V U

Estas expresiones se siguen de imponer la condición de mínimo error cuadrático y mínima norma a la solución del sistema de ecuaciones =Ax b :

( ), , H H H H += = → = ≡ ≡ → = → =Ax b A UΣV UΣV x b y V x d U b Σy d y Σ d

En el último paso de ha determinado la solución de mínimo error cuadrático y mínima norma del sistema =Σy d .