22
Sistema de ecuaciones lineales En matemática y álgebra lineal , un sistema de ecuaciones lineales, también conocido como sistema lineal de ecuaciones o simplemente sistema lineal, es un conjunto de ecuaciones lineales sobre un cuerpo o un anillo conmutativo . Un ejemplo de sistema lineal de ecuaciones sería el siguiente: El problema consiste en encontrar los valores desconocidos de las variables x 1 , x 2 y x 3 que satisfacen las tres ecuaciones. El problema de los sistemas lineales de ecuaciones es uno de los más antiguos de la matemática y tiene una infinidad de aplicaciones, como en procesamiento digital de señales , análisis estructural , estimación, predicción y más generalmente en programación lineal así como en la aproximación de problemas no lineales de análisis numérico . Introducción En general, un sistema con m ecuaciones lineales y n incógnitas puede ser escrito en forma ordinaria como: Donde son las incógnitas y los números son los coeficientes del sistema sobre el cuerpo . Es posible reescribir el sistema separando con coeficientes con notación matricial:

Métodos directos para solución de sistemas ecuaciones lineales (2)

Embed Size (px)

Citation preview

Page 1: Métodos directos para solución de sistemas ecuaciones lineales (2)

Sistema de ecuaciones linealesEn matemática y álgebra lineal, un sistema de ecuaciones lineales, también conocido como sistema lineal de ecuaciones o simplemente sistema lineal, es un conjunto de ecuaciones lineales sobre un cuerpo o un anillo conmutativo. Un ejemplo de sistema lineal de ecuaciones sería el siguiente:

El problema consiste en encontrar los valores desconocidos de las variables x1, x2 y x3 que satisfacen las tres ecuaciones.

El problema de los sistemas lineales de ecuaciones es uno de los más antiguos de la matemática y tiene una infinidad de aplicaciones, como en procesamiento digital de señales, análisis estructural, estimación, predicción y más generalmente en programación lineal así como en la aproximación de problemas no lineales de análisis numérico.

Introducción

En general, un sistema con m ecuaciones lineales y n incógnitas puede ser escrito en forma ordinaria como:

Donde son las incógnitas y los números son los coeficientes del

sistema sobre el cuerpo . Es posible reescribir el sistema separando con coeficientes con notación matricial:

(1)

Page 2: Métodos directos para solución de sistemas ecuaciones lineales (2)

Si representamos cada matriz con una única letra obtenemos:

Donde A es una matriz m por n, x es un vector columna de longitud n y b es otro vector columna de longitud m. El sistema de eliminación de Gauss-Jordan se aplica a este tipo de sistemas, sea cual sea el cuerpo del que provengan los coeficientes.

Sistemas lineales reales

En esta sección se analizan las propiedades de los sistemas de ecuaciones lineales sobre el cuerpo , es decir, los sistemas lineales en los coeficientes de las ecuaciones son números reales.

Representación gráfica

La intersección de dos planos no paralelos es una recta.

Un sistema con incógnitas se puede representar en el n-espacio correspondiente.

En los sistemas con 2 incógnitas, el universo de nuestro sistema será el plano bidimensional, mientras que cada una de las ecuaciones será representada por una recta, si es lineal, o por una curva, si no lo es. La solución será el punto (o línea) donde intersecten todas las rectas y curvas que representan a las ecuaciones. Si no existe ningún punto en el que intersecten al mismo tiempo todas las líneas, el sistema es incompatible, o lo que es lo mismo, no tiene solución.

Tipos de sistemas

Los sistemas de ecuaciones se pueden clasificar según el número de soluciones que pueden presentar. De acuerdo con ese caso se pueden presentar los siguientes casos:

Page 3: Métodos directos para solución de sistemas ecuaciones lineales (2)

Sistema incompatible si no tiene ninguna solución. Sistema compatible si tiene alguna solución, en este caso además puede distinguirse

entre: o Sistema compatible determinado cuando tiene un número finito de soluciones.o Sistema compatible indeterminado cuando admite un conjunto infinito de

soluciones.

Quedando así la clasificación:

Los sistemas incompatibles geométricamente se caracterizan por (hiper)planos o rectas que se cruzan sin cortarse. Los sistemas compatibles determinados se caracterizan por un conjunto de (hiper)planos o rectas que se cortan en un único punto. Los sistemas compatibles indeterminados se caracterizan por (hiper)planos que se cortan a lo largo de una recta [o más generalmente un hiperplano de dimensión menor]. Desde un punto de vista algebraico los sistemas compatibles determinados se caracterizan porque el determinante de la matriz es diferente de cero:

Sistemas compatibles indeterminados

Un sistema sobre un cuerpo K es compatible indeterminado cuando posee un número infinito de soluciones. Por ejemplo, el siguiente sistema:

Tanto la primera como la segunda ecuación se corresponden con la recta cuya pendiente es

y que pasa por el punto , por lo que ambas intersecan en todos los puntos de dicha recta. El sistema es compatible por haber solución o intersección entre las rectas, pero es indeterminado al ocurrir esto en infinitos puntos.

En este tipo de sistemas, la solución genérica consiste en expresar una o más variables como función matemática del resto. En los sistemas lineales compatibles indeterminados, al menos una de sus ecuaciones se puede hallar como combinación lineal del resto, es decir, es linealmente dependiente.

Una condición necesaria para que un sistema sea compatible indeterminado es que el determinante de la matriz del sistema sea cero (y por tanto uno de sus autovalores será 0):

Page 4: Métodos directos para solución de sistemas ecuaciones lineales (2)

De hecho, de las dos condiciones anteriores se desprende, que el conjunto de soluciones de un sistema compatible indeterminado es un subespacio vectorial. Y la dimensión de ese espacio vectorial coincidirá con la multiplicidad geométrica del autovalor cero.

Sistemas incompatibles

De un sistema se dice que es incompatible cuando no presenta ninguna solución. Por ejemplo, supongamos el siguiente sistema:

Las ecuaciones se corresponden gráficamente con dos rectas, ambas con la misma pendiente, Al ser paralelas, no se cortan en ningún punto, es decir, no existe ningún valor que satisfaga a la vez ambas ecuaciones.

Matemáticamente un sistema de estos es incompatible cuando el rango de la matriz del sistema es inferior al rango de la matriz ampliada. Una condición necesaria para que esto suceda es que el determinante de la matriz del sistema sea cero:

Métodos de resolución

Sustitución

El método de sustitución consiste en despejar en una de las ecuaciones cualquier incógnita, preferiblemente la que tenga menor coeficiente, para, a continuación, sustituirla en otra ecuación por su valor.

En caso de sistemas con más de dos incógnitas, la seleccionada debe ser sustituida por su valor equivalente en todas las ecuaciones excepto en la que la hemos despejado. En ese instante, tendremos un sistema con una ecuación y una incógnita menos que el inicial, en el que podemos seguir aplicando este método reiteradamente. Por ejemplo, supongamos que queremos resolver por sustitución este sistema:

En la primera ecuación, seleccionamos la incógnita por ser la de menor coeficiente y que posiblemente nos facilite más las operaciones, y la despejamos, obteniendo la siguiente ecuación.

Page 5: Métodos directos para solución de sistemas ecuaciones lineales (2)

El siguiente paso será sustituir cada ocurrencia de la incógnita en la otra ecuación, para así obtener una ecuación donde la única incógnita sea la .

Al resolver la ecuación obtenemos el resultado , y si ahora sustituimos esta

incógnita por su valor en alguna de las ecuaciones originales obtendremos , con lo que el sistema queda ya resuelto.

Igualación

El método de igualación se puede entender como un caso particular del método de sustitución en el que se despeja la misma incógnita en dos ecuaciones y a continuación se igualan entre sí la parte derecha de ambas ecuaciones.

Tomando el mismo sistema utilizado como ejemplo para el método de sustitución, si despejamos la incógnita en ambas ecuaciones nos queda de la siguiente manera:

Como se puede observar, ambas ecuaciones comparten la misma parte izquierda, por lo que podemos afirmar que las partes derechas también son iguales entre sí.

Una vez obtenido el valor de la incógnita , se substituye su valor en una de las ecuaciones originales, y se obtiene obtener el valor de la .

La forma más fácil de tener el método de sustitución es realizando un cambio para despejar x después de averiguar el valor de la y.

Reducción

Este método suele emplearse mayoritariamente en los sistemas lineales, siendo pocos los casos en que se utiliza para resolver sistemas no lineales. El procedimiento, diseñado para sistemas con dos ecuaciones e incógnitas, consiste en transformar una de las ecuaciones (generalmente, mediante productos), de manera que obtengamos dos ecuaciones en la que una misma incógnita aparezca con el mismo coeficiente y distinto signo. A continuación, se suman ambas ecuaciones produciéndose así la reducción o cancelación de dicha incógnita,

Page 6: Métodos directos para solución de sistemas ecuaciones lineales (2)

obteniendo así una ecuación con una sola incógnita, donde el método de resolución es simple.

Por ejemplo, en el sistema:

no tenemos más que multiplicar la primera ecuación por para poder cancelar la incógnita . Al multiplicar, dicha ecuación nos queda así:

Si sumamos esta ecuación a la segunda del sistema original, obtenemos una nueva ecuación donde la incógnita ha sido reducida y que, en este caso, nos da directamente el valor de la incógnita :

El siguiente paso consiste únicamente en sustituir el valor de la incógnita en cualquiera de las ecuaciones donde aparecían ambas incógnitas, y obtener así que el valor de es igual a:

Método de Gauss

La eliminación de Gauss-Jordan, más conocida como método de Gauss, es un método aplicable únicamente a los sistemas lineales de ecuaciones, y consistente en triangular la matriz aumentada del sistema mediante transformaciones elementales, hasta obtener ecuaciones de una sola incógnita, cuyo valor será igual al coeficiente situado en la misma fila de la matriz. Este procedimiento es similar al anterior de reducción, pero ejecutado de manera reiterada y siguiendo un cierto orden algorítmico.

En primer lugar, reducimos la incógnita , sumando a la segunda fila, la primera

multiplicada por , y a la tercera, la primera fila. La matriz queda así:

Page 7: Métodos directos para solución de sistemas ecuaciones lineales (2)

El siguiente paso consiste en eliminar la incógnita en la primera y tercera fila, para lo cual les sumamos la segunda multiplicada por y por , respectivamente.

Por último, eliminamos la , tanto de la primera como de la segunda fila, sumándoles la

tercera multiplicada por y por , respectivamente:

Llegados a este punto podemos resolver directamente las ecuaciones que se nos plantean:

O, si lo preferimos, podemos multiplicar las tres filas de la matriz por: , y respectivamente, y obtener así automáticamente los valores de las incógnitas en la última columna.

Page 8: Métodos directos para solución de sistemas ecuaciones lineales (2)

                           

Eliminación de Gauss-Jordan

Page 9: Métodos directos para solución de sistemas ecuaciones lineales (2)

En matemáticas, la eliminación Gaussiana, eliminación de Gauss o eliminación de Gauss-Jordan, llamadas así debido a Carl Friedrich Gauss y Wilhelm Jordan, son algoritmos del álgebra lineal para determinar las soluciones de un sistema de ecuaciones lineales, encontrar matrices e inversas. Un sistema de ecuaciones se resuelve por el método de Gauss cuando se obtienen sus soluciones mediante la reducción del sistema dado a otro equivalente en el que cada ecuación tiene una incógnita menos que la anterior. Cuando se aplica este proceso, la matriz resultante se conoce como: "forma escalonada".

El método fue presentado por el matemático Carl Friedrich Gauss, pero se conocía anteriormente en un importante libro matemático chino llamado Jiuzhang suanshu o Nueve capítulos del arte matemático.[cita requerida]

Análisis de Complejidad

La complejidad computacional de la eliminación gaussiana es aproximadamente n3. Esto es, el número de operaciones requeridas es n3 si el tamaño de la matriz es n × n.

Ejemplo

Supongamos que es necesario encontrar los números x, y, z, que satisfacen simultáneamente estas ecuaciones:

Page 10: Métodos directos para solución de sistemas ecuaciones lineales (2)

Esto es llamado un sistema lineal de ecuaciones. El objetivo es reducir el sistema a otro equivalente, que tenga las mismas soluciones. Las operaciones (llamadas elementales) son estas:

Multiplicar una ecuación por un escalar no nulo. Intercambiar de posición dos ecuaciones Sumar a una ecuación un múltiplo de otra.

Estas operaciones pueden representarse con matrices elementales que se usan también en otros procedimientos como la factorización LU o la diagonalización por congruencia de una matriz simétrica.

En nuestro ejemplo, eliminamos x de la segunda ecuación sumando 3/2 veces la primera ecuación a la segunda y después sumamos la primera ecuación a la tercera. El resultado es:

Ahora eliminamos y de la primera ecuación sumando -2 veces la segunda ecuación a la primera, y sumamos -4 veces la segunda ecuación a la tercera para eliminar y.

Finalmente eliminamos z de la primera ecuación sumando -2 veces la tercera ecuación a la primera, y sumando 1/2 veces la tercera ecuación a la segunda para eliminar z.

Despejando, podemos ver las soluciones:

Para clarificar los pasos (y es en realidad lo que las computadoras manejan), se trabaja con la matriz aumentada. Podemos ver los 3 pasos en su notación matricial:

Primero:

Page 11: Métodos directos para solución de sistemas ecuaciones lineales (2)

Después,

Por último.

Si el sistema fuera incompatible, entonces nos encontraríamos con una fila como esta:

Que representa la ecuación: 0x + 0y + 0z = 1, es decir, 0 = 1 que no tiene solución.

Forma escalonada y escalonada reducida

Artículo principal: Matriz escalonada

Dos formas especiales de matrices son la escalonada y la escalonada reducida. Una matriz puede tener las siguientes propiedades:

1. Todas las filas cero están en la parte inferior de la matriz.2. El elemento delantero de cada fila diferente de cero, éste es llamado "pivote"; éstos

están a la derecha del elemento delantero de la fila anterior (esto supone que todos los elementos debajo de un pivote son cero).

Si una matriz A cumple con esas propiedades, se dice escalonada. Además, cumpliendo estas otras condiciones, decimos que la matriz se encuentra en la forma reducida de renglón escalón o tan solo en forma escalonada reducida.

1. Todos los elementos delanteros ("pivotes") son iguales a 12. Todos los elementos por encima de los pivotes son nulos.

Cuando una matriz representa a un sistema de ecuaciones situaciones como tener una columna de ceros parece imposible ya que correspondería a una variable que nunca habría

Page 12: Métodos directos para solución de sistemas ecuaciones lineales (2)

aparecido. Sin embargo esta situación puede presentarse (imaginemos la ecuación de un plano en el espacio en la que no aparece alguna de las componentes, por ejemplo y+z=0). Así la matriz

también es una matriz escalonada.

Una vez que la matriz del sistema se ha transformado hasta obtener una matriz escalonada reducida es muy fácil discutirlo (es decir, determinar cuántas soluciones tiene):

1. Cuando aparece un pivote en la columna de los términos independientes el sistema es incompatible (no tiene ninguna solución).

2. En otro caso el sistema es compatible. Si además el número de pivotes coincide con el número de incógnitas el sistema es compatible determinado (tiene una única solución). Cuando el número de pivotes es menor que el número de incógnitas el sistema es indeterminado (tiene infinitas soluciones que dependen de tantos parámetros como indique la diferencia entre el número de incógnitas y el número de pivotes).

Otras aplicaciones

Encontrando la inversa de una matriz

Es posible usar la eliminación gaussiana para encontrar inversas de matrices n × n. Para ello se aumenta la matriz dada, digamos A con una matriz identidad simplemente escribiendo las filas de la identidad a continuación de las de nuestra matriz A, por ejemplo dada:

se construiría

Page 13: Métodos directos para solución de sistemas ecuaciones lineales (2)

y ahora se realizan las operaciones elementales sobre las filas de la matriz aumentada que sean necesarias para obtener la forma escalonada reducida de la matriz A; sumando tanto a la segunda como a la tercera fila la primera obtenemos

multiplicamos la segunda fila por -1 y la intercambiamos con la primera

ya tenemos el pivote de la primera fila que usamos para hacer ceros debajo

ahora usamos el pivote de la segunda fila

y por último cambiamos de signo la tercera fila y usamos el pivote correspondiente

El proceso ha finalizado porque en la parte izquierda tenemos la forma escalonada reducida de A y puesto que ésta es la matriz identidad, entonces A tiene inversa y su inversa es la matriz que aparece a la derecha, en el lugar que al principio ocupaba la identidad. Cuando la forma escalonada reducida que aparece no es la identidad es que la matriz de partida no tiene inversa.

Page 14: Métodos directos para solución de sistemas ecuaciones lineales (2)

Factorización LUEn el álgebra lineal, la factorización o descomposición LU (del inglés Lower-Upper) es una forma de factorización de una matriz como el producto de una matriz triangular inferior y una superior. Debido a la inestabilidad de este método, por ejemplo si un elemento de la diagonal es cero, es necesario premultiplicar la matriz por una matriz de permutación. Método llamado factorización PA = LU o LU con pivote.

Esta descomposición se usa en el análisis numérico para resolver sistemas de ecuaciones (más eficientemente) o encontrar las matrices inversas.

Definiciones

Sea A una matriz no singular (si lo fuera, entonces la descomposición podría no ser única)

donde L y U son matrices inferiores y superiores triangulares.

Para matrices , esto es:

Por otro lado la descomposición PLU tiene esta forma:

Lm − 1Pm − 1...L2P2L1P1A = U

Con Lm − 1...L1 matrices triangulares inferiores, Pm − 1...P1 matrices de permutacion y U una matriz triangular superior.

Para determinar L:

L = (L'm − 1 * ... * L'2 * L'1) − 1

y cada L'k está dado por:

L'k =

Esto se debe a que L'k es igual a Lk, pero con los elementos de la subdiagonal permutados.

Page 15: Métodos directos para solución de sistemas ecuaciones lineales (2)

Otra forma de ver éste tipo de factorización es: A = PTLU Recordando que las matrices de permutación matriz permutación son invertibles y su inversa es su traspuesta

Unicidad

Las matrices L y U son únicas, si la matriz no es singular. En caso contrario pueden no ser únicas.

Demostración:

Dada la matriz A ∈ Rmxn

A = L1U1 y A = L2U2

Recordemos que L1,U1,L2,U2 son invertibles por tener el determinante distinto de cero entonces:

L1U1 = L2U2

Entonces es una matriz triangular inferior, con unos en la diagonal y es triangular superior, con unos en la diagonal (recordando que el producto matricial de triangulares superiores/inferiores es triangular superior/inferior). La única matriz que cumple estas dos propiedades es la identidad. Por lo tanto:

y

Con lo cual:

L1 = L2 y U1 = U2

Algoritmos

La factorización LU es básicamente una forma modificada de la eliminación gaussiana. Transformamos la matriz A en una triangular superior U anulando los elementos debajo de la diagonal.

E1 * E2 * ... * En * A = U

Page 16: Métodos directos para solución de sistemas ecuaciones lineales (2)

Donde E1,E2,...,En son matrices elementales, que representan los distintos pasos de la eliminación. Luego recordando que la inversa de una matriz elemental, es otra matriz elemental:

Llamamos L a una matriz triangular inferior.

Aplicaciones

Resolviendo sistemas de álgebra lineal

Dada la ecuación matricial

Ax = LUx = b

Queremos la solución para un determinando A y b. Los pasos son los siguientes:

1. Primero, resolvemos Ly = b para y2. Segundo, resolvemos Ux = y para x.

Nótese que ya tenemos las matrices L y U. La ventaja de este método es que es computacionalmente eficiente, porque podemos elegir el vector b que nos parezca y no tenemos que volver a hacer la eliminación de Gauss cada vez.

Factorización L-U con pivotación: Al utilizar la técnica de triangulación de Gauss para obtener la descomposición L-U de una matriz A podemos encontrarnos con el mismo problema de encontrar un coeficiente en la diagonal que sea 0 o un mal condicionamiento. Podemos entonces utilizar la misma técnica de pivotación : buscar el siguiente elemento en la columna que sea distinto de 0 o, mejor aún, el de mayor valor absoluto.

Pero una vez obtenida la descomposición L-U, si queremos aplicarla a resolver un sistema de ecuaciones, tendremos que tener en cuenta la “historia” o registro de las pivotaciones efectuadas para aplicar al vector de términos independientes.

Esto se realiza mediante la matriz de andres permutación P, que consiste en efectuar sobre la matriz identidad, las mismas permutaciones de filas que se vayan efectuando sobre la matriz que se está triangulando por Gauss.

Al mismo tiempo se efectúan las mismas permutaciones sobre los elementos subdiagonal de la matriz L.

Así, si tenemos, por ejemplo, el sistema:

AX=B

Page 17: Métodos directos para solución de sistemas ecuaciones lineales (2)

y L y U son las matrices obtenidas de la matriz A como descomposición L-U por triangulación de Gauss con pivotaciones recogidas en la matriz de permutación P, es fácil comprobar que :

LU=PA (LU)X=P(AX)=PB=NUEVOB

Por tanto los procesos de sustitución descendente y ascendente los aplicamos a : LD=NUEVOB UX=D

Matriz Inversa

Las matrices L y U pueden ser usadas para calcular la matriz inversa mediante:

A − 1 = U − 1L − 1

Algunas implementaciones que invierten matrices usan este método.

Determinante de una matriz

Las matrices L y U pueden ser usadas para calcular el determinante de la matriz A muy eficientemente porque det(A) = det(L)det(U) y los determinantes de matrices triangulares son simplemente el producto de los elementos de sus diagonales. En particular, si L es una matriz triangular en cuya diagonal todos los elementos son uno, entonces:

La misma aproximación al problema puede ser usada para factorizaciones LUP en las que aparece matrices de permutación, pues el determinante de una matriz de permutación P es (−1)S, donde S es el número de permutaciones de filas en la descomposición