7

Click here to load reader

Sistemas ecuaciones roger o

Embed Size (px)

Citation preview

Page 1: Sistemas ecuaciones roger o

UNIVERSIDAD FERMIN TORO

ANALISIS NUMERICO

ROGER OSUNA

ELIMINACION GAUSSIANA

En forma general este método propone la eliminación progresiva de variables en el sistema de ecuaciones, hasta tener sólo una ecuación con una incógnita. Una vez resuelta esta, se procede por sustitución regresiva hasta obtener los valores de todas las variables.

Sea por ejemplo el siguiente sistema de ecuaciones: Lo que buscamos son 3 números,  que satisfagan a las tres ecuaciones. El método de solución será simplificar las ecuaciones, de tal modo que las soluciones se puedan identificar con facilidad. Se comienza dividiendo la primera ecuación entre 2, obteniendo:

Se simplificará el sistema si multiplicamos por -4 ambos lados de la primera ecuación y sumando esta a la segunda. Entonces:

sumadolas resulta

La nueva ecuación se puede sustituir por cualquiera de las dos. Ahora tenemos:

Luego, la primera se multiplica por -3 y se le suma a la tercera, obteniendo:

Page 2: Sistemas ecuaciones roger o

Acto seguido, la segunda ecuación se divide entre -3.

Ahora se multiplica por 5 y se le suma a la tercera:

En este momento ya tenemos el valor de x3, ahora simplemente se procede a hacer la sustitución hacia atrás, y automáticamente se van obteniendo los valores de las otras incógnitas. Se obtendrá:

Se ha visto que al multiplicar o dividir los lados de una ecuación por un número diferente de cero se obtiene una ecuación nueva y válida.

Por otra parte, si se suma un múltiplo de una ecuación a otra ecuación del mismo sistema, el resultado es otra ecuación válida. Por último, si se intercambian dos ecuaciones de un sistema, lo que se obtiene es un sistema equivalente. Estas tres operaciones, cuando se aplican a los renglones de una matriz aumentada, que representa un sistema de ecuaciones, recibe el nombre de operaciones elementales de renglón.

Operaciones elementales de renglón

a) Multiplicar o dividir un renglón por un número distinto de cero.

b) Sumar el múltiplo de otro renglón a otro renglón.

c) intercambiar dos renglones

Page 3: Sistemas ecuaciones roger o

Hasta aquí hemos supuesto una situación idealmente simple en la que ningún

pivote (o coeficiente diagonal),  , se convierte en cero. Si cualqluier pivote se vuelve cero en el proceso de resolución, la eliminación hacia adelante no procederá.

El pivoteo consiste en intercambiar el orden de las ecuaciones de modo que el

coeficiente del pivote,  , tenga la magnitud (en valor absoluto) mayor que cualquier otro coeficiente que esté debajo de él en la misma columna y que por tanto vaya a ser eliminado. Esto se repite con cada pivote hasta completar la eliminación hacia adelante. 

Factorización de Cholesky

Una matriz A simétrica y positiva definida puede ser factorizada de manera eficiente por medio de una matrz triangular infereior y una matriz triangular superior. Para una matriz no singular la descomposición LU nos lleva a considerar una descomposición de tal tipo A = LU; dadas las condiciones de A, simétrica y definida positiva, no es necesario hacer pivoteo, por lo que ésta factorización se hace eficientemente y en un número de operaciones la mitad de LU tomando la forma  , donde L (la cual podemos "verla" como la raíz cuadrada de A) es una matriz triangular inferior donde los elementos de la diagonal son positivos.

Para resolver un sistema lineal Ax = b con A simétrica definida positiva y dada su factorizaciòn de Cholesky  , primero debemos resolver Ly = b y entonces

resolver  para lograr x.

Una variante de la factorización de Cholesky es de la forma  , donde R es una matriz triangular superior, en algunas aplicaciones se desea ver la matriz en esa forma y no de otra.

Para encontrar la factorización  , bastaría ver la forma de L y observar las ecuaciones que el producto derecho nos conduce al igualar elementos:

así obtendríamos que:

 

Page 4: Sistemas ecuaciones roger o

a11 = l112

a21 = l21l11

a22=l212 + l222

a32=l31l21+l32l22 l32=(a32-l31l21)/l22, etc. 

y de manera general, para  y  :

Ahora bien, ya que A es simétrica y definida positiva, podemos asegurar que los elementos sobre la diagonal de L son positivos y los restantes elementos reales desde luego.

Una de las aplicaciones de la factorización de Cholesky es resolver las ecuaciones normales de un problema de cuadrados mínimos, esas ecuaciones son:  , en la que  es simétrica y definida positiva.

Método de Gauss-Seidel

La iteración de Gauss-Seidel se define al tomar Q como la parte triangular inferior de A incluyendo los elementos de la diagonal:

Si, como en el caso anterior, definimos la matriz R=A-Q

Page 5: Sistemas ecuaciones roger o

y la ecuación (63) se puede escribir en la forma:

Qx(k) = -Rx(k-1) + b

Un elemento cualquiera, i, del vector Qx(k) vendrá dado por la ecuación:

Si tenemos en cuenta la peculiar forma de las matrices Q y R, resulta que todos los sumandos para los que j > i en la parte izquierda son nulos, mientras que en la

parte derecha son nulos todos los sumandos para los que . Podemos escribir entonces:

=  

=  

de donde despejando xi(k), obtenemos:

Page 6: Sistemas ecuaciones roger o

Obsérvese que en el método de Gauss-Seidel los valores actualizados de xi

sustituyen de inmediato a los valores anteriores, mientras que en el método de Jacobi todas las componentes nuevas del vector se calculan antes de llevar a cabo la sustitución. Por contra, en el método de Gauss-Seidel los cálculos deben llevarse a cabo por orden, ya que el nuevo valor xi depende de los valores actualizados de x1, x2, ..., xi-1.

En la figura (15) se incluye un algoritmo para la iteración de Gauss-Seidel.

  

Figure: Algoritmo para la iteración de Gauss-Seidel.