37
UNIVERSIDAD INDUSTRIAL DE SANTANDER FACULTAD DE INGENIERÍAS FISICOQUÍMICAS ESCUELA DE INGENIERIA DE PETROLEOS METODOS NUMERICOS MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES OSCAR ALBERTO ESTÉVEZ REAL UNIVERSIDAD INDUSTRIAL DE SANTANDER MÉTODOS NUMÉRICOS 2010

MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

Embed Size (px)

Citation preview

Page 1: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

UNIVERSIDAD INDUSTRIAL DE SANTANDER FACULTAD DE INGENIERÍAS FISICOQUÍMICAS

ESCUELA DE INGENIERIA DE PETROLEOS METODOS NUMERICOS

MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES

LINEALES

OSCAR ALBERTO ESTÉVEZ REAL

UNIVERSIDAD INDUSTRIAL DE SANTANDER MÉTODOS NUMÉRICOS

2010

Page 2: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES

LINEALES

METODOS DIRECTOS

1 Sistemas de ecauciones lineales

2 Matriz Simétrica

3 Matriz traspuesta

4 Determinante

5Triangulo superior

6 Triangulo inferior

7 Matriz bandeada – Matriz aumentada

8 Multiplicación de matrices

9 Aplicación al calculo de la matriz inversa

10 Metodo de gauss jordan

11 Eliminación de gauss jordan

12 Ecuaciones Lineales Sistemas Especiales

METODOS ITERATIVOS

1 Jacobi

2 Gauss- seidel

3 Gauss seidel con relajación

Page 3: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

1 SISTEMAS DE ECUACIONES LINEALES

En matemáticas, una matriz es una tabla bidimensional de números consistente

en cantidades abstractas que pueden sumarse y multiplicarse. Las matrices se

utilizan para describir sistemas de ecuaciones lineales, realizar un seguimiento

de los coeficientes de una aplicación lineal y registrar los datos que dependen

de varios parámetros. Las matrices se describen en el campo de la teoría de

matrices. Pueden sumarse, multiplicarse y descomponerse de varias formas, lo

que también las hace un concepto clave en el campo del álgebra lineal.

DEFINICIONES Y NOTACIONES

Una matriz es una tabla cuadrada o rectangular de datos

(llamados elementos o entradas de la matriz) ordenados en filas y columnas,

donde una fila es cada una de las líneas horizontales de la matriz y una

columna es cada una de las líneas verticales. A una matriz con mfilas

y n columnas se le denomina matriz m-por-n (escrito m×n), y

a m y n dimensiones de la matriz. Las dimensiones de una matriz siempre se

dan con el número de filas primero y el número de columnas después.

Comúnmente se dice que una matriz m-por-n tiene unorden de m × n ("orden"

tiene el significado de tamaño). Dos matrices se dice que son iguales si son del

mismo orden y tienen los mismos elementos.

Al elemento de una matriz que se encuentra en la fila i-ésima y la columna j-

ésima se le llama elemento i,j o elemento (i,j)-iésimo de la matriz. Se vuelve a

poner primero las filas y después las columnas.

Casi siempre, se denotan a las matrices con letras mayúsculas mientras que se

utilizan las correspondientes letras en minúsculas para denotar a los elementos

de las mismas. Por ejemplo, al elemento de una matriz A que se encuentra en

la fila i-ésima y la columna j-ésima se le denota como ai,j o a[i,j]. Notaciones

alternativas son A[i,j] o Ai,j. Además de utilizar letras mayúsculas para

representar matrices, numerosos autores representan a las matrices con

fuentes en negrita para distinguirlas de otros tipos de variables. Así A es una

matriz, mientras que A es un escalar.

Normalmente se escribe para definir una matriz A m × n con

cada entrada en la matriz A[i,j] llamada aij para todo 1 ≤ i≤ m y 1 ≤ j ≤ n. Sin

embargo, la convención del inicio de los índices i y j en 1 no es universal:

Page 4: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

algunos lenguajes de programación comienzan en cero, en cuál caso se tiene 0

≤ i ≤ m − 1 y 0 ≤ j ≤ n − 1.

Una matriz con una sola columna o una sola fila se denomina a menudo vector,

y se interpreta como un elemento del espacio euclídeo. Una matriz 1 × n (una

fila y n columnas) se denomina vector fila, y una matriz m × 1 (una columna

y m filas) se denomina vector columna.

Ejemplo:

La matriz es una matriz 4x3. El elemento o es 7.

La matriz

es una matriz 1×9, o un vector fila con 9 elementos.

2 MATRIZ SIMÉTRICA

Una matriz de elementos:

es simétrica, si es una matriz cuadrada (m = n) y aij = aji para todo i, j

=1,2,3,4,...,n. Nótese que la simetría es respecto a la diagonal principal y que A

es también, la matriz traspuesta de sí misma: At = A.

Ejemplo para n = 3:

Page 5: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

PROPIEDADES

Uno de los teoremas básicos que concierne este tipo de matrices es el teorema

espectral de dimensión finita, que dice que toda matriz simétrica cuyas

entradas sean reales puede ser diagonalizada por una matriz ortogonal. Éste

es un caso especial de una matriz hermítica.

3 MATRIZ TRASPUESTA

Sea A una matriz con m filas y n columnas. La matriz traspuesta, denotada

con At está dada por

Ejemplos:

PROPIEDADES:

Para toda matriz

Sean A y B matrices con elementos pertenecen a un anillo y sea :

Si el producto de las matrices A y B está definido,

Si A es una matriz cuadrada cuyas entradas son números reales, entonces

es semidefinida positiva

Page 6: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

4 DETERMINANATE

En matemáticas se define el determinante como una forma multilineal

alternada de un cuerpo En. Esta definición indica una serie de propiedades

matemáticas y generaliza el concepto de determinante haciéndolo aplicable en

numerosos campos. Sin embargo, el concepto de determinante o de volumen

orientado fue introducido para estudiar el número de soluciones de los sistemas

lineales de ecuaciones.

MÉTODOS DE CALCULO

Para el cálculo de determinantes de matrices de cualquier orden, existe una

regla recursiva (teorema de Laplace) que reduce el cálculo a sumas y restas de

varios determinantes de un orden inferior. Este proceso se puede repetir tantas

veces como sea necesario hasta reducir el problema al cálculo de múltiples

determinantes de orden tan pequeño como se quiera. Sabiendo que el

determinante de un escalar es el propio escalar, es posible calcular el

determinante de cualquier matriz aplicando dicho teorema.

MATRICES DE ORDEN INFERIOR

El caso de matrices de orden inferior (orden 2 o 3) es tan sencillo que su

determinante se calcula con sencillas reglas conocidas. Dichas reglas son

también deducibles del teorema de Laplace

Los determinantes de una matriz de orden 2:

se calculan con la siguiente fórmula:

Un determinante de orden 3 se calcula mediante la regla de Sarrus:

Page 7: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

DETERMINANTES DE ORDEN SUPERIOR A 3

El determinante de orden n, puede desarrollarse a partir de una fila o columna,

reduciendo el problema al cálculo de un determinante de orden n-1. Para ello

se toma una fila o columna cualquiera, multiplicando cada elemento por

su adjunto (es decir, el determinante de la matriz que se obtiene eliminando la

fila y columna correspondiente a dicho elemento, multiplicado por (-1)i+j donde i

es el número de fila y j el número de columna). La suma de todos los productos

es igual al determinante.

En caso de un determinante de orden 4, se obtienen directamente

determinantes de orden 3 que podrán ser calculados por la regla de Sarrus. En

cambio, en los determinantes de orden superior, como por ejemplo n = 5, al

desarrollar los elementos de una línea, obtendremos determinantes de orden 4,

que a su vez se deberán desarrollar en por el mismo método, para obtener

determinantes de orden 3. Por ejemplo, para obtener con el método

especificado un determinante de orden 4, se deben calcular 4 determinantes de

orden 3. En cambio, si previamente se logran tres ceros en una fila o columna,

bastara con calcular solo un determinante de orden 3 (ya que los demás

determinantes estarán multiplicados por 0, lo que los anula).

La cantidad de operaciones aumenta muy rápidamente. En el peor de los casos

(sin obtener ceros en filas y columnas), para un determinante de orden 4 se

deberán desarrollar 4 determinates de orden 3. En un determinante de orden 5,

se obtienen 5 determinates de orden 4 a desarrollar, dándonos 20 determinates

de orden 3. El número de determinates de orden 3 que se obtienen en el

desarrollo de un determinante de orden n es igual a

Por ejemplo, mediante este método, para un determinante de orden 10 se

deberán calcular 10 x 9 x 8 x 7 x 6 x 5 x 4 = 604.800 determinantes de orden 3.

También puede utilizarse el Método de eliminación Gaussiana, para convertir la

matriz en una matriz triangular. Si bien el proceso puede parecer tedioso,

estará muy lejos de los 14.529.715.200 de determinantes de orden 3

necesarios para calcular el determinante de una matriz de orden 14.

Page 8: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

.

Partiendo de una matriz 3×3:

Para calcular el determinante por los adjuntos de la primera fila:

Desarrollando los determinantes 2*2, tendremos:

Que podemos ordenar, para presentarlo en la forma usual de la Regla de

Sarrus:

MATRIZ TRIANGULAR

En álgebra lineal, una matriz triangular es un tipo especial de matriz

cuadrada cuyos elementos por encima o por debajo de su diagonal

principal son cero. Debido a que los sistemas de ecuaciones lineales con

matrices triangulares son mucho más fáciles de resolver, las matrices

triangulares son utilizadas en análisis numérico para resolver sistemas de

ecuaciones lineales, calcular inversas y determinantes de matrices. El método

de descomposición LU permite descomponer cualquier matriz

invertible como producto de una matriz triangular inferior L y una superior U.

5 TRIANGULAR SUPERIOR

Es una matriz triangular superior los elementos situados por debajo de la

diagonal principal son ceros.

Page 9: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

EJEMPLO

6 TRIANGULAR INFERIOR

Es una matriz triangular inferior los elementos situados por ensima de la

diagonal principal son ceros.

EJEMPLO

7 MATRIZ BANDEADA

Page 10: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

Un gran número de sus componentes son cero:

8 MULTIPLICACIÓN DE MATRICES

En matemática, la multiplicación o producto de matrices es

la operación de multiplicación que se efectúa entre dos matrices, o bien entre

una matriz y un escalar.

Al igual que la multiplicación aritmética, su definición es instrumental, es decir,

viene dada por un algoritmo capaz de resolverla. El algoritmo que resuelve la

multiplicación matricial es diferente del que resuelve la multiplicación de dos

números. La diferencia principal es que la multiplicación de matrices no cumple

con la propiedad de conmutatividad.

MULTIPLICACIÓN DE UN ESCALAR POR UNA MATRIZ

Page 11: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

Dada una matriz A de m filas y n columnas, lo que podemos denotar como:

la multiplicación de A por un escalar k, que se denota k·A, k×A o

simplemente kA, está definida como:

es decir, corresponde a la matriz conformada por cada elemento de la matriz

multiplicado por dicho escalar.

Gráficamente, si

y

entonces

La multiplicación por escalar es análoga a la suma o resta de matrices, y

cumple con las mismas características de la multiplicación aritmética. En

efecto, podemos llegar al mismo resultado sumando k veces la misma

matriz A entre sí.

PROPIEDAD DESCRIPCIÓN

CLAUSURA cA es también una matriz

ELEMENTO NEUTRO

Existe el elemento neutro uno, de manera que 1·A = A

PROPIEDAD ASOCIATIVA

(cd)A = c(dA)

PROPIEDAD DISTRIBUTIVA

c(A+B) = cA+cB

Page 12: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

- DE ESCALAR - DE MATRIZ

(c+d)A = cA+dA

MULTIPLICACION DE UNA MATRIZ POR UNA MATRIZ

Dadas dos matrices A y B, tales que el número de columnas de la matriz A es

igual al número de filas de la matriz B; es decir:

y

a multiplicación de A por B, que se denota A·B, A×B o simplemente AB, está

definida como:

donde cada elemento ci,j está definido por:

Gráficamente, Si

y

Entonces

PROPIEDADES

Sean A, B y C matrices para las cuales la multiplicación entre ellas está bien

definida, es decir, tales que sus elementos pertenecen a uncuerpo donde la

multiplicación está definida, y de manera que el número de filas y de columnas

permite realizar la multiplicación; entonces se cumplen las siguientes

propiedades:

Page 13: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

PROPIEDAD DESCRIPCIÓN

CLAUSURA AB es también una matriz

ELEMENTO NEUTRO

Si A es una matriz cuadrada de tamaño m, entonces la matriz identidad Im×mes elemento neutro, de manera que I·A = A

PROPIEDAD ASOCIATIVA

(AB)C = A(BC)

PROPIEDAD DISTRIBUTIVA - POR LA DERECHA - POR LA IZQUIERDA

(A + B)C = AC + BC C(A + B) = CA + CB

El producto de dos matrices generalmente no es conmutativo, es decir, AB ≠

BA. La división entre matrices, es decir, la operación que podría producir el

cociente A / B, no se encuentra definida. Sin embargo, existe el concepto

de matriz inversa, sólo aplicable a las matrices cuadradas.

Finalmente, note que tanto la multiplicación de una matriz por un escalar, como

la multiplicación de dos escalares, puede representarse mediante una

multiplicación de dos matrices.

APLICACIONES

La multiplicación de matrices es muy útil para la resolución de sistemas de

ecuaciones de muchas variables, dado que son muy cómodas para ser

implementadas mediante un computador. El cálculo numérico se basa en gran

parte de estas operaciones, al igual que poderosasaplicaciones tales

como MATLAB. También actualmente se utiliza mucho en el cálculo

de microarrays, en el área de bioinformática.

Page 14: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

9 APLICACION AL CALCULO DE LA MATRIZ INVERSA

Planteamiento del problema

Sea una matriz A a la que se presente obtener su inversa X, entonces

AX = I

Esto significa resolver n sistemas de ecuaciones lineales con la misma matriz, donde los segundos miembros son los vectores de la base canonica. De cada sistema j -esimo se obtiene la j -esima columna de la matriz inversa X:

Resolución del problema

El procedimiento mas adecuado es utilizar la factorización de Cholesky si el problema es simétrico o la LU si no lo es. De esta forma, las operaciones de triangulación solo se realizan una vez. Esto supone el coste de una factorización y n procesos de remonte de dos sistemas triangulares. Numero de operaciones Caso simétrico *Raíces cuadradas: n *Multiplicaciones/divisiones:

*Sumas/restas:

Page 15: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

Caso no simétrico *Multiplicaciones/divisiones:

*Sumas/restas:

ANEXOS

10 METODO DE GAUSS JORDAN

El método de gauss- jordan es una variable del método de gauss . Cuando se

elimina una incognita en una ecuación , gauss-jordan elimina esa incognita en

el resto de las ecuaciones , tomando como base para la eliminación a la

ecuación pivote.Tambien todos los renglones se normalizan cuando se toma

una ecuación pivote .El resultado final de este tipo de eliminación genera una

matriz identidad en vez de una triangular como lo hace gauss, por lo que no se

usa la sustitución hacia atrás.

Page 16: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES
Page 17: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES
Page 18: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

Código fortran

Page 19: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

Ver : http://www.youtube.com/watch?v=I1kexTz5GTM&feature=related

11 METODO DE ELIMINACIÓN DE JORDAN

Page 20: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

En matemáticas, la eliminación Gaussiana, eliminación de Gauss o eliminación

de Gauss-Jordan, llamadas así debido a Carl Friedrich Gauss y Wilhelm

Jordan, son algoritmos del álgebra lineal para determinar las soluciones de un

sistema de ecuaciones lineales, encontrar matrices e inversas. Un sistema de

ecuaciones se resuelve por el método de Gauss cuando se obtienen sus

soluciones mediante la reducción del sistema dado a otro equivalente en el que

cada ecuación tiene una incógnita menos que la anterior. Cuando se aplica

este proceso, la matriz resultante se conoce como: "forma escalonada".

ANALISIS DE COMPLEJIDAD

La complejidad computacional de la eliminación gaussiana es

aproximadamente n3. Esto es, el número de operaciones requeridas es n3 si el

tamaño de la matriz es n × n.

ALGORITMO DE ELIMINACION DE GAUSS JORDAN

1. Ir a la columna no cero extrema izquierda

2. Si el primer renglón tiene un cero en esta columna, intercambiarlo con

otro que no lo tenga

3. Luego, obtener ceros debajo de este elemento delantero, sumando

múltiplos adecuados del renglón superior a los renglones debajo de él

4. Cubrir el renglón superior y repetir el proceso anterior con

la submatriz restante. Repetir con el resto de los renglones (en este

punto la matriz se encuentra en la forma de escalón)

5. Comenzando con el último renglón no cero, avanzar hacia arriba: para

cada renglón obtener un 1 delantero e introducir ceros arriba de este

sumando múltiplos correspondientes a los renglones correspondientes

EJEMPLO

Supongamos que es necesario encontrar los números x, y, z, que satisfacen

simultáneamente estas ecuaciones:

Esto es llamado un sistema lineal de ecuaciones. El objetivo es reducir el

sistema a otro equivalente, que tenga las mismas soluciones. Las operaciones

(llamadas elementales) son estas:

Multiplicar una ecuación por un escalar no nulo.

Intercambiar de posición dos ecuaciones

Page 21: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

Sumar a una ecuación un múltiplo de otra.

Estas operaciones pueden representarse con matrices elementales que se

usan también en otros procedimientos como la factorización LUo la

diagonalización por congruencia de una matriz simétrica.

En nuestro ejemplo, eliminamos x de la segunda ecuación sumando 3/2 veces

la primera ecuación a la segunda y después sumamos la primera ecuación a la

tercera. El resultado es:

Ahora eliminamos y de la primera ecuación sumando -2 veces la segunda

ecuación a la primera, y sumamos -4 veces la segunda ecuación a la tercera

para eliminar y.

Finalmente eliminamos z de la primera ecuación sumando -2 veces la tercera

ecuación a la primera, y sumando 1/2 veces la tercera ecuación a la segunda

para eliminar z.

Despejando, podemos ver las soluciones:

Para clarificar los pasos (y es en realidad lo que las computadoras manejan),

se trabaja con la matriz aumentada. Podemos ver los 3 pasos en su notación

matricial:

Primero:

Después,

Page 22: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

Por último.

Si el sistema fuera incompatible, entonces nos encontraríamos con una fila

como esta:

Que representa la ecuación: 0x + 0y + 0z = 1, es decir, 0 = 1 que no tiene

solución.

CODIGO FORTRAN

Page 23: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

VER: http://www.youtube.com/watch?v=sKBoKqX6WV0&feature=fvw

12 ECUACIONES LINEALES SISTEMAS ESPECIALES

Método de Cholesky

En matemáticas, la factorización o descomposición de Cholesky toma su

nombre del matemático André-Louis Cholesky, quien encontró que una matriz

simétrica definida positiva puede ser descompuesta como el producto de

una matriz triangular inferior y la traspuesta de la matriz triangular inferior. La

matriz triangular inferior es el triángulo de Cholesky de la matriz original positiva

definida. El resultado de Cholesky ha sido extendido a matrices con entradas

complejas. Es una manera de resolver sistemas de ecuaciones matriciales y se

deriva de la factorización LU con una pequeña variación.

Cualquier matriz cuadrada A con pivotes no nulos puede ser escrita como el

producto de una matriz triangular inferior L y una matriz triangular superior U;

esto recibe el nombre de factorización LU. Sin embargo, si A es simétrica

y definida positiva, se pueden escoger los factores tales que U es la

transpuesta de L, y esto se llama la descomposición o factorización de

Cholesky. Tanto la descomposición LU como la descomposición de Cholesky

son usadas para resolver sistemas de ecuaciones lineales. Cuando es

aplicable, la descomposición de Cholesky es dos veces más eficiente que la

descomposición LU.

Definición

En general, si A es Hermitiana y definida positiva, entonces A puede ser

descompuesta como

Page 24: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

donde L es una matriz triangular inferior con entradas diagonales

estrictamente positivas, y L* representa la conjugada traspuesta de L. Esta

es la descomposición de Cholesky.

La descomposición de Cholesky es única: dada una matriz Hermitiana

positiva definida A, hay una única matriz triangular inferior L con entradas

diagonales estrictamente positivas tales que A = LL*. El recíproco se tiene

trivialmente: si A se puede escribir como LL* para alguna matriz

invertible L, triangular inferior o no, entonces A es Hermitiana y definida

positiva.

El requerimento de que L tenga entradas diagonales estrictamente

positivas puede extenderse para el caso de la descomposición en el caso

de ser semidefinida positiva. La proposición se lee ahora: una matriz

cuadrada A tiene una descomposición de Cholesky si y sólo si A es

Hermitiana y semidefinida positiva. Las factorizaciones de Cholesky para

matrices semidefinidas positivas no son únicas en general.

En el caso especial que A es una matriz positiva definida simétrica con

entradas reales, L se puede asumir también con entradas reales. Una

Matriz D diagonal con entradas positivas en la diagonal, es factorizable

como , donde es matriz cuya diagonal consiste en la

raíz cuadrada de cada elemento de D, que tomamos como positivos. Así:

La factorización puede ser calculada directamente a través de las

siguientes fórmulas (en este caso realizamos la factorizacón

superior A =UT * U):

para los elementos de la diagonal principal, y:

para el resto de los elementos.

Donde uij son los elementos de la matriz U.

Aplicaciones

Page 25: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

La descomposición de Cholesky se usa principalmente para hallar la

solución numérica de ecuaciones lineales Ax = b. Si A es simétrica y

positiva definida, entonces se puede solucionar Ax = b calculando

primero la descomposición de Cholesky A = LLT, luego

resolviendo Ly =b para y, y finalmente resolviendo LTx = y para x.

Como método de factorización LU es aplicable a una matriz simétrica

y definida positiva donde:

Por lo tanto

TLU

bxLL

bAx

T

Page 26: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

A partir del producto de la n-ésima fila de L por la n-ésima columna de LT se

tiene que:

Haciendo el barrido desde k=1 hasta n se tiene que

Por otro lado si multiplicamos la n-ésima fila de L por la columna (n-1) de LT se

tiene que:

Haciendo el barrido para k=1 hasta n se tiene que:

MÉTODO DE THOMAS

Este método surge como una simplificación de una factorización LU sobre una

matriz tridiagonal.

1

1

2

,

1

1

2

,

2

2

1,

2

2,

2

2,

2

1,

2

22

1,

2

2,

2

2,

2

1,

n

j

jnnnnn

n

j

jnnnnn

nnnnnnnnnn

nnnnnnnnnn

LaL

LaL

LLLLaL

aLLLLL

1

1

2

,

k

j

jkkkkk LaL

2

1

,1,1,1,

1,1

2,12,2,12,1,11,1,

1,

1,1,11,2,12,2,12,1,11,

n

j

jnjnnnnn

nn

nnnnnnnnnn

nn

nnnnnnnnnnnnnn

LLaL

L

LLLLLLaL

aLLLLLLLL

11

1

1

,,,,

kidonde

LLaLi

j

jijkikik

Page 27: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

Basados en el producto matricial mostrado anteriormente se obtienen las

siguientes expresiones:

Por lo que haciendo el barrido desde k=2 hasta n se llega a lo siguiente:

00

,

1

,11,,

1,1

1,1

1,

111

n

nnnnnnn

nnn

nn

nnn

cya

Donde

ULbU

cU

U

aL

bU

kkkkkkk

kkk

kk

kkk

ULbU

cU

U

aL

,11,,

1,1

1,1

1,

Page 28: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

Si LUx=r y Ux=d entonces Ld=r, por lo tanto :

Por lo que a partir de una sustitución progresiva

Finalmente resolvemos Ux=d a partir de una sustitución regresiva:

11,

11

2

kkkkk dLrd

nhastakDesde

rd

Page 29: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

METODOS ITERATIVOS

1 JACOBI

En análisis numérico el método de Jacobi es un método iterativo, usado para

resolver sistemas de ecuaciones lineales del tipo Ax = b. Elalgoritmo toma su

nombre del matemático alemán Carl Gustav Jakob Jacobi.

Descripción

La base del método consiste en construir

una sucesión convergente definida iterativamente. El límite de esta sucesión es

precisamente la solución del sistema. A efectos prácticos si el algoritmo se

detiene después de un número finito de pasos se llega a una aproximación al

valor de x de la solución del sistema.

La sucesión se construye descomponiendo la matriz del sistema en la forma

siguiente:

nn

nn

U

dx

Donde

,

,

kk

n

kj

jkjk

kU

xUd

x

hastankPara

,

1

,11

Page 30: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

donde

, es una matriz diagonal.

, es una matriz triangular inferior.

, es una matriz triangular superior.

Partiendo de , podemos reescribir dicha ecuación como:

Luego,

Si aii ≠ 0 para cada i. Por la regla iterativa, la definición del Método de

Jacobi puede ser expresado de la forma:

donde k es el contador de iteración, Finalmente tenemos:

Cabe destacar que al calcular xi(k+1) se necesitan todos los elementos en x(k),

excepto el que tenga el mismo i. Por eso, al contrario que en el método Gauss-

Seidel, no se puede sobreescribir xi(k) con xi

(k+1), ya que su valor será necesario

para el resto de los cálculos. Esta es la diferencia más significativa entre los

métodos de Jacobi y Gauss-Seidel. La cantidad mínima de almacenamiento es

de dos vectores de dimensión n, y será necesario realizar un copiado explícito.

Algoritmo en java

public class Jacobi { double [][]matriz={{4,-2,1},{1,-5,3},{2,1,4}}; double []vector={2,1,3}; double []vectorR={1,2,3}; double []x2=vectorR; double sumatoria=1; int max=50; public void SolJacobi(){ int tam = matriz.length; for (int y = 0; y < 10; y++) {

Page 31: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

system.outtt.println("\nvector " + y + "\n"); for(int t=0;t>max;t++){ x2=vectorR.clone(); for (int i = 0; i < tam; i++) { sumatoria=0; for (int s = 0; s < tam; s++) { if(s!=i)sumatoria += matriz[i][s]*x2[s]; } vectorR[i]=(vector[i]-sumatoria)/matriz[i][i]; System.out.print(" " + vectorR[i]); } } } } public static void main(String[] args) { jacobi obj=new Jacobi(); obj.SolJacobi(); } }

VER : http://www.youtube.com/watch?v=HbqGnFU62-Y

2 GAUSS- SEIDEL

METODO DE GAUSS SEIDEL

En análisis numérico el método de Gauss-Seidel es un método

iterativo utilizado para resolver sistemas de ecuaciones lineales. El método se

llama así en honor a los matemáticos alemanes Carl Friedrich Gauss y Philipp

Ludwig von Seidel y es similar al método de Jacobi.

Es un método iterativo, lo que significa que se parte de una aproximación inicial

y se repite el proceso hasta llegar a una solución con un margen de error tan

pequeño como se quiera. Buscamos la solución a un sistema de ecuaciones

lineales, en notación matricial:

El método de iteración Gauss-Seidel es

donde

Page 32: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

para i=j, o para .

y

Esto es también que :

Si

definimos

y

.

Considerando el sistema Ax=b, con la condición de que , i= 1, ..., n.

Entonces podemos escribir la fórmula de iteración del método

,

i=1,...,n(*)

La diferencia entre este método y el de Jacobi es que, en este último, las

mejoras a las aproximaciones no se utilizan hasta completar las iteraciones.

CONVERGENCIA

Teorema: Suponga una matriz es una matriz no singular que

cumple la condición de

ó .

Entonces el método de Gauss-Seidel converge a una solución del sistema

de ecuaciones Ax=b, y la convergencia es por lo menos tan rápida como la

convergencia del método de Jacobi.

Para ver los casos en que converge el método primero mostraremos que se

puede escribir de la siguiente forma:

(**)

(el término es la aproximación obtenida después de la k-ésima

iteración) este modo de escribir la iteración es la forma general de

unmétodo iterativo estacionario.

Page 33: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

Primeramente debemos demostrar que el problema lineal que queremos

resolver se puede representar en la forma (**), para este motivo debemos

tratar de escribir la matriz A como la suma de una matriz triangular inferior,

una diagonal y una triangular superior A=D(L+I+U),D=diag( ). Haciendo

los despejes necesarios escribimos el método de esta forma

por lo tanto B=-(L+I)-1 U.

Ahora podemos ver que la relación entre los errores, el cuál se puede

calcular al substraer x=Bx+c de (**)

Supongamos ahora que , i= 1, ..., n, son los valores propios

que corresponden a los vectores propios ui, i= 1,..., n, los cuales

son linealmente independientes, entonces podemos escribir el

error inicial

(***)

Por lo tanto la iteración converge si y sólo si | λi|<1, i= 1,

..., n. De este hecho se desprende el siguiente teorema:

Teorema: Una condición suficiente y necesaria para que un método iterativo

estacionario converja para una aproximación arbitraria

x^{(0)} es que

donde ρ(B) es el radio espectral de B.

EXPLICACION

Se elige una aproximación inicial para .

Se calculan las matrices M y el vector c con las fórmulas mencionadas. El

proceso se repite hasta que xk sea lo suficientemente cercano axk − 1, donde k

representa el número de pasos en la iteración.

Page 34: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

CÓDIGO FORTRAN MULTIPLICACIÓN DE MATRICES

CODIGO FORTRAN ELIMINACION GAUSSIANA

Page 35: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

CODIGO FORTRAN GAUS JORDAN

Page 36: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES
Page 37: MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

CODIGO FORTRAN TRASPUESTA

BIBLIOGRAFÍA

ALGEBRA LINEAL 6TA EDICION DE STANLEY GROSSMAN.

HTTP://THALES.CICA.ES/RD/RECURSOS/RD99/ED99-0289-02/ED99-

0289-02.HTML

HTTP://ES.WIKIPEDIA.ORG/WIKI/MATRIZ_TRASPUESTA_CONJUGA

DA

ALGEBRA LINEAL Y SUS APLICACIONES - DAVID C. LAY

MATRICES Y DETERMINANTES

HTTP://KAMBRY.WIKISPACES.COM/MATRICES+Y+DETERMINANTE

S?F=PRINT