12
Universidad Fermín Toro Solución de Sistemas de Ecuaciones Métodos de eliminación Gussiana Por Gabriel Colmenares CI: 24.775.336

Solución de Sistemas de Ecuaciones

Embed Size (px)

Citation preview

Page 1: Solución de Sistemas de Ecuaciones

Universidad Fermín ToroSolución de Sistemas de EcuacionesMétodos de eliminación Gussiana

Por Gabriel ColmenaresCI: 24.775.336

Page 2: Solución de Sistemas de Ecuaciones

Introducción

❖ En esta unidad examinaremos los aspectos numéricos que se presentan al resolver sistemas de ecuaciones, utilizando matrices que permiten utilizar algoritmos para resolver estos sistemas.

Page 3: Solución de Sistemas de Ecuaciones

Métodos De Eliminación Gaussiana

El proceso de eliminación de Gaussisana o de Gauss, consiste en realizar transformaciones elementales en el sistema inicial (intercambio de filas, intercambio de columnas, multiplicación de filas o columnas por constantes, operaciones con filas o columnas, . . . ), destinadas a transformarlo en un sistema triangular superior, que resolveremos por remonte. Además, la matriz de partida tiene el mismo determinante que la matriz de llegada, cuyo determinante es el producto de los coeficientes diagonales de la matriz.

Page 4: Solución de Sistemas de Ecuaciones

Método de Gauss-Jordan El proceso de eliminación de Gauss - Jordán consiste en realizar transformaciones elementales en el sistema inicial, destinadas a transformarlo en un sistema diagonal. El número de operaciones elementales de este método, es superior al del método de Gauss (alrededor de un 50% más). Sin embargo, a la hora de resolver el sistema de llegada por remonte, el número de operaciones es menor, motivo por el cual, el método de Gauss - Jordán es un método computacionalmente bueno cuando tenemos que resolver varios sistemas con la misma matriz A y resolverlos simultáneamente, utilizando el algoritmo de Gauss-Jordán.

Page 5: Solución de Sistemas de Ecuaciones

Descomposición LU El método de Descomposición LU se basa en demostrar que una matriz A se puede factorizar como el producto de una matriz triangular inferior L con una matriz triangular superior U, donde en el paso de eliminación sólo se involucran operaciones sobre los coeficientes de la matriz, permitiendo así evaluar los términos independientes bi de manera eficienteLa implementación del algoritmo de la Descomposición LU tiene sus variantes en cuanto a los valores iniciales de la diagonal que tomen las matrices L y U, es decir si los valores de la diagonal de la matriz L tiene números 1, formalmente esto se refiere a la Descomposición de Doolitle. Pero si los valores de la diagonal de la matriz U tiene números 1, formalmente esto se refiere a la Descomposición de Crout

Page 6: Solución de Sistemas de Ecuaciones

Factorización De CholeskyUna matriz simétrica es aquella donde Aij = Aji para toda i y j, En otras palabras, [A] =[A] T. Tales sistemas ocurren comúnmente en problemas de ambos contextos: el matemático y el de ingeniería. Ellos ofrecen ventajas computacionales ya que sólo se necesita la mitad de almacenamiento y, en la mayoría de los casos, sólo se requiere la mitad del tiempo de cálculo para su solución. Al contrario de la Descomposición LU, no requiere de pivoteo. El método de Factorización de Cholesky se basa en demostrar que si una ma triz A es simétrica y definida positiva en lugar de factorizarse como LU, puede ser factorizada como el producto de una matriz triangular inferior y la traspuesta de la matriz triangular inferior, es decir los factores triangulaes resultantes son la traspuesta de cada uno.

Page 7: Solución de Sistemas de Ecuaciones

Factorización de QR, Householder

Anteriormente analizamos la factorización LU de una matriz el cual conduce aun método muy ficiente para resolver un sistema lineal. Otro método de factorización de una A, llamada factorización QR de A. Esta factorización se usa ampliamente en los programas de computadora para determinar valores propios de una matriz, para resolver sistemas lineales y para determinar aproximaciones por mínimos cuadrados

Page 8: Solución de Sistemas de Ecuaciones

Solución De Sistemas Lineales Utilizando Métodos Iterativos

Page 9: Solución de Sistemas de Ecuaciones

IntroducciónEl método de Gauss y sus variantes son conocidos como métodos directos para resolver el problema inicial Ax = b. Se ejecutan a través de un número finito de pasos y generan una solución x que sería exacta sino fuera por los errores de redondeo. En contraste, un método iterativo da lugar a una sucesión de vectores que idealmente converge a la solución. El cálculo se detiene cuando se cuenta con una solución aproximada con cierto grado de precisión especificado de antemano o después de cierto número de iteraciones. Los métodos indirectos son casi siempre iterativos.

Page 10: Solución de Sistemas de Ecuaciones

Método De Gauss SeidelEl método de Gauss y sus variantes son conocidos como métodos directos para resolver el problema inicial Ax = b. Se ejecutan a través de un número finito de pasos y generan una solución x que sería exacta sino fuera por los errores de redondeo. En contraste, un método iterativo da El Método de Gauss Seidel emplea valores iniciales y después itera para obtener estimaciones refinadas de la solución; es particularmente adecuado para un gran número de ecuaciones, lo cual en cierto modo lo hace un método más comúnmente usado. La fórmula utilizada para hallar los xi viene dada por el despeje de cada una de las xi en cada una de las ecuaciones y se les da un valor inicial a cada xi de cero. Observase que en el método de Gauss-Seidel los valores actualizados de xi sustituyen de inmediato a los valores anteriores, mientras que en el método de Jacobi todas las componentes nuevas del vector se calculan antes de llevar a cabo la sustitución. Por contra, en el método de Gauss-Seidel los cálculos deben llevarse a cabo por orden, ya que el nuevo valor xi depende de los valores actualizados dex1, x2, ..., x i-1.La desventaja del método de Gauss-Seidel es que no siempre converge a la solución exacta o algunas veces los hace de manera muy lenta. Únicamente es confiable para aquellos sistemas dominantes diagonalmente. a una sucesión de vectores que idealmente converge a la solución. El cálculo se detiene cuando se cuenta con una solución aproximada con cierto grado de precisión especificado de antemano o después de cierto número de iteraciones. Los métodos indirectos son casi siempre iterativos.

Page 11: Solución de Sistemas de Ecuaciones

Gracias

Page 12: Solución de Sistemas de Ecuaciones

Elaborado por Gabriel Colmenares