19
1.- AJUSTE DE CURVAS El ajuste de curvas consiste en encontrar una curva que contenga una serie de puntos y que posiblemente cumpla una serie de restricciones adicionales. Esta sección es una introducción tanto a la interpolación (cuando se espera un ajuste exacto a determinadas restricciones) y al ajuste de curvas/análisis de regresión (cuando se permite una aproximación). 1.1.- MÉTODO MÍNIMOS CUADRADOS Mínimos cuadrados es una técnica de análisis numérico encuadrada dentro de la optimización matemática, en la que, dados un conjunto de pares (o ternas, etc), se intenta encontrar la función que mejor se aproxime a los datos (un "mejor ajuste"), de acuerdo con el criterio de mínimo error cuadrático. En su forma más simple, intenta minimizar la suma de cuadrados de las diferencias ordenadas (llamadas residuos) entre los puntos generados por la función y los correspondientes en los datos. Específicamente, se llama mínimos cuadrados promedio (LMS) cuando el número de datos medidos es 1 y se usa el método de descenso por gradiente para minimizar el residuo cuadrado. Se puede demostrar que LMS minimiza el residuo cuadrado esperado, con el mínimo de operaciones (por iteración), pero requiere un gran número de iteraciones para converger.

METODOS NUMÉRICOS

  • Upload
    diazjap

  • View
    10.377

  • Download
    2

Embed Size (px)

DESCRIPTION

Ajuste de Curvas y Métodos de resolución de ecuaciones diferenciales

Citation preview

Page 1: METODOS NUMÉRICOS

1.- AJUSTE DE CURVAS

El ajuste de curvas consiste en encontrar una curva que contenga una serie de

puntos y que posiblemente cumpla una serie de restricciones adicionales. Esta

sección es una introducción tanto a la interpolación (cuando se espera un ajuste

exacto a determinadas restricciones) y al ajuste de curvas/análisis de regresión

(cuando se permite una aproximación).

1.1.- MÉTODO MÍNIMOS CUADRADOS

Mínimos cuadrados es una técnica de análisis numérico encuadrada dentro de

la optimización matemática, en la que, dados un conjunto de pares (o ternas, etc),

se intenta encontrar la función que mejor se aproxime a los datos (un "mejor

ajuste"), de acuerdo con el criterio de mínimo error cuadrático.

En su forma más simple, intenta minimizar la suma de cuadrados de las

diferencias ordenadas (llamadas residuos) entre los puntos generados por la

función y los correspondientes en los datos. Específicamente, se llama mínimos

cuadrados promedio (LMS) cuando el número de datos medidos es 1 y se usa el

método de descenso por gradiente para minimizar el residuo cuadrado. Se puede

demostrar que LMS minimiza el residuo cuadrado esperado, con el mínimo de

operaciones (por iteración), pero requiere un gran número de iteraciones para

converger.

Desde un punto de vista estadístico, un requisito implícito para que funcione el

método de mínimos cuadrados es que los errores de cada medida estén

distribuidos de forma aleatoria. El teorema de Gauss-Márkov prueba que los

estimadores mínimos cuadráticos carecen de sesgo y que el muestreo de datos

no tiene que ajustarse, por ejemplo, a una distribución normal. También es

importante que los datos recogidos estén bien escogidos, para que permitan

visibilidad en las variables que han de ser resueltas (para dar más peso a un dato

en particular, véase mínimos cuadrados ponderados).

La técnica de mínimos cuadrados se usa comúnmente en el ajuste de curvas.

Muchos otros problemas de optimización pueden expresarse también en forma

de mínimos cuadrados, minimizando la energía o maximizando la entropía.

Page 2: METODOS NUMÉRICOS

El ejemplo mas simple de una aproximación por mínimos cuadrados es el ajuste

de una línea recta a un conjunto de parejas de datos observadas:

(x1, y1),(x2 , y2 ),(x3 , y3 ),...,(xn , yn ).

La recta resultante y = a + bx + E , en donde a y b son coeficientes que representan

la intersección con el eje de las abcisas y la pendiente, E es el error o residuo entre

las observaciones y el modelo, E = y − a + bx , y presenta dos características

importantes:

1. Es nula la suma de las desviaciones verticales de los puntos a partir de la

recta de ajuste Σ(Y − y ) = 0

2. Es mínima la suma de los cuadrados de dichas desviaciones. Ninguna otra

recta daría una suma menor de las desviaciones elevadas al cuadrado

Σ( Y−y )2 → 0(mínima).

Una estrategia que obtiene la “mejor” línea a través de los puntos debe minimizar la

suma de los errores residuales, como en:

Otro criterio seria minimizar la suma de los valores absolutos de las diferencias, esto

es:

Una tercera estrategia en el ajuste de una línea óptima es el criterio de mínimas. En

este método, la línea se escoge de tal manera que minimice la distancia máxima a la

que se encuentra un punto de la línea recta. Esta estrategia esta mal condicionada

para regresión ya que influye de manera indebida sobre un punto externo, aislado,

cuyo error es muy grande. Se debe notar que el criterio de mínimas, algunas veces

esta bien condicionado para ajustar una función simple a una función complicada.

Page 3: METODOS NUMÉRICOS

Una estrategia que ignora las restricciones anteriores es la de minimizar la suma de

los cuadrados de los residuos, r S , de la siguiente manera:

Primera forma de obtener los valores a y b.

La obtención de los valores de a y b que minimizan esta función es un problema que

se puede resolver recurriendo a la derivación parcial de la función en términos de a y

b: llamemos G a la función que se va a minimizar:

EJEMPLO 1

Ajústese una línea recta a los valores x y y de las primeras dos columnas de la

siguiente tabla:

Page 4: METODOS NUMÉRICOS

2.- MÉTODO DE RESOLUCIÓN DE ECUACIONES DIFERENCIALES

Dada cierta dificultad para encontrar soluciones exactas a la resolución de

ecuaciones diferenciales, podemos deducir aproximaciones usando métodos

numéricos como herramienta. Dentro de los mismos encontramos los siguientes:

2.1.- MÉTODO DE EULER

Método de Euler

Una de las técnicas más simples para aproximar soluciones de una ecuación

diferencial es el método de Euler, o de las rectas tangentes. Suponga que se

desea aproximar la solución del problema de valor inicial

Page 5: METODOS NUMÉRICOS

Observe en la figura 9 que la pendiente de la recta tangente a  la curva está dada

por y es aproximadamente igual a la pendiente de la recta secante

siempre y cuando sea pequeño. De aquí obtenemos que

Con lo cual podemos usar el punto para construir el siguiente punto

y así sucesivamente. De esta forma generamos la sucesión de puntos:

los cuales es de esperar que se encuentren cercanos a los puntos

Figura 9

Page 6: METODOS NUMÉRICOS

Al sustituir el valor aproximado de la derivada 1.13 en la ecuación diferencial del

problema de valor inicial 1.12 obtenemos el método de Euler

En el siguiente ejemplo podemos observar los pasos dados para la resolución de

ecuaciones diferenciales usando el método de Euler mediante un diagrama de

flujos.

2.2.- MÉTODO DE EULER MEJORADO (PREDICTOR) 

Este método se basa en la misma idea del método anterior, pero hace un

refinamiento en la aproximación, tomando un promedio entre ciertas pendientes. 

La fórmula es la siguiente: 

Page 7: METODOS NUMÉRICOS

donde

Para entender esta fórmula, analicemos el primer paso de la aproximación, con

base en la siguiente gráfica: 

En la gráfica, vemos que la pendiente promedio corresponde a la pendiente

de la recta bisectriz de la recta tangente a la curva en el punto de la condición

inicial y la “recta tangente” a la curva en el punto , donde es la

aproximación obtenida con la primera fórmula de Euler. Finalmente, esta recta

bisectriz se traslada paralelamente hasta el punto de la condición inicial, y se

considera el valor de esta recta en el punto como la aproximación de

Euler mejorada. 

Ejemplo

Aplicar el método de Euler mejorado, para aproximar si: 

Solución

Vemos que este es el mismo ejemplo 1 del método anterior. Así que definimos

y encontraremos la aproximación después de cinco iteraciones. A

Page 8: METODOS NUMÉRICOS

diferencia del método de Euler 1, en cada iteración requerimos de dos cálculos

en vez de uno solo: el de primero y posteriormente el de .

Para aclarar el método veamos con detalle las primeras dos iteraciones. Primero

que nada, aclaramos que tenemos los siguientes datos iniciales: 

En nuestra primera iteración tenemos:

Nótese que el valor de coincide con el (Euler 1), y es el único valor que va

a coincidir, pues para calcular se usará y no .

Esto lo veremos claramente en la siguiente iteración:

Nótese que ya no coinciden los valores de (Euler 1) y el de . El proceso debe

seguirse hasta la quinta iteración. Resumimos los resultados en la siguiente tabla: 

n

0 0 1

Page 9: METODOS NUMÉRICOS

1 0.1 1.01

2 0.2 1.040704

3 0.3 1.093988

4 0.4 1.173192

5 0.5 1.28336

Concluímos entonces que la aproximación obtenida con el método de Euler

mejorado es: 

Con fines de comparación, calculamos el error relativo verdadero: 

Vemos que efectivamente se ha obtenido una mejor aproximación con este

método, reduciendo el error relativo verdadero de un 5.4% hasta un 0.05%. En

nuestro tercer método veremos cómo se reduce aún más este error

prácticamente a un 0%! 

Veamos un segundo ejemplo.

Ejemplo

Aplicar el método de Euler mejorado para aproximar y(1.3) si tenemos : 

Solución

Tenemos los siguientes datos:

Page 10: METODOS NUMÉRICOS

En una primera iteración, tenemos lo siguiente:

Resumimos los resultados en la siguiente tabla:

n

0 1 2

1 1.1 2.385

2 1.2 2.742925

3 1.3 3.07635

  Concluímos entonces que la aproximación buscada es: 

2.3.- MÉTODO DE RUNGE – KUTTA

Métodos de Runge-Kutta Los Runge-Kutta no es sólo un método sino una

importante familia de métodos iterativos tanto implícitos como explícitos para

aproximar las soluciones de ecuaciones diferenciales ordinarias (E.D.O´s), estas

técnicas fueron desarrolladas alrededor de 1900 por los matematicos alemanes

Carl David Tolmé Runge y Martin Wilhelm Kutta.

El clásico método Runge-Kutta de cuarto orden

Page 11: METODOS NUMÉRICOS

Un miembro de la familia de los métodos Runge-Kutta es usado tan comúnmente

que a menudo es referenciado como “RK4” o como “el método Runge-Kutta”.

Definamos un problema de valor inicial como:

Entonces el método RK4 para este problema esta dado por la siguiente ecuación:

Donde

Así, el siguiente valor (yn+1) es determinado por el presente valor (yn) mas el

producto del tamaño del intervalo (h) por una pendiente estimada. La pendiente

es un promedio ponderado de pendientes:

k1 es la pendiente al principio del intervalo;

k2 es la pendiente en el punto medio del intervalo, usando k1 para determinar el

valor de y en el punto tn + h/2 usando el método de Euler

k3 es otra vez la pendiente del punto medio, pero ahora usando k2 para

determinar el valor de y

k4 es la pendiente al final del intervalo, con el valor de y determinado por k3

Page 12: METODOS NUMÉRICOS

Promediando las cuatro pendientes, se le asigna mayor peso a las pendientes en

el punto medio:

El método RK4 es un método de cuarto orden lo cual significa que el error por

paso es del orden de h5, mientras que el error total acumulado tiene el orden h4.

Sin entrar en mucho detalle, mencionamos solamente que el método de Runge-

Kutta cambia la dirección en el sentido de que no sigue la misma línea de los

métodos de Euler. De hecho está basado en una aplicación de los polinomios de

Taylor.

Comentamos sin embargo, que el método de Runge-Kutta si contiene como

casos especiales los de Euler. 

Se conocen como las reglas o fórmulas de Runge-Kutta de orden cuatro para la

ecuación diferencial: 

Ejemplo

Usar el método de Runge-Kutta para aproximar dada la siguiente ecuación

diferencial: 

Solución

Primero, identificamos el mismo ejemplo 1 de los dos métodos anteriores.

Segundo, procedemos con los mismos datos: 

Page 13: METODOS NUMÉRICOS

Para poder calcular el valor de , debemos calcular primeros los valores de

, , y . Tenemos entonces que: 

 

 

 

 

 

Con el fin de un mayor entendimiento de las fórmulas, veamos la siguiente

iteración: 

 

 

 

 

El proceso debe repetirse hasta obtener . Resumimos los resultados en la

siguiente tabla: 

n

0 0 1

1 0.1 1.01005

Page 14: METODOS NUMÉRICOS

2 0.2 1.04081

3 0.3 1.09417

4 0.4 1.17351

5 0.5 1.28403

Concluímos que el valor obtenido con el método de Runge-Kutta es: 

Finalmente, calculamos el error relativo verdadero: 

Con lo cual vemos que efectivamente se ha reducido muchísimo el error relativo.

De hecho observamos que tenemos 6 cifras significativas en la aproximación!

Ejemplo

Usar el método de Runge-Kutta para aproximar dada la ecuación

diferencial: 

Solución

Igual que siempre, tomamos y llegaremos a la aproximación en dos

pasos. Con esta aclaración, tenemos los siguientes datos:

Primera Iteración: 

 

Page 15: METODOS NUMÉRICOS

 

 

 

 

 

Segunda Iteración:

 

 

 

 

 

 

Concluimos entonces que el valor buscado es:

Page 16: METODOS NUMÉRICOS