Upload
diazjap
View
10.377
Download
2
Embed Size (px)
DESCRIPTION
Ajuste de Curvas y Métodos de resolución de ecuaciones diferenciales
Citation preview
1.- AJUSTE DE CURVAS
El ajuste de curvas consiste en encontrar una curva que contenga una serie de
puntos y que posiblemente cumpla una serie de restricciones adicionales. Esta
sección es una introducción tanto a la interpolación (cuando se espera un ajuste
exacto a determinadas restricciones) y al ajuste de curvas/análisis de regresión
(cuando se permite una aproximación).
1.1.- MÉTODO MÍNIMOS CUADRADOS
Mínimos cuadrados es una técnica de análisis numérico encuadrada dentro de
la optimización matemática, en la que, dados un conjunto de pares (o ternas, etc),
se intenta encontrar la función que mejor se aproxime a los datos (un "mejor
ajuste"), de acuerdo con el criterio de mínimo error cuadrático.
En su forma más simple, intenta minimizar la suma de cuadrados de las
diferencias ordenadas (llamadas residuos) entre los puntos generados por la
función y los correspondientes en los datos. Específicamente, se llama mínimos
cuadrados promedio (LMS) cuando el número de datos medidos es 1 y se usa el
método de descenso por gradiente para minimizar el residuo cuadrado. Se puede
demostrar que LMS minimiza el residuo cuadrado esperado, con el mínimo de
operaciones (por iteración), pero requiere un gran número de iteraciones para
converger.
Desde un punto de vista estadístico, un requisito implícito para que funcione el
método de mínimos cuadrados es que los errores de cada medida estén
distribuidos de forma aleatoria. El teorema de Gauss-Márkov prueba que los
estimadores mínimos cuadráticos carecen de sesgo y que el muestreo de datos
no tiene que ajustarse, por ejemplo, a una distribución normal. También es
importante que los datos recogidos estén bien escogidos, para que permitan
visibilidad en las variables que han de ser resueltas (para dar más peso a un dato
en particular, véase mínimos cuadrados ponderados).
La técnica de mínimos cuadrados se usa comúnmente en el ajuste de curvas.
Muchos otros problemas de optimización pueden expresarse también en forma
de mínimos cuadrados, minimizando la energía o maximizando la entropía.
El ejemplo mas simple de una aproximación por mínimos cuadrados es el ajuste
de una línea recta a un conjunto de parejas de datos observadas:
(x1, y1),(x2 , y2 ),(x3 , y3 ),...,(xn , yn ).
La recta resultante y = a + bx + E , en donde a y b son coeficientes que representan
la intersección con el eje de las abcisas y la pendiente, E es el error o residuo entre
las observaciones y el modelo, E = y − a + bx , y presenta dos características
importantes:
1. Es nula la suma de las desviaciones verticales de los puntos a partir de la
recta de ajuste Σ(Y − y ) = 0
2. Es mínima la suma de los cuadrados de dichas desviaciones. Ninguna otra
recta daría una suma menor de las desviaciones elevadas al cuadrado
Σ( Y−y )2 → 0(mínima).
Una estrategia que obtiene la “mejor” línea a través de los puntos debe minimizar la
suma de los errores residuales, como en:
Otro criterio seria minimizar la suma de los valores absolutos de las diferencias, esto
es:
Una tercera estrategia en el ajuste de una línea óptima es el criterio de mínimas. En
este método, la línea se escoge de tal manera que minimice la distancia máxima a la
que se encuentra un punto de la línea recta. Esta estrategia esta mal condicionada
para regresión ya que influye de manera indebida sobre un punto externo, aislado,
cuyo error es muy grande. Se debe notar que el criterio de mínimas, algunas veces
esta bien condicionado para ajustar una función simple a una función complicada.
Una estrategia que ignora las restricciones anteriores es la de minimizar la suma de
los cuadrados de los residuos, r S , de la siguiente manera:
Primera forma de obtener los valores a y b.
La obtención de los valores de a y b que minimizan esta función es un problema que
se puede resolver recurriendo a la derivación parcial de la función en términos de a y
b: llamemos G a la función que se va a minimizar:
EJEMPLO 1
Ajústese una línea recta a los valores x y y de las primeras dos columnas de la
siguiente tabla:
2.- MÉTODO DE RESOLUCIÓN DE ECUACIONES DIFERENCIALES
Dada cierta dificultad para encontrar soluciones exactas a la resolución de
ecuaciones diferenciales, podemos deducir aproximaciones usando métodos
numéricos como herramienta. Dentro de los mismos encontramos los siguientes:
2.1.- MÉTODO DE EULER
Método de Euler
Una de las técnicas más simples para aproximar soluciones de una ecuación
diferencial es el método de Euler, o de las rectas tangentes. Suponga que se
desea aproximar la solución del problema de valor inicial
Observe en la figura 9 que la pendiente de la recta tangente a la curva está dada
por y es aproximadamente igual a la pendiente de la recta secante
siempre y cuando sea pequeño. De aquí obtenemos que
Con lo cual podemos usar el punto para construir el siguiente punto
y así sucesivamente. De esta forma generamos la sucesión de puntos:
los cuales es de esperar que se encuentren cercanos a los puntos
Figura 9
Al sustituir el valor aproximado de la derivada 1.13 en la ecuación diferencial del
problema de valor inicial 1.12 obtenemos el método de Euler
En el siguiente ejemplo podemos observar los pasos dados para la resolución de
ecuaciones diferenciales usando el método de Euler mediante un diagrama de
flujos.
2.2.- MÉTODO DE EULER MEJORADO (PREDICTOR)
Este método se basa en la misma idea del método anterior, pero hace un
refinamiento en la aproximación, tomando un promedio entre ciertas pendientes.
La fórmula es la siguiente:
donde
Para entender esta fórmula, analicemos el primer paso de la aproximación, con
base en la siguiente gráfica:
En la gráfica, vemos que la pendiente promedio corresponde a la pendiente
de la recta bisectriz de la recta tangente a la curva en el punto de la condición
inicial y la “recta tangente” a la curva en el punto , donde es la
aproximación obtenida con la primera fórmula de Euler. Finalmente, esta recta
bisectriz se traslada paralelamente hasta el punto de la condición inicial, y se
considera el valor de esta recta en el punto como la aproximación de
Euler mejorada.
Ejemplo
Aplicar el método de Euler mejorado, para aproximar si:
Solución
Vemos que este es el mismo ejemplo 1 del método anterior. Así que definimos
y encontraremos la aproximación después de cinco iteraciones. A
diferencia del método de Euler 1, en cada iteración requerimos de dos cálculos
en vez de uno solo: el de primero y posteriormente el de .
Para aclarar el método veamos con detalle las primeras dos iteraciones. Primero
que nada, aclaramos que tenemos los siguientes datos iniciales:
En nuestra primera iteración tenemos:
Nótese que el valor de coincide con el (Euler 1), y es el único valor que va
a coincidir, pues para calcular se usará y no .
Esto lo veremos claramente en la siguiente iteración:
Nótese que ya no coinciden los valores de (Euler 1) y el de . El proceso debe
seguirse hasta la quinta iteración. Resumimos los resultados en la siguiente tabla:
n
0 0 1
1 0.1 1.01
2 0.2 1.040704
3 0.3 1.093988
4 0.4 1.173192
5 0.5 1.28336
Concluímos entonces que la aproximación obtenida con el método de Euler
mejorado es:
Con fines de comparación, calculamos el error relativo verdadero:
Vemos que efectivamente se ha obtenido una mejor aproximación con este
método, reduciendo el error relativo verdadero de un 5.4% hasta un 0.05%. En
nuestro tercer método veremos cómo se reduce aún más este error
prácticamente a un 0%!
Veamos un segundo ejemplo.
Ejemplo
Aplicar el método de Euler mejorado para aproximar y(1.3) si tenemos :
Solución
Tenemos los siguientes datos:
En una primera iteración, tenemos lo siguiente:
Resumimos los resultados en la siguiente tabla:
n
0 1 2
1 1.1 2.385
2 1.2 2.742925
3 1.3 3.07635
Concluímos entonces que la aproximación buscada es:
2.3.- MÉTODO DE RUNGE – KUTTA
Métodos de Runge-Kutta Los Runge-Kutta no es sólo un método sino una
importante familia de métodos iterativos tanto implícitos como explícitos para
aproximar las soluciones de ecuaciones diferenciales ordinarias (E.D.O´s), estas
técnicas fueron desarrolladas alrededor de 1900 por los matematicos alemanes
Carl David Tolmé Runge y Martin Wilhelm Kutta.
El clásico método Runge-Kutta de cuarto orden
Un miembro de la familia de los métodos Runge-Kutta es usado tan comúnmente
que a menudo es referenciado como “RK4” o como “el método Runge-Kutta”.
Definamos un problema de valor inicial como:
Entonces el método RK4 para este problema esta dado por la siguiente ecuación:
Donde
Así, el siguiente valor (yn+1) es determinado por el presente valor (yn) mas el
producto del tamaño del intervalo (h) por una pendiente estimada. La pendiente
es un promedio ponderado de pendientes:
k1 es la pendiente al principio del intervalo;
k2 es la pendiente en el punto medio del intervalo, usando k1 para determinar el
valor de y en el punto tn + h/2 usando el método de Euler
k3 es otra vez la pendiente del punto medio, pero ahora usando k2 para
determinar el valor de y
k4 es la pendiente al final del intervalo, con el valor de y determinado por k3
Promediando las cuatro pendientes, se le asigna mayor peso a las pendientes en
el punto medio:
El método RK4 es un método de cuarto orden lo cual significa que el error por
paso es del orden de h5, mientras que el error total acumulado tiene el orden h4.
Sin entrar en mucho detalle, mencionamos solamente que el método de Runge-
Kutta cambia la dirección en el sentido de que no sigue la misma línea de los
métodos de Euler. De hecho está basado en una aplicación de los polinomios de
Taylor.
Comentamos sin embargo, que el método de Runge-Kutta si contiene como
casos especiales los de Euler.
Se conocen como las reglas o fórmulas de Runge-Kutta de orden cuatro para la
ecuación diferencial:
Ejemplo
Usar el método de Runge-Kutta para aproximar dada la siguiente ecuación
diferencial:
Solución
Primero, identificamos el mismo ejemplo 1 de los dos métodos anteriores.
Segundo, procedemos con los mismos datos:
Para poder calcular el valor de , debemos calcular primeros los valores de
, , y . Tenemos entonces que:
Con el fin de un mayor entendimiento de las fórmulas, veamos la siguiente
iteración:
El proceso debe repetirse hasta obtener . Resumimos los resultados en la
siguiente tabla:
n
0 0 1
1 0.1 1.01005
2 0.2 1.04081
3 0.3 1.09417
4 0.4 1.17351
5 0.5 1.28403
Concluímos que el valor obtenido con el método de Runge-Kutta es:
Finalmente, calculamos el error relativo verdadero:
Con lo cual vemos que efectivamente se ha reducido muchísimo el error relativo.
De hecho observamos que tenemos 6 cifras significativas en la aproximación!
Ejemplo
Usar el método de Runge-Kutta para aproximar dada la ecuación
diferencial:
Solución
Igual que siempre, tomamos y llegaremos a la aproximación en dos
pasos. Con esta aclaración, tenemos los siguientes datos:
Primera Iteración:
Segunda Iteración:
Concluimos entonces que el valor buscado es: