View
258
Download
0
Embed Size (px)
DESCRIPTION
Optimización sin Restricciones. Funciones de dos variables. conceptos, características y mucho mas
Citation preview
Optimización SIN RESTRICCIONES
Métodos de optimización sin restricciones con 2 variables
Nuevos
Ejercicios
Resueltos
Todo lo que necesitas en un solo lugar
Año 2015 ● N°001 ● Revista de Investigación ● IUPSM ● Sección SI
Instituto Universitario Politécnico Santiago Mariño
Extensión Maracay
Escuela de Sistemas
Profesor Luis E. Aponte Sección: SI
Integrantes: Gloria Velasquez
Cesar Bravo
Manuel Romero
Etapas
Importancia
Problemas
resueltos
Contenido MULTIMEDIA
TWITTER @SISTEMAS
REVISTA SISTEMAS
INSTAGRAM REVISTA SISTEMAS
Existen muchas definiciones
Para Church-
man y Arnoff:
La investigación
de operaciones
es la aplicación,
por grupos in-
terdisciplinarios, del método
científico a problemas rela-
cionados con el control de las
organizaciones o sistemas
(hombre – ma-
quina). A fin de
que se produz-
can soluciones
que mejor sirvan
Un gran número de problemas de Ingeniería se pueden formular
de esta forma.
La investigación de operacio-nes es una herramienta básica para la toma de las decisiones en las empresas por su enfo-que cuantitativo, apoyada por las matemáticas. Las prime-ras investigaciones de opera-ciones fueron puestas en práctica a principios de la se-gunda guerra mundial, para desarrollar estrategias y tácti-cas de guerra. Para todo esto, los altos mandos militares americanos e ingleses hicie-ron un llamado a todos los científicos para que diseñaran este método, desarrollando primero el “radar”. En 1950 se introdujo a la industria, los negocios y el gobierno, un ejemplo sobresaliente es el método “Simplex” para resol-ver problemas de programa-
ción lineal, desarrollada en 1947 por George Dantzing. El auge mayor para darle la apli-cación universal en casi todas las empresas del mundo fue con el inicio de las compu-tadoras en 1980. La aplicación de los métodos de investigación de operacio-nes, sirve a los profesionistas para tomar las decisiones más acertadas en el ámbito labo-ral. Las empresas deben con-tar con estos métodos, para resolver problemas de optimi-zación de recursos en la enti-dad. La observación es base fundamental para identificar problemas, desarrollándola mediante la formulación del planteamiento del problema y de esta forma determinar las variables culminando con la
La función f(x) a optimizar se suele denominar función objeti-vo. Es muy importante la formu-lación matemática de esta función, así como
el cálculo de sus deriva-das de primer y segundo
orden.
Las variables de las que depende la función objetivo se llaman variables de
diseño y se agrupan en un vector xЄRn. Con frecuencia las variables de diseño
deben satisfacer ciertas restricciones, de igualdad o de-
Han sido desarrollados, básicamente tres métodos para llevar a ca-bo la búsqueda directa unidireccional, basados en las condiciones de optimalidad. Estos son:
1.- Método de Newton 2.- Aproxima-ciones finitas al método de Newton (Métodos cuasi-Newton) 3.- Métodos de
secante. Para comparar la eficacia de cada método, es útil examinar la velocidad de convergencia de cada uno de ellos. Las velocidades de convergencia se pue-den clasificar de muchas maneras, las más comu-nes son:
De acuerdo con la primera condición necesaria para
que una función tuviera un mínimo local se debe cum-plir que f x '( ) = 0. Por lo tanto podemos aplicar el mé-todo de Newton a la derivada, así:
Asegurándonos que en la etapa k, ,para minimización. Realmente lo que hace el método de Newton es aproximar la función por una función cuadrática en xk . y dado que f x '( ) = 0, diferenciando la ecuación anterior: Que se puede reordenar para dar la primera ecuación. El método de Newton es equivalente a usar un modelo cuadrático y aplicar las condiciones necesarias de optimalidad.
Las ventajas del método de Newton son: 1.- El procedimiento es cuadráticamente conver-gente (p=2), siempre que f ('' x) ≠ 0 2.- Para una función cua-drática el mínimo se ob-tiene en una única iteración.
Las desventajas son: 1.- Se debe calcular tanto f’(x) como f’’(x). 2.- Si f’’(x)→0 el método con-verge muy lentamente. 3.- Si existe más de un extre-mo, el método podría no con-verger al extremo desea-do. Además el método podría oscilar.
Los métodos en diferencias finitas tipo Newton, se utilizan si la derivada de la función objetivo es difícil de calcular, o ésta vie-ne dada de forma numérica. Se basan en sustituir las derivadas por aproximaciones en diferencias finitas.
Los métodos de secante toman dos puntos, xp y x q y resuelve una ecuación similar a la dada en el método de Newton: donde m es la pendiente de la línea que conecta xp con x q . dada por:
El método de la secante aproxima la segunda derivada por una línea recta. Cuando xq→x p el valor de m se aproximará al valor de la segunda derivada. En este sentido el método de la secante se podría considerar también un método cuasi Newton. Admitiendo que la función es unimodal, el método comienza con dos puntos cualquiera del intervalo de tal manera que la primera derivada tenga signos diferentes. Calculando el cero de la ecuación de partida se obtiene:
Los dos puntos seleccionados para el paso siguiente son x ~ * y x p ó xq dependiendo de los
signos de f’(xp ) y de f’(xq ) con respecto al de f x( *) ~ . El método de la secante parece bastante “crudo” pero funciona bastante bien en la práctica. El orden de convergencia para funciones de una sola variable es de (1 5 2 16 + ≈ ) / . . Su convergencia es ligeramente menor que la del método de Newton de diferencias finitas, pero en muchas ocasiones
En muchos problemas las restricciones se pue-den incluir dentro de la función objetivo, por lo que la dimensionalidad del problema se reduce a una variable. Algunos problemas sin restricciones, inherente-mente incluyen una única variable. Las técnicas de optimización con y sin restric-ciones, generalmente incluyen pasos de búsque-da unidireccional en sus algoritmos.
El método de eliminación de variables no resul-
ta operativo cuando el problema tiene muchas
restricciones o las restricciones son comple-
jas, por lo que resulta muy útil éste método.
Los Multiplicadores de Lagrange es un método
alternativo que además proporciona más in-
formación sobre el problema.
Todos los óptimos que verifiquen las condicio-
nes de regularidad establecidas tienen asocia-
dos los correspondientes multiplicadores.
El teorema de Lagrange establece una condi-
ción necesaria de optimalidad (bajo las condi-
ciones de regularidad).
Una compañía destina su planta a la elaboración de dos tipos de bienes A y B.
Obtiene un beneficio de 4 dolares. por unidad de A y de 6 dolares por unidad de
B. Los números de unidades de los dos tipos que puede producir mediante la
planta están restringidos por la ecuación de transformación del producto dada
por :
con X,Y los numeros de unidades ( en miles) de A y B respectivamente produci-
das por semana. Hallar las cantidades de cada tipo que deben producirse a fin
de maximizar la utilidad
Solución:
Beneficio: 4x+6y
Ecuación de Lagrange:
Bx=
By=
X=.66 ; Y= .49
máximo
El beneficio es de 5.58miles de dolares
044222 yxyx
)442(64 22 yxyxyx
0224 x
0426 y
1
2
x
2
3
y
2
13 x
y
66.13
1336*6
13*2
13*21312
;0232613
04)13(22)13(4
1
2
22
X
xx
xxxx
0
2
2
Bxy
Byy
Bxx
0
04
1
2
2
H
H