Upload
jeanpierre-apolinario-tito
View
13
Download
1
Embed Size (px)
DESCRIPTION
proyectos
Citation preview
UNIVERSIDAD NACIONAL DE INGENIERIA
OPTIMIZACIÓN
Optimizar quiere decir buscar mejores resultados, más eficacia o mayor eficiencia en el
desempeño de alguna tarea. De allí que términos sinónimos sean mejorar, optimar o
perfeccionar. Mientras que antónimos serían desmejorar o empeorar.
Se dice que se ha optimizado algo (una actividad, un método, un proceso, un sistema, etc.)
cuando se han efectuado modificaciones en la fórmula usual de proceder y se han obtenido
resultados que están por encima de lo regular o lo esperado. En este sentido, optimizar es
realizar una mejor gestión de nuestros recursos en función del objetivo que perseguimos.
Optimizar en Administración
En la Administración, en la cual se inscriben áreas gerenciales de planificación y gestión,
la optimización está asociada a procurar mejorar los procesos de trabajo y aumentar el
rendimiento y la productividad. De allí que pueda referirse al tiempo empleado por los
trabajadores para la ejecución de tareas específicas, o bien a métodos o técnicas
específicos que permitan mayor fluidez en el trabajo, todo lo cual se traduciría en una mayor
productividad, manteniendo elevados estándares de calidad.
Optimizar en Economía
En el ámbito económico, la optimización es un proceso mediante el cual el ser humano
tiende siempre a buscar la manera de obtener el mayor rendimiento posible empleando la
mínima cantidad de recursos, o reduciendo costos que puedan calificarse de innecesarios.
En este sentido, para que algo sea rentable, siempre se tiende a buscar la forma de
optimizar los recursos de que se dispone para, además, asegurar la sustentabilidad de la
actividad económica.
Optimizar en Informática
En los ámbitos de la informática y la tecnología, la optimización es el proceso a través del
cual se mejora la eficiencia y la rapidez en el funcionamiento de un sistema informático. En
este sentido, se puede optimizar un software, un hardware, un sistema de redes, una
computadora, un celular, o incluso la ejecución de un juego de PC.
Proyectos de Ingeniería. 1
UNIVERSIDAD NACIONAL DE INGENIERIA
Optimizar en Matemáticas
En Matemáticas, optimizar es la operación mediante la cual se establece cuál, de entre un
conjunto de elementos, es el mejor disponible. En este sentido, es una operación que se
aplicar para resolver un tipo general de problemas que implica elegir la mejor solución.
Técnicas de optimización computacional
Para resolver problemas, los investigadores pueden usar algoritmos que terminen en un
número finito de pasos, o métodos iterativos que convergen a una solución (en alguna clase
específica de problemas), o heurísticas que pueden proveer soluciones aproximadas a
algunos problemas (aunque sus iteraciones no convergen necesariamente).
Algoritmos de optimización
Algoritmo Simplex de George Dantzig, diseñado para la programación lineal.
Extensiones del algoritmo Simplex, diseñado para la programación cuadrática y para
la programación lineal- fraccionaria.
Variantes del algoritmo Simplex que son especialmente apropiadas para
la optimización de redes.
Algoritmos combinatorios.
Métodos iterativos
Los métodos iterativos usados para resolver problemas de programación no lineal difieren
según lo que ellos evalúen: Hessianas, gradientes, o solamente valores de función. Mientras
que evaluando Hessianas (H) y gradientes (G) mejora la velocidad de convergencia, tales
evaluaciones aumentan la complejidad computacional (o costo computacional) de cada
iteración. En algunos casos, la complejidad computacional puede ser excesivamente alta.
Un importante criterio para los optimizadores es justo el número de evaluaciones de
funciones requerido, como este con frecuencia es de por sí un gran esfuerzo computacional,
usualmente mucho más esfuerzo que el del optimizador en sí, ya que en su mayoría tiene
que operar sobre N variables. Las derivadas proveen información detallada para los
optimizadores, pero son aún más costosas de calcular, por ejemplo aproximando el
gradiente toma al menos N+1 evaluaciones de funciones. Para la aproximación de las
segundas derivadas (agrupadas en la matriz Hessiana) el número de evaluaciones de
funciones es de orden N². El método de Newton requiere las derivadas de Segundo orden,
por lo tanto por cada iteración el número de llamadas a función es de orden N², pero para el
Proyectos de Ingeniería. 2
UNIVERSIDAD NACIONAL DE INGENIERIA
optimizador de un gradiente puro más simple es de orden N. Sin embargo, los optimizadores
de gradiente necesitan usualmente más iteraciones que el algoritmo de Newton. Ser mejor
con respecto al número de llamadas a funciones depende del problema en sí.
Métodos que evalúan Hessianas (o aproximan Hessianas, usando diferencias
finitas):
Método de Newton
Programación secuencial cuadrática: un método de Newton basado en problemas
restrictos de pequeña-mediana escala. Algunas versiones pueden manejar
problemas de gran dimensión.
Métodos que evalúan gradientes o aproximan gradientes usando diferencias finitas
(o incluso subgradientes):
Métodos Quasi-Newton: métodos iterativos para problemas medianos-grandes
(ejemplo N<1000).
Métodos de gradiente conjugado: métodos iterativos para problemas grandes. (En
teoría, estos métodos terminan en un número finito de pasos con funciones objetivo
cuadráticas, pero esta terminación finita no se observa en la práctica en
computadoras de precisión finita.)
Métodos de punto interior: esta es una gran clase de métodos para la optimización
restricta. Algunos métodos de punto interior usan solamente información del
subgradiente, y otros requieren la evaluación de las Hessianas.
Descenso del gradiente (alternativamente, descenso pronunciado o ascenso
pronunciado): un método lento de interés teórico e histórico, el cual ha sido renovado
para encontrar soluciones aproximadas de problemas enormes.
Método del subgradiente: un método iterativo para grandes funciones de
Lipschitz localmente usando gradientes generalizados.
Métodos que evalúan solamente valores de funciones: si un problema es
continuamente diferenciable, entonces los gradientes pueden ser aproximados
usando diferencias finitas, en tal caso puede ser usado un método basado en
gradiente.
Métodos de interpolación
Métodos de búsqueda de patrones, los cuales tienen mejores propiedades de
convergencia que la heurística de Nelder-Mead.
Proyectos de Ingeniería. 3
UNIVERSIDAD NACIONAL DE INGENIERIA
Heurísticas
Además de los algoritmos (terminación finita) y los métodos iterativos (convergentes),
existen heurísticas que pueden proveer soluciones aproximadas a algunos problemas de
optimización:
Evolución diferencial
Algoritmo de búsqueda diferencial
Relajación Dinámica
Algoritmos genéticos
Ascenso de montañas
Nelder-Mead: una heurística popular por aproximar la minimización (sin llamadas a
gradientes)
Optimización por enjambre de partículas
Optimización artificial de la colonia de abejas
Proyectos de Ingeniería. 4