OPTIMIZACION

Preview:

DESCRIPTION

proyectos

Citation preview

UNIVERSIDAD NACIONAL DE INGENIERIA

OPTIMIZACIÓN

Optimizar quiere decir buscar mejores resultados, más eficacia o mayor eficiencia en el

desempeño de alguna tarea. De allí que términos sinónimos sean mejorar, optimar o

perfeccionar. Mientras que antónimos serían desmejorar o empeorar.

Se dice que se ha optimizado algo (una actividad, un método, un proceso, un sistema, etc.)

cuando se han efectuado modificaciones en la fórmula usual de proceder y se han obtenido

resultados que están por encima de lo regular o lo esperado. En este sentido, optimizar es

realizar una mejor gestión de nuestros recursos en función del objetivo que perseguimos.

Optimizar en Administración

En la Administración, en la cual se inscriben áreas gerenciales de planificación y gestión,

la optimización está asociada a procurar mejorar los procesos de trabajo y aumentar el

rendimiento y la productividad. De allí que pueda referirse al tiempo empleado por los

trabajadores para la ejecución de tareas específicas, o bien a métodos o técnicas

específicos que permitan mayor fluidez en el trabajo, todo lo cual se traduciría en una mayor

productividad, manteniendo elevados estándares de calidad.

Optimizar en Economía

En el ámbito económico, la optimización es un proceso mediante el cual el ser humano

tiende siempre a buscar la manera de obtener el mayor rendimiento posible empleando la

mínima cantidad de recursos, o reduciendo costos que puedan calificarse de innecesarios.

En este sentido, para que algo sea rentable, siempre se tiende a buscar la forma de

optimizar los recursos de que se dispone para, además, asegurar la sustentabilidad de la

actividad económica.

Optimizar en Informática

En los ámbitos de la informática y la tecnología, la optimización es el proceso a través del

cual se mejora la eficiencia y la rapidez en el funcionamiento de un sistema informático. En

este sentido, se puede optimizar un software, un hardware, un sistema de redes, una

computadora, un celular, o incluso la ejecución de un juego de PC.

Proyectos de Ingeniería. 1

UNIVERSIDAD NACIONAL DE INGENIERIA

Optimizar en Matemáticas

En Matemáticas, optimizar es la operación mediante la cual se establece cuál, de entre un

conjunto de elementos, es el mejor disponible. En este sentido, es una operación que se

aplicar para resolver un tipo general de problemas que implica elegir la mejor solución.

Técnicas de optimización computacional

Para resolver problemas, los investigadores pueden usar algoritmos que terminen en un

número finito de pasos, o métodos iterativos que convergen a una solución (en alguna clase

específica de problemas), o heurísticas que pueden proveer soluciones aproximadas a

algunos problemas (aunque sus iteraciones no convergen necesariamente).

Algoritmos de optimización

Algoritmo Simplex de George Dantzig, diseñado para la programación lineal.

Extensiones del algoritmo Simplex, diseñado para la programación cuadrática y para

la programación lineal- fraccionaria.

Variantes del algoritmo Simplex que son especialmente apropiadas para

la optimización de redes.

Algoritmos combinatorios.

Métodos iterativos

Los métodos iterativos usados para resolver problemas de programación no lineal difieren

según lo que ellos evalúen: Hessianas, gradientes, o solamente valores de función. Mientras

que evaluando Hessianas (H) y gradientes (G) mejora la velocidad de convergencia, tales

evaluaciones aumentan la complejidad computacional (o costo computacional) de cada

iteración. En algunos casos, la complejidad computacional puede ser excesivamente alta.

Un importante criterio para los optimizadores es justo el número de evaluaciones de

funciones requerido, como este con frecuencia es de por sí un gran esfuerzo computacional,

usualmente mucho más esfuerzo que el del optimizador en sí, ya que en su mayoría tiene

que operar sobre N variables. Las derivadas proveen información detallada para los

optimizadores, pero son aún más costosas de calcular, por ejemplo aproximando el

gradiente toma al menos N+1 evaluaciones de funciones. Para la aproximación de las

segundas derivadas (agrupadas en la matriz Hessiana) el número de evaluaciones de

funciones es de orden N². El método de Newton requiere las derivadas de Segundo orden,

por lo tanto por cada iteración el número de llamadas a función es de orden N², pero para el

Proyectos de Ingeniería. 2

UNIVERSIDAD NACIONAL DE INGENIERIA

optimizador de un gradiente puro más simple es de orden N. Sin embargo, los optimizadores

de gradiente necesitan usualmente más iteraciones que el algoritmo de Newton. Ser mejor

con respecto al número de llamadas a funciones depende del problema en sí.

Métodos que evalúan Hessianas (o aproximan Hessianas, usando diferencias

finitas):

Método de Newton

Programación secuencial cuadrática: un método de Newton basado en problemas

restrictos de pequeña-mediana escala. Algunas versiones pueden manejar

problemas de gran dimensión.

Métodos que evalúan gradientes o aproximan gradientes usando diferencias finitas

(o incluso subgradientes):

Métodos Quasi-Newton: métodos iterativos para problemas medianos-grandes

(ejemplo N<1000).

Métodos de gradiente conjugado: métodos iterativos para problemas grandes. (En

teoría, estos métodos terminan en un número finito de pasos con funciones objetivo

cuadráticas, pero esta terminación finita no se observa en la práctica en

computadoras de precisión finita.)

Métodos de punto interior: esta es una gran clase de métodos para la optimización

restricta. Algunos métodos de punto interior usan solamente información del

subgradiente, y otros requieren la evaluación de las Hessianas.

Descenso del gradiente (alternativamente, descenso pronunciado o ascenso

pronunciado): un método lento de interés teórico e histórico, el cual ha sido renovado

para encontrar soluciones aproximadas de problemas enormes.

Método del subgradiente: un método iterativo para grandes funciones de

Lipschitz localmente usando gradientes generalizados.

Métodos que evalúan solamente valores de funciones: si un problema es

continuamente diferenciable, entonces los gradientes pueden ser aproximados

usando diferencias finitas, en tal caso puede ser usado un método basado en

gradiente.

Métodos de interpolación

Métodos de búsqueda de patrones, los cuales tienen mejores propiedades de

convergencia que la heurística de Nelder-Mead.

Proyectos de Ingeniería. 3

UNIVERSIDAD NACIONAL DE INGENIERIA

Heurísticas

Además de los algoritmos (terminación finita) y los métodos iterativos (convergentes),

existen heurísticas que pueden proveer soluciones aproximadas a algunos problemas de

optimización:

Evolución diferencial

Algoritmo de búsqueda diferencial

Relajación Dinámica

Algoritmos genéticos

Ascenso de montañas

Nelder-Mead: una heurística popular por aproximar la minimización (sin llamadas a

gradientes)

Optimización por enjambre de partículas

Optimización artificial de la colonia de abejas

Proyectos de Ingeniería. 4