25
Simulación y Optimización de los Procesos Químicos 12 2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS. 2.1.- CONCAVIDAD Y CONVEXIDAD DE FUNCIONES. La determinación de la concavidad y convexidad de funciones nos ayudará a establecer si una solución optima local es también una solución óptima global. Además cuando se sabe que la función objetivo presenta ciertas propiedades, el cálculo del óptimo se puede acelerar utilizando algoritmos de optimización adecuados. Se dice que una función es convexa sobre una región R cuando se cumplen las siguiente relación: Para dos valores dados de x , (x a , x b ) que pertenecen a la región R, ( ) [ ] ( ) ( ) ( ) b a b a x f x f x x f θ θ θ θ - + - + 1 1 convexa ( [ ] ( ) ( ) ( ) b a b a x f x f x x f θ θ θ θ - + - + 1 ) 1 ( cóncava) donde θ es un escalar cuyo valor está entre 0 y 1.La función es estrictamente convexa si la desigualdad es estrictamente menor que (<). La Figura 1 ilustra convenientemente este punto: x x f(x) f(x) Función convexa Función cóncava x x f(x) f(x) Función convexa Función cóncava Figura 1. Concavidad y convexidad de funciones.

2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS …³n... · La optimización de una función no lineal trata el problema de buscar un mínimo de una función no lineal f(x) de n variables

  • Upload
    lynhan

  • View
    226

  • Download
    0

Embed Size (px)

Citation preview

Page 1: 2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS …³n... · La optimización de una función no lineal trata el problema de buscar un mínimo de una función no lineal f(x) de n variables

Simulación y Optimización de los Procesos Químicos

12

2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS.

2.1.- CONCAVIDAD Y CONVEXIDAD DE FUNCIONES.

La determinación de la concavidad y convexidad de funciones nos ayudará a establecer si

una solución optima local es también una solución óptima global. Además cuando se sabe

que la función objetivo presenta ciertas propiedades, el cálculo del óptimo se puede

acelerar utilizando algoritmos de optimización adecuados.

Se dice que una función es convexa sobre una región R cuando se cumplen las siguiente

relación: Para dos valores dados de x , (xa, xb) que pertenecen a la región R,

( )[ ] ( ) ( ) ( )baba xfxfxxf θθθθ −+≤−+ 11 convexa

( [ ] ( ) ( ) ( )baba xfxfxxf θθθθ −+≥−+ 1)1( cóncava)

donde θ es un escalar cuyo valor está entre 0 y 1.La función es estrictamente convexa si

la desigualdad es estrictamente menor que (<). La Figura 1 ilustra convenientemente este

punto:

x x

f(x) f(x)Función convexa Función cóncava

x x

f(x) f(x)Función convexa Función cóncava

Figura 1. Concavidad y convexidad de funciones.

Page 2: 2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS …³n... · La optimización de una función no lineal trata el problema de buscar un mínimo de una función no lineal f(x) de n variables

Simulación y Optimización de los Procesos Químicos

13

La ecuación anterior no es una ecuación conveniente para comprobar la

concavidad o convexidad de una función. En lugar de ello haremos uso de la segunda

derivada o de la matriz Hessiana, que denotaremos con el signo H(x), y que es una matriz

simétrica formada por las segundas derivadas de f(x). Por ejemplo, si f(x) es una función

cuadrática de dos variables:

( )f x h x h x x h x= + +11 1

2

12 1 2 22 2

2

( ) ( )

( ) ( )H x f x

f x

x

f x

x x

f x

x x

f x

x

h h

h h( ) ( )≡ ∇ =

=

2

2

1

2

2

1 22

1 2

2

2

2

11 12

12 22

2

2

∂ ∂

∂ ∂

Veremos ahora como se puede extender el concepto de concavidad y convexidad a

funciones de varias variables utilizando la matriz hessiana. Para cualquier función

objetivo la matriz hessiana se debe evaluar para poder determinar la naturaleza de f(x).

Primero haremos un resumen de los tipos de matrices hessianas:

1.- H es definida positiva si y sólo si xT H x>0 para todo x≠0

2.- H es definida negativa si y sólo si xT H x<0 para todo x≠0

3.- H es indefinida si xT H x>0 para algún x y < 0 para otros x

Las definiciones 1 y 2 se pueden extender a H semidefinida positiva o negativa si

incluimos el signo igual en la desigualdad. Se puede demostrar, por desarrollo en series

de Taylor que si f(x) tiene segunda derivadas parciales continuas f(x) es cóncava si y solo

si la matriz hessiana es semidefinida negativa. Para que f(x) sea convexa H(x) debe ser

semidefinida positiva y si f(x) es estrictamente convexa H(x) debe de ser definida

positiva.

Podemos desarrollar dos test para saber si una función es convexa a través de su matriz

hessiana asociada:

1.- Todos los elementos de la diagonal principal deben ser positivos y los determinantes

de los menores principales, así como el determinante de la matriz Hessiana deben ser

positivos.

Page 3: 2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS …³n... · La optimización de una función no lineal trata el problema de buscar un mínimo de una función no lineal f(x) de n variables

Simulación y Optimización de los Procesos Químicos

14

2.- Todos los valores propios de H(x) deben ser positivos.

La Tabla 1 da una relación entre el carácter de f(x) y el estado de H(x)

Tabla 1.- Relación del carácter de f(x) y el estado de H(x)

f(x) H(x) Valores propios de

H(x)

Determinantes de

los menores

principales

Estrictamente

convexa

Definida positiva >0 ∆1>0; ∆2>0......

Convexa Semidefinida

positiva

>=0 ∆1≥0; ∆2≥0,....

Cóncava Semidefinida

negativa

<=0 ∆1≤0; ∆2≥0; ∆≤0,...

Signos alternativos

Estrictamente

cóncava

Definida negativa <0 ∆1<0; ∆2>0; ∆3<0

Signos alternativos

En la tabla anterior cuando la matriz no es ni convexa ni cóncava es indefinida.

2.2.- REGIÓN CONVEXA

El concepto de región convexa (conjunto de puntos) juega un papel importante en

la optimización con restricciones. La siguiente Figura (2) muestra una región convexa y

otra no convexa. Una región convexa existe si para cualquier par de puntos en la región ,

xa, xb todos los puntos ( )x x xa b= + −µ µ1 , donde 0 1≤ ≤µ , pertenecientes a la línea de

unión de xa con xb pertenecen al conjunto. Nótese que este requerimiento no es satisfecho

por la línea punteada de la figura (b).

Page 4: 2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS …³n... · La optimización de una función no lineal trata el problema de buscar un mínimo de una función no lineal f(x) de n variables

Simulación y Optimización de los Procesos Químicos

15

x2 x2

x1 x1

Región convexa Región no convexa

xaxb xa xb

x2 x2

x1 x1

Región convexa Región no convexa

xaxb xa xb

Figura 2.- a) region convexa. b) región no convexa.

Si una función está totalmente acotada por funciones g(x) convexas para el caso en que

todas las restricciones ( ) 0≤xgi , entonces estas funciones forman una región cerrada

convexa. Téngase en cuenta que una desigualdad cualquiera siempre se puede

transformar a la forma ( ) 0≤xgi . Además las líneas rectas son a la vez cóncavas y

convexas.

La existencia de regiones convexas juega un importante papel en la optimización de

funciones sujetas a restricciones. En los problemas de optimización que incluyen

restricciones, aquellos puntos que satisfacen todas las restricciones se dice que son

puntos factibles todos los otros puntos son no-factibles. Las restricciones de desigualdad

especifican una región factible formada por el conjunto de puntos que son factibles,

mientras que las restricciones de igualdad limitan el conjunto de puntos de

hipersuperficies (superficies multidimensionales ( )h x x x xi n1 2 3 0, , ...... = ), curvas, o

quizás incluso puntos. Todos los puntos que satisfacen las restricciones como

desigualdades estrictas se llaman puntos interiores. Los que las satisfacen como

igualdades son puntos de contorno, todos los demás son puntos exteriores.

En la siguiente Figura (3.a) el máximo de la función objetivo sin restricciones cae fuera

de la región factible. Está claro que el conjunto de restricciones hace que la búsqueda del

óptimo termine en el mejor valor de la función objetivo dentro del conjunto de

restricciones. Así pues una de las restricciones del conjunto de soluciones es una

restricción activa (la restricción se satisface como igualdad. Si el óptimo cae dentro de la

región activa la solución será la de un óptimo sin restricciones (3.b). El apartado (c) de la

Page 5: 2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS …³n... · La optimización de una función no lineal trata el problema de buscar un mínimo de una función no lineal f(x) de n variables

Simulación y Optimización de los Procesos Químicos

16

figura muestra la importancia de tener un conjunto de restricciones que formen una

región convexa, para evitar posibles óptimos locales.

x1

x2 x2

Region Factible

Mínimo sin restricciones

Mínimofactible

x1

x2 x2

Region Factible

Mínimo sin restricciones

Mínimofactible

x2 x2

Region Factible

Mínimo sin restricciones

Mínimofactible

Mínimoslocales

x1

x2

Figura 4. Localización del mínimo de diversas funciones con restricciones.

Page 6: 2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS …³n... · La optimización de una función no lineal trata el problema de buscar un mínimo de una función no lineal f(x) de n variables

Simulación y Optimización de los Procesos Químicos

17

3.- FUNDAMENTOS DE OPTIMIZACIÓN NO LINEAL

3.1.-OPTIMIZACIÓN NO LINEAL SIN RESTRICCIONES

En esta sección repasaremos los fundamentos de la optimización no lineal sin

restricciones, así como las condiciones necesaria y suficiente de optimalidad.

3.1.1.- Formulación y definiciones:

La optimización de una función no lineal trata el problema de buscar un mínimo de una

función no lineal f(x) de n variables reales x=(x1, x2, x3,…xn)T y que se denota como:

nRx

xfMin

)(

Cada una de las variables x1, x2,..xn, se le permite variar entre - ∞ y + ∞.

Mínimo local: sea nRx ∈* se dice que x* es un mínimo local si existe una bola de radio

ε alrededor de x*, )( *xBε si:

( ) ( )xfxf ≤* para todo )( *xBx ε∈

Mínimo Global: sea nRx ∈* se dice que x* es un mínimo global si:

( ) ( )xfxf ≤* para todo nRx ∈

Punto de silla: Sea el vector x que se divide en dos sub-vectores, xa y xb, ( )** , ba xx se dice

que existe un punto de silla ( )** , ba xxf si existe una bola de radio ε alrededor de ( )** , ba xx

si se cumple que:

( ) ( ) ( )bababa xxfxxfxxf ,,, **** ≤≤ para todo ( ) ( )** ,, baba xxBxx ε∈

Page 7: 2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS …³n... · La optimización de una función no lineal trata el problema de buscar un mínimo de una función no lineal f(x) de n variables

Simulación y Optimización de los Procesos Químicos

18

3.1.2.- Condición necesaria y suficiente para la existencia de un extremo en una

función sin restricciones

En un problema de optimización sin restricciones estamos interesados en encontrar un

mínimo o un máximo de una función f(x) de una o más variables. El problema se puede

interpretar geométricamente como encontrar un punto en un espacio n-dimensional en el

cual la función presente un extremo.

La forma más sencilla de desarrollar una condición necesaria y suficiente para

minimización o maximización consiste en desarrollar la función en serie de Taylor

alrededor del punto x* (presunto óptimo).

( ) ( ) ( ) ( ) ( )xOxxfxxxfxfxf TT ∆+∆∇∆+∆∇+= 32 *

21**

donde ∆x x x= − *. Admitiendo que todos los términos en la ecuación anterior existen y

son continuos, e ignorando los términos de orden 3 y superior, veremos que ocurre para

varios casos que consideran sólo los términos de segundo orden.

Suponiendo que x* es un mínimo local está claro que cualquier otro punto en la vecindad

de x* debe dar un valor de la función mayor, así:

( ) ( )f x f x− ≥* 0

Examinando el siguiente término del desarrollo, vemos que puede tomar tanto valores

negativos como positivos, dependiendo de ∆x así pues, si para que el punto x* sea un

mínimo se debe cumplir que ( ) ( )f x f x− ≥* 0 debemos forzar a que este término del

desarrollo sea nulo, o lo que es lo mismo que en dicho punto el gradiente de la función

sea cero. ( )∇ =f x * 0. Así pues una condición necesaria para tener un mínimo o un

máximo es que: ( )∇ =f x * 0

Por lo tanto, el que una función sea un mínimo un máximo o un punto de silla viene

determinado por el término ( )12

2∆ ∆x f x xT ∇ * . La siguiente Tabla (2) es un resumen

de lo que ocurre para pequeños desplazamientos alrededor de x*. Así:

Page 8: 2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS …³n... · La optimización de una función no lineal trata el problema de buscar un mínimo de una función no lineal f(x) de n variables

Simulación y Optimización de los Procesos Químicos

19

Tabla 2.- Efecto del carácter de la matriz Hessiana en el punto extremo

( )∇2f x * ( )1

22∆ ∆x f x x

T ∇ * ( ) ( )f x f x− *

Definida positiva > 0 Incrementa

Semidefinida positiva ≥ 0 Posible incremento

Definida negativa < 0 Decremento

Semidefinida negativa ≤ Posible decremento

Indefinida Ambos ≤0 ó ≥ 0

dependiendo de ∆x

Incrementa o decrementa

Así pues, la condición suficiente para le existencia de un mínimo es que la matriz

hessiana sea definida positiva, y la condición suficiente para que exista un máximo es que

la matriz hessiana sea definida negativa. Por supuesto, podría existir un máximo o un

mínimo en un punto incluso aunque la matriz hessiana no fuera definida positiva o

negativa, deberíamos hacer un estudio local en ese punto.

Page 9: 2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS …³n... · La optimización de una función no lineal trata el problema de buscar un mínimo de una función no lineal f(x) de n variables

Simulación y Optimización de los Procesos Químicos

20

3.2.- CONCEPTOS BÁSICOS DE LA OPTIMIZACIÓN NO LINEAL CON RESTRICCIONES

En esta sección introduciremos primero las definiciones básicas de la optimización no

lineal con restricciones. Después presentaremos los multiplicadores de Lagrange junto

con su interpretación. A continuación las condiciones necesarias de primer orden de Fritz

John y discutiremos la necesidad de las restricciones de cualificación. Finalmente se

introducirán las condiciones necesaria y suficiente de Karush–Kuhn–Tucker.

3.2.1.- Formulación y Definiciones

Un problema de programación no lineal con restricciones intenta encontrar un mínimo a

una función f(x) de n variables reales xT =(x1, x2,…, xn) sujeto a una serie de restricciones

de igualdad y de desigualdad que se suele escribir de la forma:

nRXx

xg

xhas

xfMin

⊆∈

=

0)(

0)(..

)(

Si alguna de las funciones f(x), g(x), h(x) es no lineal entonces la formulación anterior

corresponde a un problema de programación no lineal. Las funciones f(x), h(x), g(x)

podrían tomar cualquier forma, en nuestro caso asumiremos que son funciones que

cumplen los requisitos de continuidad y diferenciabilidad.

Restricción activa: se dice que una restricción de desigualdad, gj(x) es activa en un punto

factible x si ( ) 0=xg , y una desigualdad se dice que es inactiva en un punto x si

( ) 0<xg .

Las restricciones que son activas en el punto x restringen el dominio de factibilidad,

mientras que las que no lo son no imponen ninguna restricción al dominio en la vecindad

del punto x .

Page 10: 2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS …³n... · La optimización de una función no lineal trata el problema de buscar un mínimo de una función no lineal f(x) de n variables

Simulación y Optimización de los Procesos Químicos

21

Vector de dirección factible: sea x un punto factible Fx∈ (F es el conjunto de puntos

factibles). Cualquier punto x dentro de una bola de radio ε alrededor de _

x que se pueda

escribir como dx + y en el que xx ≠ y 0≠d se llama dirección factible del punto x si

existe una bola de radio ε tal que:

( ) ( ) FxBdx ∩∈+ ελ Para todo d

ελ ≤≤0

El conjunto de factible de vectores 0≠d que salen desde x es lo que se llama cono de

direcciones factibles de F en x .

( )xBε

x

d

Figura 5.- Ilustración del cono de direcciones factibles.

Señalar que si x es un mínimo local y d es un vector de dirección factible de x entonces

para un valor suficientemente pequeño de λ se debe satisfacer que:

( ) ( )dxfxf λ+≤ .

Podemos plantear el siguiente lema:

Lema: Sea d una dirección factible, diferente de cero, del vector x , entonces x debe

satisfacer las condiciones:

Page 11: 2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS …³n... · La optimización de una función no lineal trata el problema de buscar un mínimo de una función no lineal f(x) de n variables

Simulación y Optimización de los Procesos Químicos

22

( )

( ) ( )xgactivasnesrestricciolasparaxgd

xhd

T

T

0

0

≤∇

=∇

Vectores de dirección factible que mejoran la función objetivo: Es aquel conjunto de

vectores 0≠d , que cumplen:

( ) ( )d

todoparaxfdxfε

λλ ≤≤<+ 0

El conjunto de vectores que mejoran la función objetivo se llama cono de direcciones de

mejora de F en el punto x .

Si 0≠d y ( ) 0<∇ xfdT entonces d es un vector de dirección factible de mejora en el

punto x

Page 12: 2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS …³n... · La optimización de una función no lineal trata el problema de buscar un mínimo de una función no lineal f(x) de n variables

Simulación y Optimización de los Procesos Químicos

23

3.3.- OPTIMIZACIÓN CON RESTRICCIONES DE IGUALDAD

Un problema de optimización con restricciones de igualdad se puede escribir de la forma:

0)(..

)(

=xhas

xfMin

Quizás el resultado más importante de la optimización con restricciones de igualdad sea

el siguiente teorema:

Teorema : Si f(x) tiene un extremo en x* restringido, tal que

mjxh j ...,3,2,10)( == entonces los gradientes )(xf∇ y

)(xh j∇ son linealmente dependientes.

Para ver lo que el teorema anterior implica consideremos el caso de un problema con dos

variables y una única restricción:

0),(.

),(

21

21

=xxhas

xxfMin

En el óptimo restringido se deben cumplir las siguientes dos restricciones

simultáneamente:

0

0

22

11

22

11

=∂

∂+

∂=

=∂

∂+

∂=

dxx

hdx

x

hhd

dxx

fdx

x

fdf

Si ( )21, xxf fuera una función sin restricciones, ambas derivadas parciales de f(x*)

deberían ser cero (esto es 01

=∂

x

f y 0

2

=∂

x

f).Sin embargo, las variables x1 y x2, están

restringidas, y por lo tanto dx1 y dx2 no son independientes. No obstante f(x) debe de ser

un extremo en el óptimo, y por lo tanto df(x) debe ser igual a cero. Las ecuaciones

anteriores podrían rescribirse para el óptimo como:

Page 13: 2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS …³n... · La optimización de una función no lineal trata el problema de buscar un mínimo de una función no lineal f(x) de n variables

Simulación y Optimización de los Procesos Químicos

24

=

∂∂

0

0

2

1

21

21

dx

dx

x

h

x

h

x

f

x

f

Existe una solución trivial (dx1=dx2=0) y soluciones no triviales, no únicas, en este caso

el determinante de los coeficientes debe ser igual a cero. O dicho en otras palabras, el

Jacobiano del sistema, función objetivo más restricciones, debe ser igual a cero. Esto

significa que los jacobianos de la función objetivo y de las restricciones son linealmente

dependientes. Lo cual se puede expresar como:

[ ] ( ) ( ) 0),('

1

**0 =∇+∇=

∂∑=

m

j

jj xhxfx

xLλλ

λ donde

[ ] ∑=

+=m

j

jj xhxfxL

1

0 )()(,' λλλ

A la función L’ así definida se la conoce como función de Lagrange débil. Volveremos

más adelante sobre el tema, de momento supondremos que λ0 es igual a uno, con lo cual

la función de Lagrange queda:

[ ] ∑=

+=m

j

jj xhxfxL

1

)()(, λλ y

( ) ( ) 0

1

** =∇+∇ ∑=

m

j

jj xhxf λ

Y por lo tanto las condiciones necesarias de optimalidad de primer orden son:

1. Dependencia lineal de los gradientes:

( ) ( ) 0

1

* =∂

∂=∇+∇ ∑

=x

Lxhxf

m

j

jjλ

2. Factibilidad de las restricciones:

( ) mjxhL

jj

,...3,2,10* ===∂

λ

Page 14: 2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS …³n... · La optimización de una función no lineal trata el problema de buscar un mínimo de una función no lineal f(x) de n variables

Simulación y Optimización de los Procesos Químicos

25

3.4.- OPTIMIZACIÓN CON RESTRICCIONES (DE DESIGUALDAD O IGUALDAD)

El problema general de la optimización con restricciones de igualdad y desigualdad se

puede escribir como:

nRXx

xg

xhas

xfMin

⊆∈

=

0)(

0)(..

)(

A continuación presentamos, asumiendo diferenciabilidad de f(x), g(x) y h(x) las

condiciones necesarias de primer orden, conocidas como condiciones de Fritz John:

Condiciones de Fritz John:

Sea Xx ∈ una solución factible del problema, esto es cumple

0)(;0)( ≤= xgxh , Sean f(x) y g(x) diferenciables en x y h(x)

derivable con derivadas parciales primeras continuas en x .

Entonces, si x es una solución local existen unos multiplicadores

λλ ,0 y µ de tal manera que se cumple:

( ) ( ) 0)(0 =∇+∇+∇ xgxhxf TT µλλ

0)( =xh

( ) 0≤xg

( ) pjxg jj ,....,2,10 ==µ

( ) ( ) pjj ,....,2,10,0,0 =≥µλ

3.4.1.- Restricciones de complementariedad:

La restricción ( ){ }pjxg jj ,....,2,10 ==µ es lo que se conoce como restricción de

complementariedad.

Page 15: 2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS …³n... · La optimización de una función no lineal trata el problema de buscar un mínimo de una función no lineal f(x) de n variables

Simulación y Optimización de los Procesos Químicos

26

Señalar que el problema es prácticamente idéntico al caso en el que sólo aparecen

restricciones de igualdad. La diferencia la marcan las restricciones de complementariedad

y la restricción que obliga a los multiplicadores asociados a las restricciones de

desigualdad a ser no negativos.

Si el punto x satisface las restricciones de desigualdad de forma estricta, es decir las

restricciones no son activas, desde un punto de vista local se puede considerar que dichas

restricciones no existen, esto es lo que nos asegura la restricción de complementariedad.

Si las restricciones son activas el multiplicador asociado no puede ser cero “la restricción

es activa en la lagrangiana” si la restricción es inactiva entonces, que el multiplicador sea

cero asegura que la restricción no tiene ningún peso en la lagrangiana. El hecho de que el

multiplicador sea positivo indica que solamente se puede obtener (desde un punto de

vista de análisis local) una mejora de la función objetivo si la restricción se relaja. Si

fuera negativo indicaría que es posible obtener una mejora de la función objetivo

moviéndonos en una dirección en la que la restricción se sigue cumpliendo (interior de la

región factible).

x2

x1

1g∇

2g∇

f∇

x

g1

g2

g3activasggxen 021 ==

inactivag 03 <

( ) 02211 =∇+∇+∇ ggxf µµ

00, 321 => µµµ

Figura 6.-Ilustración condiciones de complementariedad.

Page 16: 2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS …³n... · La optimización de una función no lineal trata el problema de buscar un mínimo de una función no lineal f(x) de n variables

Simulación y Optimización de los Procesos Químicos

27

3.4.2.- Cualificación de las restricciones:

En las condiciones necesarias de optimalidad de primer orden de Frit John, el

multiplicador λ0 asociado a la función objetivo se puede hacer cero en el punto x sin

violar las condiciones de optimalidad. En tal caso, la función de Lagrange se hace

independiente de f(x) y las condiciones de optimalidad las satisface cualquier función

objetivo diferenciable, independientemente de si x es un mínimo local de dicha función

o no. Veamos un ejemplo de la debilidad de las condiciones de Fritz John:

Considérese el siguiente problema:

( )

( ) 013)(

011)(.

)(

22

212

22

211

21

≤−+−=

≤−+−=

+=

xxxg

xxxgas

xxxfMin

(1,0) (3,0) x1

x2

( )xg2∇ ( )xg1∇

( )xf∇

Figura 7.- Ilustración de la necesidad de la cualificación de las restricciones.

El problema anterior sólo tiene un punto factible el (2,0). En el punto (2,0) ambas

restricciones son activas y:

( ) ( )

( ) ( )

( ) ( )T

T

T

xg

xg

xf

0,2

0,2

1,1

2

1

−=∇

=∇

=∇

Page 17: 2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS …³n... · La optimización de una función no lineal trata el problema de buscar un mínimo de una función no lineal f(x) de n variables

Simulación y Optimización de los Procesos Químicos

28

Nótese que ( ) ( )xgyxg 21 ∇∇ son linealmente dependientes:

00

2

0

2

1

1210 =

−+

+

µµλ

=

=⇒

=

=−+

00

022

0

21

0

210

λ

µµ

λ

µµλ

Para eliminar esta debilidad de las condiciones necesarias de Fritz Johns, necesitamos

determinar que condiciones hacen que λ0 sea estrictamente positivo. Estas restricciones

se conocen como “restricciones de cualificación de primer orden”. Existen diferentes

tipos de cualificación de las restricciones debidas a Slater, a Khun-Tucker etc… sin

embargo la forma más sencilla es la siguiente:

3.4.2.1.-Cualificación de independencia lineal de las restricciones:

Sea x un mínimo local y J un conjunto definido como: ( ){ }0: == xgjJ j . Sea también

gj(x), ( ) mixhJj i ,..,2,1, =∈ continuas y diferenciables en x . La restricción de

cualificación de independencia lineal dice:

Los gradientes ( )xg j∇ para Jj ∈ y ( )xhi∇ para i=1,2,..,m son linealmente

independientes.

3.4.3.- Interpretación de los multiplicadores de Lagrange

Consideremos un problema en el que se cumplen las condiciones de KKT, por lo tanto:

( ) ( ) 0

1

=∇+∇ ∑=

p

j

jj xgxf µ (1)

Considérese ahora una dirección factible, p (apunta al interior de la región factible) tal

que 0→p

Esto nos permite perturbar los gradientes de la función objetivo y de las restricciones:

Page 18: 2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS …³n... · La optimización de una función no lineal trata el problema de buscar un mínimo de una función no lineal f(x) de n variables

Simulación y Optimización de los Procesos Químicos

29

( )

( ) jjT

T

gxgp

fxfp

δ

δ

=∇

=∇ (2)

Si pre-multiplicamos la ecuación (1) por p nos queda:

( ) ( ) 0

1

=∇+∇ ∑=

p

j

jT

jT

xgpxfp µ y sustituyendo por (2)

0

1

=+ ∑=

p

j

jj gf δµδ

Sin perder generalidad podemos considerar que todos los 0=jgδ excepto para uno de

ellos k, jk ≠ .

0=+ kk gf δµδ ⇒

kj

gk

k jg

f

≠=

−= 0δ

δ

δµ

Es decir el multiplicador de lagrange es la relación entre la perturbación de la función

objetivo y la perturbación de la restricción. Por lo tanto µk representa el decrecimiento

local de la función objetivo para una perturbación de las restricciones. Si es de signo

positivo indica que solo se puede conseguir mejorar (localmente) la función objetivo

violando la restricción, si es de signo negativo indica que se puede mejorar la función

objetivo sin violar la restricción.

El conjunto de todas las condiciones necesarias de primer orden es lo que se conoce

como condiciones de Karush – Kuhn – Tucker.:

Page 19: 2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS …³n... · La optimización de una función no lineal trata el problema de buscar un mínimo de una función no lineal f(x) de n variables

Simulación y Optimización de los Procesos Químicos

30

Condiciones de Necesarias Optimalidad de Primer Orden.

Condiciones de Karush-Kuhn-Tucker

1. Cualificación de las restricciones. Por ejemplo,

independencia lineal de los gradientes de las restricciones

activas.

2. Dependencia lineal de los gradientes:

( ) ( ) ( ) 0

11

=∇+∇+∇ ∑∑==

p

j

jj

m

i

ii xgxhxf µλ

3. Restricciones del problema:

( )( ) pjxg

mixh

j

i

,....,2,10

,...,2,10

=≤

==

4. Condiciones de complementariedad:

( ) pjxg jjj ....100 =≥= µµ

La siguiente propiedad es muy importante en los problemas de optimización no lineal:

Propiedad:

Si f(x) es convexa, y la región factible definida por las restricciones del problema

es convexa, entonces existe un mínimo local en x entonces:

a. x es un mínimo global.

b. Las restricciones de cualificación se satisfacen

c. Las condiciones de Karush – Kuhn – Tucker son necesarias y suficientes para

que x sea un mínimo global.

Page 20: 2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS …³n... · La optimización de una función no lineal trata el problema de buscar un mínimo de una función no lineal f(x) de n variables

Simulación y Optimización de los Procesos Químicos

31

3.4.4.-Condiciones necesarias de segundo orden

Las condiciones necesarias de primer orden utilizan sólo información de los gradientes de

la función objetivo y de las restricciones. Como resultado la curvatura de las funciones,

no se tiene en cuenta. Ilustremos el caso con un pequeño ejemplo debido a Fiacco y

McCormick:

( )

0..

1

22

1

22

21

≤−

+−

k

xxas

xxMin

donde se buscan los valores del parámetro k>0 para los cuales el punto (0,0) es un

mínimo.

Las restricciones de cualificación se cumplen. Considerando las condiciones KKT en el

punto (0,0) tenemos:

20

0

0

1

0

2=⇒

=

+

−µµ

el valor µ=2 no depende del parámetro k. sin embargo, para k=1, por ejemplo, el punto

(0,0) no es un mínimo local, mientras que para k=4 sí que lo es. Además las condiciones

necesarias de primer orden de KKT indican que el punto (0,0) es un candidato a ser un

mínimo, pero no dan información sobre el intervalo correcto de los valores de k.

Como ocurría en las condiciones necesarias de primer orden, es necesario introducir

restricciones de cualificación de segundo orden. Sin embargo la cualificación que supone

la independencia lineal de los gradientes de las restricciones activas en el punto es

suficientemente fuerte para satisfacer la cualificación de primer y segundo orden.

Page 21: 2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS …³n... · La optimización de una función no lineal trata el problema de buscar un mínimo de una función no lineal f(x) de n variables

Simulación y Optimización de los Procesos Químicos

32

Las condiciones necesarias de optimalidad de segundo orden

son:

1. Condiciones necesarias de KKT de primer orden.

2. Dado un vector z distinto de cero:

( )

( ) ( ){ }

=≡∈=∇

==∇

0:0

,.....2,10

xgjJjxgz

mixhz

jjT

iT

entonces

( ) 0,,2 ≥∇ zxLzT µλ

En otras palabras la matriz Hessiana asociada a la

Lagrangiana debe ser semidefinida positiva. Si la matriz es

definida positiva entonces es también condición suficiente.

Continuando con el ejemplo anterior la función de Lagrange es:

( ) ( )

−++−=

k

xxxxxxL

22

122

2121 21,, µ

La matriz Hessiana de la función de Lagrange en el punto (0,0) es:

( ) 04

22420

02, 21

2 ≥

−=

−=∇

kk

xxL

Que nos dice que k tiene que ser mayor o igual que 2. Las condiciones de optimalidad de

segundo orden dicen que el punto (0,0) es un mínimo para 2≥k .

Page 22: 2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS …³n... · La optimización de una función no lineal trata el problema de buscar un mínimo de una función no lineal f(x) de n variables

Simulación y Optimización de los Procesos Químicos

33

3.4.5.- Solución de las condiciones de KKT. Método de conjunto activo

Aunque veremos más adelante los métodos más utilizados para resolver los problemas de

programación no lineal, vamos a ver ahora un método sencillo que permite resolver el

problema. El método sigue una estrategia de conjunto activo, es decir busca la solución a

las condiciones KKT siguiendo conjuntos diferentes de restricciones activas. Los pasos

del algoritmo son los siguientes:

Definimos un conjunto { }0/ == jgjJ índice de desigualdades activas.

1. Suponemos que no existen desigualdades activas. Y por lo tanto:

pjJ j .....10 === µφ

2. Formulas las ecuaciones 2 y 3 de KKT y resolver para x, λi y µj

( ) 0)()(

11

=∇+∇+∇ ∑∑==

p

j

jj

m

i

ii xgxhxf µλ

mixhi ....10)( ==

Jjxg j ∈=0)(

3. Si todas las restricciones se cumplen y los 0≥jµ entonces parar.

4. Si alguna de las restricciones de desigualdad no se cumple 0)( >xg j y/o el

multiplicador asociado tiene el signo incorrecto 0<jµ entonces:

a. Eliminar una de las restricciones de desigualdad del conjunto activo de

restricciones que tenga un multiplicador asociado con signo erróneo. Elegir

aquella con el mayor valor absoluto del multiplicador.

b. Añadir al conjunto J las restricciones violadas 0>jg para hacerlas activas

c. Volver al paso 2

Page 23: 2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS …³n... · La optimización de una función no lineal trata el problema de buscar un mínimo de una función no lineal f(x) de n variables

Simulación y Optimización de los Procesos Químicos

34

Ejemplo:

( )

0

022

1

0..

32

1)(

23

212

211

2122

21

≤−=

≤−−=

≤+−=

−−+=

xg

xxg

xxgas

xxxxxfMin

1g

2g

3g x1

x2

2g∇

f∇

Figura 8. Representación gráfica de las restricciones del ejemplo de aplicación de un

método de conjunto activo para resolver las condiciones de optimalidad.

Calculamos los gradientes de la función objetivo y las restricciones

−∇

−∇

−∇

1

0

2/1

1

1

1

1

3321

2

1ggg

x

xf

Page 24: 2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS …³n... · La optimización de una función no lineal trata el problema de buscar un mínimo de una función no lineal f(x) de n variables

Simulación y Optimización de los Procesos Químicos

35

primera iteración:

1. -Hacemos J=φ, µ1=µ2=µ3=0

2.- 0)( =∇ xf

x1 –3 = 0 x1=3

x2 – 1 = 0 x2=1

3.- Comprobamos las restricciones

g1= -2 <0

g2 = ½ >0 restricción violada

g3= -1<0

4.- Hacemos g2 activa { }2=J

segunda iteración:

2.-

0)(

0)()(

2

22

=

=∇+∇

xg

xgxf µ ⇒

=−−

=

−+

022

1

0

01

1

3

21

212

2

1

xx

x

Sistema de 3x3

x1=2.6; x2=1.2; µ2=0.4

3.- Comprobamos las restricciones

g1 = -1.4 <0

g2 = 0

g3 = -1.2 luego cumplen las tres.

µ1=0

µ2=0.4 >0

µ3=0

Por lo tanto hemos encontrado un punto estacionario de KKT.

Page 25: 2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS …³n... · La optimización de una función no lineal trata el problema de buscar un mínimo de una función no lineal f(x) de n variables

Simulación y Optimización de los Procesos Químicos

36

Si calculamos la Hessiana en la solución vemos que:

=

10

01H Que tiene como valores propios λ1=λ2=1. Por lo tanto tenemos un

mínimo. De todas formas lo teníamos garantizado, porque tenemos una función objetivo

convexa sujeta a restricciones lineales. Por lo tanto el mínimo es también un mínimo

global.