24

Click here to load reader

optimización sin restricciones

Embed Size (px)

DESCRIPTION

revista informativa sobre la optimización sin restricciones de múltiples variables

Citation preview

Page 1: optimización sin restricciones

Edición especial

HECHO POR Y PARA ESTUDIANTES

Optimización sin restricciones

Ejercicios

Ejemplos sobre los distintos puntos antes

explicados que se encuentran en la

optimización.

Información

Temas útiles y necesarios para la

comprensión los métodos de optimización de

manera simple y efectiva.

Page 2: optimización sin restricciones

í

ó

oy en día nos enfrentamos a problemas

complejos de optimización los cuales no sabemos

cómo afrontar es por esta razón que estudiaremos la

teoría y métodos que se utilizan para enfrentar

problemas de optimización sin restricciones.

En este apunte veremos una breve descripción de

la teoría y métodos que se utilizan para enfrentar

problemas de optimización no-lineales sin

restricciones.

La no presencia de restricciones puede ser vista

en un comienzo como una grave limitación, sin

embargo, la razón del porque dedicamos tiempo a

resolver este tipo de problemas desde el punto de

vista de la optimización, es que existe toda una

metodología que permite tratar problemas de

optimización no-lineales con restricciones como

problemas de optimización no-lineales sin

restricciones

Para poder comprender la optimización sin

restricciones es necesario definir condiciones

suficientes y necesarias, que puedan satisfacer con

el punto solución, para que pueda ser considerado

como un punto de solución óptimo.

H

Page 3: optimización sin restricciones

¿Qué es la optimización?

¿Qué que es la optimización con

restricciones?

¿Qué es la optimización con múltiples

variables?

Distintas características que se encuentran

en la optimización sin restricciones.

Distintos métodos aplicados en la

optimización sin restricciones

¿Porque es importante la optimización sin

restricciones?

Ejercicios prácticos

Optimización sin restricciones

Ediciones…

Todos los derechos reservados

Búscanos en:

E-mail: psmoptimizacionsinrestriciones

Facebook: PSMoptimizacion

Twitter: PSMoptimizacion

Venezuela Edo Aragua

Autores:

Lizmari Acevedo.

Freddy Alí.

Chanel Khayat.

Definición

Características

Nuestros temas

Métodos

Importancia

Ejercicios

Page 4: optimización sin restricciones

Qué es la optimización?

La Optimización es el proceso de

hallar el máximo o mínimo

relativo de una función,

generalmente sin la ayuda de

gráficos.

Un problema de optimización

consiste en minimizar o

maximizar el valor de una

variable. En otras palabras se

trata de calcular o determinar el

valor mínimo o el valor máximo

de una función de una o varias

variables.

Se debe tener presente que la

variable que se desea minimizar o

maximizar debe ser expresada

como función de otra de las

variables relacionadas en el

problema.

En ocasiones es preciso

considerar las restricciones que

se tengan en el problema, ya que

éstas generan igualdades entre las

variables que permiten la

obtención de la función de una

variable que se quiere minimizar

o maximizar.

En un sentido más restringido, en

este tema se entiende por

optimización el proceso de

encontrar los valores mínimos de

una función de n variables f(x) en

un dominio que puede ser Rn.

Un gran número de problemas de

Ingeniería se pueden formular de

esta forma

Una buena técnica de

optimización de variables es

fundamental por al menos tres

razones

En muchos problemas las

restricciones se pueden incluir

dentro de la función objetivo, por

lo que la dimensionaldad del

problema se reduce a una variable.

Algunos problemas sin

restricciones, inherentemente

incluyen una única variable.

Las técnicas de optimización con y

sin restricciones, generalmente

incluyen pasos de búsqueda

unidireccional en sus algoritmos.

Los problemas de

optimización sin

restricciones permiten

resolver situaciones de

mayor complejidad

transformándolas en

situaciones fáciles de

resolver

1

o

Page 5: optimización sin restricciones

la Naturaleza

(y por tanto el ser humano)

le encanta optimizar.

Por ejemplo

El principio de Fermat

establece que la luz viaja

entre dos puntos

siguiendo la trayectoria

que le lleva el menor

tiempo posible

El principio de mínima

acción es una idea básica

en el desarrollo de la

Física y la Matemática

modernas.

E El ser humano se pasa el

t tiempo tratando de maximizar

el rendimiento (Minimizando los

t costes) en la realización de

c cualquier actividad.

La optimización se aplica a un

innumerable número de problemas

Diseño de aviones y estructuras

aeroespaciales para minimizar peso

Encontrar trayectorias óptimas de

vehículos espaciales

Diseño de estructuras de obras

civiles (puentes, torres,

chimeneas, presas. . . ) al

precio más bajo

Peso mínimo de estructuras

resistentes a terremotos y viento

Diseño de reservas de agua para un

uso eficiente

Diseño óptimo de estructuras de

plástico

Diseño óptimo de engranajes, levas,

y todo tipo de componentes

mecánicos

Camino más corto pasando por una

serie de puntos

Planificación de una producción

óptima

Análisis de datos estadísticos y

construcción de modelos a partir de

datos experimentales para obtener

la representación más realista de un

fenómeno físico

Control de los tiempos de espera en

una línea de producción para

minimizar costes

Planificación de la mejor estrategia

para obtener el máximo beneficio en

presencia de competidores

Diseño óptimo de sistemas de

control

Optimización, optimización, optimización. . .

2

Page 6: optimización sin restricciones

Optimización, optimización, optimización. . .

Antes de la aparición de los

ordenadores de alta

velocidad, los métodos de

optimización estaban

prácticamente limitados a

los métodos indirectos en

los cuales el cálculo del

extremo potencial estaba

restringido al uso de

derivadas y las condiciones

necesarias de optimalidad.

Los modernos ordenadores

han hecho posible los

métodos directos, esto es la

búsqueda de un óptimo por

comparación sucesiva de

los valores de la función

f(x) en una secuencia de

puntos x1, x2, x3... sin la

necesidad de hacer

intervenir derivadas

analíticas

3

La optimización, también llamada programación matemática,

cae en el ámbito dela matemática aplicada. El término

programación se debe a causas históricas y no está

relacionado con la programación computacional, aunque en la

actualidad todas las técnicas de optimización se llevan a cabo

con ordenadores.

Page 7: optimización sin restricciones

(x) = − Φ( , x), j = 1,...,m

¿Qué es la optimización sin

restricciones

Es el problema de minimizar una

función sin la existencia de

restricciones. Esta función puede

ser de una o más variable.

La no presencia de restricciones

puede ser vista en un comienzo

como una grave limitación, sin

embargo, la razón del porque

dedicamos tiempo a resolver este

tipo de problemas desde el punto

de vista de la optimización, es

que existe toda una metodología

que permite tratar problemas de

optimización no-lineales con

restricciones como problemas de

optimización no-lineales sin

restricciones.

El método sin restricciones puede

ayudar en gran manera a la

solución de ciertas clases de

problemas complejos en el área

de ingeniería causando un

impacto significativo en la

solución de ciertos Problemas y

su formulación matemática es la

siguiente:

Donde f es una función

suficientemente regular.

Ejemplo

Se intenta encontrar una

curva que ajuste algunos

datos experimentales,

por ejemplo medidas …, de

una señal tomada en los

tiempos ,…, .

Desde los datos

Y el conocimiento

de la aplicación, se

deduce que la señal

tiene un comportamiento

exponencial y oscilatorio, y se

elige modelarlo por la función:

Φ(t,x)

Los números reales , i = 1,..., 6

son los parámetros del modelo.

Se desea seleccionarlos de

manera que los valores del

modelo Φ( , x) ajusten los datos

observados tanto como sea

posible. Para establecer el

objetivo como un problema de

optimización, se agrupan los

parámetros xi en un vector de

incógnitas y se

definen los residuos

(x) = − Φ( , x), j = 1,...,

Que miden la discrepancia entre

el modelo y los datos observados.

La estimación de x se obtendrá

resolviendo el problema:

Min

(MC)

Este es un problema de

mínimos cuadrados no

lineales, que es un caso

especial de optimización

sin restricciones. Si el

número de medidas es

grande la evaluación de f o sus

derivadas para un valor concreto

del vector de parámetros x son

bastante caras desde el punto de

vista computacional.

Ejemplos de mínimos: mínimo

global, mínimo local estricto,

mínimo local no estricto

Ahora bien

4

Page 8: optimización sin restricciones

Aprendamos un poco más sobre el tema

Mínimo local

Optimización multivariable sin

restricciones

La optimización numérica de

funciones no lineales requiere la

utilización de técnicas de

optimización eficiente y

robusta

La eficiencia es importante porque

la solución de estos problemas se

lleva a cabo por un procedimiento

iterativo. La robustez (habilidad

para encontrar la solución) es una

propiedad deseable dado que el

comportamiento de las funciones no

lineales puede ser impredecible:

Pueden presentar máximos,

mínimos y puntos de silla. En

algunas regiones el avance hacia el

óptimo puede ser muy lento,

necesitando mucho tiempo de

cálculo etc.

Afortunadamente se posee mucha

experiencia utilizando métodos de

optimización numérica lo que

permite contar con buenos

algoritmos y conocer sus

limitaciones y posibilidades.

La mayor parte de los

procedimientos iterativos que

son efectivos, alternan la

optimización en dos fases

(a) Elección de una dirección .

(b) Movimiento en la dirección s,

(en alguna extensión, o hasta

encontrar un mínimo) para

encontrar un nuevo punto

= + donde se suele

llamar el tamaño del paso.

La mayor parte de los algoritmos

de cálculo siguen una

metodología similar. Se

determina un punto inicial, se

evalúa la función en ese punto y

se elige una dirección de

búsqueda. Se comienza entonces

un movimiento en la dirección de

búsqueda, hasta encontrar un

óptimo en esa dirección, o bien

hasta que se produzca una

mejoría determinada. A

continuación se selecciona una

nueva dirección y así

sucesivamente.

Los métodos sin restricciones que

discutiremos difieren en cómo se

generan las direcciones de

búsqueda. Algunos métodos

utilizan información de las

derivadas, mientras que otros se

basan solamente en evaluaciones

de la función objetivo.

Comenzaremos con algunos

métodos que no usan derivadas y

después presentaremos los

métodos que usan información de

las derivadas.

En ocasiones es preciso

considerar las restricciones

que se tengan en el problema, ya

que éstas generan igualdades

entre las variables que permiten

la obtención de la función de una

variable que se tquiere

minimizar o maximizar

Máximo absoluto

Page 9: optimización sin restricciones

Sea una función continua y

Puesto que la primera derivada

mide la tasa de cambio y la

pendiente de una función, una

primera derivada positiva en x=a

indica que la función es creciente

“a”; una primera derivada

negativa indica que es

decreciente.

Tal vez se piense que trabajar con

una función de dos variables sea

difícil, pero simplemente es usar

la condición de restricción F(x,y)

= 0 para despejar “y” como

función de “x”, y y = (x), y luego

reemplazar este valor de y en la

función f (x, y(x)). De esta forma,

tenemos una función de una

variable menos, en este caso una

función que sólo depende de x

sin restricciones.

Puesto que la primera derivada

mide la tasa de cambio y la

pendiente de una función, una

primera derivada positiva en x=a

indica que la función es creciente

“a”; una primera derivada

negativa indica que es

decreciente.

Una función f (x) es cóncava en

x = a, si en alguna pequeña

región cercana al punto [a, f(a)]

el gráfico de la función se ubica

completamente debajo de su línea

tangente.

Una función es convexa en x = a,

si en un área cercana a [a, f(a)] el

gráfico esta complemente arriba

de su línea tangente.

De igual manera, una segunda

derivada positiva en x = a denota

que la función es convexa en x =

a. Análogamente, una segunda

derivada negativa en x = a denota

que la función es cóncava en “a”.

OPTIMIZACIÓN CON DOS O MAS VARIABLES

6

Page 10: optimización sin restricciones

• Las variables de las que depende la función objetivo se llaman variables de diseño

y se agrupan en un vector x ∈ Rn.

• Algunos problemas sin restricciones, inherentemente incluyen una única variable.

• Las técnicas de optimización con y sin restricciones, generalmente incluyen pasos de

búsqueda unidireccional en sus algoritmos.

a í

7

Page 11: optimización sin restricciones

Métodos directos

os Métodos directos no hacen uso de la información

proporcionada por las derivadas.

Bajo estas circunstancias, estos métodos se pueden usar

con bastante efectividad, pero son muy ineficientes

comparados con los métodos discutidos en las siguientes

secciones.

Tienen la ventaja de que estos métodos son muy simples

de entender y muy fáciles de ejecutar.

Tienen la ventaja de que estos métodos son

muy simples de entender y muy fáciles de ejecutar

Métodos de búsqueda aleatoria

Un método aleatorio simplemente selecciona un vector

inicial , evalúa la función objetivo en ese punto y

entonces aleatoriamente selecciona otro vector . Tanto

la dirección de búsqueda como la longitud de búsqueda

son elegidas simultáneamente.

Después de una o más etapas, el valor de f ( ) se

compara con el mejor valor previo de f(x) y se toma la

decisión de continuar o terminar el procedimiento.

Existen diversas variaciones de este algoritmo, aunque

estrictamente hablando sólo se alcanza la solución cuando

k → ∞, pero desde un punto de vista práctico, si el

objetivo tiene una forma muy plana se pueden encontrar

soluciones subóptimas bastante aceptables.

Aunque el método es bastante ineficiente por sí mismo,

puede dar valores aceptables de partida para otros

métodos.

é

Estas variables suelen estar representadas

por la letra "S", se suman si la restricción es

de signo "<= " y se restan si la restricción es

de signo ">=".

L

Nota: No requieren el

cálculo de la derivada.

8

Page 12: optimización sin restricciones

Métodos de búsqueda en rejilla

Los métodos básicos de diseño de experimentos

discutidos en muchos textos de estadística, se pueden

aplicar también a minimización de funciones. Se pueden

seleccionar una serie de puntos alrededor de un punto

base de referencia, de acuerdo a algunos de los diseños

del tipo que se muestra en la siguiente figura. Después se

pasa al punto que más mejora la función objetivo y se

continúa la búsqueda.

Sin embargo el sistema es muy ineficaz, por ejemplo con

n=10 y una búsqueda factorial a tres niveles deberíamos

realizar -1=59048 evaluaciones de la función objetivo,

lo cual es obviamente prohibitivo.

Método de búsqueda univariante

Otro método muy sencillo de optimización consiste en

seleccionar n direcciones fijas de búsqueda, para n

variables, (habitualmente los ejes coordenados) de tal

manera que f(x) se minimiza de forma secuencial usando

búsquedas unidimensionales en cada una de las

direcciones previamente seleccionadas. El método suele

ser bastante ineficaz incluso llegando a puntos muy

alejados del óptimo de los cuales no puede salir.

Este método funciona bien cuando las curvas de

nivel son circulares, siempre llega al óptimo en dos

etapas; pero fracasa cuando se encuentra con curvas

de nivel elípticas que originan aristas.

Método simplex flexible

Este método se basa en tomar una figura regular

(conocida como simplex) como base. Así en 2

dimensiones tal figura debería ser un triángulo equilátero.

Los experimentos se localizan de tal manera que la

función objetivo se evalúa en cada uno de los vértices que

forman la figura geométrica.

Los valores de la función objetivo obtenida en cada uno

de los vértices se comparan entre sí rechazando el peor

valor de todos formando una nueva figura geométrica por

reflexión del peor de los puntos respecto a los que no han

sido rechazados.

9

é

Page 13: optimización sin restricciones

Direcciones conjugadas.

Método de Powell

La experiencia ha demostrado que las direcciones

llamadas conjugadas son mucho más efectivas como

direcciones de búsqueda que otras como pueden ser la

búsqueda univariante o las direcciones ortogonales.

Dos direcciones y se dice que son conjugadas una

con respecto al otra si:

En general un conjunto de n direcciones de búsqueda

linealmente independiente , , , … . Se dice

que son conjugadas con respecto a una matriz definida

positiva Q si:

0

En optimización la matriz Q es la matriz hessiana de la

función objetivo, H. Para una función cuadrática f(x) de n

variables, para la cual H es una matriz constante está

garantizado que se obtiene el óptimo en n etapas de

búsqueda unidireccional si se obtiene exactamente el

mínimo de cada etapa. Una dirección conjugada en

general no es una dirección única. Sin embargo, en dos

dimensiones, si se elige una dirección queda

completamente especificada.

La idea básica es buscar el mínimo a lo largo de unas

direcciones tales que en cada una la función solo

dependa de una componente del vector x facilitando

así la búsqueda

Estas direcciones se denominan C conjugadas

é

Etapas

10

Page 14: optimización sin restricciones

Método del gradiente (máximo descenso)

Se recordará que el gradiente es un vector en un punto x

que proporciona la dirección (local) de máxima variación

de la función. El vector gradiente es un vector ortogonal

al contorno de la función en el punto. Por lo tanto en la

búsqueda de un mínimo la dirección de movimiento será

contragradiente:

En el método de máximo descenso la transición de un

punto a otro viene dada por la siguiente

expresión:

+ - f( )

Donde: = Vector desde hasta .

= Dirección de búsqueda de máximo descenso.

= Escalar que determina la longitud de paso en la

dirección .

El método del descenso máximo es uno de los

procedimientos más utilizados para minimizar una

función diferenciable de varias variables

Es la dirección de descenso máximo. El método del

descenso máximo se mueve a lo largo de esta

dirección, o, equivalentemente, a lo largo de la

dirección − f(x)

é

Etapas

11

Page 15: optimización sin restricciones

Método del gradiente conjugado

El método supone una importante mejora del método del

gradiente con sólo un pequeño incremento en el esfuerzo

de cálculo. El método del gradiente conjugado,

esencialmente, combina la información obtenida del

vector gradiente con la información acerca del vector

gradiente de iteraciones previas. Lo que hace el método es

calcular la nueva dirección de búsqueda utilizando una

combinación lineal del gradiente en la etapa considerada y

el de la etapa anterior. La principal ventaja del método es

que necesita almacenar muy poca cantidad de

información con lo que puede ser programado fácilmente

incluso en calculadoras.

é

Observación:

Como las direcciones conjugadas son Q ortogonales entre si,

el método del gradiente conjugado converge en a lo más n

iteraciones.

El método del gradiente

conjugado debido a

Fletcher y Reeves (1964)

combina las

características de la

convergencia cuadrática

del método de las

direcciones conjugadas

con las del método del

Etapas

12

Page 16: optimización sin restricciones

Métodos indirectos: método de segundo orden

Desde el punto de vista de las direcciones de búsqueda el

método del máximo descenso se puede

interpretar como un movimiento ortogonal a una

aproximación lineal (tangente) a la función objetivo en el

punto .

é

13

Etapas

Page 17: optimización sin restricciones

Método de Newton

El método de Newton hace uso de la aproximación de

segundo orden de la función utilizando las derivadas

segundas con respecto a cada una de las variables

independientes. De esta forma es posible tener en cuenta

la curvatura de la función en el punto e identificar las

mejores direcciones de búsqueda.

El mínimo de f(x) se obtiene diferenciando la

aproximación cuadrática de f(x) con respecto a cada una

de las variables e igualando a cero.

Dificultades del método de Newton:

No convergencia:

porque tiende a infinito, o

porque no existe solución del

sistema de ecuaciones

Convergencia a máximos o puntos de

silla

Ventajas:

Normalmente requiere menos iteraciones

Inconvenientes:

Requiere conocer el gradiente y el hessiano

Requiere invertir el hessiano

No hay garantía de que el hessiano sea PD y el algoritmo converja

é

Etapas

14

Page 18: optimización sin restricciones

Método Quaci-Newton

Los métodos Quasi-Newton, se utilizan si la derivada de

la función objetivo es difícil de calcular, o ésta viene dada

de forma numérica. Se basan en sustituir las derivadas por

aproximaciones en diferencias finitas.

La idea fundamental de los métodos Quasi-Newton es

intentar construir una aproximación de la inversa del

Hessiano, usando información obtenida durante el

proceso de descenso. Estos métodos son similares a los

métodos de gradiente conjugado en el sentido de que se

basan principalmente en propiedades de las funciones

cuadráticas.

Sin embargo, en el método del gradiente conjugado, la

principal fortaleza de la búsqueda se deriva del uso de las

direcciones conjugadas de búsqueda, mientras que los

métodos de Quasi-Newton están diseñados para imitar

más directamente las características positivas del método

de Newton pero usando solo información de primer

orden.

Etapas

15

é

Page 19: optimización sin restricciones

Método de lagrange

Para optimizar una función de distintas variables existe

una serie de métodos y uno de ellos es el de Lagrange, un

procedimiento para encontrar los máximos y mínimos de

funciones de múltiples variables sujetas a restricciones.

Este método reduce el problema restringido

con n variables a uno sin restricciones de n + k variables,

donde k es igual al número de restricciones, y cuyas

ecuaciones pueden ser resueltas más fácilmente.

Su demostración involucra derivadas parciales, o bien

usando diferenciales totales, o sus parientes cercanos, la

regla de la cadena.

El fin es, usando alguna función implícita, encontrar las

condiciones para que la derivada con respecto a las

variables independientes de una función sea igual a cero.

Este es un método que permite encontrar valores

extremos, máximos o mínimos (maximizar o minimizar)

de una función general zyxf .. sometida o sujeta a

alguna condición o restricción de la forma kzyxg ,, .

El método establece una ecuación en función de

las condiciones o restricciones que debe cumplir la

función, en todo caso se resuelve una ecuación vectorial

de la forma:

gf , para cuando hay una sola condición

a cumplir y para cualquier n variables.

Para cuando la función debe cumplir dos

restricciones se tiene: zyxf .. , las restricciones son:

21 ,,,,, kzyxhkzyxg .

Entonces la ecuación queda:

hgf , para cuando hay dos condiciones a

cumplir.

Se debe resolver el sistema de ecuaciones dadas a

través de la ecuación vectorial y además la condición o

condiciones formarán parte de ese sistema a resolver.

Cuando se tiene una función de tres variables restringida

por kzyxg ,, , el procedimiento general se puede

establecer así:

Identificar la función de donde se desea hallar el

valor máximo o mínimo, esta se llama función a

optimizar, a la que se desea hallar los valores

extremos.

Identificar la o las restricciones a cumplir por la

función.

Hallar el gradiente de la función: zyxf ..

é

16

Page 20: optimización sin restricciones

Hallar el gradiente de la restricción: zyxg ..

Formar la ecuación vectorial

Formar el sistema de ecuaciones que incluya las

condiciones las condiciones.

Determinar todos los valores x, y, z y λ que

satisfagan gf y kzyxg ,, .

Evaluar todos los puntos zyx ,, del resultado

anterior en la función zyxf ,, . El mayor de los

valores será el valor máximo de la función y el

más pequeño es el valor mínimo de la función.

EJEMPLO

¿Cuál es el área máxima que puede tener un rectángulo si

la longitud de su diagonal es 4?

Represente un rectángulo con lados x e y, base y altura

respectivamente.

La longitud de la diagonal es 4, fíjese que se forma un

triangulo rectángulo.

Función a optimizar: (maximizar en este caso): Área de

un rectángulo: A = x.y

Condición a cumplir: 224 yx :

De una manera más fácil: 2216 yx

Al tener identificadas la función y la condición, se

determinan los gradientes.

xyAyAxA ,,

yxgygxg 2,2,

Así las ecuaciones de Lagrange son:

xy 2 …. (1)

)2( yx ….. (2)

422 yx …(3)

Al resolver el sistema, una de las formas puede ser:

Multiplicar la ecuación (1) por x, y también la ecuación

(2) por y,

22xxy …. (4)

)2( 2yyx ….. (5)

Se igualan las ecuaciones (4) y (5)

22 22 yx Al simplificar queda:

22 yx ; Queda: xy

Luego una variable se expresa en función de la otra y se

sustituye en la ecuación (3).

Si y = x

2216 xx

2216 x

8x

Como estamos midiendo distancias, x solo puede tomar

valores no negativos, así que se tiene un único punto que

es para x= 8 , la altura y también vale.

Así se concluye que las dimensiones del rectángulo

corresponden con un cuadrado de lado 8 . Su área

será: A= 8 * 8 =8

y 4

17

Page 21: optimización sin restricciones

os métodos sin restricciones son importantes porque:

m

Muchos problemas

de optimización

utilizan en alguna

fase algoritmos sin

restricciones.

Hay problemas que se pueden formular sin

restricciones.

Es de gran importancia ya que

puede ayudar en gran manera a

la solución de ciertas clases de

problemas complejos en el área

de ingeniería causando un

impacto significativo en la

solución de los mismos.

Permiten introducir muchos

conceptos y explorar ideas

que se usarán en problemas

NLP.

Permite introducir muchos conceptos y

explorar ideas que se usarán en

problemas de NLP.

18

Page 22: optimización sin restricciones
Page 23: optimización sin restricciones

1) La función de producción de cierta empresa está dada

por:

P=

En donde l es el insumo mano de obra medido en miles de

horas hombre por, k es el monto capital invertido en miles

de dólares por semana y P es la producción semanal en

miles de artículos determine la productividad marginal

cuando

l=5 y k=12 e interprete el resultado

Solución:

Aplicamos

y

a la función

para obtener la productividad

Marginal

Ahora evaluamos

Casos prácticos

Es decir, si se emplean 5000 horas-hombre por semana

y el monto del capital es de 12000 $ a la semana. La

producción se incrementa en 6100 artículos por semana

por cada 1000horas-hombre adicionales de la mano de

obra empleada cuando k se mantiene fija.

Mientras que si l se mantiene fija la producción se

incrementa en 9500 artículos por semana por cada

1000$ adicionales de incremento en el monto mensual

del capital invertido.

19

Page 24: optimización sin restricciones

2) Prueba que la función f definida por

Satisface la ecuación

Solución:

Ahora bien, procedemos a sustituir la expresión en la

ecuación la cual se busca satisfacer.

(

Aplicamos la propiedad distributiva

(

La función queda de siguiente manera:

Como tenemos términos semejantes se sigue operando

para reducir la expresión.

Al visualizar el término se aprecia que el mismo es

divisible entre 6 por lo cual la función quedara de la

siguiente manera:

Es decir, que la función

Satisface la ecuación

Ya que nos queda que

=

Casos prácticos

20

Aplicamos

y

a la función

Para hallar las derivadas parciales