Click here to load reader
View
236
Download
5
Embed Size (px)
DESCRIPTION
revista informativa sobre la optimización sin restricciones de múltiples variables
Citation preview
Edición especial
HECHO POR Y PARA ESTUDIANTES
Optimización sin restricciones
Ejercicios
Ejemplos sobre los distintos puntos antes
explicados que se encuentran en la
optimización.
Información
Temas útiles y necesarios para la
comprensión los métodos de optimización de
manera simple y efectiva.
í
ó
oy en día nos enfrentamos a problemas
complejos de optimización los cuales no sabemos
cómo afrontar es por esta razón que estudiaremos la
teoría y métodos que se utilizan para enfrentar
problemas de optimización sin restricciones.
En este apunte veremos una breve descripción de
la teoría y métodos que se utilizan para enfrentar
problemas de optimización no-lineales sin
restricciones.
La no presencia de restricciones puede ser vista
en un comienzo como una grave limitación, sin
embargo, la razón del porque dedicamos tiempo a
resolver este tipo de problemas desde el punto de
vista de la optimización, es que existe toda una
metodología que permite tratar problemas de
optimización no-lineales con restricciones como
problemas de optimización no-lineales sin
restricciones
Para poder comprender la optimización sin
restricciones es necesario definir condiciones
suficientes y necesarias, que puedan satisfacer con
el punto solución, para que pueda ser considerado
como un punto de solución óptimo.
H
¿Qué es la optimización?
¿Qué que es la optimización con
restricciones?
¿Qué es la optimización con múltiples
variables?
Distintas características que se encuentran
en la optimización sin restricciones.
Distintos métodos aplicados en la
optimización sin restricciones
¿Porque es importante la optimización sin
restricciones?
Ejercicios prácticos
Optimización sin restricciones
Ediciones…
Todos los derechos reservados
Búscanos en:
E-mail: psmoptimizacionsinrestriciones
Facebook: PSMoptimizacion
Twitter: PSMoptimizacion
Venezuela Edo Aragua
Autores:
Lizmari Acevedo.
Freddy Alí.
Chanel Khayat.
Definición
Características
Nuestros temas
Métodos
Importancia
Ejercicios
Qué es la optimización?
La Optimización es el proceso de
hallar el máximo o mínimo
relativo de una función,
generalmente sin la ayuda de
gráficos.
Un problema de optimización
consiste en minimizar o
maximizar el valor de una
variable. En otras palabras se
trata de calcular o determinar el
valor mínimo o el valor máximo
de una función de una o varias
variables.
Se debe tener presente que la
variable que se desea minimizar o
maximizar debe ser expresada
como función de otra de las
variables relacionadas en el
problema.
En ocasiones es preciso
considerar las restricciones que
se tengan en el problema, ya que
éstas generan igualdades entre las
variables que permiten la
obtención de la función de una
variable que se quiere minimizar
o maximizar.
En un sentido más restringido, en
este tema se entiende por
optimización el proceso de
encontrar los valores mínimos de
una función de n variables f(x) en
un dominio que puede ser Rn.
Un gran número de problemas de
Ingeniería se pueden formular de
esta forma
Una buena técnica de
optimización de variables es
fundamental por al menos tres
razones
En muchos problemas las
restricciones se pueden incluir
dentro de la función objetivo, por
lo que la dimensionaldad del
problema se reduce a una variable.
Algunos problemas sin
restricciones, inherentemente
incluyen una única variable.
Las técnicas de optimización con y
sin restricciones, generalmente
incluyen pasos de búsqueda
unidireccional en sus algoritmos.
Los problemas de
optimización sin
restricciones permiten
resolver situaciones de
mayor complejidad
transformándolas en
situaciones fáciles de
resolver
1
o
la Naturaleza
(y por tanto el ser humano)
le encanta optimizar.
Por ejemplo
El principio de Fermat
establece que la luz viaja
entre dos puntos
siguiendo la trayectoria
que le lleva el menor
tiempo posible
El principio de mínima
acción es una idea básica
en el desarrollo de la
Física y la Matemática
modernas.
E El ser humano se pasa el
t tiempo tratando de maximizar
el rendimiento (Minimizando los
t costes) en la realización de
c cualquier actividad.
La optimización se aplica a un
innumerable número de problemas
Diseño de aviones y estructuras
aeroespaciales para minimizar peso
Encontrar trayectorias óptimas de
vehículos espaciales
Diseño de estructuras de obras
civiles (puentes, torres,
chimeneas, presas. . . ) al
precio más bajo
Peso mínimo de estructuras
resistentes a terremotos y viento
Diseño de reservas de agua para un
uso eficiente
Diseño óptimo de estructuras de
plástico
Diseño óptimo de engranajes, levas,
y todo tipo de componentes
mecánicos
Camino más corto pasando por una
serie de puntos
Planificación de una producción
óptima
Análisis de datos estadísticos y
construcción de modelos a partir de
datos experimentales para obtener
la representación más realista de un
fenómeno físico
Control de los tiempos de espera en
una línea de producción para
minimizar costes
Planificación de la mejor estrategia
para obtener el máximo beneficio en
presencia de competidores
Diseño óptimo de sistemas de
control
Optimización, optimización, optimización. . .
2
Optimización, optimización, optimización. . .
Antes de la aparición de los
ordenadores de alta
velocidad, los métodos de
optimización estaban
prácticamente limitados a
los métodos indirectos en
los cuales el cálculo del
extremo potencial estaba
restringido al uso de
derivadas y las condiciones
necesarias de optimalidad.
Los modernos ordenadores
han hecho posible los
métodos directos, esto es la
búsqueda de un óptimo por
comparación sucesiva de
los valores de la función
f(x) en una secuencia de
puntos x1, x2, x3... sin la
necesidad de hacer
intervenir derivadas
analíticas
3
La optimización, también llamada programación matemática,
cae en el ámbito dela matemática aplicada. El término
programación se debe a causas históricas y no está
relacionado con la programación computacional, aunque en la
actualidad todas las técnicas de optimización se llevan a cabo
con ordenadores.
(x) = − Φ( , x), j = 1,...,m
¿Qué es la optimización sin
restricciones
Es el problema de minimizar una
función sin la existencia de
restricciones. Esta función puede
ser de una o más variable.
La no presencia de restricciones
puede ser vista en un comienzo
como una grave limitación, sin
embargo, la razón del porque
dedicamos tiempo a resolver este
tipo de problemas desde el punto
de vista de la optimización, es
que existe toda una metodología
que permite tratar problemas de
optimización no-lineales con
restricciones como problemas de
optimización no-lineales sin
restricciones.
El método sin restricciones puede
ayudar en gran manera a la
solución de ciertas clases de
problemas complejos en el área
de ingeniería causando un
impacto significativo en la
solución de ciertos Problemas y
su formulación matemática es la
siguiente:
Donde f es una función
suficientemente regular.
Ejemplo
Se intenta encontrar una
curva que ajuste algunos
datos experimentales,
por ejemplo medidas …, de
una señal tomada en los
tiempos ,…, .
Desde los datos
Y el conocimiento
de la aplicación, se
deduce que la señal
tiene un comportamiento
exponencial y oscilatorio, y se
elige modelarlo por la función:
Φ(t,x)
Los números reales , i = 1,..., 6
son los parámetros del modelo.
Se desea seleccionarlos de
manera que los valores del
modelo Φ( , x) ajusten los datos
observados tanto como sea
posible. Para establecer el
objetivo como un problema de
optimización, se agrupan los
parámetros xi en un vector de
incógnitas y se
definen los residuos
(x) = − Φ( , x), j = 1,...,
Que miden la discrepancia entre
el modelo y los datos observados.
La estimación de x se obtendrá
resolviendo el problema:
Min
(MC)
Este es un problema de
mínimos cuadrados no
lineales, que es un caso
especial de optimización
sin restricciones. Si el
número de medidas es
grande la evaluación de f o sus
derivadas para un valor concreto
del vector de parámetros x son
bastante caras desde el punto de
vista computacional.
Ejemplos de mínimos: mínimo
global, mínimo local estricto,
mínimo local no estricto
Ahora bien
4
Aprendamos un poco más sobre el tema
Mínimo local
Optimización multivariable sin
restricciones
La optimización numérica de
funciones no lineales requiere la
utilización de técnicas de
optimización eficiente y
robusta
La eficiencia es importante porque
la solución de estos problemas se
lleva a cabo por un procedimiento
iterativo. La robustez (habilidad
para encontrar la solución) es una
propiedad deseable dado que el
comportamiento de las funciones no
lineales puede ser impredecible:
Pueden presentar máximos,
mínimos y puntos de silla. En
algunas regiones el avance hacia el
óptimo puede ser muy lento,
necesitando mucho tiempo de
cálculo etc.
Afortunadamente se posee mucha
experiencia utilizando métodos de
optimización numérica lo que
permite contar con buenos
algoritmos y conocer sus
limitaciones y posibilidades.
La mayor parte de los
procedimientos iterativos que
son efectivos, alternan la
optimización en dos fases
(a) Elección de una dirección .
(b) Movimiento en la dirección s,
(en alguna extensión, o hasta
encontrar un mínimo) para
encontrar un nuevo punto
= + donde se suele
llamar el tamaño del paso.
La mayor parte de los algoritmos
de cálculo siguen una
metodología similar. Se
determina un punto inicial, se
evalúa la función en ese punto y
se elige una dirección de
búsqueda. Se comienza entonces
un movimiento en la dirección de
búsqueda, hasta encontrar un
óptimo en esa dirección, o bien
hasta que se produzca una
mejoría determinada. A
continuación se selecciona una
nueva dirección y así
sucesivamente.
Los métodos sin restricciones que
discutiremos difieren en cómo se
generan las direcciones de
búsqueda. Algunos métodos
utilizan información de las
derivadas, mientras que otros se
basan solamente en evaluaciones
de la función objetivo.
Comenzaremos con algunos
métodos que no usan derivadas y
después presentaremos los
métodos que usan información de
las derivadas.
En ocasiones es preciso
considerar las restricciones
que se tengan en el problema, ya
que éstas generan igualdades
entre las variables que permiten
la obtención de la función de una
variable que se tquiere
minimizar o maximizar
Máximo absoluto
Sea una función continua y
Puesto que la primera derivada
mide la tasa de cambio y la
pendiente de una función, una
primera derivada positiva en x=a
indica que la función es creciente
“a”; una primera derivada
negativa indica que es
decreciente.
Tal vez se piense que trabajar con
una función de dos variables sea
difícil, pero simplemente es usar
la condición de restricción F(x,y)
= 0 para despejar “y” como
función de “x”, y y = (x), y luego
reemplazar este valor de y en la
función f (x, y(x)). De esta forma,
tenemos una función de una
variable menos, en este caso una
función que sólo depende de x
sin restricciones.
Puesto que la primera derivada
mide la tasa de cambio y la
pendiente de una función, una
primera derivada positiva en x=a
indica que la función es creciente
“a”; una primera derivada
negativa indica que es
decreciente.
Una función f (x) es cóncava en
x = a, si en alguna pequeña
región cercana al punto [a, f(a)]
el gráfico de la función se ubica
completamente debajo de su línea
tangente.
Una función es convexa en x = a,
si en un área cercana a [a, f(a)] el
gráfico esta complemente arriba
de su línea tangente.
De igual manera, una segunda
derivada positiva en x = a denota
que la función es convexa en x =
a. Análogamente, una segunda
derivada negativa en x = a denota
que la función es cóncava en “a”.
OPTIMIZACIÓN CON DOS O MAS VARIABLES
6
• Las variables de las que depende la función objetivo se llaman variables de diseño
y se agrupan en un vector x ∈ Rn.
• Algunos problemas sin restricciones, inherentemente incluyen una única variable.
• Las técnicas de optimización con y sin restricciones, generalmente incluyen pasos de
búsqueda unidireccional en sus algoritmos.
a í
7
Métodos directos
os Métodos directos no hacen uso de la información
proporcionada por las derivadas.
Bajo estas circunstancias, estos métodos se pueden usar
con bastante efectividad, pero son muy ineficientes
comparados con los métodos discutidos en las siguientes
secciones.
Tienen la ventaja de que estos métodos son muy simples
de entender y muy fáciles de ejecutar.
Tienen la ventaja de que estos métodos son
muy simples de entender y muy fáciles de ejecutar
Métodos de búsqueda aleatoria
Un método aleatorio simplemente selecciona un vector
inicial , evalúa la función objetivo en ese punto y
entonces aleatoriamente selecciona otro vector . Tanto
la dirección de búsqueda como la longitud de búsqueda
son elegidas simultáneamente.
Después de una o más etapas, el valor de f ( ) se
compara con el mejor valor previo de f(x) y se toma la
decisión de continuar o terminar el procedimiento.
Existen diversas variaciones de este algoritmo, aunque
estrictamente hablando sólo se alcanza la solución cuando
k → ∞, pero desde un punto de vista práctico, si el
objetivo tiene una forma muy plana se pueden encontrar
soluciones subóptimas bastante aceptables.
Aunque el método es bastante ineficiente por sí mismo,
puede dar valores aceptables de partida para otros
métodos.
é
Estas variables suelen estar representadas
por la letra "S", se suman si la restricción es
de signo "<= " y se restan si la restricción es
de signo ">=".
L
Nota: No requieren el
cálculo de la derivada.
8
Métodos de búsqueda en rejilla
Los métodos básicos de diseño de experimentos
discutidos en muchos textos de estadística, se pueden
aplicar también a minimización de funciones. Se pueden
seleccionar una serie de puntos alrededor de un punto
base de referencia, de acuerdo a algunos de los diseños
del tipo que se muestra en la siguiente figura. Después se
pasa al punto que más mejora la función objetivo y se
continúa la búsqueda.
Sin embargo el sistema es muy ineficaz, por ejemplo con
n=10 y una búsqueda factorial a tres niveles deberíamos
realizar -1=59048 evaluaciones de la función objetivo,
lo cual es obviamente prohibitivo.
Método de búsqueda univariante
Otro método muy sencillo de optimización consiste en
seleccionar n direcciones fijas de búsqueda, para n
variables, (habitualmente los ejes coordenados) de tal
manera que f(x) se minimiza de forma secuencial usando
búsquedas unidimensionales en cada una de las
direcciones previamente seleccionadas. El método suele
ser bastante ineficaz incluso llegando a puntos muy
alejados del óptimo de los cuales no puede salir.
Este método funciona bien cuando las curvas de
nivel son circulares, siempre llega al óptimo en dos
etapas; pero fracasa cuando se encuentra con curvas
de nivel elípticas que originan aristas.
Método simplex flexible
Este método se basa en tomar una figura regular
(conocida como simplex) como base. Así en 2
dimensiones tal figura debería ser un triángulo equilátero.
Los experimentos se localizan de tal manera que la
función objetivo se evalúa en cada uno de los vértices que
forman la figura geométrica.
Los valores de la función objetivo obtenida en cada uno
de los vértices se comparan entre sí rechazando el peor
valor de todos formando una nueva figura geométrica por
reflexión del peor de los puntos respecto a los que no han
sido rechazados.
9
é
Direcciones conjugadas.
Método de Powell
La experiencia ha demostrado que las direcciones
llamadas conjugadas son mucho más efectivas como
direcciones de búsqueda que otras como pueden ser la
búsqueda univariante o las direcciones ortogonales.
Dos direcciones y se dice que son conjugadas una
con respecto al otra si:
En general un conjunto de n direcciones de búsqueda
linealmente independiente , , , … . Se dice
que son conjugadas con respecto a una matriz definida
positiva Q si:
0
En optimización la matriz Q es la matriz hessiana de la
función objetivo, H. Para una función cuadrática f(x) de n
variables, para la cual H es una matriz constante está
garantizado que se obtiene el óptimo en n etapas de
búsqueda unidireccional si se obtiene exactamente el
mínimo de cada etapa. Una dirección conjugada en
general no es una dirección única. Sin embargo, en dos
dimensiones, si se elige una dirección queda
completamente especificada.
La idea básica es buscar el mínimo a lo largo de unas
direcciones tales que en cada una la función solo
dependa de una componente del vector x facilitando
así la búsqueda
Estas direcciones se denominan C conjugadas
é
Etapas
10
Método del gradiente (máximo descenso)
Se recordará que el gradiente es un vector en un punto x
que proporciona la dirección (local) de máxima variación
de la función. El vector gradiente es un vector ortogonal
al contorno de la función en el punto. Por lo tanto en la
búsqueda de un mínimo la dirección de movimiento será
contragradiente:
En el método de máximo descenso la transición de un
punto a otro viene dada por la siguiente
expresión:
+ - f( )
Donde: = Vector desde hasta .
= Dirección de búsqueda de máximo descenso.
= Escalar que determina la longitud de paso en la
dirección .
El método del descenso máximo es uno de los
procedimientos más utilizados para minimizar una
función diferenciable de varias variables
Es la dirección de descenso máximo. El método del
descenso máximo se mueve a lo largo de esta
dirección, o, equivalentemente, a lo largo de la
dirección − f(x)
é
Etapas
11
Método del gradiente conjugado
El método supone una importante mejora del método del
gradiente con sólo un pequeño incremento en el esfuerzo
de cálculo. El método del gradiente conjugado,
esencialmente, combina la información obtenida del
vector gradiente con la información acerca del vector
gradiente de iteraciones previas. Lo que hace el método es
calcular la nueva dirección de búsqueda utilizando una
combinación lineal del gradiente en la etapa considerada y
el de la etapa anterior. La principal ventaja del método es
que necesita almacenar muy poca cantidad de
información con lo que puede ser programado fácilmente
incluso en calculadoras.
é
Observación:
Como las direcciones conjugadas son Q ortogonales entre si,
el método del gradiente conjugado converge en a lo más n
iteraciones.
El método del gradiente
conjugado debido a
Fletcher y Reeves (1964)
combina las
características de la
convergencia cuadrática
del método de las
direcciones conjugadas
con las del método del
Etapas
12
Métodos indirectos: método de segundo orden
Desde el punto de vista de las direcciones de búsqueda el
método del máximo descenso se puede
interpretar como un movimiento ortogonal a una
aproximación lineal (tangente) a la función objetivo en el
punto .
é
13
Etapas
Método de Newton
El método de Newton hace uso de la aproximación de
segundo orden de la función utilizando las derivadas
segundas con respecto a cada una de las variables
independientes. De esta forma es posible tener en cuenta
la curvatura de la función en el punto e identificar las
mejores direcciones de búsqueda.
El mínimo de f(x) se obtiene diferenciando la
aproximación cuadrática de f(x) con respecto a cada una
de las variables e igualando a cero.
Dificultades del método de Newton:
No convergencia:
porque tiende a infinito, o
porque no existe solución del
sistema de ecuaciones
Convergencia a máximos o puntos de
silla
Ventajas:
Normalmente requiere menos iteraciones
Inconvenientes:
Requiere conocer el gradiente y el hessiano
Requiere invertir el hessiano
No hay garantía de que el hessiano sea PD y el algoritmo converja
é
Etapas
14
Método Quaci-Newton
Los métodos Quasi-Newton, se utilizan si la derivada de
la función objetivo es difícil de calcular, o ésta viene dada
de forma numérica. Se basan en sustituir las derivadas por
aproximaciones en diferencias finitas.
La idea fundamental de los métodos Quasi-Newton es
intentar construir una aproximación de la inversa del
Hessiano, usando información obtenida durante el
proceso de descenso. Estos métodos son similares a los
métodos de gradiente conjugado en el sentido de que se
basan principalmente en propiedades de las funciones
cuadráticas.
Sin embargo, en el método del gradiente conjugado, la
principal fortaleza de la búsqueda se deriva del uso de las
direcciones conjugadas de búsqueda, mientras que los
métodos de Quasi-Newton están diseñados para imitar
más directamente las características positivas del método
de Newton pero usando solo información de primer
orden.
Etapas
15
é
Método de lagrange
Para optimizar una función de distintas variables existe
una serie de métodos y uno de ellos es el de Lagrange, un
procedimiento para encontrar los máximos y mínimos de
funciones de múltiples variables sujetas a restricciones.
Este método reduce el problema restringido
con n variables a uno sin restricciones de n + k variables,
donde k es igual al número de restricciones, y cuyas
ecuaciones pueden ser resueltas más fácilmente.
Su demostración involucra derivadas parciales, o bien
usando diferenciales totales, o sus parientes cercanos, la
regla de la cadena.
El fin es, usando alguna función implícita, encontrar las
condiciones para que la derivada con respecto a las
variables independientes de una función sea igual a cero.
Este es un método que permite encontrar valores
extremos, máximos o mínimos (maximizar o minimizar)
de una función general zyxf .. sometida o sujeta a
alguna condición o restricción de la forma kzyxg ,, .
El método establece una ecuación en función de
las condiciones o restricciones que debe cumplir la
función, en todo caso se resuelve una ecuación vectorial
de la forma:
gf , para cuando hay una sola condición
a cumplir y para cualquier n variables.
Para cuando la función debe cumplir dos
restricciones se tiene: zyxf .. , las restricciones son:
21 ,,,,, kzyxhkzyxg .
Entonces la ecuación queda:
hgf , para cuando hay dos condiciones a
cumplir.
Se debe resolver el sistema de ecuaciones dadas a
través de la ecuación vectorial y además la condición o
condiciones formarán parte de ese sistema a resolver.
Cuando se tiene una función de tres variables restringida
por kzyxg ,, , el procedimiento general se puede
establecer así:
Identificar la función de donde se desea hallar el
valor máximo o mínimo, esta se llama función a
optimizar, a la que se desea hallar los valores
extremos.
Identificar la o las restricciones a cumplir por la
función.
Hallar el gradiente de la función: zyxf ..
é
16
Hallar el gradiente de la restricción: zyxg ..
Formar la ecuación vectorial
Formar el sistema de ecuaciones que incluya las
condiciones las condiciones.
Determinar todos los valores x, y, z y λ que
satisfagan gf y kzyxg ,, .
Evaluar todos los puntos zyx ,, del resultado
anterior en la función zyxf ,, . El mayor de los
valores será el valor máximo de la función y el
más pequeño es el valor mínimo de la función.
EJEMPLO
¿Cuál es el área máxima que puede tener un rectángulo si
la longitud de su diagonal es 4?
Represente un rectángulo con lados x e y, base y altura
respectivamente.
La longitud de la diagonal es 4, fíjese que se forma un
triangulo rectángulo.
Función a optimizar: (maximizar en este caso): Área de
un rectángulo: A = x.y
Condición a cumplir: 224 yx :
De una manera más fácil: 2216 yx
Al tener identificadas la función y la condición, se
determinan los gradientes.
xyAyAxA ,,
yxgygxg 2,2,
Así las ecuaciones de Lagrange son:
xy 2 …. (1)
)2( yx ….. (2)
422 yx …(3)
Al resolver el sistema, una de las formas puede ser:
Multiplicar la ecuación (1) por x, y también la ecuación
(2) por y,
22xxy …. (4)
)2( 2yyx ….. (5)
Se igualan las ecuaciones (4) y (5)
22 22 yx Al simplificar queda:
22 yx ; Queda: xy
Luego una variable se expresa en función de la otra y se
sustituye en la ecuación (3).
Si y = x
2216 xx
2216 x
8x
Como estamos midiendo distancias, x solo puede tomar
valores no negativos, así que se tiene un único punto que
es para x= 8 , la altura y también vale.
Así se concluye que las dimensiones del rectángulo
corresponden con un cuadrado de lado 8 . Su área
será: A= 8 * 8 =8
y 4
17
os métodos sin restricciones son importantes porque:
m
Muchos problemas
de optimización
utilizan en alguna
fase algoritmos sin
restricciones.
Hay problemas que se pueden formular sin
restricciones.
Es de gran importancia ya que
puede ayudar en gran manera a
la solución de ciertas clases de
problemas complejos en el área
de ingeniería causando un
impacto significativo en la
solución de los mismos.
Permiten introducir muchos
conceptos y explorar ideas
que se usarán en problemas
NLP.
Permite introducir muchos conceptos y
explorar ideas que se usarán en
problemas de NLP.
18
1) La función de producción de cierta empresa está dada
por:
P=
En donde l es el insumo mano de obra medido en miles de
horas hombre por, k es el monto capital invertido en miles
de dólares por semana y P es la producción semanal en
miles de artículos determine la productividad marginal
cuando
l=5 y k=12 e interprete el resultado
Solución:
Aplicamos
y
a la función
para obtener la productividad
Marginal
Ahora evaluamos
Casos prácticos
Es decir, si se emplean 5000 horas-hombre por semana
y el monto del capital es de 12000 $ a la semana. La
producción se incrementa en 6100 artículos por semana
por cada 1000horas-hombre adicionales de la mano de
obra empleada cuando k se mantiene fija.
Mientras que si l se mantiene fija la producción se
incrementa en 9500 artículos por semana por cada
1000$ adicionales de incremento en el monto mensual
del capital invertido.
19
2) Prueba que la función f definida por
Satisface la ecuación
Solución:
Ahora bien, procedemos a sustituir la expresión en la
ecuación la cual se busca satisfacer.
(
Aplicamos la propiedad distributiva
(
La función queda de siguiente manera:
Como tenemos términos semejantes se sigue operando
para reducir la expresión.
Al visualizar el término se aprecia que el mismo es
divisible entre 6 por lo cual la función quedara de la
siguiente manera:
Es decir, que la función
Satisface la ecuación
Ya que nos queda que
=
Casos prácticos
20
Aplicamos
y
a la función
Para hallar las derivadas parciales