Sunteți pe pagina 1din 27

UNIVERSIDAD DE ORIENTE

NUCLEO DE ANZOATEGUI
ESCUELA DE INGENIERIA Y CIENCIAS APLICADAS
DEPARTAMENTO DE COMPUTACION Y SISTEMAS
MODELOS DE OPERACIONES I
SECCION 01

Programación no lineal

INTEGRANTES:
PROFESORA:
Stefan Gafanhao CI: 26135587
Aurelia Torcasio
Silvia Martinez CI: 25892106
Santamaría Julio C.I: 23517606
Carvajal Hassan C.I: 24849178
PROGRAMACIÓN NO LINEAL

La Programación no Lineal es una parte de la Investigación Operaciones cuya misión


es proporcionar una serie de resultados y técnicas tendentes a la determinación de puntos
óptimos para una función (función objetivo) en un determinado conjunto (conjunto de
oportunidades), donde tanto la función objetivo, como las que intervienen en las restricciones
que determinan el conjunto de oportunidades pueden ser no lineales. Evidentemente, la
estructura del problema puede ser muy variada, según las funciones que en él intervengan (a
diferencia de la Programación Lineal donde la forma especial del conjunto de oportunidades
y de la función objetivo permite obtener resultados generales sobre las posibles soluciones y
facilitan los tratamientos algorítmicos de los problemas). Ello ocasiona una mayor dificultad
en la obtención de resultados, que se refleja también en la dificultad de la obtención numérica
de las soluciones.

En este sentido, hay que distinguir entre las diversas caracterizaciones de óptimo, que
sólo se emplean como técnicas de resolución en problemas sencillos, y los métodos
numéricos iterativos, cuyo funcionamiento se basa en estas caracterizaciones, para la
resolución de problemas más generales.

Un modelo de Programación No Lineal

Es aquel donde las variables de decisión se expresan como funciones no lineales ya


sea en la función objetivo y/o restricciones de un modelo de optimización. Esta característica
particular de los modelos no lineales permite abordar problemas donde existen economías o
des economías de escala o en general donde los supuestos asociados a la proporcionalidad no
se cumplen.

Tenemos un problema de programación lineal cuando la función objetivo, las


restricciones del problema, o ambas, tienen ecuaciones diferenciales no lineales, es decir, que
la ecuación tienen variables cuyo exponente es mayor a 1.
Características de los problemas no lineales

 Los problemas no lineales se caracterizan por tener relaciones no lineales; es decir,


no existe una relación directa y proporcional entre las variables que intervienen.

 Los problemas de programación no lineal, también son llamados curvilíneos, ya que


el área que delimita las soluciones factibles en un gráfico se presenta en forma de
curva.

 La función objetivo en la programación no lineal, puede ser cóncavo o convexo. Es


cóncavo cuando se trata de maximizar utilidades, contribuciones, etc. Es convexo
cuando trata de minimizar recursos, costos, etc.

Diferencias Entre La Programación Lineal Y No Lineal

Programación Lineal Programación No Lineal


Variables elevadas al exponente 1. Elevadas al exponente n.
No hay Producto de Variables. Si hay producto de variables.
Proporcionalidad. No siempre hay proporcionalidad.
Solución óptima es factible. No siempre es factible.
Aditividad.

Tipos De Problemas De Programación No Lineal

Los problemas de programación no lineal se presentan de muchas formas distintas, de los


cuales se desprenden dos tipos de problemas en la programación no lineal: Optimización no
restringida y la programación restringida linealmente.
1) Optimización no Restringida:

No tienen restricciones, la función objetivo es: Maximizar f(x) sobre todos los valores
X= (X1, X2,…, Xn).

La condición necesaria para que una solución especifica X=X* sea óptima cuando
f(x) es una función diferenciable:

𝜕𝑓
=0 en x= x*, para j= 1,2,…,n.
𝜕𝑥𝑗

Cuando una variable Xj tiene una restricción de no negatividad X>=0, la condición


cambia a:

2) Optimización Restringida:

 Se caracterizan por restricciones que se ajustan por completo a la


programación lineal, de manera que todas las funciones de restricción gi(X)
son lineales, pero la función objetivo es no lineal.

 El problema se simplifica mucho si solo se tiene que tomar en cuenta una


función no lineal junto con una región factible de programación lineal.

 Se han desarrollado varios algoritmos especiales basados en una extensión del


método simplex para analizar la función objetivo no lineal.
TEORÍA DE OPTIMIZACIÓN CLÁSICA:

La teoría de optimización clásica o programación matemática está constituida por un


conjunto de resultados y métodos analíticos y numéricos enfocados a encontrar e identificar
al mejor candidato de entre una colección de alternativas, sin tener que enumerar y evaluar
explícitamente todas esas alternativas. Un problema de optimización es, en general, un
problema de decisión.

MÉTODO DE OPTIMIZACIÓN CLÁSICA:

Los métodos de optimización clásica son utilizados usualmente en la búsqueda de


óptimos en funciones continuas y diferenciales, estos métodos son analíticos y emplean como
técnica el cálculo de deferenciales, en la localización de puntos óptimos.

Problema de optimización:

 Función objetivo

o Maximizar o Minimizar Z= f (x)

o F(x)= { X1, X2, X3……Xn}

 Restricciones

S.a: g1 (x)= b1 Restricciones de Igualdad

g2 (x) ≤ R2 Restricciones de Desigualdad

Xi ≥ 0 Restricciones de No Negatividad
1. FUNCIÓN CÓNCAVA Y FUNCIÓN CONVEXA:

Estas se cumplen siempre que f(x) sea una función tal que: f’’(x), exista en un
intervalo (a,b)

Una función es cóncava, si la segunda derivada de F(x) es menor a cero, esto quiere
decir que (f’’ (x) < 0). De forma gráfica al unir dos puntos con una recta, la recta siempre
queda por debajo del máximo de la función.

Una función es convexa, si la segunda derivada de F(x) es mayor a cero, esto quiere
decir que (f’’ (x) > 0). De forma gráfica al unir dos puntos con una recta, la recta siempre
queda por encima del mínimo de la función.

Si f’(x)=0, el teorema no es concluyente

Ejemplo: Determinar los intervalos abiertos en que la siguiente función:

f(x)= 6(x2 + 3)-1 es cóncava o convexa.


Solución: Observemos, antes que nada, que f es continua en toda la recta real. A continuación
se halla la segunda derivada de f.

𝐹(𝑥) = 6(𝑥 2 + 3)−1 Función original

𝐹(𝑥) = (−6)(𝑥 2 + 3)−2 (2𝑥)

−12𝑥
𝐹(𝑥) = (𝑥 2 +3)2 Función Derivada

2
(𝑥 2 +3) (−12)−(−12𝑥)(2)(𝑥 2 +3)(2𝑥)
𝐹(𝑥) = Función derivada
(𝑥 2 +3)4

(𝑥 2 + 3)2 (−12) − (−12𝑥)(2)(𝑥 2 + 3)(2𝑥)


=
(𝑥 2 + 3)4

36(𝑥 2 −1)
= (𝑥 2 +3)3

Como 𝑓 ′′ (𝑥) = 0 𝑒𝑛 𝑋 = ±1 y

𝑓 ′′ (𝑥) Está definida en toda la recta real, se ensaya con valores de 𝑓 ′′ en los intervalos
(-∞,-1) y (-1, ∞). Los resultados aparecen en la siguiente tabla.

Intervalo -∞<x<-1 -1<x<1 1<x<∞


Valor de prueba X=-2 X=0 X=2
Signo de 𝑓 ′′ (𝑥) 𝑓 ′′ (−2) > 0 𝑓 ′′ (0) < 0 𝑓 ′′ (2) > 0
Conclusión Cóncava hacia arriba Cóncava hacia abajo Cóncava hacia
arriba
2. ALGORITMO DE PENALIDAD

La idea de este método es transformar un problema de optimización con restricciones


en un uno sin restricciones agregando (o sustrayendo) un cierto valor a la función objetivo
basado en la cantidad de violación la restricción presentada en una solución, es decir, La
función original es reemplazada por una función que se forma mediante la suma o resta de la
función objetivo más un término que penaliza el hecho de la restricción no se verifique.

Paso 1: Se forma la función de penalidad, que se expresa de la siguiente forma:

𝐺(𝑥) = 𝑓(𝑥) − 𝑞(𝑏 − 𝑔(𝑥))2

Dado un problema de la forma:

Max Z=f(x)

s.a g (xi)=b

i=1, 2,3,...n

Paso 2: Se deriva parcialmente la función de penalidad con respecto a la variable X y la


igualamos a cero (0).

𝜕𝑦
=0
𝜕𝑥
Paso 3: Despejamos una variable X respecto a (q) en el sistema obtenido en el paso anterior
2.

Paso 4: Resolvemos el límite cuando (q) tiende a infinito de la ecuación resultante del paso
3, el resultado pertenecerá al valor óptimo de la variable correspondiente. En este caso se
hará uso del teorema de L’Hopital para resolver el límite.

Paso 5: Hallar la restante variable X y se calcula el valor de Z. Este procedimiento se debe


usar solo para problemas con una sola restricción y dos variables. El resultado obtenido es
una aproximación del resultado óptimo.
Para problemas de minimización, la función de penalidad es la siguiente:

𝐺(𝑥) = 𝑓(𝑥) + 𝑞(𝑏 − 𝑔(𝑥))2

Ejemplo 1:
Min z = 10𝑋12 + 4𝑋22
s.a: 𝑋1 + 𝑋2 = 8

1) 𝐺(𝑥) = 10𝑋12 + 4𝑋22 + 𝑞(8 − 𝑋1 − 𝑋2)2

𝜕𝐺
2) = 20𝑋1 + 2𝑞(8 − 𝑋1 − 𝑋2) (-1)=0
𝜕𝑋1

𝜕𝐺
= 20𝑋 − 2𝑞(8 − 𝑋1 − 𝑋2) = 0 I)
𝜕𝑋1

𝜕𝐺
= 8𝑋2 − 2𝑞(8 − 𝑥1 − 𝑥2) = 0 II)
𝜕𝑋2

3) 20𝑋1 − 2𝑞(8 − 𝑋1 − 𝑋2) = 0 (-1)

8𝑋2 − 2𝑞(8 − 𝑋1 − 𝑋2) = 0

−20𝑋1 + 8𝑋2 = 0

Se despeja 𝑋1:

−8𝑋2 2
𝑋1 = = − 5 𝑋2 III)
20

III en I:

20𝑋 − 2𝑞(8 − 𝑋1 − 𝑋2) = 0

2 2
20(− 5 𝑋2) − 2𝑞 (8 + (5 𝑋2) − 𝑋2) = 0

4
-8𝑋2 − 16𝑞 − 5 𝑞 𝑋2 + 2𝑞𝑋2 = 0
6
𝑋2 (−8 + 5 𝑞) = 16𝑞

16𝑞
𝑋2 = 6
(−8+ 𝑞)
5

[16𝑞]′ 16
4) lim 6 = 6
𝑞→∞ [−8+ 𝑞]′ 5
5

16
𝑋2 =
1,2

𝑋2 = 13,333 IV)

IV en III:

2
𝑋1 = − 𝑋2
5

2
𝑋1 = − (13,333)
5

𝑋1 = −5,332

Entonces:

Z= 10𝑋12 + 4𝑋22

Z= 10(−5,332)2 + 4(13,333)2

Z= 995,377
3. MULTIPLICADORES DE LAGRANGE
En los problemas de optimización, el método de los multiplicadores de Lagrange,
llamados así en honor a Joseph Louis Lagrange, es un procedimiento para encontrar los
máximos y mínimos de funciones de múltiples variables sujetas a restricciones. Este método
reduce el problema restringido con n variables a uno sin restricciones de n + k variables,
donde k es igual al número de restricciones, y cuyas ecuaciones pueden ser resueltas más
fácilmente. Estas nuevas variables escalares desconocidas, una para cada restricción, son
llamadas multiplicadores de Lagrange. El método dice que los puntos donde la función tiene
un extremo condicionado con k restricciones, están entre los puntos estacionarios de una
nueva función sin restricciones construida como una combinación lineal de la función y las
funciones implicadas en las restricciones, cuyos coeficientes son los multiplicadores.

En problemas de optimización restringida con restricción de igualdad se debe


encontrar el mínimo o máximo de la función f(x), sujeta a la restricción de que x debe
satisfacer todas las ecuaciones
g (x) 1 = b1
g (x) 2 = b2

g (x) m = bm

Donde m < n. Por ejemplo, si n = 2 y m = 1, el problema podría ser


Maximizar 𝑓(𝑥1 , 𝑥2 ) = 𝑥12 + 2𝑥2

Sujeta a:
𝑔(𝑥1 , 𝑥2 ) = 𝑥12 + 𝑥22 = 1

En este caso, (x1, x2) está restringido a encontrarse sobre el círculo de radio 1, cuyo
centro está en el origen, de forma que la meta es encontrar el punto sobre este círculo que
proporcione el mayor valor de f(x1, x2). Es sencillo resolver este ejemplo después de
bosquejar un enfoque general del problema.
Un método clásico para manejar este problema es el método de los multiplicadores
de Lagrange. Este procedimiento comienza por plantear la función lagrangiana
𝑚

ℎ(𝑥, 𝜆) = 𝑓(𝑥) − ∑ 𝜆𝑖 [𝑔𝑖 (𝑥) − 𝑏𝑖 ]


𝑖=1

Donde las nuevas variables λ = (λ1, λ2,…, λm) se llaman multiplicadores de


Lagrange. Observe el hecho fundamental de que para los valores factibles de x, gi ( x ) − bi=
0, para toda i ,entonces h(x, λ) = f(x). Por lo tanto, se puede demostrar que si (x, λ) = (x*, λ
*) es un mínimo o máximo local o global de la función no restringida h(x,λ), x* es el punto
crítico correspondiente del problema original. Como resultado, el método se reduce ahora al
análisis de h(x, λ) por el procedimiento para optimización no restringida. Se igualan a cero
las n + m derivadas parciales,

Y entonces se obtienen los puntos críticos al despejar (x, λ) de estas ecuaciones.


Observe que las últimas m ecuaciones son equivalentes a las restricciones del problema
original, de manera que sólo se consideran las soluciones factibles. Después del análisis
adicional para identificar el máximo o mínimo global de h(·), el valor de x que resulta es la
solución deseada del problema original.

Desde un punto de vista práctico y de cálculo, el método de los multiplicadores de


Lagrange no es un procedimiento particularmente eficaz. Con frecuencia es en esencia
imposible resolver las ecuaciones para obtener los puntos críticos. Es más, aun cuando sea
posible obtenerlos, el número de puntos críticos puede ser tan grande (a menudo infinito) que
no resulta práctico intentar la identificación de un máximo o un mínimo globales. Sin
embargo, para ciertos tipos de problemas pequeños, algunas veces puede usarse este método
con éxito.

Existen 3 algoritmos para el método de multiplicadores de Lagrange los cuales se


explicaran a continuación:

 Algoritmo 1: Método de multiplicadores de Lagrange para restricciones de


igualdad (=).

Paso 1: formar el LaGranjeano: se forma una nueva función llamada LaGranjeano, la cual
comprende una nueva variable que se denota Landa (λ) y su función es la siguiente:

F (X, λ) = f(x) - λ (g (x)-b)

Ejemplo:

Dado un problema de la forma:

Max Z= f (x)

s.a g(x) = b

Paso 2: se calculan las primeras derivadas parciales con respecto a X y λ y se igualan a 0.

Paso 3: se encuentran los valores de X y λ resolviendo el sistema de ecuaciones formado en


el paso anterior, el resultado obtenido será el punto crítico buscado.

NOTA: si el problema es de minimizar se multiplica por (-1) la función objetivo, para llevarla
a Maximizar.

NOTA: existen tantos multiplicadores de LaGrange como restricciones tenga el problema.

Ejemplo 1: Optimizar la siguiente función por optimización clásica restringida:

Max Z = −5𝑋12 − 10𝑋22 − 𝑋1 𝑋2 + 3𝑋1

s.a 𝑋1 + 3𝑋2 = 10

Se construye el LaGranjeano:
F (X, λ) =−5𝑋12 − 10𝑋22 − 𝑋1 𝑋2 + 3𝑋1 − λ(𝑋1 + 3𝑋2 − 10)

Se deriva con respecto a X1, X2 y λ:

𝜕𝐿
= −10𝑋1 − 𝑋2 + 3 − λ = 0
𝜕 𝑋1
𝜕𝐿
= −20𝑋2 − 𝑋1 − 3λ = 0
𝜕 𝑋2
𝜕𝐿
= 10 − 𝑋1 − 3𝑋2 = 0
𝜕λ

Se resuelve el sistema de ecuaciones obtenido y se encuentran los valores de X1, X2.

Se evalúan los valores obtenidos en la función Z.

−10𝑋1 − 𝑋2 − λ = −3
−𝑋1 − 20𝑋2 − 3λ = 0
−𝑋1 − 3𝑋2 = −10

𝑋1 = 1,8942 𝑋1 = 1,8942
𝑋2 = 2,7019 𝑋2 = 2,7019
λ = −18,6442 𝑍 = −90,38

Ejemplo 2: Maximizar la función por optimización clásica restringida

Max Z = −32𝑋12 − 3𝑋22 + 12𝑋1 − 40𝑋2

s.a: 3𝑋1 + 9𝑋2 = 18

3𝑋1 + 3𝑋2 = 80

Se Construye el LaGranjeano:

F (X, λ) =−32𝑋12 − 3𝑋22 + 12𝑋1 − 40𝑋2 − 𝜆1 (3𝑋1 + 9𝑋2 − 18)−𝜆2 (3𝑋1 + 3𝑋2 − 80)

Se deriva en función de X1, X2, 𝜆1 𝑦 𝜆2

𝜕𝐹
= −64𝑋1 + 12 − 3𝜆1 − 3𝜆2 = 0
𝜕 𝑋1
𝜕𝐹
= −6𝑋2 − 40 + 9𝜆1 − 3𝜆2 = 0
𝜕 𝑋2
𝜕𝐹
= 18 − 3𝑋1 + 9𝑋2 = 0
𝜕 𝜆1
𝜕𝐹
= 80 − 3𝑋1 − 3𝑋2 = 0
𝜕 𝜆2

Se resuelve el sistema de ecuaciones y se encuentran los valores de X1 y X2 para evaluarlos


en la función Z:

𝑋1 = 21,5
𝑋2 = 5,166
𝜆1 = −111,083
𝜆2 = −343,583
𝑍 = −14820,7453

 Algoritmo 2: Método de multiplicadores de Lagrange para restricciones de no


negatividad.

Dado:

Max Z = f (x)

s.a gj (Xi) = bj
Xi ≥ 0

Paso 1: se resuelve el problema obviando la restricción de no negatividad. Si la solución


satisface la no negatividad entonces se conserva como solución factible, en caso contrario se
descarta.
Paso 2: se iguala a 0 una variable Xi y se soluciona el problema usando el algoritmo 1. Si la
solución satisface la no negatividad se conserva como solución factible, en caso contrario se
descarta.

Ejemplo:

Max Z = 𝑋1 + 𝑋2 + 𝑋3 + 𝑋1 𝑋2 + 𝑋1 𝑋3 + 𝑋2 𝑋3

s.a 𝑋1 + 𝑋2 + 𝑋3 = 𝑎

𝑋1 − 𝑋2 − 𝑋3 = 𝑏

Xi ≥ 0

Con X1 = 0

Max Z = 𝑋2 + 𝑋3 + 𝑋2 𝑋3

s.a 𝑋2 + 𝑋3 = 𝑎

𝑋2 − 𝑋3 = 𝑏

Xi ≥ 0

Aplicar algoritmo 1.

Paso 3: se iguala a 0 una variable Xi diferente y se repite el paso 2. Se repite hasta haber
resuelto el problema haciendo 0 cada una de las variables Xi, una a la vez.

Ejemplo:

Con 𝑋2 = 0

Max Z = 𝑋1 + 𝑋3 + 𝑋1 𝑋3

s.a 𝑋1 + 𝑋3 = 𝑎
𝑋1 − 𝑋3 = 𝑏

Xi ≥ 0

Aplicar algoritmo 1.

Con 𝑋3 = 0

Max Z = 𝑋1 + 𝑋2 + 𝑋1 𝑋2

s.a 𝑋1 + 𝑋2 = 𝑎

𝑋1 − 𝑋2 = 𝑏

Xi ≥ 0

Aplicar algoritmo 1.

Paso 4: se igualan a 0 dos variables Xi y se resuelve el problema. Si la solución cumple con


la no negatividad se conserva, en caso contrario se descarta.

Ejemplo:

Con X1 = X2 = 0

Max Z = 𝑋3

s.a 𝑋3 = 𝑎

−𝑋3 = 𝑏

Xi ≥ 0

Si a ≠ -b Si a = -b
No hay solución Solución factible

Paso 5: se igualan a 0 dos variables Xi diferentes y se repite el paso 4. Este proceso se repite
hasta completar todas las combinaciones de dos variables.
Paso 6: se repite el proceso anterior para las combinaciones de 3, 4, 5,6 hasta n-1.

Paso 7: se seleccionan las soluciones factibles, la mejor y se considera óptima.

Ejemplo: Maximizar la función utilizando el algoritmo correspondiente:

Max Z = −8𝑋12 − 𝑋22 + 4𝑋1 − 10𝑋2

s.a 𝑋1 − 3𝑋2 = 6

𝑋1 + 𝑋2 = 2

Xi ≥ 0

Se construye el LaGranjeano:

F (X, λ) = −8𝑋12 − 𝑋22 + 4𝑋1 − 10𝑋2 −𝜆 1 (𝑋1 + 3𝑋2 − 6) −𝜆 2 (𝑋1 + 𝑋2 − 2)

Se Deriva el LaGranjeano con respecto a X1, X2, 𝜆 1 𝑦 𝜆 2

𝜕𝐿
= −16𝑋1 + 4 − 𝜆1 − 𝜆2 = 0
𝜕 𝑋1
𝜕𝐿
= −2𝑋2 − 10 + 3𝜆1 − 𝜆2 = 0
𝜕 𝑋2
𝜕𝐿
= 6 − 𝑋1 + 3𝑋2 = 0
𝜕 𝜆1
𝜕𝐿
= 2 − 𝑋1 − 𝑋2 = 0
𝜕 𝜆2

Se Construye el Sistema de Ecuaciones:

−16𝑋1 + 0𝑋2 − 𝜆1 − 𝜆2 = 4 Ec. 1


0𝑋1 − 2𝑋2 + 3𝜆1 − 𝜆2 = 10 Ec. 2
−𝑋1 + 3𝑋2 + 0𝜆1 + 0𝜆2 = −6 Ec. 3
−𝑋1 − 𝑋2 + 0𝜆1 + 0𝜆2 = −2 Ec. 4
De la Ecuación 4.

𝑋1 = 2 − 𝑋2

Ecuación 4 en la ecuación 1:

−16(2 − 𝑋2 ) − 𝜆1 − 𝜆2 = 4

−16𝑋2 − 𝜆1 − 𝜆2 = 28 Ec. 5.

Ecuación 5 y ecuación 2:

−16𝑋2 − 𝜆1 − 𝜆2 = 28

−2𝑋2 + 3𝜆1 − 𝜆2 = 10

Ecuación 4 en ecuación 3:

−(2 − 𝑋2 ) + 3𝑋2 = −6

−2 + 𝑋2 + 3𝑋2 = −6

4𝑋2 = −4

𝑋2 = −1

No hay solución

Con 𝑋1 = 0 Con 𝑋2 = 0

Max Z = −𝑋22 − 10𝑋2 Max Z = −8𝑋12 + 4𝑋1

s.a −3𝑋2 = 6 s.a 𝑋1 = 6

𝑋2 = 2 𝑋1 = 2

No hay solución No tiene solución

No tiene solución por este método.


 Algoritmo 3: Método de multiplicadores de Lagrange por restricción de
desigualdad.

Dado un problema de la forma:

Max Z= f (x)

s.a hj (Xi) ≤ rj

Paso 1: resolvemos el problema irrestricto, si la solución cumple todas las restricciones


entonces se considera óptimo, y se detiene el algoritmo.

Paso 2: activamos una restricción, cambiando la desigualdad por igualdad y


resolvemos el problema. Si la solución satisface el resto de las restricciones se
considera óptima y se detiene el algoritmo.

Paso 3: activamos una restricción diferente y repetimos el paso 2, hasta que se


completen con todas las restricciones.

Paso 4: activamos 2 restricciones y se resuelve el problema, si cumple todas las


restricciones se detiene el algoritmo.

Paso 5: activamos 2 restricciones diferentes y repetimos el paso 4, esto se repite con


todas las combinaciones posibles de 2 restricciones.

Paso 6: repetir el procedimiento para todas las combinaciones para 3, 4, 5... hasta n
restricciones.

Ejemplo: Maximizar la función utilizando el algoritmo correspondiente:

Min Z = 8𝑋12 + 5𝑋22 + 4𝑋1 𝑋2 − 5𝑋1 − 6𝑋2

s.a 𝑋1 + 2𝑋2 ≤ 6

3𝑋1 + 𝑋2 ≤ 1

Se multiplica por (-1) la función objetivo para pasarla a Max.

Max Z = −8𝑋12 − 5𝑋22 − 4𝑋1 𝑋2 + 5𝑋1 + 6𝑋2


s.a 𝑋1 + 2𝑋2 ≤ 6

3𝑋1 + 𝑋2 ≤ 1

Paso 1) se resuelve el problema desactivando todas las restricciones:

Se deriva la función objetivo con respecto a X1 y X2

𝜕𝑍
= −16𝑋1 − 4𝑋2 = −5
𝜕 𝑋1
𝜕𝑍
= −10𝑋2 − 4𝑋1 = −6
𝜕 𝑋2

Del sistema de ecuaciones se obtienen los valores de X1 y X2:

𝑋1 = 0,18055 𝑋2 = 0,52777

Comprobando los valores de X1 y X2 obtenidos en las restricciones:

Restricción 1: Restricción 2:

𝑋1 + 2𝑋2 ≤ 6 3𝑋1 + 𝑋2 ≤ 1

0,18055 + 2(0,52777) ≤ 6 3(0,18055) + 0,52777 ≤ 1

1,236 ≤ 𝟔 1,06942 ≤ 𝟏

SI CUMPLE NO CUMPLE
Paso 2) Activamos la restricción 1:

Max Z = −8𝑋12 − 5𝑋22 − 4𝑋1 𝑋2 + 5𝑋1 + 6𝑋2

s.a 𝑋1 + 2𝑋2 = 6

Se Construye el LaGranjeano:

F (X, λ) = −8𝑋12 − 5𝑋22 − 4𝑋1 𝑋2 + 5𝑋1 + 6𝑋2 - 𝜆 (𝑋1 + 2𝑋2 − 6)

Se deriva parcialmente con respecto a X1, X2 y 𝜆:

𝜕𝐿
= −16𝑋1 − 4𝑋2 + 5 − 𝜆 = 0
𝜕 𝑋1
𝜕𝐿
= −10𝑋2 − 4𝑋1 + 6 − 2𝜆 = 0
𝜕 𝑋2
𝜕𝐿
= 6 − 𝑋1 − 2𝑋2 = 0
𝜕𝜆

Del sistema de ecuaciones se obtienen los valores de X1 y X2:

𝑋1 = 0,3448 𝑋2 = 2,8276 𝜆 = -11.8275

Comprobamos en las restricciones:

Restricción 2:

3𝑋1 + 𝑋2 ≤ 1

3(0,3448) + 2,8276 ≤ 1

3,862≤ 𝟏

NO CUMPLE

Paso 3) Activamos la restricción 2:

Max Z = −8𝑋12 − 5𝑋22 − 4𝑋1 𝑋2 + 5𝑋1 + 6𝑋2

s.a 3𝑋1 + 𝑋2 = 1

Construimos el LaGranjeano:

F (X, λ) = −8𝑋12 − 5𝑋22 − 4𝑋1 𝑋2 + 5𝑋1 + 6𝑋2 - 𝜆 (3𝑋1 + 𝑋2 − 1)


Derivamos con respecto a X1, X2 y 𝜆:

𝜕𝐿
= −16𝑋1 − 4𝑋2 + 5 − 3𝜆 = 0
𝜕 𝑋1
𝜕𝐿
= −10𝑋2 − 4𝑋1 + 6 − 𝜆 = 0
𝜕 𝑋2
𝜕𝐿
= 1 − 3𝑋1 − 𝑋2 = 0
𝜕𝜆

Resolvemos el Sistema de ecuaciones:

𝑋1 = 0,1585 𝑋2 = 0,5243 𝜆 = 0,1219

Comprobamos en las restricciones:

Restricción 1:

𝑋1 + 2𝑋2 ≤ 6
0,1585 + 2(0,5243) ≤ 6
1,2071 ≤ 𝟔
SI CUMPLE

Como cumple con todas las restricciones, calculamos Z con los valores de X1 y X2
obtenidos:

Z = −8(0,1585)2 − 5(0,5243)2 − 4(0,1585)(0,5243) + 5(0,1585) + 6(0,5243)

Z = 2,03
4. Algoritmo de Kuhn- Tucker

Este algoritmo tiene la finalidad de comprobar las condiciones necesarias que deben
satisfacer los óptimos de problemas de optimización no lineal con restricciones de
desigualdad.

Considere el problema de optimización

Max o Min f(x1, x2,. . ., xn)

Sujeto a

g1(x1, x2,. . ., xn) ≤ b

g2(x1, x2,. . ., xn) ≤ b……

gm(x1, x2,. . . , xn) ≤ b

Se debe estandarizar, esto cambiando cada restricción de desigualdad gi ≤ b a una


restricción de igualdad introduciendo una variable S. Quedando así la función
LaGrangeana:
𝑚

𝐹(𝑥, 𝜆, 𝑠) = −𝑓(𝑥) + ∑ 𝜆𝑖 ∗ (𝑏 − 𝑔𝑖)


𝑖=1

 Paso 1: Se cambia la desigualdad por igualdad, se forma el LaGranjeano y se


deriva con respecto a las variables Xi y de igual forma derivamos las restricciones
con respecto a Xi.

 Paso 2: Se forman las restricciones de Karush Kuhn Tucker:

𝜕𝑓 𝜕𝑔𝑗 𝜕𝑓 𝜕𝑔𝑗
1) − 𝜆𝑗 = 0 (max) 1) + 𝜆𝑗 = 0 (min)
𝜕𝑥𝑖 𝜕𝑥𝑖 𝜕𝑥𝑖 𝜕𝑥𝑖

2) 𝜆𝑗 (𝑏𝑗 − 𝑔(𝑥𝑖)) = 0 3) 𝑔(𝑥) ≤ 𝑏 3)

4) 𝜆 ≥ 0
 Paso 3: Se hace 𝝀 = 𝟎 y se comprueban las condiciones, si el punto Xo obtenido
satisface las condiciones entonces, este será el máximo en caso. En caso contrario
continua el algoritmo.

 Paso 4: Se hace 𝝀 ≠ 𝟎 y se comprueban las condiciones, si el punto Xo obtenido


satisfacen las condiciones este será el máximo. En caso contrario se continúa.

Nota:
El método general para hallar todos los candidatos a óptimo en un
problema de programación con restricciones de desigualdad se puede
formular así:
 Estudiar primero el caso en que todas las restricciones están
activas.

 A continuación estudiar la totalidad de los casos en que todas


menos una están activas, luego aquellos en que todas menos dos
están activas, y así sucesivamente.

 Se termina por el estudio del caso en que ninguna restricción esta


activa.
Por supuesto que el orden no importa, pero hay que considerar cada
caso. En cada paso hallamos todos los vectores x, junto con los valores
asociados de los multiplicadores de Lagrange, que satisfacen todas las
condiciones relevantes.
 Por último buscamos entre todas las posibilidades para hallar la
mejor.
Ejemplo: Resuelva

Max 𝒁 = −𝟔𝒙𝟐𝟏 − 𝟖𝒙𝟐𝟐 − 𝟕𝒙𝟏 + 𝟏𝟓𝒙𝟐 + 𝟒𝟓𝒙𝟏 𝒙𝟐 − 𝟏𝟐

s.a: −𝟐𝟎𝒙𝟏 + 𝟏𝟏𝒙𝟐 ≤ 𝟐𝟒

 Paso 1:

F(x)=−6𝑥12 − 8𝑥22 − 7𝑥1 + 15𝑥2 + 45𝑥1 𝑥2 − 12 + λ(24 + 20𝑥1 − 11𝑥2 )

𝜕𝐿
= −12𝑥1 − 7 + 45𝑥2 + 20λ = 0
𝜕𝑥1

𝜕𝐿
= −16𝑥2 + 15 + 45𝑥1 − 11λ = 0
𝜕𝑥2

Derivamos X1 y X2 de la restricción:

𝜕𝑔
= −20
𝜕𝑥1

𝜕𝑔
= 11
𝜕𝑥2

 Paso 2:

Condiciones de KKT

1) −12𝑥1 + 45𝑥2 − 7 + 20λ + 20λ = 0

−12𝑥1 + 45𝑥2 + 40λ = 7

2) 45𝑥1 − 16𝑥2 + 15 − 11λ − 11λ = 0

45𝑥1 − 16𝑥2 − 22λ = −15

Primera Condición

1) −12𝑥1 + 45𝑥2 + 40λ = 7

45𝑥1 − 16𝑥2 − 22λ = −15

2) λ(24 + 20𝑥1 − 11𝑥2 ) = 0


3) −20𝑥1 + 11𝑥2 ≤ 24
4) λ ≥ 0

Con λ = 0

1) −12𝑥1 + 45𝑥2 + 40λ = 7 𝑥1 = 0.4293

45𝑥1 − 16𝑥2 − 22λ = 15 𝑥2 = 0.2700

2) 0 = 0

3) −20𝑥1 + 11𝑥2 ≤ 24

𝑥1 = 0,4293

𝑥2 = 0,2700

Sustituyo valores de X1 y X2 en condición 3):

−20(0,4293) + 11(0,2700) ≤ 24
−5,616 ≤ 24

4) 0 ≥ 0
Como todas las condiciones se Cumplen, se dice que:

𝑥1 ; 𝑥2 Max

Se evaluan ambos valores en Z.

Z = −6(0,4293 )2 − 8(0,2700)2 − 7(0,4293) + 15(0,2700)


+ 45(0,4293)((0,2700) − 12

𝑍 = −7,4280

S-ar putea să vă placă și