Sunteți pe pagina 1din 13

PROGRAMACIÓN

NO LINEAL
CLASIFICACION DE MÉTODOS DE
SOLUCIÓN
 Sin derivadas
Necesarios cuando no se pueden calcular estas (BÚSQUEDA
DIRECTA, DICOTOMO , SECCION DORADA)
 Primeras derivadas (GRADIENTE)
 Segundas derivadas (HESSIANO)
Mayor coste computacional
Mejores propiedades de convergencia
TIPOS DE PROBLEMAS
 Optimización sin restricciones

 Optimización con restricciones


APLICACIONES PRÁCTICAS

 Problemas de transporte con descuentos por cantidad


El precio unitario entre un origen y un destino es decreciente en
función a la cantidad de transporte.
 Problema de flujo de cargas en un sistema eléctrico
Las pérdidas son no lineales
 Problema de producción con elasticidad en el precio
Curva de la demanda o demanda-precio p(x) representa el
costo unitario que se necesita para vender x unidades. Es una función
decreciente nunca inferior al costo unitario de producción c
f (x) = xp(x) -cx
CONCEPTOS PRELIMINARES

 Conjunto convexo de Rn
Decimos que C es un conjunto convexo si cualquier segmento que una dos puntos cualesquiera del
conjunto, siempre pertenece , todo él, al conjunto

Conjuntos Convexos

Conjuntos no Convexos
Conjunto de soluciones factibles o dominio del
problema Es el conjunto de los puntos que satisfacen todas las
restricciones de un problema. Es dentro de ese conjunto donde
deberán buscarse los óptimos

Convexidad. Programa convexo. Programa cóncavo

(f convexa) (f cóncava)

Se obtiene en el primer caso un mínimo global o absoluto, y en


el segundo caso un máximo global o absoluto.
Máximo local, mínimo local, máximo global, mínimo
global

Propiedades:

1. Todo máximo/mínimo global es local.

2. Todo máximo/mínimo global estricto es único.

Genéricamente se denomina extremo relativo a un


máximo o mínimo local
MÉTODO DICÓTOMO
 Los métodos de búsqueda directa se aplican principalmente a
funciones estrictamente unimodales de una variable. La idea de los
métodos de búsqueda directa es identificar el intervalo de
incertidumbre que comprenda al punto de solución óptima. El
procedimiento localiza el óptimo estrechando en forma progresiva el
intervalo de incertidumbre hasta cualquier grado de exactitud que se
desee.
 Dos algoritmos estrechamente relacionados son los métodos
de búsqueda dicótomo y de sección dorada (o áurea). Ambos
buscan la maximización de una función unimodal/(x) en el intervalo a
< x < b, que se sabe que incluye el punto óptimo x*.Los dos métodos
comienzan con /0 = (a, b) que representa el intervalo inicial de
incertidumbre.
 En el método dicótomo los valores jc, y x2 se encuentran simétricos
respecto del punto medio del actual intervalo de incertidumbre. Esto
significa que la aplicación repetida del algoritmo garantiza que la
longitud del intervalo de incertidumbre se acercará al nivel de
exactitud deseado, A.
 En el método de la sección dorada la idea es de mayor
involucramiento. Se puede apreciar que cada iteración del método
dicótomo requiere calcular los dos valores/(jc,) y f(x2), Pe” ro termina
por descartar alguno de ellos. Lo que propone el método de la sección
dorada es ahorrar cálculos mediante el reuso del valor descartado en
la iteración inmediata siguiente. Para definir 0 < a < 1
 Cuando el intervalo de incertidumbre /, en la iteración i es igual a
(jc¿, x2) o a (xu xR). Considere el caso en que /, = (jcl, x2), lo cual
significa que xx está incluido en /,. En la iteración /+1,
seleccione x2 igual a jc, de la iteración /, lo cual lleva a la siguiente
ecuación:
 x2(iteración i+l) = x{(iteración i)

Comparado con el método dicótomo, el método de la sección dorada converge más


rápidamente hacia el nivel deseado de exactitud. Adicionalmente, cada iteración en
el método de la sección dorada requiere la mitad de los cálculos, en virtud de que
recicla siempre un conjunto de los cálculos correspondientes a la iteración
inmediata anterior.
El máximo valor de f(x) ocurre en x = 2. La
siguiente tabla muestra los cálculos para las
iteraciones 1 y 2, usando el método dicotomo y el
de la sección dorada. Supondremos que A = 0.1.

Al continuar de la misma forma, el intervalo de


incertidumbre terminará por estrecharse hasta la
tolerancia A deseada.
MÉTODO DE LA GRADIENTE
 Conocido también como método de Cauchy o del descenso más
pronunciado) consiste en un algortimo específico para la resolución
de modelos de PNL sin restricciones, perteneciente a la categoría
de algoritmos generales de descenso, donde la búsqueda de un
mínimo esta asociado a la resolución secuencial de una serie de
problemas unidimensionales.
 Los pasos asociados a la utilización del método del gradiente o
descenso más pronunciado consiste en:
Luego de realizar la segunda iteración se verifica que se cumplen las
condiciones necesarias de primer orden (d1=(0,0)). Adicionalmente se
puede comprobar que la función objetivo resulta ser convexa y en
consecuencia las condiciones de primer orden resultan ser suficientes
para afirmar que la coordenada (X1,X2)=(-2,1) es el óptimo o mínimo
global del problema

S-ar putea să vă placă și