Documente Academic
Documente Profesional
Documente Cultură
“OPTIMIZACIÓN A LA INGENIERÍA”
Ayacucho – Perú
2018
ÍNDICE
1. CAPITULO 1
1.1. RESUMEN EJECUTIVO………………………………..........................................................
1.2. OBJETIVOS……………………………………………..........................................................
1.2.1. Objetivos generales…………………….…........................................................................
1.2.2. Objetivos especifico.......................... ….............................................................................
2. CAPITULO 2
2.1. OPTIMIZACION ……………………….....................................….........................................
2.2. OPTIMIZACION EN INGENIERIA.........................................................................................
2.3. MÉTODOS DE OPTIMIZACIÓN …........................................................................................
2.3.1. Optimización unidimensional no restringida ......................................................................
Sección dorada
Interpolación cuadrática
Método de newton
2.3.2. Optimización multidimensional no restringida ...................................................................
Métodos directos
Método de gradiente
Gradiente conjugado
Newton
Cuasi newton
2.3.3. Optimización restringida .....................................................................................................
Programación lineal
Método simplex
3. CAPITULO 3
3.1. Métodos de optimización ..........................................................…........................................
3.2. Análisis algoritmo de productos medios.................................................................................
4. CAPITULO4
4.1. CONCLUSIÓN....................................……...........................................................................
5. CAPITULO 5
5.1. BIBLIOGRAFÍA....................................................................................................................
2
1. CAPITULO 1
1.1 RESUMEN EJECUTIVO
En este trabajo de investigación, veremos la definición clara sobre optimización y aplicados en ingeniería
describiremos los métodos de optimización usando a programación lineal y no lineal. La programación no
lineal como parte de la investigación operativa .
CAPITULO 2
2.1. Se definió el concepto de optimización y sobre la aplicación en la ingeniería, el método de aplicación
y resolución de acuerdo a modelos. Se uso métodos matemáticos como por ejemplo, búsqueda de la sección
dorada, interpolación, métodos directos y gradientes. Nosotros abarcamos para la resolución de los
problemas el método de Simplex que es una técnica de la programación lineal. Se planteo problemas en
Matlab y se demostrará como se resolverá cada uno de ellos.
2.2. Programación no lineal: sepuede dar una definición de programación no lineal (PNL), por
contraposición con la programación lineal (PL). Recuérdese que esta Última trata el problema de optimizar
una función lineal f : Rn R sujeta a una serie de restricción y/o al menos una de las restricciones,
por no lineales, se cae el campo PNL
La teoría clásica de la optimización acude al empleo del cálculo diferencial para determinar los
puntos en los cuales la función f : Rn R asume valor optimo
2.3 La investigación de operaciones es una herramienta básica que posee varios modelos y que sirve para
la toma de decisiones las cuales se basan en datos cuantificables con varios modelos matemáticos que sirven
para maximizar ganancias y minimizar costos los cuales se dan al obtener procesos y soluciones factibles
que sirven para la obtención del resultado más óptimo y acercado a la realidad.
Un modelo de Programación Lineal (PL) considera que las variables de decisión tienen un comportamiento
lineal, tanto en la función objetivo como restricciones del problema con la finalidad de optimizar la función.
Los métodos más recurridos para resolver problemas de programación lineal son algoritmos de pivote, en
particular los algoritmos simplex.
Programación no lineal (PNL) es el proceso de resolución de un sistema de igualdades y desigualdades
sujetas a un conjunto de restricciones sobre un conjunto de variables reales desconocidas, con un función
objetivo a maximizar (o minimizar), cuando alguna de las restricciones o la función objetivo no son lineales.
1.2 OBJETOS
OBJETIVOS DE ESTUDIO
- Tener la suficiente información para resolver con éxito la amplia variedad de problemas de
optimización que se presentan.
- Dominar las técnicas de optimización y evaluar la confiabilidad de las mismas.
- Ser capaz de analizar métodos alternativos para un problema específico.
OBJETIVOS DE CÓMPUTO
- Llegar a la capacidad de escribir u subprograma que lleve a cabo una búsqueda simple
unidimensional( como la búsqueda de la sección dorada o la interpolación cuadrática) y
multidimensional (como el método de búsqueda aleatoria)
- Familiarizarse con el programa de MATLAB en los temas de optimización.
3
OBJETIVOS ESPECÍFICOS DE ESTUDIO
- Entender porque y donde se presentan la optimización al resolver problemas de ingeniería.
- Ser capaz de distinguir entre la optimización lineal y la no lineal, y entre problemas con
restricciones y sin restricciones.
- Comprender los principales elementos del problema de optimización general: función
objetivo. Variables de decisión y restricciones.
- Poder definir la razón dorada y comprender como hace que la optimización unidimensional
sea eficiente
- Localizar el óptimo de una función en una sola variable mediante la búsqueda de la sección
dorada, la interpolación cuadrática y el método de newton.
- Reconocer las ventajas y desventajas de tales métodos, especialmente con los valores
iniciales y la convergencia.
- Programar y encontrar el óptimo de una función multivariada usando la búsqueda aleatoria
- Comprender las ideas de los patrones de búsqueda, las direcciones conjugadas y el método
de Powell
- Definir y evaluar el gradiente y el hessiano de una función multivariada tanto en la forma
analítica como numérica
- Calcular el óptimo de una función con dos variable con el método de paso ascendente-
descendente
- Comprender las ideas básicas de los métodos del gradiente conjugado y Newton. En
particular, entender las ventajas y las desventajas de los diferentes métodos, y reconocer cómo
cada uno mejora el de paso ascendente-descendente.
- Resolver un problema de programación lineal bidimensional con ambos métodos: el gráfico
y el simplex.
- Plantear y resolver problemas de optimización restringidos lineales utilizando un paquete
de software.
4
2. CAPÍTULO 2
OPTIMIZACIÓN EN INGENIERÍA
La optimización dentro de la ingeniería se enfoca en utilizar de forma eficiente recursos limitados y que
pueden ser asignados a actividades alternativas, en otras palabras, la optimización tiene como propósito
analizar e identificar la mejor solución posible, entre todas las soluciones potenciales. La idea de aplicar
los diferentes métodos de optimización es facilitar el entendimiento y el manejo de los parámetros que
componen un sistema o proceso. La palabra optimización, comparte la misma raíz que "óptimo", pero es
raro que el proceso de optimización origine un sistema realmente óptimo. A menudo no existe una solución
de diseño que funcione bien en todos los casos, por lo tanto, en esos casos los ingenieros para poder
optimizar deben tomar los atributos de mayor interés. Cabe resaltar que la toma de decisiones se va tornando
difícil de acuerdo al tamaño y complejidad de las empresas, sus problemas o por la cantidad de variables
que manejan, en especial cuando se tienen varios productos, materias primas y plantas de producción, por
lo tanto saber dónde producir, cuales productos, y a que clientes tener en cuenta, se convierte en un tema
en donde es necesario la aplicación de la investigación de operaciones y de modelos matemáticos, los cuales
ayudan a la disminución y optimización de las actividades.
DOS OPCIONES
PARA REALIZAR LA
OPTIMIZACIÓN
OPTIMIZACIÓN
OPTIMIZACIÓN
BASADA EN
EMPIRICA.
MODELOS
5
Nota: Hay un compromiso entre las variables y el objetivo. Hay que identificar estos compromisos antes de
desarrollar los modelos matemáticos (Entender el problema cualitativamente antes de resolver
cuantitativamente).
CONFIGURACIÓN
INICIAL O SISTEMA REAL
DECISIONES A
TOMAR
MODELO
MODELO
SIMULAR MODIFICAR LA
CONFIGURACIÓN
¿OK? NO
SOLUCIÓN
ACEPTAR LA
CONFIGURACIÓN
1. SOLUCIONES GRÁFICAS.
X2
Solución óptima
Z X1
6
2. SOLUCIÓN ANALÍTICA
3. SOLUCIÓN NUMÉRICA
7
2.3. METODOS DE OPTIMIZACIÓN
Recuerde que en la parte dos, la localización de una raíz fue complicada por el hecho de que una sola
función puede tener varias raíces. De manera similar, los valores óptimos tanto locales como globales pueden
presentarse en problemas de optimización. A tales casos se les llama multimodales. En casi todos los ejemplos,
estaremos interesados en encontrar el valor máximo o mínimo absoluto de una función. Así, debemos cuidar de no
confundir un óptimo local con un óptimo global.
Distinguir un extremo global de un extremo local puede ser generalmente un problema difícil. Existen tres
formas comunes de resolver este problema. Primero, una idea del comportamiento de las funciones
unidimensionales algunas veces llega a obtenerse en forma gráfica. Segundo, determinar el valor óptimo con base
en valores iniciales, los cuales varían ampliamente y son generados quizá en forma aleatoria, para después
seleccionar el mayor de éstos como el global. Por último, cambiar el punto de inicio asociado con un óptimo local
y observar si la rutina empleada da un mejor punto, o siempre regresa al mismo punto. Aunque estos métodos tienen
su utilidad, el hecho es que en algunos problemas (usualmente los más grandes) no existe una forma práctica de
asegurarse de que se ha localizado un valor óptimo global. Sin embargo, aunque debe tenerse cuidado se tiene la
fortuna de que en muchos problemas de la ingeniería se localiza el óptimo global en forma no ambigua.
Figura OPT-1: Una función que se aproxima asintóticamente a cero en más y menos ∞ y que tiene dos puntos
máximos y dos puntos mínimos en la vecindad del origen. Los dos puntos a la derecha son los óptimos locales;
mientras que los dos de la izquierda son globales.
El método final descrito en esta sección es un método abierto que está basado en la idea del cálculo para
encontrar el mínimo o máximo al resolver ƒ′(x) = 0. Esto reduce el problema de optimización al encontrar la raíz
de ƒ′(x) mediante las técnicas que se describen en la parte dos. Se mostrará una versión del método de Newton.
8
2.3.1.1. BUSQUEDA DE LA SECCION DORADA
En la sección Aurea se ubican dos puntos interiores de manera tal que el intervalo eliminado en cada
iteración sea de la misma proporción que el intervalo total. Solo un nuevo punto debe ser calculado en cada iteración.
Consideremos la localización simétrica de dos puntos como en la figura OPT-4
Figura OPT-4
Partimos de un intervalo [0, 1] de longitud unidad (simplemente por conveniencia) y localizamos dos
puntos, cada uno a una fracción τ de cada extremo. Con esta simetría, independientemente de qué valor de la función
sea el más pequeño, la longitud del intervalo que permanece es siempre τ. Supongamos que eliminamos el
subintervalo de la derecha.
Se puede observar a partir de la figura que el punto que queda, de los dos anteriores, está situado a una
distancia 1−τ de uno de los extremos.
En la estrategia que se plantea el método del número de oro el punto que permanece en el interior del nuevo
intervalo está ubicado en la posición relativa en la que se encontraba el otro punto, que ahora limita la zona, la
distancia 1−τ debe corresponder a una fracción τ del intervalo (que es de longitud τ). Con esta elección de τ, el
siguiente punto debe localizarse a una fracción τ de la longitud del intervalo desde el extremo de la parte derecha.
Por tanto, con la elección de τ que satisfaga 1−τ = τ2, el patrón de búsqueda permanece en el intervalo
reducido de la siguiente figura.
La solución de esta ecuación cuadrática es 2−1 ± 5τ = , siendo la solución positiva de la misma τ = 0.61803 . . .
9
El subintervalo final luego de cada iteración es: (EJERCICIO RESUELTO VÉASE EN CAPÍTULO 3)
Así como existe una única recta que pasa por dos puntos, hay únicamente una ecuación cuadrática que pasa
por tres puntos. De esta forma, si se tienen tres puntos que contienen un punto óptimo, se ajusta una parábola a los
puntos, después se puede derivar e igualar a cero, y así obtener una estimación del óptimo.
Este método utiliza evaluaciones de la función, y sólo un nuevo valor de función debe ser calculado en cada
iteración.
Supongamos que tenemos una función real, f, unimodal en el intervalo [a, b] y de una variable. Vamos a desarrollar
el procedimiento suponiendo que el ´optimo se trata de un mínimo.
Paso Inicial
Paso General
Repetir:
1. Seleccionar tres puntos x1, x2, x3 ∈ [a, b] tales que f(x2) < f(x1) y f(x2) < f(x3).
2. Obtener el valor mínimo del polinomio de interpolación correspondiente a los puntos x1, x2, x3. Dicho mínimo
viene dado por la expresión 1.
3. Si |x2 −x∗ | < h, PARAR. x∗ se toma como aproximación al verdadero óptimo de la función. En caso contrario,
ir a 4.
4. Si x2 ≤ x∗ , entonces tomar a = x1, b = x2 y volver al paso 1. En caso contrario, tomar a = x2, b = x3 y volver al
paso 1.
Paso Inicial
10
Seleccionar tres puntos x1, x2, x3 ∈ [a, b]. Tomar h > 0 cota del error de aproximación.
Hacer k = 1.
Paso General
Repetir:
1. Obtener x∗ el valor mínimo del polinomio cuadrático de interpolación correspondiente a los puntos x1, x2, x3.
Dicho mínimo viene dado por la expresión 1. Sea yk = f(x∗). Si k = 1, ir al paso 3, en caso contrario ir al paso 2.
2. Si |yk − yk−1| < h, PARAR. x∗ se toma como aproximación al verdadero óptimo de la función. En caso contrario,
ir a 3.
3. Sea i tal que f(xi) = Max{f(x1), f(x2), f(x3)}. Hacer xi = x∗ y volver al paso 1.
- Ventajas: es un proceso que converge cuadráticamente en forma local. Para una función cuadrática
converge con solo una iteración.
- Desventajas: se deben calcular las derivadas primeras y segundas, si las derivadas segundas son nulas el
método converge lentamente, si existen más de un extremo el método puede no converger en el valor
deseado.
11
Desafortunadamente el método depende de la elección del punto de partida y de la naturaleza de la función. Es
bastante posible que este método no converja hacia el verdadero punto estacionario. La figura siguiente ilustra esta
dificultad. Si comenzamos en un punto a la derecha de x0, las aproximaciones sucesivas se alejarán del punto
estacionario x*. (EJERCICIO RESUELTO VÉASE EN CAPÍTULO 3)
Figura OPT-4 La visualización en dos dimensiones donde el ascenso de una montaña significa maximización y el
descenso de una valle, minimización. a) Mapa topográfico bidimensional (2-D) de la montaña. b) Grafica
tridimensional de la montaña.
12
2.3.2.1.1. BÚSQUEDA ALEATORIA
Este es uno de los métodos más simples, como su nombre lo indica, dicho método evalúa en forma repetida la
función con los valores seleccionados aleatoriamente de la variable independiente. Si el método se lleva a
cabo con un número suficiente de muestras, el óptimo eventualmente se localizará.
2.3.2.2.1. GRADIENTE
Este método utiliza sólo las derivadas primeras de la función objetivo. El gradiente es el vector en el punto x que
da la dirección del mayor aumento en f(x) y es el ortogonal al contorno de la función en el punto x. Para
maximización la dirección de búsqueda es simplemente el gradiente, para minimización, la dirección de búsqueda
es el valor negativo del gradiente.
Ejemplo:
Se tiene una función en dos dimensiones f(x, y). Donde representa su altura sobre una montaña como
una función de su posición.
Figura OPT-5 El gradiente direccional se define a lo largo de un eje h que forma un ángulo θ con el eje
x.
13
Se quiere conocer la pendiente en una dirección arbitraria. Una forma de definir la dirección es a lo largo de un
nuevo eje h que forma un ángulo θ con el eje x. La elevación a lo largo de un nuevo eje puede entenderse como una
nueva función g(h). Si usted define su posición como el origen de este eje (es decir, h = 0), la pendiente en esta
dirección podría designarse como g′(0). Esta pendiente, que se llama derivada direccional, se puede calcular a partir
de las derivadas parciales a lo largo de los ejes x y y mediante:
Donde las derivadas parciales son evaluadas en x = a y y = b. Suponiendo que su objetivo es obtener la mayor
elevación con el siguiente paso, ahora la pregunta lógica sería: ¿En qué dirección está el mayor paso de ascenso?
La respuesta a esta pregunta es proporcionada mediante lo que matemáticamente se conoce como el gradiente, el
cual se define así:
Para el problema de subir la montaña, la gradiente se hace eso de la siguiente manera, si lo que interesa es ganar
elevación tan rápidamente como sea posible, el gradiente nos indica, de manera local, qué dirección tomar y cuánto
ganaremos al hacerlo.
14
la cual, se puede demostrar, converge en forma cuadrática cerca del óptimo. Sin embargo, observe que este método
requiere tanto del cálculo de las segundas derivadas como de la inversión matricial, en cada iteración. Por lo que el
método no es muy útil en la práctica para funciones con gran número de variables. Además, el método de Newton
quizá no converja si el punto inicial no está cerca del óptimo.
Figura OPT-6. Cuando el punto inicial esta cerca del punto óptimo, seguir el gradiente puede resultar
ineficiente. Los métodos de Newton intentan la búsqueda a lo largo de una trayectoria directa hacia el óptimo
(línea continua).
El método de Marquardt ofrece lo mejor de los procedimientos: comienza en forma confiable a partir de valores
iniciales pobres y luego acelera en forma rápida cuando se aproxima al óptimo.
15
2.3.2.3.4. MÉTODOS DE CUASI-NEWTON:
Los métodos cuasi-Newton, o métodos de métrica variable, buscan estimar el camino directo hacia el óptimo en
forma similar al método de Newton. Los métodos cuasi-Newton intentan evitar estas dificultades al aproximar
sólo las primeras derivadas parciales de f. El procedimiento consiste en comenzar con una aproximación inicial de
H–1 y actualizarla y mejorarla en cada iteración. Estos métodos se llaman de cuasi-Newton porque no usan el
hessiano verdadero, sino más bien una aproximación. Así, se tienen dos aproximaciones simultáneas:
1. La aproximación original de la serie de Taylor.
2. La aproximación del hessiano. Hay dos métodos principales de este tipo: los algoritmos de
Davidon-Fletcher-Powell (DFP) y de Broyden-Fletcher-Goldfarb-Shanno (BFGS). Éstos son
similares excepto en detalles concernientes a cómo manejan los errores de redondeo y su
convergencia. BFGS es, por lo general, reconocido como superior en la mayoría de los casos. Rao
(1996) proporciona detalles y declaraciones formales sobre ambos algoritmos, el DFP y el BFGS.
Forma estándar
El problema básico de la programación lineal consiste en dos partes principales: la función objetivo y un conjunto
de restricciones. En un problema de maximización, la función objetivo, por lo general, se expresa como:
Donde cj = la contribución de cada unidad de la j-ésima actividad realizada y xj = magnitud de la j-ésima actividad.
Así, el valor de la función objetivo, Z, es la contribución total debida al número total de actividades, n. Las
restricciones se representan, en forma general, como
16
Donde aij = cantidad del i-ésimo recurso que se consume por cada unidad de la j-ésima actividad, y bi = cantidad
del i-ésimo recurso que está disponible. Es decir, los recursos son limitados. El segundo tipo general de restricción,
especifica que todas las actividades deben tener un valor positivo:
xi > 0
En el presente contexto, lo anterior expresa la noción realista de que, en algunos problemas, la actividad negativa
es físicamente imposible (por ejemplo, no se pueden producir bienes negativos).
Juntas, la función objetivo y las restricciones, especifican el problema de programación lineal. Éstas indican que se
trata de maximizar la contribución de varias actividades, bajo la restricción de que en estas actividades se utilizan
cantidades finitas de recursos.
- Variable de holgura
Como lo indica su nombre, una variable de holgura mide cuánto de un recurso restringido está disponible;
es decir, cuánta “holgura” está disponible
17
𝑚𝑎𝑥 3𝑥1 + 5𝑥2
𝑠. 𝑎 𝑥1 ≤ 4
9𝑥1 + 5𝑥25 ≤ 224
2
Minimizar f(x)
sujeta a g¡(x) ≤0 i - 1, 2 m
h¡(x)- 0 j - 1,2 1
donde f. gi. g2……, gm. h1 h2, …, h1, son funciones definidas en L„. el espacio euclidiano de n dimensiones. X
es un subconjunto de Ln. y x es un vector de componentes x,. x2,...,xn.
18
2.4.3. TIPOS DE PROBLEMAS NO-LINEALES
Programación cuadrática: problema restringido linealmente con función objetivo cuadrática contiene cuadrados
de variables y/o productos de variables. Se han desarrollado muchos algoritmos para f(x) cóncava, esta
formulación surge de manera natural en muchas aplicaciones.
Programación convexa: se menciona todos los tipos anteriores cuando f(x) es una función cóncava que debe
maximizarse. Los supuestos son: (i) f(x) es cóncava y (ii) cada gi(x) es convexa. Estos supuestos aseguran que un
máximo local es global³.
Si el problema es de minimización
min f(x)
s.a gi(x) ≤ bi
Programación separable: es un caso especial de programación convexa, en donde el supuesto adicional es: todas
las funciones f(x) y gi(x) son separables. Una función separable es una función en la que cada terminó incluye una
sola variable, por lo que la función se puede separar en una suma de funciones de variables individuales.
19
𝒏
𝒇(𝒙) = ∑ 𝒇𝒋 (𝒙𝒋 )
𝒋=𝟏
Programación no convexa: incluye todos los problemas de PNL que no satisfacen los supuestos de
programación convexa. En este caso, aun cuando se tenga ´éxito en encontrar un máximo local, no hay garantía de
que sea también un máximo global. Por lo tanto, no se cuenta con un algoritmo que garantice encontrar una
solución ´óptima para todos estos problemas; sin embargo, existen algunos algoritmos bastante adecuados para
encontrar máximos locales, en especial cuando las formas de las funciones no lineales no se desvían demasiado de
aquellas que se supuso para programación convexa.
Programación geométrica: cuando se aplica PNL a problemas de diseño de ingeniería, muchas veces la función
objetivo y las funciones de restricción toman la forma
𝒏
𝒈(𝒙) = ∑ 𝒄𝒌 𝒑𝒌 (𝒙)
𝒌=𝟏
Programación fraccional: si la función objetivo se encuentra en la forma de una fracción, esto es, como razón o
cociente de dos funciones
𝑥𝑗 = 𝑒 𝑦𝑗 , 𝐽 = 1,2, … … , 𝑛
Problema de complementariedad: Dadas las variables w1, w2,..., wp y z1,z2,..., zp, el problema de
complementariedad encuentra una solución factible para el conjunto de restricciones
w = F(z), w ≥ 0, z ≥ 0
Aquí, w y z son vectores columna, F es una función vectorial y el superíndice t denota la transpuesta.
𝑎𝑖𝑇 𝑥 ≥ 𝑏𝑖 , 𝑖 ∈ 𝐼
20
donde Gnxn es una matriz simétrica y g, x y ai ; 𝑖 ∈ 𝜀 u I, vectores Rn -> R. La Programación Cuadrática guarda
una relación muy estrecha con la Programación Lineal
Teorema 1: Si una función f : R ->R tiene un máximo o mínimo relativo en un punto c, entonces c es un punto
crítico.
1. Si f _ es positiva para toda x, con a < x < c, y negativa para toda x, con c < x <
b, entonces f tiene un máximo relativo en c.
2. Si f _ es negativa para toda x, con a < x < c, y positiva para toda x, con c < x <
b, entonces f tiene un mínimo relativo en c.
3. Si f _ es positiva (negativa) para toda x, con a < x < b, x ≠ c, entonces f no tiene un óptimo relativo en c
Ejemplo 1: encuentre los puntos en los cuales f (x) = 3X2/3+ 5 tiene valores
21
óptimos y determine de que clase son.
Solución:
2
f’( x) =2X-1/3- = 3 esta función nunca es cero y no está definida en
√𝑥
x = 0. En consecuencia, x = 0 es el único punto crítico. Es evidente que para x < 0,
f ´(x) < 0, y para x > 0, f ‘(x) > 0. Aplicando el teorema 2 se concluye que f tiene un
mínimo en x = 0. La figura 3 ilustra la situación.
existe, entonces
f (x) =X3 – 3X2 - 24x + 2 , tales que f ‘(-2) = 0 y f ‘(4) = 0. Empleando el teorema 3,
Solución:
f '(x) = 3x2 - 6x - 24
f ''(x) = 6x - 6
22
FUNCIONES CONVEXAS
Dados los vectores x1 , x2, . . . , xk ∈ Rn se dice que el vector y es una combinación lineal convexa de x1 , x2 , . . . ,
xk si:
Definición: Un conjunto S ⊆ Rn se dice convexo si el segmento de recta que une 2 puntos cualesquiera de S está
totalmente contenido en S. O sea, ∀x1 ; x2∈ S se tiene que:
• Definición: Una función escalar f( x) es una función convexa definida sobre un conjunto convexo X en En si
para dos puntos cualquiera x1 y x 2 en X
• Teorema: Cualquier forma cuadrática semidefinida positiva q ( x) = x TDx donde D es simétrica, es una función
convexa en todo En, y si D es definida positiva es estrictamente convexa
• Teorema: Cualquier forma cuadrática semidefinida negativa q ( x) = x TDx donde D es simétrica, es una función
cóncava en todo En, y si D es definida negativa es estrictamente cóncava
23
F(x)≤f(x*)+Δf’(x*).(x-x*)
F(x)≥f(x*)+Δf’(x*).(x-x*)
K= 1,…….,m
La función objetivo puede tener un solo mínimo, en cuyo caso se denomina unimodal, o varios mínimos locales o
globales, en cuyo caso se denomina ultimo
Kamblesh Mathur: “Es el uso de la Matemática y computadoras para ayudar a tomar decisiones racionales frente a
problemas de administración”. Jorge Alvarez:“Es un procedimiento o un enfoque para resolver problemas
relacionados con la toma de decisiones”
24
Resumiendo: La Investigación de Operaciones es el uso de la matemática e informática para resolver problemas del
mundo real, tomando decisiones acertadas que garanticen el éxito. Lawrence y Pasternak, (1998) “Es un enfoque
científico para la toma de decisiones ejecutivas, que consiste en:
HISTORIA
Antecedentes:
25
• La Fuerza Armada Estadounidense formó un grupo similar, 5 de los cuales ganaron el Premio Nóbel.
Después de la II Guerra Mundial, las Empresas reconocieron el valor de aplicar las técnicas en:
-Refinerías de petróleo,
-Distribución de productos,
-Planeación y control de la producción,
-Estudio de mercado y Planeación de Inversiones. Sigue el desarrollo debido a: competitividad industrial
progreso teórico RAND (Dantzig) Princeton (Gomory, Kuhn, Tucker) Carnegie Institute of Technology
(Charnes, Cooper) gran desarrollo de los ordenadores:
Es identificar, comprender y describir en términos precisos, el problema que la organización enfrenta. El enunciado
es la definición del problema. Un problema no se formula sino se define. Consiste en identificar los elementos de
decisión, objetivos (uno o varios, optimizar o satisfacer), alternativas y limitaciones del sistema Hay que recoger
información relevante (los datos pueden ser un grave problema) Es la etapa fundamental para que las decisiones
sean útiles
Factores problemáticos
PLAN DE TRABAJO:
• Identificando variables
• Identificando la Función Objetivo
• Identificando las restricciones
26
Paso 1.- Identificar las variables de decisión
Paso 3.- Identificar las restricciones o factores que limitan la decisión, recursos disponibles (trabajadores,
máquinas, material), fechas límite, naturaleza de las variables (no negatividad, enteras, binarias).
Es resolver el modelo usando una técnica adecuada, es decir obtener valores numéricos para la variable de decisión.
Es determinar los valores de las variables de decisión de modo que la solución sea óptima (o satisfactoria) sujeta a
las restricciones Puede haber distintos algoritmos y formas de aplicarlos.En esta parte se usa el Software LINDO,
que puede resolver modelos de hasta 200,000 variables y 50,000 restricciones.
DECISIONES ESTRATEGICAS:
DECISIONES OPERACIONALES:
TIPOS DE MODELOS
27
MODELOS NORMATIVOS - OPTIMIZACIÓN
Ofrecen información sobre alternativas Seleccionan entre ellas Complejos y no triviales Difíciles de tratar con
incertidumbre Requieren técnicas complejas de solución
Construcción de modelos:
Técnicas de IO
Teoría de colas
Colas simples
Redes de colas
Teoría de juegos
J. simples (deterministas/estocásticos)
J. repetitivos
Teoría de decisión
28
Planificación de la producción
Optimización de carteras
Análisis de riesgo
Planificación de redes de comunicaciones
Generación de ofertas en mercados
Competitivos
MÉTODOS DE RESOLUCIÓN
MÉTODO GRÁFICO
Empleado principalmente para PPL con dos variables de decisión. Este método se basa en la idea de obtener
regiones de soluciones factibles (RSF), en las cuales se encontraría la combinación de variables de decisión
que optimizan el modelo.
PASOS PARA LA SOLUCION MEDIANTE EL METODO GRAFICO
Para llegar a una solución óptima en el método grafico se requiere seguir con una
29
serie de pasos que podemos dar a continuación:
1. formulación del problema
El primer paso para la resolución por método grafico es expresar el problema en términos matemáticos en
el formato general de la programación lineal (desigualdades) con un solo fin maximizar la contribución a
la ganancia.
2. graficar las restricciones
El próximo paso de la solución por método grafico es la graficación de las restricciones en el plano
cartesiano para establecer todas las posibles soluciones.
3. obtención de la solución optima
Para encontrar la solución óptima, se grafica la función objetivo en la misma gráfica de las restricciones.
Se graficará siempre la función objetivo del problema y se dará la solución de acuerdo con el símbolo que
esté presente en la restricción de la función objetivo.
Existen cuatro variables de holgura, S1, S2, S3, y S4; una para cada restricción.
2. Si todos los indicadores del último renglón son no negativos, entonces Z tiene un máximo cuando
X1=0, X2=0 y X3=0. El valor máximo es 0. Si existen indicadores negativos, localizar la columna en
la que aparezca el indicador más negativo.
Esta columna señala la variable entrante.
3. Dividir cada uno de los elementos de la columna de b que se encuentran por encima de la recta punteada
entre el correspondiente elemento de la columna de la variable entrante. Se debe realizar esta división
solo en los casos en los que el elemento de la variable que entra sea positivo.
4. encerrar en un círculo el elemento de la columna de la variable entrante que corresponde al menor
cociente del paso 3. Este es un elemento pivote. La variable saliente es la que se encuentra al lado
izquierdo del renglón del elemento pivote.
5. Utilizar operaciones elementales sobre renglones para transformar la tabla en otra tabla equivalente que
tenga un 1 en donde se encuentra el elemento pivote y 0 en las demás posiciones de esa columna.
6. la variable entrante debe reemplazar a la variable saliente en el lado izquierdo de esta nueva tabla.
7. si todos los indicadores de la tabla nueva son no negativos, ya se tiene una solución óptima. El valor
máximo de Z es el elemento del último renglón y la última columna. Ocurre esto cuando las variables
se encuentran del lado izquierdo de la tabla son iguales a los elementos correspondiente de la última
30
columna. Todas las demás variables son ceros. Si cuando menos uno de los indicadores es negativo, se
debe repetir el mismo proceso con la nueva tabla, comenzando con el paso 2.
EJEMPLOS DESARROLLADOS
EJEMPLO
Maximizar Z= 5X1+4X2
Sujeto a: X1+X2 ≤ 20
2X1+X2 ≤ 35
-3X1+X2 ≤ 12
X1≥0, X2≥0
Este problema de programación lineal se ajusta a la forma normal. La tabla simplex
inicial es:
El indicador más negativo, -5, aparece en la columna x1. Por ello, x1 es la variable entrante. El menor
cociente es 17.5, de modo que, S2 es la variable saliente. El elemento pivote es 2. Utilizando operaciones
elementales sobre los renglones para obtener un 1 en la posición del pivote y 0 en las demás posiciones de
esa columna, se tienen:
31
La nueva tabla es:
Obsérvese que en el lado izquierdo, x1 reemplazó a S2. Ya que -3/2 es el indicador más negativo se debe
continuar con el proceso. La variable entrante es ahora x2. El menor cociente es 5. De modo que S1 es la
variable saliente y ½ es el elemento pivote. Utilizando operaciones elementales sobre renglones, se tiene:
En donde x2 reemplazo a S1 en el lado izquierdo. Como todos los indicadores son no negativos, el valor
máximo de Z es 95 y aparece cuando x2=5 y x1=15 (y S3=52, S1=0, S2=0).
32
PROBLEMAS TÍPICOS
•Problema del transporte
•Problema de flujo con coste mínimo en red
•Problema de asignación
•Problema de la mochila (knapsack)
•Problema del emparejamiento (matching)
•Problema del recubrimiento (set-covering)
•Problema del empaquetado (set-packing)
•Problema de partición (set-partitioning)
•Problema del coste fijo (fixed-charge)
•Problema del viajante (TSP)
•Problema de rutas óptimas
33
2.8. DIFERENCIAS ENTRE PL Y PNL
34
3. CAPITULO 3
METODOLOGÍA
Para poder realizar el presente trabajo, tuvimos q recolectar toda la información necesaria del tema de
optimización en ingeniería y sus diferentes métodos y aplicación en programación no lineal.
Po ello se desarrollo los ejercicios de forma manual e incorporando el uso de programas como Excel, solver ,
Matlab .
METODOS DE OPTIMIZACION
--------------------------------------------------------------------------------------------------------------------
PROGRAMACIÓN DEL PROBLEMA EN MATLAB
--------------------------------------------------------------------------------------------------------------------
35
a) Primero creamos una archivo scrib F:
1. function y=f(x)
2. %modifica y escribe cualquier función (-)maximiza (+)minimiza!
3. y=-(2*sin(x)-x^2/10) ;
36
43. %chooses minimum points
44. if(f_x1<f_x2)
45. sprintf('x_min=%f' , x1)
46. sprintf('f(x_min)=%f' , f_x1)
47. plot(x1,f_x1,'ro')
48. else
49. sprintf('x_min=%r', x2)
50. sprintf('f(x_min)=%f ', f_x2)
51. plot(x2,f_x2,'ro')
52. End
RESULTADOS:
>> f(x)
ans =
x_min=1.427551
ans =
f(x_min)=-1.775726
----------------------------------------------------------------------
37
16. pi=xi;
17. j=j+1;
18. end
19. fprintf('\nRaiz= %12.3f en %4d Iteraciones',pi,j)
RESULTADOS:
Plantemiento del problema. Utilizamos la función fminbnd de MATLAB para en contrar el maximo de la función
sgte:
4. El resultado es
f=
-1.7757
x=
1.4275
Otra forma de incluir más parámetros como tolerancia o cantidad de iteraciones se harán con la función
optimizet(‘param1’,value1,’param2’,value2,…) donde param es un parámetro que especifica el tipo de opción y
value es el valor asignado a esa opción.
En el ejemplo anterior se pueden incluir estos valores como tolerancia de 1x10^-2 de la siguiente manera,
Optimset(‘tolx’,1e-2)
De esta manera la solución del problema con una tolerancia de 1x10^-2 se generara con
38
>>fminbnb(‘fx’,0,4,optimset(‘tolx’,1e-2))
Cuyo resultado es
f=
-1.7757
ans=
1.4270
OPTIMIZACIÓN RESTRINGIDA
PROGRAMACION LINEAL
Una fábrica produce televisores utilitarios y de lujo. La fábrica está dividida en dos secciones: montaje y acabado.
Los requerimientos del trabajo vienen dadas por la siguiente tabla:
El máximo número de horas de trabajo disponibles diariamente es de 120 en montaje y 180 en acabado, debido a
las limitaciones de operarios.
Si el beneficio es de 300 dólares por cada televisor utilitario y 400 dólares por cada nevera de lujo, ¿Cuántas deben
fabricarse diariamente de cada una para obtener el máximo beneficio?
3*x1+3*x2<=120 montaje
3*x1+6*x2<=180 acabado
X1, x2>0
39
--------------------------------------------------------------------------------------------------------------------
--------------------------------------------------------------------------------------------------------------------
1. %**METODO SIMPLEX**
2. %**Para cambiar a método simplex de tres dimensiones es necesario agregar
3. %las terceras variables a cada matriz respectivamente
4.
5. A=[-300 -400]; %Se define A como función objetivo
6.
7. B=[ 3 3 ; %Se define B como restricciones
8. 3 6];
9.
10. C=[ 120; %Se define C como recursos
11. 180];
12.
13. In=size(B,1); %Se guarda en In el número de restricciones
14. Xsol=[B eye(In) C %Xsol será nuestra matriz con los datos ordenados
15. A zeros(1,In) 0]
16.
17. fin=Xsol(end,1:end-1)<0;
18. if fin==0
19. break
20. end
21. [a,c]=min(Xsol(end,:)); %Columna pivote
22. Variable_Entrada1= Xsol(:,c) %Variable de entrada
23. Variable_Salida1=Xsol(c,:) %Variable de salida
24. Xre= Xsol(:,end)./ Xsol(:,c); %Divide los recursos en la columna pivote
25. i=Xre<=0; %Encuentra negativos o ceros en los recursos
26. d=Xre; %Guarda los recursos en d
27. d(i)=inf; %Donde es cero o negativo pone un infinito
28. [b,f]=min(d); %Encuentra en la columna pivote el positivo menor
29. Xsol(f,1:end)=Xsol(f,1:end)/Xsol(f,c); %Divide la fila pivote en el elemento pivote
30. for i=1:1:size(Xsol,1) %Hace el gauss
31. if i~=f %No realiza el gauss en la fila pivote
32. Xsol(i,:)=Xsol(i,:)-(Xsol(i,c)*Xsol(f,:)); %nueva_ecua = anterior_ecua - (coef_columna enterante)
x (nueva_ecuac_pivote)
33. end
34. end
35.
36.
37. Tabla_Iteracion1=Xsol %Iteracion 1
38.
39. fin=Tabla_Iteracion1(end,1:end-1)<0;
40. if fin==0
41. break
40
42. end
43. [a,c]=min(Tabla_Iteracion1(end,:)); %Columna pivote
44. Variable_Entrada2= Xsol(:,c) %Variable de entrada
45. Variable_Salida2=Xsol(c,:) %Variable de salida
46. Xre= Tabla_Iteracion1(:,end)./ Tabla_Iteracion1(:,c); %Divide los recursos en la columna pivote
47. i=Xre<=0; %Encuentra negativos o ceros en los recursos
48. d=Xre; %Guarda los recursos en d
49. d(i)=inf; %Donde es cero o negativo pone un infinito
50. [b,f]=min(d); %Encuentra en la columna pivote el positivo menor
51. Tabla_Iteracion1(f,1:end)=Tabla_Iteracion1(f,1:end)/Tabla_Iteracion1(f,c); %Divide la fila pivote en
el elemento pivote
52. for i=1:1:size(Tabla_Iteracion1,1) %Hace el gauss
53. if i~=f %No realiza el gauss en la fila pivote
54. Tabla_Iteracion1(i,:)=Tabla_Iteracion1(i,:)-(Tabla_Iteracion1(i,c)*Tabla_Iteracion1(f,:));
%nueva_ecua = anterior_ecua - (coef_columna enterante) x (nueva_ecuac_pivote)
55. end
56. end
57.
58. Tabla_Iteracion2=Tabla_Iteracion1 %Tabla de iteración 2
--------------------------------------------------------------------------------------------------------------------
--------------------------------------------------------------------------------------------------------------------
1. x = 0:60;
2. y = 0:35;
3. y = 40 - x; %primera restricción
4. plot(x,y,'LineWidt',3,'Color','r') %grafica1
5. hold on; %Dejamos los gráficos anteriores
6. y = 30 - 0.5.*x; %segunda restricción
7. plot (x,y,'LineWidt',3,'Color','g') %grafica2
8. hold on; %Dejamos los gráficos anteriores
9. plot (40,0,'O') %Grafica de puntos
10. plot (20,20,'O')
11. plot (0,0,'O')
12. plot (0,30,'O')
13. hold on; %Dejamos los gráficos anteriores
14. axis([-5 65 -2 45]) %redimensionamiento de la presentación del gráfico
15. grid on % le ponemos rejilla, para poder apreciar los límites
16. plot([-2 65],[0 0]) %gráfica del eje x
17. plot([0 0],[-2 45]) %gráfica del eje y
18. title('Grafico de soluciones factibles') %Nombres del grafico
19. xlabel('x1') %Nombre del eje x
20. ylabel('x2') %Nombre del eje y
21.
22. %Dado que la región interna que queda encerrada por las gráficas es
23. %la región de soluciones posibles, podemos pintar dicha área y lo haremos
24. % de la siguiente forma:
41
25.
26. x= 0:20;
27. y= 0:20;
28. y = 30 - 0.5.*x; %segunda restricción
29. area(x,y) %define el area1 para la región de soluciones factibles
30. colormap Lines %Pintamos la area1
31.
32. x= 20:40;
33. y= 20:40;
34. y = 40 - x; %primera restricción
35. area(x,y) %define el area2 para la región de soluciones factibles
36. colormap Lines %Pintamos la area2
Resultados:
>> MetodoSimplexDosDimensiones
Xsol =
3 3 1 0 120
3 6 0 1 180
-300 -400 0 0 0
Variable_Entrada1 =
-400
Variable_Salida1 =
3 6 0 1 180
Tabla_Iteracion1 =
1.0e+04 *
Variable_Entrada2 =
1.5000
42
0.5000
-100.0000
Variable_Salida2 =
Tabla_Iteracion2 =
1.0e+04 *
Solución gráfica
En la gráfica se observa la representación de (x1,x2) = (20,20) es el punto máximo que se pide hallar como solución.
INVESTIGACIÓN OPERATIVA
LA IMPORTANCIA DE LA PROGRAMACIÓN LINEAL:
Ciertos problemas se describen fácilmente a través de la programación lineal.
Muchos problemas pueden aproximarse a modelos lineales.
La salida generada por el programa que resuelve el modelo de programación lineal entrega
información útil para responder nuevas condiciones sobre el “qué pasa si”.
43
EJEMPLO: Una multinacional minera extrae un tipo de mineral de dos minas diferentes, el cuales es sometido a
un proceso de trituración, con tres grados: alto, medio y bajo. La compañía ha firmado un contrato para proveer de
mineral a una planta de fundición, cada semana, 12 toneladas de mineral de grado alto, 8 toneladas de grado medio
y 24 toneladas de grado bajo. Cada una de las minas tiene diferentes procesos de fabricación.
Mina Costo por día (miles de Euros) Producción(toneladas/día)
¿Cuántos días a la semana debería operar cada mina para cumplir el contrato con la planta de fundición con el que
se comprometió la multinacional?
Es necesario buscar una solución que minimice el costo de producción global de la empresa, sujeta a las restricciones
impuestas por los procesos productivos asociados a cada mina así como el contrato con la planta de fundición.
Traducción del problema en términos matemáticos
1.definir las variables
2.las restricciones
3.el objetivo
Variables
Representan las decisiones que puede tomar la empresa:
Dx = número de días a la semana que la mina X produce
Dy= número de días a la semana que la mina Y produce
Notar que Dx≥0 y Dy≥0
Objetivo
Como objetivo buscamos minimizar el costo 180Dx+160Dy
Restricciones
Se recomienda primero plantear las restricciones con palabras antes de pasar a su formulación matemática.
Restricción 1. refleja el balance entre las limitaciones productivas de la fábrica y el contrato con el plante
de fundición
Grado
Alto 6Dx+1Dy≥12
Medio 3Dx+1Dy≥8
Bajo 4Dx+6Dy≥24
Restricción 2. días de trabajo disponibles a la semana
Dx≤5 y Dy≤5
44
La representación completa del problema tomaría la siguiente forma:
Minimizar 180Dx+160Dy
s.a.
6Dx+1Dy≥12
3Dx+1Dy≥8
4Dx+6Dy≥24
Dx≤5, Dy≤5
Dx≥0, Dy≥0
MÉTODOS DE RESOLUCIÓN
MÉTODO GRÁFICO
EJEMPLO:
Maximizar la función objetivo:
Z= 3x + y
Sujeto a las restricciones:
2x + y ≤ 8
2x + 3y ≤ 12
x, y ≥ 0
A continuación, graficamos las desigualdades planteadas en las restricciones así:
2x + y ≤ 8 x=0; y=8
y=0; x=4
2x + 3y ≤ 12 x=0; y=4
y=0; x=6
x, y ≥ 0
45
Se observa que la región factible está conformada por los puntos A(0,0); D(0,4); B(4,0) y el punto C que
es el resultado de la intersección de las 2 inecuaciones cuyo valor aproximadamente en el plano esta dado
por las coordenadas (3,2).
Ahora bien, el problema solicita la maximización de Z = 3x + y que se obtiene precisamente en el punto C
(3,2).
INVESTIGACIÓN OPERATIVA
LA IMPORTANCIA DE LA PROGRAMACIÓN NO LINEAL:
Ejemplo
Una planta industrial emplea tres máquinas M1, M2 y M3 para fabricar dos artículos A1 y A2. Para la fabricación
de A1 se requieren dos horas en la máquina M1, una hora en la M2 y tres horas en la M3; para el producto A2 hace
falta una hora en la máquina M1, una hora en la M2 y 5 horas en la M3.
Se dispone de 180 horas en la máquina M1, 110 en la M2 y 480 en la M3. La ganancia obtenida por cada pieza del
artículo A1 es de $50 y por cada pieza del artículo A2 es de $40. ¿Cuántas piezas de cada artículo deben fabricarse
para que la ganancia sea la máxima posible?
46
El problema es planteado y se obtiene un modelo en el que todas las expresiones algebraicas son lineales.
Incluso la función objetivo es lineal
Un caso típico de programación no lineal se presenta cuando las restricciones son lineales, pero la función
objetivo no lo es. Por ejemplo: ¿Qué sucede si, con los datos del problema anterior, la función objetivo es
cuadrática?
z = 16x+10y – 0.08x2
47
•Una buena forma de comprender el problema consiste en trazar la gráfica de la función objetivo sobre el mismo
plano en el que se encuentran las restricciones.
z = 16x+10y – 0.08x2
• Es necesario despejar la variable independiente y, (considerando z = 1,300).
• Tabulación para graficar la función objetivo:
𝑦 = −1.6𝑥 + 0.008𝑥2 + 130
X Y
0 −1.6𝑥+0.008𝑥+130=−1.6(0)+0.008(0)+130=130
20 −1.6𝑥+0.008𝑥+130=−1.6(20)+0.008(20)+130=101.2
40 −1.6𝑥+0.008𝑥+130=−1.6(40)+0.008(40)+130=78.8
60 −1.6𝑥+0.008𝑥+130=−1.6(60)+0.008(60)+130=
80 −1.6𝑥+0.008𝑥+130=−1.6(80)+0.008(80)+130=
100 −1.6𝑥+0.008𝑥+130=−1.6(100)+0.008(100)+130=
120 −1.6𝑥+0.008𝑥+130=−1.6(120)+0.008(120)+130=
140 −1.6𝑥+0.008𝑥+130=−1.6(140)+0.008(140)+130=
48
• Agregar una tabla que, mediante fórmulas, calculará la cantidad de recursos empleados con base en los valores de
x, y.
• Las celdas C4, C5, C6, D4, D5, D6 hacen referencia a la table de datos de las restricciones anotadas en la parte
superior de la hoja de Excel.
• También hace falta una celda en la que se calcula el valor de la función objetivo.
• Fórmula de la celda que se va a maximizar:
4. CAPITULO 4
4.1. CONCLUSIÓN
Luego de haber leído y desarrollado la presente investigación, se llegó a la conclusión que la programación
no lineal analiza la problemática general en la que el objetivo f(x) o las restricciones gj(x) (o los dos) son
funciones no lineales.
La mayoría de los métodos de programación no lineales utilizan el concepto de gradiente de las funciones
f(x) y gj(x) para calcular direcciones de descenso, es decir de mejora de la función objetivo.
49
Cuando las funciones son convexas (caso por ejemplo de la programación lineal continua), los algoritmos
de descensos convergen hacia un óptimo global. En general, estos algoritmos y lo software correspondientes
convergen solamente hacia un óptimo local. Siempre que sea posible, es importante ejecutar estos
algoritmos a partir de varias soluciones iniciales diferentes con el fin de seleccionar la mejor solución entre
todas las encontradas.
Una problemática no lineal con restricciones puede convertirse en un problema sin restricciones con la
ayuda del multiplicador de Lagrange: este método consiste en efecto en introducir en la función objetivo
variables de holgura y un coste que aumenta cuando disminuye la desviación (es decir, restricción saturada).
5. CAPITULO 5
5.1. BIBLIOGRAFÍA
50