Sunteți pe pagina 1din 50

FACULTAD DE INGENIERIA DE MINAS GEOLOGIA Y CIVIL

ESCUELA DE FORMACIÓN PROFESIONAL DE INGENIERÍA DE MINAS

“OPTIMIZACIÓN A LA INGENIERÍA”

PROFESOR: Mg. Johnny H. Ccatamayo Barrios

CURSO: METODOS NUMERICOS (MI - 345)


ALUMNOS:
APARICIO PERALTA, Roy
CHIMPAY PRADO, Joel
CUCHO TACURI, Carlos
HUAMANCUSI ALTAMIRANO, Jorge Luis
PÉREZ HUICHO, Everson
TORRES LICAPA, Aquiles
SAIRE HUAMAN, Liz Rosario

Ayacucho – Perú

2018
ÍNDICE
1. CAPITULO 1
1.1. RESUMEN EJECUTIVO………………………………..........................................................
1.2. OBJETIVOS……………………………………………..........................................................
1.2.1. Objetivos generales…………………….…........................................................................
1.2.2. Objetivos especifico.......................... ….............................................................................

2. CAPITULO 2
2.1. OPTIMIZACION ……………………….....................................….........................................
2.2. OPTIMIZACION EN INGENIERIA.........................................................................................
2.3. MÉTODOS DE OPTIMIZACIÓN …........................................................................................
2.3.1. Optimización unidimensional no restringida ......................................................................
Sección dorada
Interpolación cuadrática
Método de newton
2.3.2. Optimización multidimensional no restringida ...................................................................
Métodos directos
Método de gradiente
Gradiente conjugado
Newton
Cuasi newton
2.3.3. Optimización restringida .....................................................................................................
Programación lineal
Método simplex

2.4. PROGRAMACION NO LINEAL .........................…...............................................................


2.5. MULTIPLICACION DE LAGRENGE
2.6. INVESTIGACION OPERATIVA
2.7. INVESTIGACION OPERATIVA EN PROGRAMACION NO LINEAL

3. CAPITULO 3
3.1. Métodos de optimización ..........................................................…........................................
3.2. Análisis algoritmo de productos medios.................................................................................

4. CAPITULO4
4.1. CONCLUSIÓN....................................……...........................................................................

5. CAPITULO 5
5.1. BIBLIOGRAFÍA....................................................................................................................

2
1. CAPITULO 1
1.1 RESUMEN EJECUTIVO
En este trabajo de investigación, veremos la definición clara sobre optimización y aplicados en ingeniería
describiremos los métodos de optimización usando a programación lineal y no lineal. La programación no
lineal como parte de la investigación operativa .
CAPITULO 2
2.1. Se definió el concepto de optimización y sobre la aplicación en la ingeniería, el método de aplicación
y resolución de acuerdo a modelos. Se uso métodos matemáticos como por ejemplo, búsqueda de la sección
dorada, interpolación, métodos directos y gradientes. Nosotros abarcamos para la resolución de los
problemas el método de Simplex que es una técnica de la programación lineal. Se planteo problemas en
Matlab y se demostrará como se resolverá cada uno de ellos.
2.2. Programación no lineal: sepuede dar una definición de programación no lineal (PNL), por
contraposición con la programación lineal (PL). Recuérdese que esta Última trata el problema de optimizar
una función lineal f : Rn R sujeta a una serie de restricción y/o al menos una de las restricciones,
por no lineales, se cae el campo PNL
La teoría clásica de la optimización acude al empleo del cálculo diferencial para determinar los
puntos en los cuales la función f : Rn R asume valor optimo
2.3 La investigación de operaciones es una herramienta básica que posee varios modelos y que sirve para
la toma de decisiones las cuales se basan en datos cuantificables con varios modelos matemáticos que sirven
para maximizar ganancias y minimizar costos los cuales se dan al obtener procesos y soluciones factibles
que sirven para la obtención del resultado más óptimo y acercado a la realidad.
Un modelo de Programación Lineal (PL) considera que las variables de decisión tienen un comportamiento
lineal, tanto en la función objetivo como restricciones del problema con la finalidad de optimizar la función.
Los métodos más recurridos para resolver problemas de programación lineal son algoritmos de pivote, en
particular los algoritmos simplex.
Programación no lineal (PNL) es el proceso de resolución de un sistema de igualdades y desigualdades
sujetas a un conjunto de restricciones sobre un conjunto de variables reales desconocidas, con un función
objetivo a maximizar (o minimizar), cuando alguna de las restricciones o la función objetivo no son lineales.

1.2 OBJETOS

OBJETIVOS DE ESTUDIO
- Tener la suficiente información para resolver con éxito la amplia variedad de problemas de
optimización que se presentan.
- Dominar las técnicas de optimización y evaluar la confiabilidad de las mismas.
- Ser capaz de analizar métodos alternativos para un problema específico.

OBJETIVOS DE CÓMPUTO
- Llegar a la capacidad de escribir u subprograma que lleve a cabo una búsqueda simple
unidimensional( como la búsqueda de la sección dorada o la interpolación cuadrática) y
multidimensional (como el método de búsqueda aleatoria)
- Familiarizarse con el programa de MATLAB en los temas de optimización.

3
OBJETIVOS ESPECÍFICOS DE ESTUDIO
- Entender porque y donde se presentan la optimización al resolver problemas de ingeniería.
- Ser capaz de distinguir entre la optimización lineal y la no lineal, y entre problemas con
restricciones y sin restricciones.
- Comprender los principales elementos del problema de optimización general: función
objetivo. Variables de decisión y restricciones.
- Poder definir la razón dorada y comprender como hace que la optimización unidimensional
sea eficiente
- Localizar el óptimo de una función en una sola variable mediante la búsqueda de la sección
dorada, la interpolación cuadrática y el método de newton.
- Reconocer las ventajas y desventajas de tales métodos, especialmente con los valores
iniciales y la convergencia.
- Programar y encontrar el óptimo de una función multivariada usando la búsqueda aleatoria
- Comprender las ideas de los patrones de búsqueda, las direcciones conjugadas y el método
de Powell
- Definir y evaluar el gradiente y el hessiano de una función multivariada tanto en la forma
analítica como numérica
- Calcular el óptimo de una función con dos variable con el método de paso ascendente-
descendente
- Comprender las ideas básicas de los métodos del gradiente conjugado y Newton. En
particular, entender las ventajas y las desventajas de los diferentes métodos, y reconocer cómo
cada uno mejora el de paso ascendente-descendente.
- Resolver un problema de programación lineal bidimensional con ambos métodos: el gráfico
y el simplex.
- Plantear y resolver problemas de optimización restringidos lineales utilizando un paquete
de software.

4
2. CAPÍTULO 2
OPTIMIZACIÓN EN INGENIERÍA

2.1. CONCEPTO OPTIMIZACIÓN


La optimización es el método matemático para determinar los valores de las variables que hacen máximo
el rendimiento de un proceso o sistema, matemáticamente se hace uso de los métodos de cálculo diferencial
para determinar soluciones óptimas. Todos los estudiantes de ciencias e ingeniería recuerdan haber resuelto
problemas de máximos y mínimos mediante la determinación de las primeras derivadas de las funciones.
Bernoulli, Euler, Lagrange y otros establecieron los fundamentos del cálculo de variaciones, el cual trata
con la minimización de funciones. El método de los multiplicadores de Lagrange se desarrolló para
optimizar problemas con restricciones, es decir, problemas de optimización donde las variables están
limitadas en alguna forma. El primer avance de importancia en los procedimientos numéricos ocurrió con
el desarrollo de las computadoras digitales después de la Segunda Guerra Mundial. Koopmans, en el Reino
Unido, y Kantorovich, en la ex Unión Soviética, trabajaron en forma independiente sobre el problema
general de distribución a bajo costo de artículos y productos. En 1947, un alumno de Koopman, Dantzig,
inventó el método simplex para resolver problemas de programación lineal. Este método abrió el camino a
muchos investigadores hacia otros métodos de optimización con restricciones; entre los más notables se
encuentran Charnes y sus colegas. Los métodos de optimización restringida también se desarrollaron en
forma rápida debido a la disponibilidad tan amplia de computadoras.

2.2. OPTIMIZACIÓN EN LA INGENIERÍA.

La optimización dentro de la ingeniería se enfoca en utilizar de forma eficiente recursos limitados y que
pueden ser asignados a actividades alternativas, en otras palabras, la optimización tiene como propósito
analizar e identificar la mejor solución posible, entre todas las soluciones potenciales. La idea de aplicar
los diferentes métodos de optimización es facilitar el entendimiento y el manejo de los parámetros que
componen un sistema o proceso. La palabra optimización, comparte la misma raíz que "óptimo", pero es
raro que el proceso de optimización origine un sistema realmente óptimo. A menudo no existe una solución
de diseño que funcione bien en todos los casos, por lo tanto, en esos casos los ingenieros para poder
optimizar deben tomar los atributos de mayor interés. Cabe resaltar que la toma de decisiones se va tornando
difícil de acuerdo al tamaño y complejidad de las empresas, sus problemas o por la cantidad de variables
que manejan, en especial cuando se tienen varios productos, materias primas y plantas de producción, por
lo tanto saber dónde producir, cuales productos, y a que clientes tener en cuenta, se convierte en un tema
en donde es necesario la aplicación de la investigación de operaciones y de modelos matemáticos, los cuales
ayudan a la disminución y optimización de las actividades.

DOS OPCIONES
PARA REALIZAR LA
OPTIMIZACIÓN

OPTIMIZACIÓN
OPTIMIZACIÓN
BASADA EN
EMPIRICA.
MODELOS

5
Nota: Hay un compromiso entre las variables y el objetivo. Hay que identificar estos compromisos antes de
desarrollar los modelos matemáticos (Entender el problema cualitativamente antes de resolver
cuantitativamente).

CONFIGURACIÓN
INICIAL O SISTEMA REAL

DECISIONES A
TOMAR
MODELO

MODELO
SIMULAR MODIFICAR LA
CONFIGURACIÓN

MÉTODO DE EVALUAR LOS


RESOLUCION Y RESULTADOS
SOTFWARE

¿OK? NO
SOLUCIÓN
ACEPTAR LA
CONFIGURACIÓN

OPCIONES PARA LA RESOLUCIÓN DE OPTIMIZACIÓN BASADA EN MODELOS

1. SOLUCIONES GRÁFICAS.
X2

Solución óptima

Z X1

6
2. SOLUCIÓN ANALÍTICA

F(x) con x única variable

3. SOLUCIÓN NUMÉRICA

min f (x) x s.t.


h(x) = 0
g(x) = ≤ 0
xmin ≤ x≤ xmax

EJEMPLOS EN LA OPTIMIZACIÓN APLICADO EN LA INGENIERÍA

Diseño de un avión con peso mínimo, resistencia y máxima velocidad.

Diseño de estructuras en la ingeniería civil con un mínimo costo.

7
2.3. METODOS DE OPTIMIZACIÓN

2.3.1. Optimización unidimensional No Restringida


Esta sección describirá técnicas para encontrar el mínimo o el máximo de una función de una sola variable, f(x).
Una imagen útil que muestra lo anterior es la consideración unidimensional a la “montaña rusa”, como la función
representada en la figura OPT-3

Recuerde que en la parte dos, la localización de una raíz fue complicada por el hecho de que una sola
función puede tener varias raíces. De manera similar, los valores óptimos tanto locales como globales pueden
presentarse en problemas de optimización. A tales casos se les llama multimodales. En casi todos los ejemplos,
estaremos interesados en encontrar el valor máximo o mínimo absoluto de una función. Así, debemos cuidar de no
confundir un óptimo local con un óptimo global.

Distinguir un extremo global de un extremo local puede ser generalmente un problema difícil. Existen tres
formas comunes de resolver este problema. Primero, una idea del comportamiento de las funciones
unidimensionales algunas veces llega a obtenerse en forma gráfica. Segundo, determinar el valor óptimo con base
en valores iniciales, los cuales varían ampliamente y son generados quizá en forma aleatoria, para después
seleccionar el mayor de éstos como el global. Por último, cambiar el punto de inicio asociado con un óptimo local
y observar si la rutina empleada da un mejor punto, o siempre regresa al mismo punto. Aunque estos métodos tienen
su utilidad, el hecho es que en algunos problemas (usualmente los más grandes) no existe una forma práctica de
asegurarse de que se ha localizado un valor óptimo global. Sin embargo, aunque debe tenerse cuidado se tiene la
fortuna de que en muchos problemas de la ingeniería se localiza el óptimo global en forma no ambigua.

Figura OPT-1: Una función que se aproxima asintóticamente a cero en más y menos ∞ y que tiene dos puntos
máximos y dos puntos mínimos en la vecindad del origen. Los dos puntos a la derecha son los óptimos locales;
mientras que los dos de la izquierda son globales.

Como en la localización de raíces, los problemas de optimización unidimensionales se pueden dividir en


métodos cerrados y métodos abiertos. Como se describirá en la próxima sección, la búsqueda por sección dorada es
un ejemplo de un método cerrado que depende de los valores iniciales que encierran un solo valor óptimo. Éste es
seguido por un procedimiento cerrado algo más sofisticado (la interpolación cuadrática).

El método final descrito en esta sección es un método abierto que está basado en la idea del cálculo para
encontrar el mínimo o máximo al resolver ƒ′(x) = 0. Esto reduce el problema de optimización al encontrar la raíz
de ƒ′(x) mediante las técnicas que se describen en la parte dos. Se mostrará una versión del método de Newton.

8
2.3.1.1. BUSQUEDA DE LA SECCION DORADA
En la sección Aurea se ubican dos puntos interiores de manera tal que el intervalo eliminado en cada
iteración sea de la misma proporción que el intervalo total. Solo un nuevo punto debe ser calculado en cada iteración.
Consideremos la localización simétrica de dos puntos como en la figura OPT-4

Figura OPT-4

Partimos de un intervalo [0, 1] de longitud unidad (simplemente por conveniencia) y localizamos dos
puntos, cada uno a una fracción τ de cada extremo. Con esta simetría, independientemente de qué valor de la función
sea el más pequeño, la longitud del intervalo que permanece es siempre τ. Supongamos que eliminamos el
subintervalo de la derecha.

Se puede observar a partir de la figura que el punto que queda, de los dos anteriores, está situado a una
distancia 1−τ de uno de los extremos.

En la estrategia que se plantea el método del número de oro el punto que permanece en el interior del nuevo
intervalo está ubicado en la posición relativa en la que se encontraba el otro punto, que ahora limita la zona, la
distancia 1−τ debe corresponder a una fracción τ del intervalo (que es de longitud τ). Con esta elección de τ, el
siguiente punto debe localizarse a una fracción τ de la longitud del intervalo desde el extremo de la parte derecha.

Por tanto, con la elección de τ que satisfaga 1−τ = τ2, el patrón de búsqueda permanece en el intervalo
reducido de la siguiente figura.

La solución de esta ecuación cuadrática es 2−1 ± 5τ = , siendo la solución positiva de la misma τ = 0.61803 . . .

9
El subintervalo final luego de cada iteración es: (EJERCICIO RESUELTO VÉASE EN CAPÍTULO 3)

2.3.1.2. NTERPOLACIÓN CUADRATICA


La interpolación cuadrática aprovecha la ventaja de que un polinomio de segundo grado con frecuencia proporciona
una buena aproximación de la forma de la función en las cercanías de un valor óptimo.

Así como existe una única recta que pasa por dos puntos, hay únicamente una ecuación cuadrática que pasa
por tres puntos. De esta forma, si se tienen tres puntos que contienen un punto óptimo, se ajusta una parábola a los
puntos, después se puede derivar e igualar a cero, y así obtener una estimación del óptimo.

Este método utiliza evaluaciones de la función, y sólo un nuevo valor de función debe ser calculado en cada
iteración.

Algoritmo de interpolación cuadrática

Supongamos que tenemos una función real, f, unimodal en el intervalo [a, b] y de una variable. Vamos a desarrollar
el procedimiento suponiendo que el ´optimo se trata de un mínimo.

Paso Inicial

Tomar h > 0 cota del error de aproximación.

Paso General

Repetir:

1. Seleccionar tres puntos x1, x2, x3 ∈ [a, b] tales que f(x2) < f(x1) y f(x2) < f(x3).

2. Obtener el valor mínimo del polinomio de interpolación correspondiente a los puntos x1, x2, x3. Dicho mínimo
viene dado por la expresión 1.

3. Si |x2 −x∗ | < h, PARAR. x∗ se toma como aproximación al verdadero óptimo de la función. En caso contrario,
ir a 4.

4. Si x2 ≤ x∗ , entonces tomar a = x1, b = x2 y volver al paso 1. En caso contrario, tomar a = x2, b = x3 y volver al
paso 1.

El siguiente es otro posible algoritmo basado en el mismo método:

Paso Inicial

10
Seleccionar tres puntos x1, x2, x3 ∈ [a, b]. Tomar h > 0 cota del error de aproximación.

Hacer k = 1.

Paso General

Repetir:

1. Obtener x∗ el valor mínimo del polinomio cuadrático de interpolación correspondiente a los puntos x1, x2, x3.
Dicho mínimo viene dado por la expresión 1. Sea yk = f(x∗). Si k = 1, ir al paso 3, en caso contrario ir al paso 2.

2. Si |yk − yk−1| < h, PARAR. x∗ se toma como aproximación al verdadero óptimo de la función. En caso contrario,
ir a 3.

3. Sea i tal que f(xi) = Max{f(x1), f(x2), f(x3)}. Hacer xi = x∗ y volver al paso 1.

2.3.1.3. METODO DE NEWTON


El método de Newton requiere que la función sea dos veces derivable. Se expresa como:

Asegurando que para cada paso k, f(x^k+1)<f(x^k), para la búsqueda de un mínimo.

Este método utiliza la condición de que f’(x)=0.

- Ventajas: es un proceso que converge cuadráticamente en forma local. Para una función cuadrática
converge con solo una iteración.
- Desventajas: se deben calcular las derivadas primeras y segundas, si las derivadas segundas son nulas el
método converge lentamente, si existen más de un extremo el método puede no converger en el valor
deseado.

Figura OPT-5: Método de newton aplica a la solución de la f’(x)=0

11
Desafortunadamente el método depende de la elección del punto de partida y de la naturaleza de la función. Es
bastante posible que este método no converja hacia el verdadero punto estacionario. La figura siguiente ilustra esta
dificultad. Si comenzamos en un punto a la derecha de x0, las aproximaciones sucesivas se alejarán del punto
estacionario x*. (EJERCICIO RESUELTO VÉASE EN CAPÍTULO 3)

Figura OPT-6: Método de newton (divergencia)

2.3.2. OPTIMIZACIÓN MULTIDIMENSIONAL NO RESTRINGIDA


Este capítulo describe las técnicas para encontrar el mínimo o el máximo de una función en varias variables en este
caso se presenta de dos dimensiones que muestra imágenes como de montañas y valles. Las técnicas para la
optimización multidimensional no restringida se clasifican de varias formas. Para propósitos del presente análisis,
se dividirán dependiendo de si se requiere la evaluación de la derivada. Los procedimientos que no requieren dicha
evaluación se llaman métodos sin gradiente o directos. Aquellos que requieren derivadas se conocen como métodos
de gradientes o métodos de descenso (o ascenso).

Figura OPT-4 La visualización en dos dimensiones donde el ascenso de una montaña significa maximización y el
descenso de una valle, minimización. a) Mapa topográfico bidimensional (2-D) de la montaña. b) Grafica
tridimensional de la montaña.

2.3.2.1. MÉTODOS DIRECTOS


Estos métodos van desde procedimientos muy burdos hasta técnicas más elegantes que intentan aprovechar la
naturaleza de la función. Se empezará el análisis con un método burdo.

12
2.3.2.1.1. BÚSQUEDA ALEATORIA
Este es uno de los métodos más simples, como su nombre lo indica, dicho método evalúa en forma repetida la
función con los valores seleccionados aleatoriamente de la variable independiente. Si el método se lleva a
cabo con un número suficiente de muestras, el óptimo eventualmente se localizará.

2.3.2.1.2. BÚSQUEDAS UNIVARIADAS Y BÚSQUEDAS PATRÓN


Es muy agradable tener un procedimiento de optimización eficiente que no requiera evaluar las derivadas. El
método de búsqueda aleatoria, previamente descrito, no requiere la evaluación de la derivada, pero no es muy
eficiente. En esta sección se describe un procedimiento, el método de búsqueda univariada, que es más
eficiente y además no requiere la evaluación de la derivada.

2.3.2.2. MÉTODOS CON GRADIENTE


Los métodos con gradiente utilizan en forma explícita información de la derivada para generar algoritmos
eficientes que localicen el óptimo. Antes de describir los procedimientos específicos, primero se repasarán
algunos conceptos y operaciones matemáticos clave.

2.3.2.2.1. GRADIENTE
Este método utiliza sólo las derivadas primeras de la función objetivo. El gradiente es el vector en el punto x que
da la dirección del mayor aumento en f(x) y es el ortogonal al contorno de la función en el punto x. Para
maximización la dirección de búsqueda es simplemente el gradiente, para minimización, la dirección de búsqueda
es el valor negativo del gradiente.

Ejemplo:
Se tiene una función en dos dimensiones f(x, y). Donde representa su altura sobre una montaña como
una función de su posición.

Figura OPT-5 El gradiente direccional se define a lo largo de un eje h que forma un ángulo θ con el eje
x.

13
Se quiere conocer la pendiente en una dirección arbitraria. Una forma de definir la dirección es a lo largo de un
nuevo eje h que forma un ángulo θ con el eje x. La elevación a lo largo de un nuevo eje puede entenderse como una
nueva función g(h). Si usted define su posición como el origen de este eje (es decir, h = 0), la pendiente en esta
dirección podría designarse como g′(0). Esta pendiente, que se llama derivada direccional, se puede calcular a partir
de las derivadas parciales a lo largo de los ejes x y y mediante:

Donde las derivadas parciales son evaluadas en x = a y y = b. Suponiendo que su objetivo es obtener la mayor
elevación con el siguiente paso, ahora la pregunta lógica sería: ¿En qué dirección está el mayor paso de ascenso?
La respuesta a esta pregunta es proporcionada mediante lo que matemáticamente se conoce como el gradiente, el
cual se define así:

Para el problema de subir la montaña, la gradiente se hace eso de la siguiente manera, si lo que interesa es ganar
elevación tan rápidamente como sea posible, el gradiente nos indica, de manera local, qué dirección tomar y cuánto
ganaremos al hacerlo.

2.3.2.3. MÉTODOS AVANZADOS DEL GRADIENTE

2.3.2.3.1. MÉTODO DE GRADIENTES CONJUGADOS (FLETCHER-REEVES)


Este método utiliza como dirección de búsqueda una combinación lineal del gradiente actual con el gradiente de la
iteración anterior. Es una notable mejora con respecto al método original, porque para funciones cuadráticas se
puede demostrar que las sucesivas direcciones de búsqueda son conjugadas, por lo tanto el óptimo se encuentra en
n pasos, donde n es el número de variables. Las direcciones no se especifican a priori, sino que se determinan en
cada paso de la iteración. Las direcciones Q-ortogonales en cada punto se eligen de manera sencilla en función de
∇f. Esta dependencia hace que el método converja más uniformemente.

2.3.2.3.2. MÉTODO DE NEWTON.


El método de Newton para una sola variable se puede extender a los casos multivariados. Escriba una serie de
Taylor de segundo orden para f(x) cerca de x = xi’,

donde Hi es la matriz hessiana. En el mínimo,

14
la cual, se puede demostrar, converge en forma cuadrática cerca del óptimo. Sin embargo, observe que este método
requiere tanto del cálculo de las segundas derivadas como de la inversión matricial, en cada iteración. Por lo que el
método no es muy útil en la práctica para funciones con gran número de variables. Además, el método de Newton
quizá no converja si el punto inicial no está cerca del óptimo.

Figura OPT-6. Cuando el punto inicial esta cerca del punto óptimo, seguir el gradiente puede resultar
ineficiente. Los métodos de Newton intentan la búsqueda a lo largo de una trayectoria directa hacia el óptimo
(línea continua).

2.3.2.3.3. MÉTODO DE MARQUARDT


Se sabe que el método del ascenso de máxima inclinación aumenta el valor de la función, aun si el punto inicial está
lejos del óptimo. Por otro lado, ya se describió el método de Newton, que converge con rapidez cerca del máximo.
El método de Marquardt usa el método del descenso de máxima inclinación cuando x está lejos de x*, y el método
de Newton cuando x está cerca de un óptimo.

El método de Marquardt ofrece lo mejor de los procedimientos: comienza en forma confiable a partir de valores
iniciales pobres y luego acelera en forma rápida cuando se aproxima al óptimo.

15
2.3.2.3.4. MÉTODOS DE CUASI-NEWTON:
Los métodos cuasi-Newton, o métodos de métrica variable, buscan estimar el camino directo hacia el óptimo en
forma similar al método de Newton. Los métodos cuasi-Newton intentan evitar estas dificultades al aproximar
sólo las primeras derivadas parciales de f. El procedimiento consiste en comenzar con una aproximación inicial de
H–1 y actualizarla y mejorarla en cada iteración. Estos métodos se llaman de cuasi-Newton porque no usan el
hessiano verdadero, sino más bien una aproximación. Así, se tienen dos aproximaciones simultáneas:
1. La aproximación original de la serie de Taylor.
2. La aproximación del hessiano. Hay dos métodos principales de este tipo: los algoritmos de
Davidon-Fletcher-Powell (DFP) y de Broyden-Fletcher-Goldfarb-Shanno (BFGS). Éstos son
similares excepto en detalles concernientes a cómo manejan los errores de redondeo y su
convergencia. BFGS es, por lo general, reconocido como superior en la mayoría de los casos. Rao
(1996) proporciona detalles y declaraciones formales sobre ambos algoritmos, el DFP y el BFGS.

2.3.3. OPTIMIZACIÓN RESTRINGIDA


En esta sección se aborda problemas de optimización en los cuales entran en juego las restricciones. Primero, se
analizarán problemas donde la función objetivo y las restricciones son lineales. Para tales casos, hay métodos
especiales que aprovechan la linealidad de las funciones, llamados métodos de programación lineal. Los algoritmos
resultantes resuelven con gran eficiencia problemas muy grandes con miles de variables y restricciones. Dichos
métodos se utilizan en una gran variedad de problemas en ingeniería y en administración.

2.3.3.1. PROGRAMACION LINEAL


La programación lineal (o PL, por simplicidad) es un método de optimización que se ocupa del cumplimiento de
un determinado objetivo, como maximizar las utilidades o minimizar el costo, en presencia de restricciones como
recursos limitados. El término lineal denota que las funciones matemáticas que representan el objetivo y las
restricciones son lineales. El término programación no significa “programación en computadora”; más bien denota
“programar” o “fijar una agenda”

Forma estándar

El problema básico de la programación lineal consiste en dos partes principales: la función objetivo y un conjunto
de restricciones. En un problema de maximización, la función objetivo, por lo general, se expresa como:

Maximizar Z = c1x1 + c2x2 + · · · + cnxn

Donde cj = la contribución de cada unidad de la j-ésima actividad realizada y xj = magnitud de la j-ésima actividad.
Así, el valor de la función objetivo, Z, es la contribución total debida al número total de actividades, n. Las
restricciones se representan, en forma general, como

ai1x1 + ai2x2 + · · · + ainxn ≤ bi

16
Donde aij = cantidad del i-ésimo recurso que se consume por cada unidad de la j-ésima actividad, y bi = cantidad
del i-ésimo recurso que está disponible. Es decir, los recursos son limitados. El segundo tipo general de restricción,
especifica que todas las actividades deben tener un valor positivo:

xi > 0

En el presente contexto, lo anterior expresa la noción realista de que, en algunos problemas, la actividad negativa
es físicamente imposible (por ejemplo, no se pueden producir bienes negativos).

Juntas, la función objetivo y las restricciones, especifican el problema de programación lineal. Éstas indican que se
trata de maximizar la contribución de varias actividades, bajo la restricción de que en estas actividades se utilizan
cantidades finitas de recursos.

2.3.3.1.1. METODO SIMPLEX


El método simplex se basa en la suposición de que la solución óptima estará en un punto extremo. Así, el
procedimiento debe ser capaz de discriminar si durante la solución del problema se presentará un punto extremo.
Para esto, las ecuaciones con restricciones se reformulan como igualdades, introduciendo las llamadas variables de
holgura. (EJERCICIO RESUELTO VÉASE EN CAPÍTULO 3)

- Variable de holgura
Como lo indica su nombre, una variable de holgura mide cuánto de un recurso restringido está disponible;
es decir, cuánta “holgura” está disponible

2.4. PROGRAMACIÓN NO LINEAL


Un modelo matemático o problema se dice que pertenece a la programación no lineal si la función objetivo y/o
alguna de las restricciones del problema son una función no lineal de las variables de decisión (modelo o problema
no lineal). Si la función objetiva y/o alguna de las restricciones son no lineales y las variables sólo pueden tomar
valores enteros no negativos (modelo o problema no lineal entero), entonces el modelo matemático pertenecería al
campo de la programación no lineal entera. Problemas de estas características surgen de forma inevitable en las
aplicaciones de ingeniería, tales como diseño y control óptimo, y en aplicaciones científicas. Además, muchos
problemas que se formulan como lineales se convierten en no lineales cuando se tienen en cuenta economías de
escala (por ejemplo, costes no proporcionales a la cantidad).

17
𝑚𝑎𝑥 3𝑥1 + 5𝑥2
𝑠. 𝑎 𝑥1 ≤ 4
9𝑥1 + 5𝑥25 ≤ 224
2

2.4.1. Métodos tradicionales


Si un problema está formulado de forma unívoca, y el espacio de todas las soluciones posibles es conocido, un
método de búsqueda trata de encontrar la solución o soluciones que satisfagan el enunciado del problema. Dicho
así parece una tautología, pero no todos los problemas son problemas de búsqueda, ni todos los espacios de búsqueda
se pueden definir también de forma unívoca. Pero si resulta que efectivamente, un problema se puede efectuar como
problema de búsqueda, en muchos casos se puede reducir a un problema de hallar un máximo o mínimo, o sea, un
óptimo. Sólo va a funcionar esto en el caso de que se pueda calcular la bondad de una solución: la solución del
problema será aquella, o aquellas, que optimicen una función de bondad, ajuste, evaluación o fitness; en muchos
casos, por lo tanto, un problema de búsqueda se puede reducirá un problema de optimización (maximización o
minimización).

2.4.2. Formulación general de un problema de optimización


Se considera como tal al conjunto de métodos utilizados para optimiza una función sujeta a una serie de restricciones
en los que una o más de las variables incluida es no lineal

Como ejemplo considere el siguiente problema de programación no lineal

Minimizar f(x)

sujeta a g¡(x) ≤0 i - 1, 2 m

h¡(x)- 0 j - 1,2 1

donde f. gi. g2……, gm. h1 h2, …, h1, son funciones definidas en L„. el espacio euclidiano de n dimensiones. X
es un subconjunto de Ln. y x es un vector de componentes x,. x2,...,xn.

18
2.4.3. TIPOS DE PROBLEMAS NO-LINEALES

2.4.3.1. Sin restricciones


En esta sección se presentarán dos algoritmos para el problema no restringido: el algoritmo de búsqueda directa y
el algoritmo de gradiente.

2.4.3.2. CON RESTRICCIONES


Los problemas de optimización linealmente restringida se caracterizan por restricciones que se ajustan por
completo a la programación lineal, de manera que todas las funciones de restricción g¡ (x) son lineales, pero la
función objetivo es no lineal. El problema se simplifica mucho si sólo se tiene que tomar en cuenta una función no
lineal junto con una región factible de programación lineal. Se han desarrollado varios algoritmos especiales
basados en una extensión del método símplex para analizar la función objetivo no lineal.

Un caso especial importante descrito a continuación es la programación cuadrática.

Programación cuadrática: problema restringido linealmente con función objetivo cuadrática contiene cuadrados
de variables y/o productos de variables. Se han desarrollado muchos algoritmos para f(x) cóncava, esta
formulación surge de manera natural en muchas aplicaciones.

f(x1,x2) = a1x²₁ + a2x²₂ + a3x1 + a4x1 + a5x2

Programación convexa: se menciona todos los tipos anteriores cuando f(x) es una función cóncava que debe
maximizarse. Los supuestos son: (i) f(x) es cóncava y (ii) cada gi(x) es convexa. Estos supuestos aseguran que un
máximo local es global³.

Si el problema es de minimización la confición suficiente es que f(x) sea convexa.

Si el problema es de minimización

min f(x)

s.a gi(x) ≤ bi

f(x) convexa y g1(x),g2(x),...,gm(x) convexas aseguran que un mínimo local es global.

Programación separable: es un caso especial de programación convexa, en donde el supuesto adicional es: todas
las funciones f(x) y gi(x) son separables. Una función separable es una función en la que cada terminó incluye una
sola variable, por lo que la función se puede separar en una suma de funciones de variables individuales.

19
𝒏

𝒇(𝒙) = ∑ 𝒇𝒋 (𝒙𝒋 )
𝒋=𝟏

Programación no convexa: incluye todos los problemas de PNL que no satisfacen los supuestos de
programación convexa. En este caso, aun cuando se tenga ´éxito en encontrar un máximo local, no hay garantía de
que sea también un máximo global. Por lo tanto, no se cuenta con un algoritmo que garantice encontrar una
solución ´óptima para todos estos problemas; sin embargo, existen algunos algoritmos bastante adecuados para
encontrar máximos locales, en especial cuando las formas de las funciones no lineales no se desvían demasiado de
aquellas que se supuso para programación convexa.

Programación geométrica: cuando se aplica PNL a problemas de diseño de ingeniería, muchas veces la función
objetivo y las funciones de restricción toman la forma
𝒏

𝒈(𝒙) = ∑ 𝒄𝒌 𝒑𝒌 (𝒙)
𝒌=𝟏

Donde 𝒑𝒌 (𝒙) = 𝒙𝒂𝒌𝟏 𝒂𝒌𝟐 𝒂𝒌𝒏


𝟏 𝒙𝟐 … … . 𝒙𝒏

Programación fraccional: si la función objetivo se encuentra en la forma de una fracción, esto es, como razón o
cociente de dos funciones

𝑥𝑗 = 𝑒 𝑦𝑗 , 𝐽 = 1,2, … … , 𝑛

Problema de complementariedad: Dadas las variables w1, w2,..., wp y z1,z2,..., zp, el problema de
complementariedad encuentra una solución factible para el conjunto de restricciones

w = F(z), w ≥ 0, z ≥ 0

Aquí, w y z son vectores columna, F es una función vectorial y el superíndice t denota la transpuesta.

2.4.4. Criterios de Comparación de Algoritmos


Número de evaluaciones de la función objetivo, Confiabilidad (Éxito en alcanzar la solución) Rapidez, Tiempo de
Preparación del usuario (sobre parametrización), Precisión de la solución, Grado de satisfacción de las
restricciones, Dificultad

2.4.4.1. Algoritmos de PNL con Condiciones Programación Cuadrática


 Tiene como objeto el estudio de problemas de optimización no lineales como
1
minimizar 2 𝑥 𝑇 𝐺𝑥 + 𝑥 𝑇 𝑔

sujeto 𝑎 𝑎𝑖𝑇 𝑥 = 𝑏𝑖, , 𝑖 ∈ 𝜀

𝑎𝑖𝑇 𝑥 ≥ 𝑏𝑖 , 𝑖 ∈ 𝐼

20
donde Gnxn es una matriz simétrica y g, x y ai ; 𝑖 ∈ 𝜀 u I, vectores Rn -> R. La Programación Cuadrática guarda
una relación muy estrecha con la Programación Lineal

 Si G es definida positiva, el problema puede resolverse algebraicamente.


 Si G es semidefinida positiva, el problema en convexo y puede resolverse casi como un problema de
Programación Lineal.

2.4.5. Algoritmos Iterativos y Convergencia


Los métodos iterativos se basan en el cálculo de un punto fijo para una cierta función g(x). El siguiente resultado
determina condiciones suficientes para la existencia de un punto fijo para g(x). En programación lineal existe una
secuencia de longitud finita para alcanzar la solución . En NLP la secuencia generalmente no alcanza la solución
óptima sino que converge hacia ella. En problemas no lineales se determina una solución lo suficientemente
cercana a la óptima

2.4.6. Funciones de una variable


Un punto crítico de una función f : R -> R es un número c para el cual

f ‘ (c) = 0 o f ‘(c) no existe.

Teorema 1: Si una función f : R ->R tiene un máximo o mínimo relativo en un punto c, entonces c es un punto
crítico.

criterio de la primera derivada para extremos en un punto crítico


Supóngase que f : R R es continua en un intervalo [a, b] y que existe f '

en todo punto de (a, b), excepto posiblemente en c Ɛ (a, b), entonces:

1. Si f _ es positiva para toda x, con a < x < c, y negativa para toda x, con c < x <
b, entonces f tiene un máximo relativo en c.
2. Si f _ es negativa para toda x, con a < x < c, y positiva para toda x, con c < x <
b, entonces f tiene un mínimo relativo en c.
3. Si f _ es positiva (negativa) para toda x, con a < x < b, x ≠ c, entonces f no tiene un óptimo relativo en c

Ejemplo 1: encuentre los puntos en los cuales f (x) = 3X2/3+ 5 tiene valores

21
óptimos y determine de que clase son.

Solución:
2
f’( x) =2X-1/3- = 3 esta función nunca es cero y no está definida en
√𝑥
x = 0. En consecuencia, x = 0 es el único punto crítico. Es evidente que para x < 0,
f ´(x) < 0, y para x > 0, f ‘(x) > 0. Aplicando el teorema 2 se concluye que f tiene un
mínimo en x = 0. La figura 3 ilustra la situación.

criterio de la segunda derivada para extremos en un punto crítico


Supóngase que c Ɛ (a, b) y que f ‘(c) = 0. Supóngase, además, que f ‘’(c)

existe, entonces

1. Si f ‘’(c) < 0, f tiene un máximo relativo en c.


2. Si f ‘’(c) > 0, f tiene un mínimo relativo en c.
Ejemplo 2: En el ejemplo 1 se estableció que x = 4 y x = -2 son los puntos críticos de

f (x) =X3 – 3X2 - 24x + 2 , tales que f ‘(-2) = 0 y f ‘(4) = 0. Empleando el teorema 3,

determine qué clase de valores óptimos son.

Solución:

f '(x) = 3x2 - 6x - 24

f ''(x) = 6x - 6

f ‘’(4) = 18 > 0, entonces f tiene un mínimo relativo en 4.

f ‘’(-2) = -18 < 0, entonces f tiene un máximo relativo en -2.

El teorema 3 no dice que ocurre en el caso de que f’’’(c) = 0. Este es el caso de

f (x) = x3 y f (x) = x4 . El siguiente teorema resuelve este problema.

22
FUNCIONES CONVEXAS
Dados los vectores x1 , x2, . . . , xk ∈ Rn se dice que el vector y es una combinación lineal convexa de x1 , x2 , . . . ,
xk si:

𝑦 = ∑𝑘𝑖=1 ∝𝑖 𝑥 𝑖 , con ∝𝑖 ≥∑𝑘𝑖=1 = 1

Definición: Un conjunto S ⊆ Rn se dice convexo si el segmento de recta que une 2 puntos cualesquiera de S está
totalmente contenido en S. O sea, ∀x1 ; x2∈ S se tiene que:

Λx1 + (1 − λ)x2 ∈ S, ∀λ ∈ [0, 1]

Esto corresponde a una combinaci´on lineal convexa de x1 , x2

• Definición: Una función escalar f( x) es una función convexa definida sobre un conjunto convexo X en En si
para dos puntos cualquiera x1 y x 2 en X

• Las funciones convexas tienen una caracterización geométrica simple e informativa

• Teorema: Cualquier función lineal f( x) = c Tx es tanto cóncava como convexa

• Teorema: Si f( x) es convexa  -f( x) es cóncava (y viceversa)

• Teorema: La suma de 2 o más funciones convexas es convexa

• Teorema: Cualquier forma cuadrática semidefinida positiva q ( x) = x TDx donde D es simétrica, es una función
convexa en todo En, y si D es definida positiva es estrictamente convexa

• Teorema: Cualquier forma cuadrática semidefinida negativa q ( x) = x TDx donde D es simétrica, es una función
cóncava en todo En, y si D es definida negativa es estrictamente cóncava

Criterios de la primera y segunda derivada


Supongamos que f(x) tiene primeras derivadas parciales continuas. Luego f( x) es cóncava sobre alguna región R
en En sí y sólo si

23
F(x)≤f(x*)+Δf’(x*).(x-x*)

similarmente, f(x) es convexa sobre alguna región R en En si y sólo si

F(x)≥f(x*)+Δf’(x*).(x-x*)

2.4.7. Optimización Sin Restricciones


Sin derivadas

 Necesarios cuando no se pueden calcular éstas


Primeras derivadas (gradiente)

Segundas derivadas (hessiano)

 Mayor coste computacional


 Mejores propiedades de convergencia
Cualquier problema de optimización, por complejo que sea, puede expresarse en los siguientes términos
Encontrar un vector x tal que se minimice una función objetivo f( x ) Sujeto a restricciones de la forma: gk(x)≤0

K= 1,…….,m

donde x es un vector de variables independientes

La función objetivo puede tener un solo mínimo, en cuyo caso se denomina unimodal, o varios mínimos locales o
globales, en cuyo caso se denomina ultimo

2.5. INVESTIGACIÓN DE OPERACIONES

Kamblesh Mathur: “Es el uso de la Matemática y computadoras para ayudar a tomar decisiones racionales frente a
problemas de administración”. Jorge Alvarez:“Es un procedimiento o un enfoque para resolver problemas
relacionados con la toma de decisiones”

24
Resumiendo: La Investigación de Operaciones es el uso de la matemática e informática para resolver problemas del
mundo real, tomando decisiones acertadas que garanticen el éxito. Lawrence y Pasternak, (1998) “Es un enfoque
científico para la toma de decisiones ejecutivas, que consiste en:

• El arte de modelar situaciones Complejas.


• La ciencia de desarrollar técnicas de solución para resolver dichos modelos.
• La capacidad de comunicar efectivamente los resultados”.
• Es la aplicación del método científico para asignar los recursos o actividades de forma eficaz, en la
gestión y organización de sistemas complejos.
• Es el conjunto de técnicas matemáticas aplicadas adecuadas para resolver problemas reales de:
Planificación
Logística
Diseño de productos y procesos
Control de procesos, etc

2.6.1. OBJETIVO DE LA INVESTIGACIÓN DE OPERACIONES

– Apoyar a la toma de decisiones sistemas complejos.


– Estudiar la asignación óptima de recursos escasos a determinada actividad. Evaluar el
rendimiento de un sistema con objeto de mejorarlo.
– Obtener información cuantitativa.
– Mejorar procedimientos tradicionales: opiniones de expertos, reglas simples.
– Lograr flexibilidad y bajo coste.
– Hacer el tratamiento de la incertidumbre.
– Conocer las limitaciones de los modelos.

La I.O. busca la experticia humana

• Desempeño correcto y rápido dentro de un dominio específico.


• Capacidad para justificar un resultado y explicar el proceso de razonamiento.
• Capacidad para aprender de la experiencia.
• Capacidad para resolver casos únicos basándose en principios, modelos, experiencias, casos o reglas.
• Capacidad para razonar bajo condiciones de incertidumbre e información incompleta y aplicar su sentido
común o conocimiento general.

HISTORIA

• Se aplica por primera vez en 1780.

Antecedentes:

• Matemáticas: modelos lineales Farkas,Minkowski (s.XIX)


• Estadística: fenómenos de espera Erlang,Markov (años 20)
• Economía: Quesnay (x.XVIII), Walras (s.XIX), Von Neumann (años 20)
• El origen de la I.O. moderna se sitúa en la II Guerra Mundial para resolver problemas de organización
militar: Despliegue de radares, manejo de operaciones de bombardeo, colocación de minas.
• La Fuerza Aérea Británica formó el primer grupo de investigación operacional.

25
• La Fuerza Armada Estadounidense formó un grupo similar, 5 de los cuales ganaron el Premio Nóbel.
Después de la II Guerra Mundial, las Empresas reconocieron el valor de aplicar las técnicas en:
-Refinerías de petróleo,
-Distribución de productos,
-Planeación y control de la producción,
-Estudio de mercado y Planeación de Inversiones. Sigue el desarrollo debido a: competitividad industrial
progreso teórico RAND (Dantzig) Princeton (Gomory, Kuhn, Tucker) Carnegie Institute of Technology
(Charnes, Cooper) gran desarrollo de los ordenadores:

Aumento de la capacidad de almacenamiento de datos Incremento de la velocidad de resolución de los problemas.


Sigue habiendo un gran desarrollo, en muchos sectores, con grandes avances sobre todo en el campo de la
Inteligencia Artificial.

DEFINICIÓN DEL PROBLEMA

Es identificar, comprender y describir en términos precisos, el problema que la organización enfrenta. El enunciado
es la definición del problema. Un problema no se formula sino se define. Consiste en identificar los elementos de
decisión, objetivos (uno o varios, optimizar o satisfacer), alternativas y limitaciones del sistema Hay que recoger
información relevante (los datos pueden ser un grave problema) Es la etapa fundamental para que las decisiones
sean útiles

Factores problemáticos

Datos incompletos, conflictivos, difusos


Diferencias de opinión
Presupuestos o tiempos limitados
Cuestiones políticas
El decisor no tiene una idea firme de lo que quiere realmente.

PLAN DE TRABAJO:

• Observar y ser consciente de las realidades políticas


• Decidir qué se quiere realmente
• Identificar las restricciones
• Búsqueda de información continua.

DESARROLLO DE UN MODELO MATEMÁTICO

Es la traducción del problema a términos matemáticos.Es formular un modelo matemático:

• Identificando variables
• Identificando la Función Objetivo
• Identificando las restricciones

objetivos: función objetivo


alternativas: variables de decisión
limitaciones del sistema: restricciones

26
Paso 1.- Identificar las variables de decisión

¿Sobre qué tengo control?


¿Qué es lo que hay que decidir?
¿Cuál sería una respuesta válida del caso?

Paso 2.- Identificar la función objetivo

¿Qué pretendemos conseguir?


¿qué me interesaría más?

Paso 3.- Identificar las restricciones o factores que limitan la decisión, recursos disponibles (trabajadores,
máquinas, material), fechas límite, naturaleza de las variables (no negatividad, enteras, binarias).

Paso 4.- Traducción de los elementos básicos a un modelo matemático.

RESOLUCIÓN DEL MODELO

Es resolver el modelo usando una técnica adecuada, es decir obtener valores numéricos para la variable de decisión.
Es determinar los valores de las variables de decisión de modo que la solución sea óptima (o satisfactoria) sujeta a
las restricciones Puede haber distintos algoritmos y formas de aplicarlos.En esta parte se usa el Software LINDO,
que puede resolver modelos de hasta 200,000 variables y 50,000 restricciones.

Resolución del modelo

Paso 1.- Elegir la técnica de resolución adecuada, creación o heurísticos.


Paso 2.- Generar las soluciones del modelo usando programas de ordenador, hojas de cálculo.
Paso 3.- Comprobar/validar los resultados Probar la solución en el entorno real
Paso 4.- Si los resultados son inaceptables, Revisar el modelo, comprobar exactitud, revisar restricciones.
Paso 5.- Realizar análisis de sensibilidad. Analizar adaptaciones en la solución propuesta frente a posibles
cambios.

DECISIONES ESTRATEGICAS:

¿Debería reemplazarse un sistema existente con un nuevo sistema propuesto?


¿Debería cambiarse su política de Administración?

DECISIONES OPERACIONALES:

¿Cómo programar la fuerza de trabajo?


¿Cuál es el plan de producción óptimo?
¿Cuál es plan de embarque más económico?

Ventajas de los modelos


Un método óptimo para lograr un objetivo.
Una forma de evaluar preguntas de sensibilidad de la forma:
“¿Qué sucedería sí ...?”

TIPOS DE MODELOS

27
MODELOS NORMATIVOS - OPTIMIZACIÓN

Ofrecen información sobre alternativas Seleccionan entre ellas Complejos y no triviales Difíciles de tratar con
incertidumbre Requieren técnicas complejas de solución

MODELOS DESCRIPTIVOS - SIMULACIÓN

 Analizan una alternativa cada vez


 Modelos para situaciones específicas
 Más simples de desarrollar
 Adecuados con incertidumbre
 Aplicación muy sencilla

Modelos incluyen errores

 Importante conocer su magnitud


 Causas de inexactitudes:
 Selección de aspectos de la realidad
 Inviable considerar todo el sistema
 Errores en modelos matemáticos
 Modelos sencillos y aproximados

Construcción de modelos:

 Especificación de los componentes


 Recogida y análisis de datos
 Desarrollo del modelo
 Verificación y validación
 Obtención y análisis de resultados

Técnicas de IO

 Ejemplos de técnicas (i)


 Optimización
 Programación lineal, entera, no lineal
 Programación multiobjetivo
 Procesos de decisión (prog. dinámica)
 Simulación
 Determinista
 Estocástica

Ejemplos de técnicas (ii)

 Teoría de colas
 Colas simples
 Redes de colas
 Teoría de juegos
 J. simples (deterministas/estocásticos)
 J. repetitivos
 Teoría de decisión

28
 Planificación de la producción
 Optimización de carteras
 Análisis de riesgo
 Planificación de redes de comunicaciones
 Generación de ofertas en mercados
 Competitivos

2.6. INVESTIGACIÓN OPERATIVA EN PROGRAMACIÓN LINEAL


Es un método matemático que se emplea para resolver problemas de optimización. En palabras simples la P.L.
busca asignar recursos limitados, entre actividades que compiten, de la forma más óptima posible. Un modelo de
programación lineal busca maximizar o minimizar una función lineal, sujeta a un conjunto de restricciones lineales.
Un modelo de programación lineal este compuesto de lo siguiente:
 Un conjunto de variables de decisión
 Una función objetivo
 Un conjunto de restricciones
Supuestos de la P.L.
 Proporcionalidad
 Aditividad
 Divisibilidad
 Certidumbre
 Objetivo único
 No negatividad

MÉTODOS DE RESOLUCIÓN

MÉTODO GRÁFICO
Empleado principalmente para PPL con dos variables de decisión. Este método se basa en la idea de obtener
regiones de soluciones factibles (RSF), en las cuales se encontraría la combinación de variables de decisión
que optimizan el modelo.
PASOS PARA LA SOLUCION MEDIANTE EL METODO GRAFICO
Para llegar a una solución óptima en el método grafico se requiere seguir con una

29
serie de pasos que podemos dar a continuación:
1. formulación del problema
El primer paso para la resolución por método grafico es expresar el problema en términos matemáticos en
el formato general de la programación lineal (desigualdades) con un solo fin maximizar la contribución a
la ganancia.
2. graficar las restricciones
El próximo paso de la solución por método grafico es la graficación de las restricciones en el plano
cartesiano para establecer todas las posibles soluciones.
3. obtención de la solución optima
Para encontrar la solución óptima, se grafica la función objetivo en la misma gráfica de las restricciones.
Se graficará siempre la función objetivo del problema y se dará la solución de acuerdo con el símbolo que
esté presente en la restricción de la función objetivo.

MÉTODO ALGEBRAICO (SIMPLEX)


Empleado principalmente para PPL con más de dos variables de decisión. Este método se desarrolló con
base en el método gráfico y corresponde a un sistema heurístico, por lo cual requiere de una solución inicial
factible para empezar a funcionar.
PASOS PARA EL DESARROLLO DEL METODO SIMPLEX
1. Elaborar la tabla simplex inicial.

Existen cuatro variables de holgura, S1, S2, S3, y S4; una para cada restricción.

2. Si todos los indicadores del último renglón son no negativos, entonces Z tiene un máximo cuando
X1=0, X2=0 y X3=0. El valor máximo es 0. Si existen indicadores negativos, localizar la columna en
la que aparezca el indicador más negativo.
Esta columna señala la variable entrante.
3. Dividir cada uno de los elementos de la columna de b que se encuentran por encima de la recta punteada
entre el correspondiente elemento de la columna de la variable entrante. Se debe realizar esta división
solo en los casos en los que el elemento de la variable que entra sea positivo.
4. encerrar en un círculo el elemento de la columna de la variable entrante que corresponde al menor
cociente del paso 3. Este es un elemento pivote. La variable saliente es la que se encuentra al lado
izquierdo del renglón del elemento pivote.
5. Utilizar operaciones elementales sobre renglones para transformar la tabla en otra tabla equivalente que
tenga un 1 en donde se encuentra el elemento pivote y 0 en las demás posiciones de esa columna.
6. la variable entrante debe reemplazar a la variable saliente en el lado izquierdo de esta nueva tabla.
7. si todos los indicadores de la tabla nueva son no negativos, ya se tiene una solución óptima. El valor
máximo de Z es el elemento del último renglón y la última columna. Ocurre esto cuando las variables
se encuentran del lado izquierdo de la tabla son iguales a los elementos correspondiente de la última

30
columna. Todas las demás variables son ceros. Si cuando menos uno de los indicadores es negativo, se
debe repetir el mismo proceso con la nueva tabla, comenzando con el paso 2.
EJEMPLOS DESARROLLADOS
EJEMPLO
Maximizar Z= 5X1+4X2
Sujeto a: X1+X2 ≤ 20
2X1+X2 ≤ 35
-3X1+X2 ≤ 12
X1≥0, X2≥0
Este problema de programación lineal se ajusta a la forma normal. La tabla simplex
inicial es:

El indicador más negativo, -5, aparece en la columna x1. Por ello, x1 es la variable entrante. El menor
cociente es 17.5, de modo que, S2 es la variable saliente. El elemento pivote es 2. Utilizando operaciones
elementales sobre los renglones para obtener un 1 en la posición del pivote y 0 en las demás posiciones de
esa columna, se tienen:

31
La nueva tabla es:

Obsérvese que en el lado izquierdo, x1 reemplazó a S2. Ya que -3/2 es el indicador más negativo se debe
continuar con el proceso. La variable entrante es ahora x2. El menor cociente es 5. De modo que S1 es la
variable saliente y ½ es el elemento pivote. Utilizando operaciones elementales sobre renglones, se tiene:

La nueva tabla es:

En donde x2 reemplazo a S1 en el lado izquierdo. Como todos los indicadores son no negativos, el valor
máximo de Z es 95 y aparece cuando x2=5 y x1=15 (y S3=52, S1=0, S2=0).

32
PROBLEMAS TÍPICOS
•Problema del transporte
•Problema de flujo con coste mínimo en red
•Problema de asignación
•Problema de la mochila (knapsack)
•Problema del emparejamiento (matching)
•Problema del recubrimiento (set-covering)
•Problema del empaquetado (set-packing)
•Problema de partición (set-partitioning)
•Problema del coste fijo (fixed-charge)
•Problema del viajante (TSP)
•Problema de rutas óptimas

2.7. PROGRAMACION NO LINEAL


Es la programación basada en la resolución de un sistema de igualdades y desigualdades sujetas a un grupo
de restricciones sobre un conjunto de variables reales desconocidas, con función de maximizar o minimizar,
cuando alguna de las restricciones o la función objetivo no es lineal.

MÉTODOS DE RESOLUCIÓN DEL PROBLEMA


Si la función objetivo f es lineal y el espacio restringido es un politopo, el problema es de programación
lineal y puede resolverse utilizando alguno de los bien conocidos algoritmos de programación lineal.
Si la función objetivo es cóncava (problema de maximización), o convexa (problema de minimización) y
el conjunto de restricciones es convexo, entonces se puede utilizar el método general de optimización
convexa.
 Optimización no restringida
 Optimización restringida linealmente
 Programación cuadrática
 Programación convexa
 Programación separable
 Programación geométrica
Programación no lineal (PNL) es el proceso de resolución de un sistema de igualdades y desigualdades
sujetas a un conjunto de restricciones sobre un conjunto de variables reales desconocidas, con una función
objetivo a maximizar (o minimizar), cuando alguna de las restricciones o la función objetivo no es lineal.

33
2.8. DIFERENCIAS ENTRE PL Y PNL

34
3. CAPITULO 3
METODOLOGÍA
Para poder realizar el presente trabajo, tuvimos q recolectar toda la información necesaria del tema de
optimización en ingeniería y sus diferentes métodos y aplicación en programación no lineal.
Po ello se desarrollo los ejercicios de forma manual e incorporando el uso de programas como Excel, solver ,
Matlab .
METODOS DE OPTIMIZACION

OPTIMIZACIÓN UNIDIMENSIONAL NO RESTRINGIDA


EJEMPLO (BÚSQUEDA DE LA SECCION DORADA)

Maximicé la siguiente función:

f(x)=2*sen(x)-x^2/10 con x0=0 y x1=4

--------------------------------------------------------------------------------------------------------------------
PROGRAMACIÓN DEL PROBLEMA EN MATLAB
--------------------------------------------------------------------------------------------------------------------

35
a) Primero creamos una archivo scrib F:

1. function y=f(x)
2. %modifica y escribe cualquier función (-)maximiza (+)minimiza!
3. y=-(2*sin(x)-x^2/10) ;

b) Ahora creamos otro archivo scrib GOLDEN:


1. figure; hold on;
2. a=0; %inicio del intervalo se cambia segun el problema
3. b=4; %fin del intervalo se cambia según el problema
4. epsilon=0.000001; %tolerancia
5. iter=50; %máximo numero de iteraciones o la cantidad
6. tau=double((sqrt(5)-1)/2); %proporción aurea
7. k=0; %valor iniciador del software o sea cuenta
8.
9. x1=a+(1-tau)*(b-a); %fórmula para hallar el x1
10. x2=a+tau*(b-a); %fórmula para hallar el x2
11.
12. f_x1=f(x1); %evaluación de las funciones en x1
13. f_x2=f(x2); %evaluación de las funciones en x2
14.
15. plot(x1,f_x1,'rx') %dibuja la función fxi en funcion de x2
16. plot(x2,f_x2,'xr') %dibuja la función fx2 en funcion de x1
17.
18. while ((abs(b-a)>epsilon) && (k<iter))
19. k=k+1; %viene a ser la secuencia de calculo recordar que hay un k=0 que va almacenar
20. if(f_x1<f_x2) %los valores iterados, mientras que el volor de k se mayor que el anterior se
seguirá almacenando
21. b=x2; %primer caso cuando fx1<fx2
22. x2=x1;
23. x1=a+(1-tau)*(b-a);
24.
25. f_x1=f(x1);
26. f_x2=f(x2);
27.
28. plot(x1,f_x1,'rx');
29. else
30. a=x1;
31. x1=x2;
32. x2=a+tau*(b-a);
33.
34. f_x1=f(x1);
35. f_x2=f(x2);
36.
37. plot(x2,f_x2,'rx')
38. end
39.
40. k=k+1;
41. end
42.

36
43. %chooses minimum points
44. if(f_x1<f_x2)
45. sprintf('x_min=%f' , x1)
46. sprintf('f(x_min)=%f' , f_x1)
47. plot(x1,f_x1,'ro')
48. else
49. sprintf('x_min=%r', x2)
50. sprintf('f(x_min)=%f ', f_x2)
51. plot(x2,f_x2,'ro')
52. End

RESULTADOS:

>> f(x)

Undefined function or variable 'x'.

>> Golden(método de la sección dorada)

ans =
x_min=1.427551
ans =
f(x_min)=-1.775726
----------------------------------------------------------------------

EJEMPLO (METODO DE NEWTON )

Maximicé la siguiente función:

f(x)=2*sen(x)-x^2/10 con x0=2.5

PROGRAMACION DE PROBLEMA 3 EN MATLAB


--------------------------------------------------------------------------------------------------------------------

1. disp('Metodo de Newton Raphson')


2. syms x
3. f=input('ingrese la funcion f(x):')
4. pi=input('ingrese el punto xi:');
5. err=input('porcentaje de error:');
6. ezplot(f)
7. grid on
8. d=diff(f);
9. d=inline(d);
10. f=inline(f);
11. ea=100
12. j=0;
13. while ea<err
14. xi=pi-(f(pi)/d(pi));
15. ea=abs(((xi-pi)/xi)*100);

37
16. pi=xi;
17. j=j+1;
18. end
19. fprintf('\nRaiz= %12.3f en %4d Iteraciones',pi,j)

RESULTADOS:

Metodo de Newton Raphson


ingrese la funcion f(x):-(2*sin(x)-x^2/10)
f=
x^2/10 - 2*sin(x)

ingrese el punto xi:2.5


porcentaje de error:0.0001
ea =
100
Raíz= 1.42777 en 2 Iteraciones>>

Uso del MATLAB para la optimización unidimensional

Plantemiento del problema. Utilizamos la función fminbnd de MATLAB para en contrar el maximo de la función
sgte:

- f(x)= 2senx-x^2/10; en los intervalos de x0=0 y x1=4.


Solución:

1. creamos un archivo M para la función.


function f=fx(x)
f=-(2*sin(x)-x^2/10)
2. como lo que nos interesa es la maximización, introducimos el negativo de la función.
3. Llamamos a la función fminbnd con
>>x=fminbnd(‘fx’,0,4)

4. El resultado es
f=
-1.7757

x=
1.4275

Otra forma de incluir más parámetros como tolerancia o cantidad de iteraciones se harán con la función
optimizet(‘param1’,value1,’param2’,value2,…) donde param es un parámetro que especifica el tipo de opción y
value es el valor asignado a esa opción.

En el ejemplo anterior se pueden incluir estos valores como tolerancia de 1x10^-2 de la siguiente manera,

Optimset(‘tolx’,1e-2)

De esta manera la solución del problema con una tolerancia de 1x10^-2 se generara con

38
>>fminbnb(‘fx’,0,4,optimset(‘tolx’,1e-2))

Cuyo resultado es

f=
-1.7757

ans=
1.4270

OPTIMIZACIÓN RESTRINGIDA

PROGRAMACION LINEAL

EJEMPLO (METODO SIMPLEX)

Una fábrica produce televisores utilitarios y de lujo. La fábrica está dividida en dos secciones: montaje y acabado.
Los requerimientos del trabajo vienen dadas por la siguiente tabla:

TIPO MONTAJE ACABADO VARIABLE


UTILITARIOS 3 HORAS 3 HORAS X1
LUJO 3 HORAS 6 HORAS X2

El máximo número de horas de trabajo disponibles diariamente es de 120 en montaje y 180 en acabado, debido a
las limitaciones de operarios.

Si el beneficio es de 300 dólares por cada televisor utilitario y 400 dólares por cada nevera de lujo, ¿Cuántas deben
fabricarse diariamente de cada una para obtener el máximo beneficio?

Muestre la región factible de soluciones.

Restricciones: Ecuación a optimizar: 300*x1+400*x2=z

3*x1+3*x2<=120 montaje
3*x1+6*x2<=180 acabado
X1, x2>0

39
--------------------------------------------------------------------------------------------------------------------

PROGRAMACIÓN DEL PROBLEMA 4 EN MATLAB

--------------------------------------------------------------------------------------------------------------------

1. %**METODO SIMPLEX**
2. %**Para cambiar a método simplex de tres dimensiones es necesario agregar
3. %las terceras variables a cada matriz respectivamente
4.
5. A=[-300 -400]; %Se define A como función objetivo
6.
7. B=[ 3 3 ; %Se define B como restricciones
8. 3 6];
9.
10. C=[ 120; %Se define C como recursos
11. 180];
12.
13. In=size(B,1); %Se guarda en In el número de restricciones
14. Xsol=[B eye(In) C %Xsol será nuestra matriz con los datos ordenados
15. A zeros(1,In) 0]
16.
17. fin=Xsol(end,1:end-1)<0;
18. if fin==0
19. break
20. end
21. [a,c]=min(Xsol(end,:)); %Columna pivote
22. Variable_Entrada1= Xsol(:,c) %Variable de entrada
23. Variable_Salida1=Xsol(c,:) %Variable de salida
24. Xre= Xsol(:,end)./ Xsol(:,c); %Divide los recursos en la columna pivote
25. i=Xre<=0; %Encuentra negativos o ceros en los recursos
26. d=Xre; %Guarda los recursos en d
27. d(i)=inf; %Donde es cero o negativo pone un infinito
28. [b,f]=min(d); %Encuentra en la columna pivote el positivo menor
29. Xsol(f,1:end)=Xsol(f,1:end)/Xsol(f,c); %Divide la fila pivote en el elemento pivote
30. for i=1:1:size(Xsol,1) %Hace el gauss
31. if i~=f %No realiza el gauss en la fila pivote
32. Xsol(i,:)=Xsol(i,:)-(Xsol(i,c)*Xsol(f,:)); %nueva_ecua = anterior_ecua - (coef_columna enterante)
x (nueva_ecuac_pivote)
33. end
34. end
35.
36.
37. Tabla_Iteracion1=Xsol %Iteracion 1
38.
39. fin=Tabla_Iteracion1(end,1:end-1)<0;
40. if fin==0
41. break

40
42. end
43. [a,c]=min(Tabla_Iteracion1(end,:)); %Columna pivote
44. Variable_Entrada2= Xsol(:,c) %Variable de entrada
45. Variable_Salida2=Xsol(c,:) %Variable de salida
46. Xre= Tabla_Iteracion1(:,end)./ Tabla_Iteracion1(:,c); %Divide los recursos en la columna pivote
47. i=Xre<=0; %Encuentra negativos o ceros en los recursos
48. d=Xre; %Guarda los recursos en d
49. d(i)=inf; %Donde es cero o negativo pone un infinito
50. [b,f]=min(d); %Encuentra en la columna pivote el positivo menor
51. Tabla_Iteracion1(f,1:end)=Tabla_Iteracion1(f,1:end)/Tabla_Iteracion1(f,c); %Divide la fila pivote en
el elemento pivote
52. for i=1:1:size(Tabla_Iteracion1,1) %Hace el gauss
53. if i~=f %No realiza el gauss en la fila pivote
54. Tabla_Iteracion1(i,:)=Tabla_Iteracion1(i,:)-(Tabla_Iteracion1(i,c)*Tabla_Iteracion1(f,:));
%nueva_ecua = anterior_ecua - (coef_columna enterante) x (nueva_ecuac_pivote)
55. end
56. end
57.
58. Tabla_Iteracion2=Tabla_Iteracion1 %Tabla de iteración 2
--------------------------------------------------------------------------------------------------------------------

PROGRAMACIÓN DEL METODO GRÁFICO DEL PROBLEMA EN MATLAB

--------------------------------------------------------------------------------------------------------------------

1. x = 0:60;
2. y = 0:35;
3. y = 40 - x; %primera restricción
4. plot(x,y,'LineWidt',3,'Color','r') %grafica1
5. hold on; %Dejamos los gráficos anteriores
6. y = 30 - 0.5.*x; %segunda restricción
7. plot (x,y,'LineWidt',3,'Color','g') %grafica2
8. hold on; %Dejamos los gráficos anteriores
9. plot (40,0,'O') %Grafica de puntos
10. plot (20,20,'O')
11. plot (0,0,'O')
12. plot (0,30,'O')
13. hold on; %Dejamos los gráficos anteriores
14. axis([-5 65 -2 45]) %redimensionamiento de la presentación del gráfico
15. grid on % le ponemos rejilla, para poder apreciar los límites
16. plot([-2 65],[0 0]) %gráfica del eje x
17. plot([0 0],[-2 45]) %gráfica del eje y
18. title('Grafico de soluciones factibles') %Nombres del grafico
19. xlabel('x1') %Nombre del eje x
20. ylabel('x2') %Nombre del eje y
21.
22. %Dado que la región interna que queda encerrada por las gráficas es
23. %la región de soluciones posibles, podemos pintar dicha área y lo haremos
24. % de la siguiente forma:

41
25.
26. x= 0:20;
27. y= 0:20;
28. y = 30 - 0.5.*x; %segunda restricción
29. area(x,y) %define el area1 para la región de soluciones factibles
30. colormap Lines %Pintamos la area1
31.
32. x= 20:40;
33. y= 20:40;
34. y = 40 - x; %primera restricción
35. area(x,y) %define el area2 para la región de soluciones factibles
36. colormap Lines %Pintamos la area2

Resultados:

>> MetodoSimplexDosDimensiones

Xsol =

3 3 1 0 120

3 6 0 1 180

-300 -400 0 0 0

Variable_Entrada1 =

-400

Variable_Salida1 =

3 6 0 1 180

Tabla_Iteracion1 =

1.0e+04 *

0.0001 0 0.0001 -0.0001 0.0030

0.0001 0.0001 0 0.0000 0.0030

-0.0100 0 0 0.0067 1.2000

Variable_Entrada2 =

1.5000

42
0.5000

-100.0000

Variable_Salida2 =

1.5000 0 1.0000 -0.5000 30.0000

Tabla_Iteracion2 =

1.0e+04 *

0.0001 0 0.0001 -0.0000 0.0020

0 0.0001 -0.0000 0.0000 0.0020

0 0 0.0067 0.0033 1.4000

Solución gráfica

En la gráfica se observa la representación de (x1,x2) = (20,20) es el punto máximo que se pide hallar como solución.

INVESTIGACIÓN OPERATIVA
LA IMPORTANCIA DE LA PROGRAMACIÓN LINEAL:
 Ciertos problemas se describen fácilmente a través de la programación lineal.
 Muchos problemas pueden aproximarse a modelos lineales.
 La salida generada por el programa que resuelve el modelo de programación lineal entrega
información útil para responder nuevas condiciones sobre el “qué pasa si”.

43
EJEMPLO: Una multinacional minera extrae un tipo de mineral de dos minas diferentes, el cuales es sometido a
un proceso de trituración, con tres grados: alto, medio y bajo. La compañía ha firmado un contrato para proveer de
mineral a una planta de fundición, cada semana, 12 toneladas de mineral de grado alto, 8 toneladas de grado medio
y 24 toneladas de grado bajo. Cada una de las minas tiene diferentes procesos de fabricación.
Mina Costo por día (miles de Euros) Producción(toneladas/día)

¿Cuántos días a la semana debería operar cada mina para cumplir el contrato con la planta de fundición con el que
se comprometió la multinacional?

Es necesario buscar una solución que minimice el costo de producción global de la empresa, sujeta a las restricciones
impuestas por los procesos productivos asociados a cada mina así como el contrato con la planta de fundición.
Traducción del problema en términos matemáticos
1.definir las variables
2.las restricciones
3.el objetivo
Variables
Representan las decisiones que puede tomar la empresa:
Dx = número de días a la semana que la mina X produce
Dy= número de días a la semana que la mina Y produce
Notar que Dx≥0 y Dy≥0

Objetivo
Como objetivo buscamos minimizar el costo 180Dx+160Dy
Restricciones
Se recomienda primero plantear las restricciones con palabras antes de pasar a su formulación matemática.
Restricción 1. refleja el balance entre las limitaciones productivas de la fábrica y el contrato con el plante
de fundición
Grado
Alto 6Dx+1Dy≥12
Medio 3Dx+1Dy≥8
Bajo 4Dx+6Dy≥24
Restricción 2. días de trabajo disponibles a la semana
Dx≤5 y Dy≤5

44
La representación completa del problema tomaría la siguiente forma:
Minimizar 180Dx+160Dy
s.a.
6Dx+1Dy≥12
3Dx+1Dy≥8
4Dx+6Dy≥24
Dx≤5, Dy≤5
Dx≥0, Dy≥0

MÉTODOS DE RESOLUCIÓN

MÉTODO GRÁFICO
EJEMPLO:
Maximizar la función objetivo:
Z= 3x + y
Sujeto a las restricciones:
2x + y ≤ 8
2x + 3y ≤ 12
x, y ≥ 0
A continuación, graficamos las desigualdades planteadas en las restricciones así:
2x + y ≤ 8 x=0; y=8
y=0; x=4
2x + 3y ≤ 12 x=0; y=4
y=0; x=6
x, y ≥ 0

45
Se observa que la región factible está conformada por los puntos A(0,0); D(0,4); B(4,0) y el punto C que
es el resultado de la intersección de las 2 inecuaciones cuyo valor aproximadamente en el plano esta dado
por las coordenadas (3,2).
Ahora bien, el problema solicita la maximización de Z = 3x + y que se obtiene precisamente en el punto C
(3,2).

INVESTIGACIÓN OPERATIVA
LA IMPORTANCIA DE LA PROGRAMACIÓN NO LINEAL:
Ejemplo
Una planta industrial emplea tres máquinas M1, M2 y M3 para fabricar dos artículos A1 y A2. Para la fabricación
de A1 se requieren dos horas en la máquina M1, una hora en la M2 y tres horas en la M3; para el producto A2 hace
falta una hora en la máquina M1, una hora en la M2 y 5 horas en la M3.

Se dispone de 180 horas en la máquina M1, 110 en la M2 y 480 en la M3. La ganancia obtenida por cada pieza del
artículo A1 es de $50 y por cada pieza del artículo A2 es de $40. ¿Cuántas piezas de cada artículo deben fabricarse
para que la ganancia sea la máxima posible?

46
 El problema es planteado y se obtiene un modelo en el que todas las expresiones algebraicas son lineales.
 Incluso la función objetivo es lineal

Un caso típico de programación no lineal se presenta cuando las restricciones son lineales, pero la función
objetivo no lo es. Por ejemplo: ¿Qué sucede si, con los datos del problema anterior, la función objetivo es
cuadrática?
z = 16x+10y – 0.08x2

El modelo del problema quedaría:


Maximizar: z = 16x+10y – 0.08x2
Sujeto a las restricciones:
• 2x + y ≤ 180
• x + y ≤ 110
• 3x + 5y ≤ 480
• x≥0, y ≥ 0

47
•Una buena forma de comprender el problema consiste en trazar la gráfica de la función objetivo sobre el mismo
plano en el que se encuentran las restricciones.
z = 16x+10y – 0.08x2
• Es necesario despejar la variable independiente y, (considerando z = 1,300).
• Tabulación para graficar la función objetivo:
𝑦 = −1.6𝑥 + 0.008𝑥2 + 130

X Y
0 −1.6𝑥+0.008𝑥+130=−1.6(0)+0.008(0)+130=130
20 −1.6𝑥+0.008𝑥+130=−1.6(20)+0.008(20)+130=101.2

40 −1.6𝑥+0.008𝑥+130=−1.6(40)+0.008(40)+130=78.8

60 −1.6𝑥+0.008𝑥+130=−1.6(60)+0.008(60)+130=
80 −1.6𝑥+0.008𝑥+130=−1.6(80)+0.008(80)+130=
100 −1.6𝑥+0.008𝑥+130=−1.6(100)+0.008(100)+130=

120 −1.6𝑥+0.008𝑥+130=−1.6(120)+0.008(120)+130=

140 −1.6𝑥+0.008𝑥+130=−1.6(140)+0.008(140)+130=

• El primer paso es introducir los datos de las restricciones en forma de table.


• Agregar los coeficientes de la función objetivo.
recursos articulo a1 articulo a2 disponibilidad
necesarios X Y de recursos
Maquina M1 2 1 180
Maquina M2 1 1 110
Maquina M3 3 5 480

48
• Agregar una tabla que, mediante fórmulas, calculará la cantidad de recursos empleados con base en los valores de
x, y.

• Las fórmulas que se emplearán son:

• Las celdas C4, C5, C6, D4, D5, D6 hacen referencia a la table de datos de las restricciones anotadas en la parte
superior de la hoja de Excel.
• También hace falta una celda en la que se calcula el valor de la función objetivo.
• Fórmula de la celda que se va a maximizar:

4. CAPITULO 4

4.1. CONCLUSIÓN
 Luego de haber leído y desarrollado la presente investigación, se llegó a la conclusión que la programación
no lineal analiza la problemática general en la que el objetivo f(x) o las restricciones gj(x) (o los dos) son
funciones no lineales.
 La mayoría de los métodos de programación no lineales utilizan el concepto de gradiente de las funciones
f(x) y gj(x) para calcular direcciones de descenso, es decir de mejora de la función objetivo.

49
 Cuando las funciones son convexas (caso por ejemplo de la programación lineal continua), los algoritmos
de descensos convergen hacia un óptimo global. En general, estos algoritmos y lo software correspondientes
convergen solamente hacia un óptimo local. Siempre que sea posible, es importante ejecutar estos
algoritmos a partir de varias soluciones iniciales diferentes con el fin de seleccionar la mejor solución entre
todas las encontradas.
 Una problemática no lineal con restricciones puede convertirse en un problema sin restricciones con la
ayuda del multiplicador de Lagrange: este método consiste en efecto en introducir en la función objetivo
variables de holgura y un coste que aumenta cuando disminuye la desviación (es decir, restricción saturada).

5. CAPITULO 5

5.1. BIBLIOGRAFÍA

 ANDERSON, SYNDEY D. INVESTIGACIÓN DE OPERACIONES.


 WILLIAMS T (INTRODUCCIÓN A LOS MODELOS CUANTITATIVOS
 PARA LA ADMINISTRACIÓN/ EDITORIAL IBEROAMÉRICA.
 HUILLIER F & LIEBMAN E, INTRODUCCIÓN A LA INVESTIGACIÓN DE
 OPERACIONES MC.GRAW HILL.
 TÉCNICAS DE OPTIMIZACIÓN EN INGENIERÍA. MÁSTER EN TECNOLOGÍAS DE LA
INFORMACIÓN Y LAS TELECOMUNICACIONES CURSO 2006-2007 PROFESORA: Mª PILAR
JARABO AMORES

50

S-ar putea să vă placă și