Sunteți pe pagina 1din 8

UNIVERSIDAD NACIONAL DE INGENIERIA

FACULTAD DE INGENIERIA MECANICA

Métodos de Optimización

CURSO SECCION: PROYECTO DE INGENIERIA (MC612-C)

PROFESOR: Ing. Becerra Felipe, José Luis

ALUMNO: Alvarado Gambini Dayans Javier

20 DE JUNIO DEL 2019


¿Qué es la optimización?

 Método para determinar los valores de las variables que intervienen en un


proceso o sistema para que el resultado sea el mejor posible.

 Consiste en maximizar o minimizar una función real.

 Isaac Newton y Carl Friedrich Gauss propusieron métodos iterativos para el


movimiento hacia un óptimo.

 Históricamente, el primer término para la optimización fue programación


lineal, debido a George B. Dantzig.

 Dantzig publicó el algoritmo Simplex (Simple) en 1947 y John von Neumann


desarrolló la teoría de la dualidad en el mismo año

 La programación lineal es el campo de la optimización matemática dedicado a


maximizar o minimizar (optimizar) una función lineal, denominada función
objetivo.
Métodos numéricos para optimización de funciones

 Los métodos numéricos son técnicas mediante las cuales es posible formular
problemas de tal forma que sean resueltos con operaciones aritméticas.

 Aunque hay muchos tipos de métodos, todos comparten una característica común,
llevan a cabo un buen número de cálculos aritméticos y emiten soluciones
aproximadas.

Método de newton
El método de Newton es equivalente a usar un modelo cuadrático y aplicar las
condiciones necesarias de optimalidad.
Las ventajas del método de Newton son:
1.- El procedimiento es cuadráticamente convergente (p=2), siempre que f ('' x) ≠ 0
2.- Para una función cuadrática el mínimo se obtiene en una única iteración. Las
desventajas son:
1.- Se debe calcular tanto f’(x) como f’’(x).
2.- Si f’’(x)→0 el método converge muy lentamente.
3.- Si existe más de un extremo, el método podría no converger al extremo deseado.
Además el método podría oscilar.

Método de la secante
El método de la secante parece bastante “crudo” pero funciona bastante bien en la
práctica. El orden de convergencia para funciones de una sola variable es de (1 5 2 16 +
≈ ) / . . Su convergencia es ligeramente menor que la del método de Newton de
diferencias finitas, pero en muchas ocasiones funciona mejor que este en lo que a
número de evaluaciones de la función objetivo se refiere.
Métodos de la eliminación de regiones

 Los métodos de eliminación de regiones se basan en eliminar una región, en cada etapa
del intervalo en el que está comprendido el mínimo. Cuando la región posible es
suficientemente pequeña la búsqueda termina.

 El elemento básico dentro de los métodos de eliminación de regiones es la comparación


de valores de f(x) en dos o más puntos dentro del intervalo de x.

 Los métodos más eficientes de búsqueda por eliminación de regiones son los métodos
de la sección dorada y Fibonacci

Método de la sección dorada

 La búsqueda o método de la sección dorada es una técnica para hallar el extremo


(mínimo o máximo) de una función unimodal, mediante reducciones sucesivas del
rango de valores en el cual se conoce el intervalo.

Método de Fibonacci

 El método de búsqueda de Fibonacci es utilizado para obtener un punto óptimo en


funciones no diferenciables sin utilizar derivadas es decir, que no sean derivables en el
intervalo (a,b).

 Este método es muy eficiente para aproximar, bajo cierto margen de error, un punto
máximo o mínimo en funciones unimodales
Optimización de funciones multivariables

Métodos directos

Para la aplicación de estos métodos solamente es necesario conocer el valor de la función


objetivo en cualquier punto del espacio y no necesitamos ninguna hipótesis adicional acerca
de la diferenciabilidad de la función.

Métodos indirectos

Los métodos indirectos hacen uso de derivadas en la determinación de las direcciones de


búsqueda. Una buena dirección de búsqueda debería reducir la función objetivo, entonces si
x0 es el punto inicial y x1 es el nuevo punto: f(x1)<f(x0).

Diferencias Finitas

El Método de Diferencias Finitas es un método de carácter general que permite la resolución


aproximada de ecuaciones diferenciales en derivadas parciales definidas en recintos finitos. 
Los métodos numéricos para resolver ecuaciones diferenciales se basan en el reemplazo de las
ecuaciones diferenciales por ecuaciones algebraicas
En diferencias finitas, esto se realiza al reemplazar las derivadas por diferencias
Programación Lineal Continua

Trata sobre la resolución de problemas de optimización que pueden modelizarse en la


forma:

Sujeto a

donde n representa el número de variables, m el número de restricciones,


las variables del problema, y números reales dados. Al
número 𝑐𝑗 se le llama costo asociado a la variable j -ésima ( j =1, , … n) , mientras que
al número 𝑏𝑖 se le llama recurso asociado a la restricción .Utilizando
notación vectorial, el problema anterior puede ser representado en la forma compacta
siguiente:

Cualquier problema de Programación Lineal puede reescribirse de la siguiente forma,


llamada forma estándar:

aunque la transformación desde otra forma puede alterar el número de variables y/o
restricciones del problema.
En general, la conversión puede llevarse a cabo como sigue:

Mediante pautas similares a las anteriores puede demostrarse que las siguientes formas
son equivalentes:
Problema de optimizar mezclas

En la refinería de Santa Cruz de Tenerife (C.E.P.S.A.) se producen 3 tipos de gasolinas


que describimos a continuación:

Para ello se mezclan cuatro productos base, que representaremos con un número, y cuyo
costo y disponibilidad son:

Para la clasificación de la mezcla en uno de los tres tipos de gasolina se atiende a la


proporción de los productos que la componen según la siguiente tabla:

donde “s.l.” significa que no importa la proporción de ese producto.

Modelo matemático
Consideremos las siguientes variables:

Entonces, un modelo matemático es:


sujeto a:

S-ar putea să vă placă și