Sunteți pe pagina 1din 22

Optimización II: Teorı́a de la Decisión

Xavier Cabezas

Segundo Término
2018

1 / 23
Sobre la toma de decisiones

Esta sección se enfoca en la toma de decisiones entre múltiples alternativas basandose en


qué tan bien estas alternativas cumplen con ciertos criterios (objetivos a alcanzar).

Example
Elegir entre 3 ofertas de universidades bajo los siguientes criterios:

1 Percepción de reputación

2 Ubicación geográfica

3 Ranking

4 Flexibilidad de horarios

Es claro, que cuando multiples criterios (objetivos) están presentes, elegir, la mejor
alternativa puede ser una terea muy difı́cil.

2 / 23
El Proceso de Jerarquı́a Analı́tica (The Analytic Hierarchy Process, AHP)

El siguiente ejemplo ilustra como tomar decisiones utilizando el AHP.


Suponga que Daniela desea elegir entre 3 ofertas trabajos (T1 , T2 y T3 ), bajo los
siguientes 4 criterios:

1 Criterio 1: Salario inicial alto (SA).

2 Criterio 2: Ubicación del lugar trabajo (UT).

3 Criterio 3: Afinidad con el trabajo (AT).

4 Criterio 4: Posibilidades de viajar (PV).

Daniela ha ponderado cada criterio de acuerdo a lo que ella considera más (o menos)
importante para su vida profesional.

wSA wUT wAT wPV


0.5115 0.0986 0.2433 0.1466

Note que la suma de las ponderaciones es 1.


3 / 23
AHP (2)

Ahora suponga que Daniela puede determinar una ponderación a cada criterio por cada
oferta de trabajo (Calificación (scoreij ) que representa qué tan bueno son los trabajos j
por los criterios i):

Criterio T1 T2 T3 Suma
SA 0.571 0.286 0.143 1
UT 0.159 0.252 0.589 1
AT 0.088 0.669 0.243 1
PV 0.069 0.426 0.506 1

AHP utiliza las ponderaciones y los scores para determinar cuál trabajo Daniela debe
elegir, mediante una simple suma ponderada:
X
Calificación global de Tj = wi × scoreij
i

4 / 23
AHP (3)

X
Calificación global de Tj = wi × scoreij
i

Calificación global de T1 =
0,5115(0,571) + 0,0986(0,159) + 0,2433(0,088) + 0,1466(0,069) = 0,339

Calificación global de T2 =
0,5115(0,286) + 0,0986(0,252) + 0,2433(0,669) + 0,1466(0,426) = 0,396

Calificación global de T3 =
0,5115(0,143) + 0,0986(0,589) + 0,2433(0,243) + 0,1466(0,506) = 0,265

Daniela deberı́a elegir el trabajo 2!!!.

5 / 23
Determinación de los scores
Si se tienen n alternativas de donde decidir y m criterios, es posible construir una matriz
de comparación Acriterio = [aij ] de n × n por cada m.
Esta matriz representa qué tan importante una alternativa es respecto a otra. Para esto
AHP utiliza una escala discreta del 1 − 9, por ejemplo:

1: Alternativa i y alternativa j son gualmente importantes.


..
.
5: Alternativa i es mucho más importante que alternativa j.
..
.
9: Alternativa i extremádamente más importante que alternativa j.

Los scores se pueden encontrar mediante el siguiente procedimiento:


X
Para cada j, sumj = aij .
i
aij
Para cada i y j, .
sumj
El resultado es una matriz normalizada Ncriterio . El promedio por P fila de Ncriterio
j nij
producirá el valor de los scores. Para todo i, scorecriterio [i] = .
n
6 / 23
Determinación de scoreij (2)

En el ejemplo de decisión de Daniela:


T1 T2 T3 T1 T2 T3
   
T1 1 2 4 T1 0,571 0,571 0,571
   
ASA =  1/2 1 2  =⇒ NSA =  0,286 0,286 0,286 
   
T2 T2
   
T3 1/4 1/2 1 T3 0,143 0,143 0,143

scoreSA = [0,571, 0,286, 0,143]


T1 T2 T3 T1 T2 T3
   
T1 1 1/2 1/3 T1 1/6 1/9 1/5
   
AUT =  2 1 1/3  =⇒ NUT =  1/3 2/9 1/5 
   
T2 T2
   
T3 3 3 1 T3 1/2 6/9 3/5

scoreUT = [0,159, 0,252, 0,589]

7 / 23
Determinación de los scores (3)

Similarmente:
T1 T2 T3
 
T1 1 1/7 1/3
 
AAT =  7 1 3  =⇒ NAT =⇒ scoreAT = [0,088, 0,669, 0,243]
 
T2
 
T3 3 1/3 1

T1 T2 T3
 
T1 1 1/4 1/7
 
APV =  4 1 2  =⇒ NPV =⇒ scorePV = [0,069, 0,426, 0,506]
 
T2
 
T3 7 2 1

8 / 23
Determinación de las ponderaciones w ’s
El procedimiento descrito para la estimación de los scores se aplica para la determinación
de los pesos w ’s (el vector de ponderaciones de los criterios).
En nuestro ejemplo:

SA UT AT PV
 
SA 1 5 2 4
 
 1/5 1 1/2 1/2 
 
UT
A=   =⇒
 1/2 2 1 2 
 
AT
 
PV 1/4 2 1/2 1
SA UT AT PV
 
SA 0,5128 0,5000 0,5000 0,5333
 
 0,1026 0,1000 0,1250 0,0667 
 
UT
NA =  
 0,2564 0,2000 0,2500 0,2667 
 
AT
 
PV 0,1282 0,2000 0,1250 0,1333

w = [0,5115, 0,0986, 0,2433, 0,1466]


9 / 23
Consistencia de las matrices de comparación

Las matrices de comparación son basadas en el criterio personal de quien las elabora, y
por ende un grado de inconsistencia es esperado.
Por ejemplo en:

SA UT AT PV
 
SA 1 5 2 4
 
 1/5 1 1/2 1/2 
 
UT
A=  
 1/2 2 1 2 
 
AT
 
PV 1/4 2 1/2 1

Daniela considera que SA es 2 veces más importante que AT y que AT es 2 veces más
importante que UT , por lo tanto, si sus asignaciones de preferencia son consistentes,
deberı́a ocurrir que SA sea para ella 4 veces más importe que UT . Sin embargo, esto no
ocurre, SA, es para ella, 5 veces más importante que UT . La matriz A es inconsistente.

Poca inconsistencia puede ser tolerable. Hay que medirla!

10 / 23
Consistencia de las matrices de comparación (2)

Un ejemplo de matriz de comparación consistente es:

T1 T2 T3 T1 T2 T3
   
T1 1 2 4 T1 0,571 0,571 0,571
   
ASA =  1/2 1 2  =⇒ NSA =  0,286 0,286 0,286 
   
T2 T2
   
T3 1/4 1/2 1 T3 0,143 0,143 0,143

La matrices consistentes producen matrices normalizadas con columnas iguales, i.e.,


deben ser de la forma:
 
w1 w1
w1 w2
. . . wwn1
 
 w2 w2 . . . w2 
 w1 w2 wn 
A=  .. .. .. .. 

 .
 . . . 

wn wn wn
w1 w2
... wn

De esta forma siempre se cumple que: aij = aik × akj

11 / 23
Consistencia de las matrices de comparación (3)
Lo anterior implica que una matriz de comparación consistente siempre cumple que:

Aw = nw
Porque:
      
w1 w1 w1
w1 w2
... wn
w1 nw1 w1
      
 w2 w2
... w2  
w  nw  w 
 w1 w2 wn   2   2  2
  =   = n 
 .. .. .. ..   ..   ..   .. 

 .
 . .  .   . 
.       . 
 
wn wn wn
w1 w2
... wn
wn nwn wn
Si la matriz de comparación no es consistente, esta relación se aproxima utilizando el
promedio de las filas de la matriz normalizada y obteniendo un escalar nmax , el cual se
espera no sea muy alejado a n para concluir que la matriz de comparación no es muy
inconsistente:
"P P P #T
j n1j j n2j j nnj
Aw = nmax w , donde w = , ,...,
n n n
P
Desde que i w i = 1, no es difı́cil verificar que nmax es igual a la suma de los
componentes del vector Aw .
12 / 23
Consistencia de las matrices de comparación (4)

Mientras nmax sea más cercano a n, entonces se considerará a la matriz de comparación


más consistente.

Para establecer un criterio de comparación pueden seguirse los siguientes pasos:

1 Calcule nmax .
nmax − n
2 Calcule el ı́ndice de consistencia, CI = .
n−1
1,98(n − 2)
3 Calcule el ı́ndice aleatorio e consistencia, RI = . (RI se determina de
n
forma empı́rica como el promedio de CI en una muestra grande de matrices de
comparación A generadas de forma aleatoria).
CI
4 Calcule la relación de consistencia CR = .
RI
5 Si CR ≤ 0,1, el nivel de incosistencia puede aceptarse. Caso contrario hay que
modificar la matriz A.

Más información puede encontrarsre en: Saaty, T. ‘’The Analytic Hierarchy Process”.
Pittsburgh, Pa.: 1988.

13 / 23
Consistencia de las matrices de comparación (5)

SA UT AT PV
    
SA 1 5 2 4 0,5115 2,0775
    
 1/5 1 1/2 1/2  0,0986 0,3959
    
UT
Aw =   = 
 1/2 2 1 2  0,2433 0,9894
    
AT
    
PV 1/4 2 1/2 1 0,1466 0,5933

1 nmax = 2,0775 + 0,3959 + 0,9894 + 0,5933 = 4,05.


4,05 − 4
2 CI = = 0,017.
3
1,98(4 − 2)
3 RI = = 0,99.
4
0,017
4 CR = = 0,0171.
0,99
5 0,0171 ≤ 0,1, el nivel de incosistencia puede aceptarse.

14 / 23
Toma de decisiones bajo incertidumbre

Supongamos que vamos a tomar decisiones bajo incertidumbre (las situaciones o posibles
eventos pueden describirse mediante funciones de probabilidad).

Quien toma las decisiones elige una acción ai desde un conjunto


A = { a1 , a2 , . . . , ak } de acciones posibles.

El estado de la naturaleza sj ∈ S = { s1 , s2 , . . . , sn } es observado con probabilidad


pj .

Si la acción ai es elegida y el estado de la naturaleza es sj , entonces quien toma la


decisiones recibe una recompensa (reward) rij

15 / 23
Un ejemplo de toma de decisiones bajo incertidumbre

Example
Newspaper vendor Un vendedor de periódicos desea determinar cuántos unidades de
periódicos ordenar a su proveedor. El vendedor paga $0,20 por cada unidad y los vende a
un valor de $0,25. Periódicos que no son vendidos al final del dı́a no tienen valor. El
vendedor sabe además que cada dı́a puede vender entre 6 y 10 periódicos, con igual
probabilidad.
Aquı́ el estado de la naturaleza es dado por lo que puede suceder, en este caso, la
demanda, y por lo tanto S = { 6, 7, 8, 9, 10 }. Se sabe también que
p6 = p7 = p8 = p9 = p10 = 1/5. El vendedor eligirá una acción (número de periódicos a
ordenar cada dı́a) dentro del conjunto A = { 6, 7, 8, 9, 10 }. Además:
rij = 0,25i − 0,20i = 0,05i para i ≤ j
rij = 0,25j − 0,20i para i ≥ j

16 / 23
Criterios de decisión

Definition (Criterio Maximin)


El criterio Maximin elige la acción ai con el mayor de los valores de minj ∈S rij .

Definition (Criterio Maximax)


El criterio Maximax elige la acción ai con el mayor de los valores de maxj ∈S rij .

Definition (Criterio Minimax (costo de oportunidad))


Este criterio usa el concepto de costo de oportunidad. Para cada sj , se encuentra la acción
i ∗ (j) que maximiza rij . La pérdida de oportunidad para cualquier ai en sj es ri ∗ (j),j − rij . El
criterio Minimax elige la acción ai que produce el mı́nimo de maxj ∈S (ri ∗ (j),j − rij ).

Definition (Criterio el valor esperado)


Este criterio elige la acción ai que produce el mayor valor esperado (promedio ).

17 / 23
Criterios de decisión (ejemplo resuelto: VE, Maximin, Maximax y Minimax
Regret)

18 / 23
Teorema de Bayes

Theorem (Probabilidad Total)


Si los eventos E1 , E2 , . . . , Ek constituyen una partición del espacio muestral S (conjunto
de estados de la naturaleza) y P(Ei ) 6= 0 para i = 1, 2, . . . , k, entonces para cualquier
evento E en S,
k
X
P(E ) = P(Ei )P(E |Ei )
i =1

A las P(Ei )’s se las conoce como probabilidades apriori y a las P(E |Ei ) como la
varosimilitud (likelihood) de E dado el estado de la naturaleza Ei .

Theorem (Teorema de Bayes (2))


Si los eventos E1 , E2 , . . . , Ek constituyen una partición del espacio muestral S y
P(Ei ) 6= 0 para i = 1, 2, . . . , k, entonces para cualquier evento E en S tal que P(E ) 6= 0,

P(Er )P(E |Er )


P(Er |E ) = k
, para r = 1, 2, . . . , k
X
P(Ei )P(E |Ei )
i =1

Las P(Er |E )’s se llaman probabilidades post-experimentales o probabilidades posteriori.


19 / 23
Teorema de Bayes y árboles de decisión

Example
Una compañı́a produce chips de memoria en lotes de 10 unidades. De experiencia pasada,
la compañı́a sabe que 80 % de todos los lotes contienen 10 % (1 de 10) de chips
defectuosos y 20 % de todos los lotes contienen 50 % (5 de 10) de chips defectuosos. Si
un buen lote (10 % de defectuosos) de chips es enviado a la siguiente etapa de
producción, se incurre en un costo de procesamiento de $1000, y si un mal lote (50 % de
defectuosos) es enviado a la siguiente etapa de producción, se incurre en un costo de
$4000. La compañı́a también tiene la alternativa de re-trabajar el lote a un costo de
$1000, lo que producirá un buen lote. Además, para un costo de $100. la compañı́a
puede probar un chip de cada lote en un intento de determinar si el lote es bueno o malo.
Determine como la compañı́a puede minimizar el costo total esperado por lote.

20 / 23
Arboles de decisión (2)

21 / 23
Arboles de decisión (3)

22 / 23

S-ar putea să vă placă și