Sunteți pe pagina 1din 113

THEORIE DE DECISION

INSEA 2017/2018
Boumahdi Ilyes
ilyesboum@yahoo.fr
Supports du cours : https://sites.google.com/site/ilyesboumahdi/
* Ce document est sujet à enrichissement. Merci de m’envoyer toute remarque pouvant en améliorer
le contenu et la forme. Version : 03-11-17 09:56
CHAPITRE INTRODUCTIF
Bibliographie

 Cours antécédent de l’INSEA de feu Professeur Mustapha


Benyekhlef.
 « Chapitre 3. La théorie de la décision » de « Modèles
Probabilistes D'Aide à la Décision », Michel Nedzela
 « Chapitre 3. L'inférence bayésienne principes Généraux », par
Michel MOUCHART de « Méthodes bayésiennes en statistique »,
Jean-Jacques Droesbeke, Jeanne Fine et Gilbert Saporta.
 « Statistique », Claude Fourgeaud et Aimé Fuchs.
 Chapitre 8 de « Statistique et probabilités », Jean Pierre Lecoutre.
 « Elementary Decision Theory », Herman Chernoff et Lincoln E.
Moses.
 « Theory of Games and Statistical Decisions », David A.
Blackwell,M. A. Girshick.
 « Theory and Problems of Probability, Random Variables, and
Random Processes », Hwei P. Hsu, Ph.D.
CONTEXTE DE LA THEORIE DE DECISION

Prise de décision

Univers certain :
Univers risqué :
Connaissance totale
Connaissance partielle Univers incertain :
(Exp. Fonction du
(Exp. Connaissance de (Exp. La loi du profit
profit connue, soit
la loi de probabilité du n’est pas connue)
Programmation
profit)
linéaire)

Passage d’un univers à


l’autre en introduisant
les probabilités

Formulation Méthodes Solutions


Résolution
du problème plus moins
différente
différente complexes satisfaisantes
EXEMPLES DE LA THEORIE DE DECISION
Des plus simplistes aux plus complexes

 Exemple 1 : Comment s’habiller en sortant

 Exemple 2 : Contrôle de qualité d’une machine

 Exemple 3 : Prises d’échantillons d’eau d’une rivière à côté d’une


ville, en amont et en aval pour voir si cette dernière a un effet
néfaste sur l’environnement.

 Exemple 4 : Les débits d’une rivière peuvent atteindre des niveaux


qui peuvent induire des crues dévastatrices en plaine. Faut-il
construire un barrage ou gérer les dégâts occasionnels?
EXEMPLES DE LA THEORIE DE DECISION
 Points communs des exemples:

• Décision en avenir risqué voire incertain.

• Décision à prendre face à des états possibles de la « nature ».

• Décision à prendre avec des conséquences différenciées.

 Remarques :

• La nature n’est pas un adversaire calculateur et malveillant.

• Différencier entre théorie de décision et théorie des jeux qui permet plutôt
une prise de décision en avenir incertain généralement non probabiliste.

• En théorie de décision le « gain » du statisticien ne correspond pas à des


pertes de la nature alors qu’en, théorie des jeux la perte du premier joueur
est un gain pour le deuxième (jeux à deux participants à somme nulle)
ILLUSTRATION INTUITIVE DE LA THEORIE DE DECISION :
Exemple 4 : Contrôle de qualité d’une machine
 Une machine fabrique des pièces par lot de n = 500 pièces dont une
proportion « f » de pièces défectueuses.
 D’après son expérience, le contrôleur de qualité juge que f peut prendre 4
valeurs entre 1% et 25%, soient 1%, 5%, 15% et 25%.
 Le coût unitaire de la réparation de la pièce défectueuse est de 3000 dirhams
(dh).
 Le coût du réglage de la machine avant sa mise en marche est de 70000 dh.
 Quelle serait la décision raisonnable : a1: ne rien faire ou a2 : Procéder au
réglage.
Voir exemple sur Excel 2016\Exemple introductif.xlsx
ILLUSTRATION INTUITIVE DE LA THEORIE DE DECISION :
Exemple 4 : Contrôle de qualité d’une machine
 Les pertes L(a, f) (en milliers de dirhams) seraient comme suit :

A a1 a2
f
1% 15 70
5% 75 70
15% 225 70
25% 375 70

 Absence de vraisemblance sur f : Plusieurs décisions sont possibles dont:


• Pour les gens averses au risque, la décision « a2 : Procéder au réglage » permettrait
de se prémunir contre le risque d’une perte maximale, à savoir le fait que f soit égale à
25 % et de là la perte serait de 375000 dh.

• Pour les gens optimistes, f serait seulement de 1 % et de là la perte serait de 15000 dh


ce qui ne justifierait pas la dépense de 70000 pour le réglage.
ILLUSTRATION INTUITIVE DE LA THEORIE DE DECISION :
Exemple 4 : Contrôle de qualité d’une machine
 Présence de vraisemblance sur f : si le contrôleur de qualité peut donner des poids aux
différentes occurrences de f : f P(f)
1% 0,7
5% 0,1
15% 0,1
25% 0,1

Une des décisions possibles en plus de celles établies sans vraisemblance est de considérer
celle qui a une perte moyenne pondérée (ou perte espérée) minimale, soit a2 :

A a1 a2
f
1% 15 70
5% 75 70
15% 225 70
25% 375 70
E(L(a,f)) 78 70
ILLUSTRATION INTUITIVE DE LA THEORIE DE DECISION :
Exemple 4 : Contrôle de qualité d’une machine
 Présence d’un sondage sur f : si le contrôleur fait un prélèvement de 10 pièces
(production avant le lancement définitif) et constate qu’il n’y a aucune pièce défectueuse
(R=Résultat du sondage), il pourrait corriger sa perception sur la distribution de f et de là
celles des pertes moyennes :
A
f P(f) (f) a1 a2
f
1% 0,7 0,881 1% 15 70
𝑃 𝑅 𝑓𝑖 𝑃 𝑓𝑖
𝜋 𝑓𝑖 = 𝑃 𝑓𝑖 𝑅 = 5% 0,1 0,083
𝑖 𝑃 𝑅 𝑓𝑖 𝑃 𝑓𝑖
5% 75 70
15% 0,1 0,027 15% 225 70
25% 0,1 0,008 25% 375 70
e(L(f,a)) 28,58 70
• 1% devient plus vraisemblable puisque l’expérience a donné 0 pièces défectueuses qui
coïncide avec la stratégie optimiste (Quant est il si on avait trouvé 4 pièces
défectueuses?).

• La décision qui a une perte moyenne pondérée (ou perte espérée) minimale est a1 et
n’est plus celle sans sondage (a2).
PLAN
I CHAPITRE INTRODUCTIF

II ELÉMENTS ET CRITÈRES DE DÉCISION

III UTILITÉ

IV PROBABILITÉS SUBJECTIVES

V RANDOMISATION

V PRISE DE DÉCISION AVEC OBSERVATIONS

V PRISE DE DÉCISION SÉQUENTIELLE


VI PRISE DE DÉCISION COLLECTIVE
Volume horaire (VH)
Module
Cours TD Evaluation VH global
THEORIE DE DECISION 20 6 2 28

% VH 71% 22% 7% 100%


Eléments et critères de
décision
Eléments et critères de décision
 Eléments de décision

• D’après l’exemple illustratif, trois questions principales se posent : :

o Dans quel environnement évolue notre prise de décision ou quels sont


les états de la nature?

o Quelles sont les décisions possibles?

o Quelles sont les conséquences de ces décisions?

o Est-ce-qu’il y a une information supplémentaire qui peut nous


renseigner sur l’état de la nature?

 Définition 1 :

Un problème de décision est schématisé par un triplet (, A, L) tel que :


•  : Ensemble des états de la nature.

• A : Ensemble des décisions.

• L : (, A) ℝ+ : perte liée à la prise d’une décision a 𝜖A alors que  𝜖  est l’état qui se
réalise.

Remarque 1 : L est considérée négative pour les gains.


Eléments et critères de décision
 Exemple 1 : Estimation ponctuelle

•Estimation ponctuelle d’un paramètre  𝜖  à partir de la réalisation d’un échantillon x1, …, xn de X,


soit un estimateur Tn= f(x1, …, xn) tel que :

oLe plus proche de  (notion de sans biais E(Tn) =  ou au moins asymptotiquement SB E(Tn)  ).

oLe plus efficace possible (notion de variance petite) ou même optimale (notion de variance
minimale Exp du MESB).

•Comment décider du choix de l’estimateur ?

•Démarche possible : Considérer l’erreur quadratique moyenne:

EQ(Tn)=E(Tn- )²=V(Tn)+b²()= Erreur statistique + Erreur structurelle

•Faire le choix de réduire l’erreur structurelle puis celle statistique.

•Exemples :

•Tn est un estimateur efficace si sa variance atteint la borne de Fréchet-Darmois-Cramér-Rao (FDCR) :


−1
𝜕 ln 𝐿 2 −1 𝜕²ln(𝐿)
𝑉 𝑇𝑛 = 𝐼𝑛−1 𝜃 = 𝐸[( 2 ) ] = 𝐸 −
𝜕𝜃 𝜕𝜃²

•Tn est un EMV si L(Tn)=max L().

•Tn est un estimateur des moments d’ordre 1 si solution de E(X)=𝑋 ie le moment théorique égal au
moment empirique
Eléments et critères de décision
Exemple 2 : Test d’hypothèses

•Θ = Θ0 ⋃Θ1 et H0 :  = 0 vs H1 :  = 1

A Rejeter H0 Ne pas rejeter H0



0 α
1 β
• α: risque de première espèce, soit rejeter à tort H0.

• : risque de deuxième espèce, soit ne pas rejeter à tort H0.

• Réduire les deux erreurs étant impossibles, on fixe un niveau toléré de α et on réduit  (ou on augmente
la puissance du test 1- ).

•Règles possibles :

•Construire un intervalle de confiance autour l’ESVM


(𝜇 = 𝑋 𝑝𝑜𝑢𝑟 𝑙𝑎 𝑚𝑜𝑦𝑒𝑛𝑛𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 𝑛𝑜𝑟𝑚𝑎𝑙𝑒 𝑝𝑎𝑟 𝑒𝑥𝑒𝑚𝑝𝑙𝑒) puis tester si 𝜇0 𝜖 𝐼𝐶.

•Règle de Neyman et Pearson (voir « Statistique et probabilités », Jean Pierre Lecoutre, pages 250 à 252) :

•Le test de puissance maximale 1-  pour 𝛼 = 𝛼0 fixe est défini par la région critique :

𝐿0
𝑊= 𝑥1 , … , 𝑥𝑛 / ≤ 𝑘 où k est déterminé par 𝛼0 = 𝑃(𝑊/ 𝜃 = 𝜃0 )
𝐿1
Eléments et critères de décision
 Application 1 : Test d’hypothèse pour la loi exponentielle
𝑥
1 1 −𝑥 1 − 𝑖
𝑋~𝑒𝑥𝑝 ;𝑓 𝑥 = 𝑒 𝜃 ⇒𝐿= 𝑒 𝜃
𝜃 𝜃 𝜃𝑛

𝐿0 𝜃1 𝑛 1 1 1 1
= exp (𝜃 − 𝜃 ) 𝑥𝑖 ≤ 𝑘  exp (𝜃 − 𝜃 ) 𝑥𝑖 ≤ 𝑘 ′
𝐿1 𝜃0 1 0 1 0

1 1
(𝜃 − 𝜃 ) 𝑥𝑖 ≤ 𝑘 ′ ’
1 0

 𝑥𝑖 ≥ 𝑐 pour 𝜃1 > 𝜃0
2𝑐
Où c est tel que 𝛼0 = 𝑃(𝑊/ 𝜃 = 𝜃0 ) = 𝑃( 𝑥𝑖 ≥ 𝑐 / 𝜃 = 𝜃0 ) = P(χ2n≥ )
𝜃0

1 1 1 2 𝑋𝑖 1
En effet, 𝑋i~𝑒𝑥𝑝 = Г 1, 𝜃 ⇒ 𝑋𝑖 ~ Г 𝑛, 𝜃 ⇒ ~ Г 𝑛, 2 = χ²2n
𝜃 𝜃

2𝑐
• est le fractile d’ordre 1-𝛼0 retrouvé à partir de la loi de Chi 2.
𝜃0

• Puissance du test 1-  = 1- P(H0/𝜃1 ) = 1- 𝑃( 𝑥𝑖 ≤ 𝑐 / 𝜃 = 𝜃1 )


2𝑐
= 𝑃( 𝑥𝑖 ≥ 𝑐 / 𝜃 = 𝜃1 ) = P(χ²2n≥ )
𝜃1
Eléments et critères de décision
• Définition 2 :
o a1 est au moins aussi bonne que a2 ou a1 précède a2 au sens large
𝑎1 ≼ 𝑎2 si 𝐿(𝜃, 𝑎1 ) ≤ 𝐿 𝜃, 𝑎2 ∀ 𝜖 .
o a1 est équivalente à a2 ie 𝑎1 ≈ 𝑎2 si 𝐿 𝜃, 𝑎1 = 𝐿 𝜃, 𝑎2 ∀ 𝜖 .
• Remarque 2 :
Deux décisions sont équivalente ne veut pas dire qu’elles soient égales.
𝑎1 = 𝑎2 ⇒ 𝑎1 ≈ 𝑎2 mais l’inverse n’est pas toujours vrai.
• Définition 3 :
o a1 domine a2 ou a1 précède strictement a2
𝑎1 ≺ 𝑎2 si 𝑎1 ≼ 𝑎2 𝑒𝑡 ∃′ 𝜖  tel que 𝐿 𝜃 ′ , 𝑎1 < 𝐿 𝜃′, 𝑎2 .
• Définition 4 :
o a est inadmissible si ∃b 𝜖 𝐴 /b ≺ a.
o a est admissible si ∄b 𝜖 𝐴 /b ≺ a.
o La classe des décisions admissibles est notée 𝐴0 .
Eléments et critères de décision
• Définition 4 :
Soit C ⊂ 𝐴 une classe de décisions.
C est dite complète si ∀ 𝑎 ∈ 𝐴 ∖ 𝐶 ∃c 𝜖 𝐶 /c ≺ a
C’est-à-dire à toute décision en dehors de la classe complète, on peut opposer au moins une décision de cette
classe qui la domine.

A
𝑨∖𝑪
*a
*c C

• Remarque 3 :
Il y a toujours au moins une classe complète, soit celle de toutes les décisions C=A.
• Remarque 4 :
Toute classe complète contient nécessairement les décisions admissibles si elles existent.
C’est-à-dire 𝐴0 ⊂ C
• Démonstration :
Supposons que ce n’est pas le cas. Donc, ∃𝑎0 𝑎𝑑𝑚𝑒𝑠𝑠𝑖𝑏𝑙𝑒 𝜖 𝐴 tel que 𝑎0 ∉ 𝐶
⇒ ∃c 𝜖 𝐶 /c ≺𝑎0 puisque C est complète ⇒ 𝑎0 𝑒𝑠𝑡 𝑖𝑛𝑎𝑑𝑚𝑒𝑠𝑠𝑖𝑏𝑙𝑒 .
• Remarque 5 :
Une classe complète peut contenir des décisions inadmissibles.
• Exemple 3 :
Soit A={a,a’,a’’} / a≺ a’ ≺ a’’ alors {a,a’} forme une classe complète alors que a’ est inadmissible.
Eléments et critères de décision
• Application 2 :
Reprendre l’exemple introductif de contrôle de qualité d’une machine avec en plus :
 a3 : Souscrire à un contrat de maintenance à 70000 dh
 a4 : Vendre les pièces défectueuses à 4000 dh au lieu de 9000 dh pour une pièce
saine.

A a1 a2 a3 a4
f
1% 15 70 70 25
5% 75 70 70 125
15% 225 70 70 375
25% 375 70 70 625
625=0,25*500*(9-4)
 𝑎2 ≈ 𝑎3 car 𝐿 𝜃, 𝑎2 = 𝐿 𝜃, 𝑎3 ∀ 𝜖 .
 𝑎1 ≺ 𝑎4 car 𝐿 𝜃, 𝑎1 < 𝐿 𝜃, 𝑎4 ∀ 𝜖 .
 C={𝑎1 , 𝑎2 , 𝑎3 } 𝑒𝑠𝑡 𝑐𝑜𝑚𝑝𝑙è𝑡𝑒 𝑐𝑎𝑟 ∀ 𝑎 ∈ 𝐴 ∖ 𝐶 (𝑠𝑜𝑖𝑡𝑎4 )∃c 𝜖 𝐶(𝑠𝑜𝑖𝑡𝑎1 )/c ≺ a.
Eléments et critères de décision
• Définition 5 :
C0 est dite complète minimale si C0 est complète et ne contient aucune sous classe propre qui
soit complète.
C0 est le noyau des décisions.
• Théorème 1 :
Soit A0 la classe des décisions admissibles. Si A0 est complète alors elle est complète minimale.
• Démonstration :
Supposons que A0 est complète mais pas minimale. Donc, ∃C ⊂ A0 qui soit complète.
Par conséquent, pour a0 ϵ A0 tel que a0 ∉ C ∃c ϵ C /c ≺a0 puisque C est complète ⇒
a0 est inadmessible .
A0
𝑨𝟎 ∖ 𝑪
*a0
*c C

• Remarque 6 :
Dans une classe complète minimale il ne peut y avoir deux décisions dont l’une domine l’autre (a
et a’ / a≺ a’ à l’inverse de l’exemple 3).
• Démonstration :
En effet, si ∃ a et a’ ϵ C0 une classe complète minimale tel que a≺ a’
alors C’= C0 \{a’} est une sous classe complète de C0 ⇒ C0 n’est pas complète minimale.
Eléments et critères de décision
• Théorème 2 :
Soit A0 la classe des décisions admissibles. S’il existe une classe complète minimale C0
alors elle est identique à A0 ie C0 = A0
• Démonstration :
 D’après la remarque 4, A0 ⊂ C0 .
 Montrons que C0 ⊂ A0 :
Supposons que C0 ⊄ A0
Soit a ϵ C0 \ A0 donc a est inadmissible ⇒ ∃a′ ϵ A0 tel que a’≺ a
Or d’après la remarque 6, a′ ∉ C0 qui est complète minimale ⇒ ∃a′′ ϵ C0 tel que a’’≺
a’ ≺ a
Donc, a’’ ≺ a dans C0 en contradiction avec la remarque 6.
D’où C ⊂ A0 .
• Lemme 1 :
a≺ b ⇒ a≠ b c’est-à-dire qu’une décision ne peut pas être dominée par elle-même.
En effet, si a= b alors a ≈ b car 𝐿 𝜃, 𝑎 = 𝐿 𝜃, 𝑏 ∀ 𝜖 
⇒ ∄′ 𝜖  tel que 𝐿 𝜃 ′ , 𝑎 < 𝐿 𝜃′, 𝑏 ⇒ a⊀b
UTILITE
UTILITE
Soit E un ensemble de possibilités et P l’espace des distributions
des probabilités sur E.
On souhaite définir une utilité sur E.
 Définition 1 :
Un ordre de préférence ≼ est une relation binaire totale et
transitive :
• Totale : Une fois p1 et p2 fixés, on a deux choix :
 p1 ≼ p2 : p2 est préféré à p1
 ou p1 ≽ p2 : p1 est préféré à p2
On doit être en mesure de comparer entre les deux.
• Transitive : Si p1 ≼ p2 et p2 ≼ p3 alors p1 ≼ p3
L’inverse conduirait à une préférence circulaire.
Quelqu’un qui est intransitif a un comportement « absurde ».
UTILITE
 Exemple 1 : Si quelqu’un préfère p2 (voyager en train) à p1
(voyager en autocar), soit p1 ≼ p2, alors, en ayant p1, il serait prêt
à payer un montant donné pour avoir p2.

De même, s’il préfère p3 (voyager en avion) à p2 (voyager en


train), soit p2 ≼ p3, alors, en ayant p2, il serait prêt à payer un
montant donné pour avoir p3.

Si l’individu est intransitif et en présence de p3 (voyager en avion),


il serait prêt à payer un montant donné pour revenir à sa situation
initiale p1 (voyager en autocar).

⇒ Choix absurde ⇒La transitivité est un comportement rationnel.


UTILITE
 Remarque 1 : p1 ≼ p2 et p2 ≼ p1  p1 ≈ p2

 Définition 2 : On dit que ≼ est objectif si p1 ≼ p2  λp1 + (1- λ )p ≼ λp2 + (1- λ )p

∀ p ϵ P et 0< λ<1. Autrement, une combinaison convexe de deux situations avec une
autre même situation ne change pas l’ordre de préférence.

 Exemple 2 : Si quelqu’un préfère p3 (voyager en avion) à p2 (voyager en train), soit


p2 ≼ p3, alors, il préférera de faire 70% du voyage en avion et 30% en autocar à la
situation de faire 70% du voyage en train et 30% en autocar, soit 0,3p1 + 0,7p2 ≼ 0,3p1 +
0,7p3.

 Définition 3 :

On dit que ≼ est souple si étant donné p1 ≼ p2 ≼ p3 alors ∃λ et λ’ ϵ ]0,1[ tel que

λp3 + (1- λ)p1 ≼ p2 et λ’p3 + (1- λ’)p1 ≽ p2

Autrement, il n’existe pas de situations infiniment désirables ou de situations infiniment


indésirables.
UTILITE
 Définition 4 :
Soit U : P ℝ et ≼ un ordre de préférence sur P. On dit que la fonction définie sur P à
valeur dans ℝ U(p) est une utilité si :
• p1 ≼ p2  U(p1) ≤ U(p2) où p1 et p2 ϵ P
Autrement, l’ordre sur P est équivalent à l’ordre sur ℝ.
• U(λp1 + (1- λ )p2) = λU(p1) + (1- λ)U(p2) avec p1 et p2 ϵ P et 0< λ<1
• Remarque 2 : P est stable par combinaison convexe.
C’est-à-dire, si p1 et p2 ϵ P et 0< λ<1 alors λp1 + (1- λ )p2 ϵ P.
• Remarque 3 : Si U est une fonction d’utilité alors aU+b est, également, une fonction
d’utilité ∀ a et b ϵ ℝ tel que a>0.
En effet, soit p1 et p2 ϵ P tel que p1 ≼ p2 alors (aU+b)p1= aU(p1)+b≤ aU(p2)+b=(aU+b)p2
De plus, (aU+b)(λp1 + (1- λ )p2) = aU(λp1 + (1- λ )p2) +b = aλU(p1) + (1- λ)aU(p2)+b
= aλU(p1) + (1- λ)aU(p2)+b+ λb- λb = λ(aU(p1)+b) + (1- λ)(aU(p2)+b)
= λ(aU+b) (p1) + (1- λ)(aU+b) (p2)
D’où aU+b est une fonction d’utilité ∀ a et b ϵ ℝ tel que a>0.
UTILITE
• Remarque 4 : U ne peut pas être unique. On dira qu’elle est essentiellement unique
modulo une transformation affine. Dans ce cas, on parle de classe d’utilité.

• Lemme 1 : Si l’ordre ≼ est objectif et si 0< λ< λ’<1 et p1 ≼ p2 alors

λp2 + (1- λ)p1 ≼ λ’p2 + (1- λ’)p1

Démonstration :

λ 1−λ′
Soit µ= λ’- λ ϵ ]0,1[ et p = 1−μ p2 + p ϵ P
1−μ 1

λ 1−λ′ λ 1−λ′
puisque + = 1 et que et >0
1−μ 1−μ 1−μ 1−μ

≼ étant objectif, p1 ≼ p2  µp1 + (1- µ )p ≼ µp2 + (1- µ )p ∀ p ϵ P

λ 1−λ′ λ 1−λ′
 µp1 + (1- µ ) p + p ≼ µp2 + (1- µ ) p + p
1−μ 2 1−μ 1 1−μ 2 1−μ 1

 (λ’- λ )p1 +λp2 + (1 − λ′ )p1 ≼ (λ’- λ )p2 +λp2 + (1 − λ′ )p1

 λp2 + (1- λ )p1 ≼ λ’p2 +(1 − λ′ )p1


UTILITE
• Lemme 2 : Si l’ordre ≼ est objectif et souple et si p1 ≼ p ≼ p2 alors ∃ λ0 ϵ ]0,1[

tel que p ≈ λ0p2 + (1- λ0)p1

Autrement, une situation entre deux préférences ne peut être qu’équivalente à une
combinaison convexe de ces deux dernières.

Démonstration :

Pour p1 ≈ p ou p ≈ p2 alors on prend λ0=0 ou 1.

Sinon, soit p1 ≺ p ≺ p2 , Λ={λ ϵ ]0,1[ / λp2 + (1- λ)p1 ≺ p} et λ0 =sup Λ

Puisque l’ordre est total trois cas se présente :

1. λ0p2 + (1- λ0)p1 ≺ p (Qu’on démontrera faux)

2. λ0p2 + (1- λ0)p1 ≻ p (Qu’on démontrera faux)

3. λ0p2 + (1- λ0)p1 ≈ p

 Supposons que λ0p2 + (1- λ0)p1 ≺ p ≺ p2

Puisque ≼ est souple, ∃ λ ϵ ]0,1[ tel que λp2 + (1- λ)(λ0p2 + (1- λ0)p1) ≺ p

⇒ [λ0 + λ (1- λ0)]p2 + [1- [λ0 + λ (1- λ0)]]p1 ≺ p


UTILITE
⇒ λ1 p2 + (1- λ1) p1 ≺ p avec λ1 = λ0 + λ (1- λ0)

⇒ λ1 ϵ Λ or λ1 = λ0 + λ (1- λ0) > λ0 = sup Λ ⇒ Contradiction

 Supposons que λ0p2 + (1- λ0)p1 ≻ p ≻ p1

Puisque ≼ est souple, ∃ λ ϵ ]0,1[ tel que λp1 + (1- λ)(λ0p2 + (1- λ0)p1) ≻ p

⇒ [λ0 (1- λ)]p2 + [1- [λ0 (1- λ)]]p1 ≻ p

⇒ λ2 p2 + (1- λ2) p1 ≻ p avec λ2 = [λ0 (1- λ)] ⇒ λ2 ∉ Λ

Or λ2 = [λ0 (1- λ)]= λ0 - λλ0 < λ0


Donc, d’après le lemme 1, puisque l’ordre ≼ est objectif, 0< λ2< λ0<1 et p1 ≼ p2 alors
λ2p2 + (1- λ2)p1 ≼ λ0p2 + (1- λ0)p1 ≺ p ⇒ λ2ϵ Λ ⇒ Contradiction.
 Conclusion : p ≈ λ0p2 + (1- λ0)p1
• Théorème fondamental de l’utilité:
• Soit P muni de ≼, un ordre de préférence objectif et souple, alors il existe sur (P, ≼)
une fonction d’utilité essentiellement unique.
Démonstration :
Conséquence directe des lemmes 1 et 2 avec U(p)= λ0 =sup Λ
UTILITE
• Remarque 4 : L’unicité essentielle de l’utilité signifie qu’il y a un choix arbitraire d’origine
et d’unité comme pour la mesure de température.
• Remarque 5 : L’unicité essentielle de l’utilité fait qu’on choisit souvent l’origine et
l’échelle de tel façon que U ϵ [0,1].
• Remarque 6 : Cette spécificité permet de maintenir l'ordre non seulement entre les
conséquences et les préférences mais également entre la différence entre deux d’entre
elles d’où la notion de « l’utilité cardinale » à la différence de « l’utilité ordinale » définie
à une transformation monotone près.
• Remarque 7 : La fonction d’utilité représente non seulement l’ordre sur les préférences
et les conséquences mais reflète le comportement du décideur vis-à-vis du risque.
• Remarque 8 : Pour chaque individu, il existe une fonction d’utilité et l’utilité espéré serait
son seul guide pour le choix.
• Remarque 9 : Nous pouvons trouver l’utilité d’une proposition p dès lors qu’on connaît
celles de deux propositions particulières p0 (la moins appréciée) et p1 (la plus appréciée)
avec des utilités différentes. U(p0) et U(p1) sont arbitrairement fixés à respectivement 0
et 1 ou -3 et 5. (Exemple de l’indifférence à utiliser la température en °C ou °F).
UTILITE

• Exercice 1 : Si U(p0)=7 et U(p1)=19, trouver U(p) dans les trois cas suivants où l’on est

indifférents entre :

a. p et la combinaison entre p0 et p1 quand la probabilité de réalisation de p1 est 1/6.

b. p0 et une combinaison entre p et p1 quand la probabilité de réalisation de p1 est 1/5.

c. p1 et une combinaison entre p et p0 quand la probabilité de réalisation de p0 est 2/3.

• Exercice 2 : Si U(p0)=-3 et U(p1)=5, trouver une relation entre U et V tel que V est la

transformation affine de sorte que V ϵ [0,1].

• Exercice 3 : Si U(p0)=-3, U(p1)=5, V(p0)=4 et V(p1)=8, trouver une relation entre U et W.


UTILITE
• Exercice 4 : Examen de rattrapage de la théorie des décisions -19 juin 2012-
Soit C la consommation relative à un revenu Y tel que :
C(Y)= a Y + b avec a et b є IR.
Un individu préfère sa situation dans le travail P1 à P2 (notons P2〱P1) si le revenu
Y1 dans la première situation P1 est plus élevé que Y2 relatif à la deuxième situation P2.
1. Sous quelles conditions sur a et b, C est une fonction d’utilité ?
2. Supposons que cet individu, ayant un salaire mensuel de 5000 dirhams et comme
fonction d’utilité C(Y)= 1,1 Y + 100, doit décider entre les deux situations suivantes :
Faire un stage de qualification.
Ne pas faire le stage de qualification.
Avec comme perspectives :
P1 : Réussir lors de ce stage de qualification et gagner une prime sur salaire de 5%.
P2 : Echouer lors de ce stage de qualification et payer 2% de son salaire en tant que
frais de stage.
Calculer les utilités relatives à ces deux perspectives.
3. Supposons que la probabilité de réussite du stage est 1/3.
a) Calculer l’utilité de la combinaison de ces deux perspectives.
b) Doit-il décider de faire le stage ?
4. Pour quelle probabilité de réussite du stage « p », l’individu serait indifférent entre
faire ou ne pas faire ce stage ?
5. Est-ce-que les réponses aux questions 4 et 5 seraient différentes si on adopte une
nouvelle fonction d’utilité C’= a’C +b’ avec a’,b’ є IR et a’>0 ?
Probabilités subjectives
Probabilités subjectives
 Définition 1 :

Soit (, A, L) un problème de décision. Soit a 𝜖A et f une distribution à priori sur .

On appelle risque de Bayes : 𝜌 𝑎 = 𝐸𝑓(𝜃) 𝐿(𝜃, 𝑎) =  𝑓 𝜃 𝐿(𝜃, 𝑎)𝑑𝜃


 𝑓 𝜃 𝐿(𝜃, 𝑎)
Ce risque correspond à une perte espérée avec information imparfaite (PEII). Elle
représente la perte espérée inhérente à une connaissance partielle sur les états de la
nature.

 Définition 2 : Critère de Bayes

Soit a 𝜖A. La solution de bayes a* est celle qui minimise le risque de Bayes:

𝑎∗ = argmin 𝜌 𝑎 c’est-à-dire 𝜌(𝑎∗ ) ≤ 𝜌 𝑎 ∀a 𝜖A


a 𝜖A

𝜌(𝑎∗ ) = min 𝜌 𝑎 représente la perte espérée minimale (PEM) étant donnée


a 𝜖A
l’information à priori.
Probabilités subjectives
 Exemple 1 : Soit le problème de décision (, A, L) suivant :

A a1 a2 a3 a4 a5

𝜃1 0 1 1/2 1 -1
𝜃2 1 0 1/2 2 5/3

1. Quelles sont les solutions inadmissibles?

2. Déterminer la classe complète minimale.

3. Soit la distribution à priori 𝑓 𝜃 = 𝜆𝕀𝜃1 + (1 − 𝜆)𝕀𝜃2 , déterminer les risques de


Bayes.

4. Déterminer la solution de Bayes dans chacun des cas où λ=¼ , ½ ou ¾.

5. Pour quelles valeurs de λ respectivement a1, a2, a3 , a4 et a5 sont des solutions de


Bayes.

6. Quel est l’étendu du risque de Bayes.


Probabilités subjectives
• Remarque 1 : En général, la mesure de probabilité à priori de  est

inconnue d’où la difficulté de déterminer la solution de Bayes.

• Remarque 2 : La solution de bayes semble raisonnable du fait qu’elle

consiste à pondérer par des probabilités subjectives les états de la nature et

choisir la solution par rapport à cette « moyenne pondérée ».

• Remarque 3 : La solution de Bayes peut être non unique.

 Définition 3 : Critère de Wald

Soit a 𝜖A et 𝑀𝑎 = max 𝐿 𝜃, 𝑎 . a0 est dite solution minmax si


𝜃𝜖Θ

𝑎0 = argmin 𝑀𝑎 c’est-à-dire 𝑀𝑎0 ≤ 𝑀𝑎 ∀a 𝜖A


a 𝜖A
Probabilités subjectives
 Exemple 2 :

1. Déterminer dans le cas de l’exemple 1 la solution minmax.

2. Pour quelle valeur de λ la solution minmax coïncide avec celle de Bayes.

3. Qu'en est-il si a5 ne figure pas parmi l’ensembles des décisions.

4. Auquel cas, à quoi correspond ce λ en termes de risque de Bayes.

• Remarque 4 : Une solution minmax peut coïncider avec une solution de Bayes et
auquel cas elle correspondrait à la distribution à priori f0 la plus défavorable. En
d’autres termes :

inf 𝐸𝑓0 𝐿 𝜃, 𝑎 ≥ inf 𝐸𝑓 𝜃 𝐿 𝜃, 𝑎 ∀𝑓

• Remarque 5 : La solution minmax correspond à une attitude d’extrême prudence qui


peut paraître raisonnable si l’on ne sait rien sur la mesure de probabilité à priori de la
nature mais qui n’est plus justifiée s’il s’avère que l’éventualité la plus défavorable est peu
probable (sauf si les pertes engendrées peuvent être dramatiques (exemple de
l’assurance incendie)) .
Probabilités subjectives
 Définition 4 :

Soit a 𝜖A et 𝑚𝑎 = min 𝐿 𝜃, 𝑎 . a’ est dite solution minmin


𝜃𝜖Θ

si 𝑎′ = argmin 𝑚𝑎 c’est-à-dire 𝑚𝑎′ ≤ 𝑚𝑎 ∀a 𝜖A


a 𝜖A
• Remarque 6 : Une solution minmin peut coïncider avec une solution de
Bayes et auquel cas elle correspondrait à la distribution à priori f’ la plus
favorable. En d’autres termes :
inf 𝐸𝑓′ 𝐿 𝜃, 𝑎 ≤ inf 𝐸𝑓 𝜃 𝐿 𝜃, 𝑎 ∀𝑓

• Remarque 7 : La solution minmin correspond à une attitude d’extrême


confiance qui peut paraître raisonnable s’il s’avère que l’éventualité la plus
défavorable est peu probable ou si les gains tirés de la situation la moins
probable soient très considérables.
Probabilités subjectives
 Exemple 3 :

1. Déterminer dans le cas de l’exemple 1 la solution minmin.

2. Pour quelle valeur de λ la solution minmin coïncide avec celle


de Bayes.

3. A quoi correspond ce λ en termes de risque de Bayes.


Probabilités subjectives
 Définition 5 : Critère d’Hurwicz

La décision optimale a’’ 𝜖 A selon le critère d’Hurwicz est telle

que 𝑎′′ = argmin( α ∗ 𝑚𝑎 + 1 − 𝛼 ∗ 𝑀𝑎 ) 𝑜ù α 𝜖 [0,1].


a 𝜖A
• Remarque 8 :

Le critère d’Hurwicz permet d’introduire un paramètre, α


𝜖 [0,1] appelé coefficient d’optimisme, retraçant l’attitude du
décideur du plus pessimiste (α = 0) au plus optimiste (α = 1).
Probabilités subjectives
 Exemple 4 :

1. Déterminer dans le cas de l’exemple 1 la solution selon le


critère d’Hurwicz pour α=1/4 .

2. Déterminer la solution selon le critère d’Hurwicz pour tout α


𝜖 [0,1].

3. Vérifier les résultats obtenus dans les exemples 2 et 3 pour α


= 0 et α = 1.
Probabilités subjectives
 Définition 6 : Critère de Laplace

La décision optimale a’’’ 𝜖 A selon le critère de Laplace est celle de Bayes par rapport à
la distribution à priori équiprobable sur .

• Remarque 9 :

Le critère de Laplace se fonde sur le fait que vu que la distribution des états de la
nature soit inconnue, alors il n y a pas lieu de différencier entre les probabilités
d’observer ces derniers.

• Définition 7 : Critère de Bernoulli

Soit a 𝜖A. La solution optimale selon le critère de Bernoulli aB est celle qui minimise
1
B a =  ln(𝐿 𝜃, 𝑎 ) où n = # 
𝑛

𝑎𝐵 = argmin 𝐵 𝑎 c’est-à-dire 𝐵(𝑎𝐵 ) ≤ 𝐵 𝑎 ∀a 𝜖A


a 𝜖A
Remarque 10 :

Le critère de Bernoulli n’est utilisé que pour des fonctions de perte strictement positive.
Probabilités subjectives
 Exercice 1 : Extrait de l’examen de rattrapage 2016
Les dirigeants d’une compagnie de composants électriques sont confrontés à une éventualité d’une rupture d’approvisionnement
en cuivre, matière première pour leur procédé de fabrication. En cas de rupture d’approvisionnement prolongée, le manque à
gagner de la société serait de 1000000 dh au moment où elle ne serait que de 500000 dh en cas de rupture limitée.
Pour prévenir cette baisse d’approvisionnement, il est possible d’entreposer une grande quantité de cuivre pour un coût de 250000
dirhams (dh) ou une petite quantité pour un coût de 100000 dh. La compagnie pourrait toujours faire le choix de ne pas entreposer.
Si la compagnie entrepose une petite quantité, la perte serait de 250000 dh en cas de rupture prolongée et nulle en cas de rupture
limitée. Par ailleurs, aucune perte n’est envisagée dans le cas où la compagnie entrepose une grande quantité.
1. Montrer que le tableau de perte peut être établi comme suit en spécifiant les états de la nature et les décisions :

a1 a2 a3

𝜃1 25 35 100
𝜃2 25 10 50
𝜃3 25 10 0
2. Quelle est la stratégie à adopter si la société est optimiste par rapport à l’état futur d’approvisionnement du marché (penser
minmin) ?
3. Quant est-il si la société est pessimiste par rapport à l’état futur d’approvisionnement du marché (penser minmax) ?
4. D’après les relevés des années précédentes, le marché venait à connaître un approvisionnement normal durant 60% de la
période étudiée et une rupture limitée dans 30% du temps.
a. Faut-il entreposer une grande quantité de cuivre selon le critère de Bayes ? sinon, quelle serait la démarche optimale ?
b. Un prévisionniste pense avoir trouvé un modèle infaillible pour la prévision de l’état futur du marché des matières
premières. Quel est le prix maximal que la compagnie serait prête à payer pour ce modèle ?
Probabilités subjectives
Supposons que le décideur peut avoir l’information parfaite des états de la nature,

quel serait le prix qu’il sera prêt à payer?

Au fait s’il connaît d’avance l’état de la nature, c’est-à-dire il a l’information

parfaite qui le renseigne sur l’état exact de la nature, il choisira la décision qui

présente la plus faible perte, soit : 𝐿∗ (𝜃) = min 𝐿 𝜃, 𝑎


a 𝜖A

 Définition 8 : La perte espérée avec information parfaite est définie par


∗  𝑓 𝜃 𝐿 (𝜃)𝑑𝜃
P𝐸𝐼𝑃 = 𝐸𝑓(𝜃) 𝐿 (𝜃) = ∗
 𝑓 𝜃 𝐿 (𝜃)

 Définition 9 : La valeur espérée de l’information parfaite est définie par :

VEIP = PEM -PEIP


Probabilités subjectives
• Remarque 11 : La VEIP correspond à la baisse de la perte espérée qui résulte de la
connaissance parfaite des états de la nature.
• Remarque 12 : Si la perte est exprimée en unités monétaires, la VEIP est le prix
maximum que le décideur serait prêt à payer pour obtenir l’information parfaite sur
l’état de la nature.
 Définition 10 :
Soit (, A, L) un problème de décision. Pour tout (,a) 𝜖  ∗ 𝐴, le regret est donné par :
𝑟 𝜃, 𝑎 = 𝐿 𝜃, 𝑎 − 𝐿∗ (𝜃)
Le regret correspond au coût de l’opportunité perdue en ne choisissant pas la
meilleure action pour un état donné de la nature.
• Remarque 13 : 𝑟 𝜃, 𝑎 ≥ 0
 Définition 11 :
Soit (, A, L) un problème de décision. Soit a 𝜖A et f une distribution à priori sur . On
appelle regret espéré suite au choix de l’action « a » :

RE 𝑎 = 𝐸𝑓(𝜃) 𝑟(𝜃, 𝑎) =  𝑓 𝜃 𝑟(𝜃, 𝑎)𝑑𝜃


 𝑓 𝜃 𝑟(𝜃, 𝑎)
Probabilités subjectives
 Définition 12 :

Soit a 𝜖A. Le regret espérée minimal est donné par: 𝑅𝐸 ∗ = min 𝑅𝐸 𝑎


a 𝜖A

 Proposition 1 : 𝑅𝐸 = 𝑉𝐸𝐼𝑃 et l’action a* optimale selon le critère de perte
espérée minimale (solution de Bayes) et, également, optimale selon le critère de
regret espéré minimal.
 Démonstration :
𝑅𝐸 ∗ = min 𝑅𝐸 𝑎 = min 𝐸𝑓(𝜃) 𝑟(𝜃, 𝑎) = min 𝑓 𝜃 𝑟(𝜃, 𝑎)
a 𝜖A a 𝜖A a 𝜖A

= min 𝑓 𝜃 (𝐿 𝜃, 𝑎 − 𝐿∗ (𝜃)) = min 𝑓 𝜃 𝐿 𝜃, 𝑎 − 𝑓 𝜃 𝐿∗ (𝜃)
a 𝜖A a 𝜖A
  
= min 𝑓 𝜃 𝐿 𝜃, 𝑎 − 𝑓 𝜃 𝐿∗ 𝜃 = min𝜌 𝑎 − 𝑓 𝜃 𝐿∗ (𝜃)
a 𝜖A a 𝜖A
  
= 𝜌(𝑎∗ ) ∗
−  𝑓 𝜃 𝐿 𝜃 = 𝑃𝐸𝑀 − 𝑃𝐸𝐼𝑃 = 𝑉𝐸𝐼𝑃

 Exemple 5 : Pour λ= ½, calculer dans le cas de l’exemple 1 la VEIP et retrouver la

solution optimale avec le critère du regret espéré minimal.


Probabilités subjectives
 Définition 13 : Critère de Savage

Soit a 𝜖A. aS est dite solution optimale selon le critère de Savage si

𝑎𝑆 = argmin max 𝑟 𝜃, 𝑎 .
a 𝜖A 𝜃 𝜖 Θ
 Remarque 14 :

La solution optimale selon le critère de Savage correspond à la décision qui

minimise le manque à gagner maximal.

 Remarque 15:

La solution optimale selon le critère de Savage ne correspond pas nécessairement à

la solution minmax (critère de Wald) en tenant compte de la fonction de perte.

 Exemple 6 : Calculer dans le cas de l’exemple 1 la solution optimale selon le critère

de Savage et comparer la à celle minmax relative à la fonction de perte.


Probabilités subjectives
 Exercice 2 : Extrait de l’examen de décembre 2013
Une société d’informatique vient de créer un nouveau produit dont le coût de
fabrication est très onéreux. Elle doit choisir entre deux décisions :
a1 : Garder l’ancien produit.
a2 : Lancer le nouveau produit.
Le maintien du produit actuel génère un gain de 20 millions de dirhams. Le
lancement du nouveau produit générerait un gain de 30 millions de dirhams si le
marché est favorable et de 2 millions de dirhams seulement s’il ne l’est pas.
1. Donner le tableau de perte L(θ,a) en explicitant les états de la nature Θ.
2. Trouver la solution de Bayes si l’on juge que la probabilité que le marché soit
favorable est de λ = 60%.
3. Quel est le prix maximal que la société serait prête à payer pour avoir l’information
parfaite de l’état de marché pour son nouveau produit ?
4. Retrouver la solution par le critère de regret espéré minimal.
5. Analyser la sensibilité de la solution par rapport à la distribution à priori sur Θ.
6. Pour quelle valeur de λ la solution minmax coïncide avec celle de Bayes.
Randomisation
Randomisation
 Définition 1 :

Soit (, A, L) un problème de décision.  est une décision randomisée si le choix final
dépend d’un processus randomisé.

• Exemple 1 : Soient a1 et a2 𝜖 A et  la décision suivante : Lancer une pièce de


monnaie et choisir a1 si pile et a2 si face.  est une décision randomisée de a1 et a2.

Définition 2 :

Soit (, A, L) un problème de décision. Soit  𝜖 ф une décision randomisée. La perte


associée à tout (,) 𝜖 ∗ф est L , = 𝐸(𝑎) 𝐿(𝜃, 𝑎) = a 𝜖 A 𝜑 𝑎 𝐿(𝜃, 𝑎)

Définition 3 :

Soit (, A, L) un problème de décision. Soit  𝜖 ф et f une distribution à priori sur .

On appelle risque de Bayes associé à  : 𝜌  = 𝐸𝑓(𝜃) 𝐿(𝜃, ) =  𝑓 𝜃 𝐿(𝜃, )𝑑𝜃


 𝑓 𝜃 𝐿(𝜃, )
Randomisation
• Propriété 1 : Ф, l’ensemble des décisions randomisées, est le plus petit convexe
contenant A.

• Exemple 2 : Soit (, A, L) un problème de décision dont le tableau de perte de la classe


complète minimale est comme suit : A a1 a2 a3

𝜃1 0 3 2
𝜃2 2 0 2
La perte associée à  la décision « choisir a1 si pile et a2 si face » est :

L 1 , = 𝐸(𝑎) 𝐿(1 , 𝑎) = a 𝜖 A 𝜑 𝑎 𝐿(1 , 𝑎)=1/2*0+1/2*3+0*2=1,5

Et L 2 , = 𝐸(𝑎) 𝐿(2 , 𝑎) = a 𝜖 A 𝜑 𝑎 𝐿(1 , 𝑎)=1/2*2+1/2*0+0*2=1

• Remarque 1 : Toutes les notions vues dans le chapitre des éléments et critères de
décision restent valables pour les décisions randomisées. Dans ce cas, a3 devient
inadmissible dans l’ensemble des décisions randomisées.
Randomisation
 Définition 4 :

S’il existe * 𝜖 ф tel que 𝜌 ∗ ≤ 𝜌  ∀  𝜖 ф alors est solution de Bayes.

Autrement 𝜑∗ = argmin 𝜌 𝜑 .
𝜑𝜖𝜙

 Définition 5 :

Une décision randomisée  qui met 1 sur une décision et o ailleurs est appelée
décision pure. Autrement , elle coïncide avec une décision a 𝜖 A.

 Cas de  fini :

 Soit (, A, L) un problème de décision muni d’une distribution à priori f tel que
Θ = 𝜃1 , … , 𝜃𝑚 , A = 𝑎1 , … , 𝑎𝑛 , 𝐿(𝜃𝑖 , 𝑎𝑗 ) = 𝐿𝑖𝑗 ∀ 𝑖 ∈ < 1, 𝑚 > et 𝑗 ∈ < 1, 𝑛 >,
𝑚
𝑓(𝜃𝑖 ) = 𝜆𝑖 ∀ 𝑖 ∈ < 1, 𝑚 > avec 𝜆𝑖 ≥ 0 𝑒𝑡 𝑖=1 𝜆𝑖 =1
𝑛
et 𝜑(𝑎𝑗 ) = 𝜑𝑗 ∀ 𝑗 ∈ < 1, 𝑛 > avec 𝜑𝑗 ≥ 0 𝑒𝑡 𝑖=1 𝜑𝑗 =1
Randomisation
 Propriété 2 : Le risque d’une décision randomisée est une combinaison convexe
des risques de décisions pures.

 Démonstration : Soit  𝜖 ф

𝜌  = 𝐸𝑓(𝜃) 𝐿(𝜃, ) =  𝑓 𝜃 𝐿(𝜃, ) =


𝑚
𝑖=1 𝑓 𝜃𝑖 𝐿(𝜃𝑖 , ) = 𝑚
𝑖=1 𝜆𝑖 𝐸(𝑎) 𝐿(𝜃𝑖 , 𝑎) =

𝑗=1  𝑗=1 𝑗 𝐿𝑖𝑗 𝑗=1 𝑗


𝑚 𝑛 𝑚 𝑛 𝑛 𝑚
𝑖=1 𝜆𝑖 𝑎𝑗 𝐿 𝜃𝑖 , 𝑎𝑗 = 𝑖=1 𝜆𝑖 = 𝑖=1 𝜆𝑖 𝐿𝑖𝑗 =

𝑗=1 𝑗 𝑗=1 𝑗 𝑗=1 𝑗 𝜌


𝑛 𝑚 𝑛 𝑛
𝑖=1 𝑓 𝜃𝑖 𝐿(𝜃𝑖 , 𝑎𝑗 ) = 𝐸𝑓(𝜃) 𝐿(𝜃, 𝑎𝑗 ) = 𝑎𝑗

 Théorème 1 :

Toute solution * de Bayes est admissible.


Randomisation
Démonstration : Supposons que * est inadmissible. Donc, ∃  𝜖 ф / 𝜑 ≺ 𝜑 ∗

𝐿(𝜃, 𝜑) ≤ 𝐿 𝜃, 𝜑 ∗ ∀ 𝜖 .

∃′ 𝜖  tel que 𝐿 𝜃 ′ , 𝜑 < 𝐿 𝜃 ′ , 𝜑 ∗ .

𝐿(𝜃𝑖 , 𝜑) ≤ 𝐿 𝜃𝑖 , 𝜑 ∗ ∀ 𝑖 ∈ < 1, 𝑚 >≠ i′.



∃𝑖′ ∈ < 1, 𝑚 > tel que 𝐿 𝜃𝑖′ , 𝜑 < 𝐿 𝜃𝑖′ , 𝜑 ∗ .

𝜆𝑖 𝐿(𝜃𝑖 , 𝜑) ≤ 𝜆𝑖 𝐿 𝜃𝑖 , 𝜑 ∗ ∀ 𝑖 ∈ < 1, 𝑚 >≠ i′.



∃𝑖′ ∈ < 1, 𝑚 > tel que 𝜆𝑖′ 𝐿 𝜃𝑖′ , 𝜑 < 𝜆𝑖′ 𝐿 𝜃𝑖′ , 𝜑 ∗ .

⇒ 𝑚
𝑖=1 𝜆𝑖 𝐿(𝜃𝑖 , 𝜑 ) < 𝑚
𝑖=1 𝜆𝑖 𝐿(𝜃𝑖 , 𝜑 ∗) ⇒ 𝜌  <𝜌  ∗

⇒ * n’est pas une solution de Bayes. ⇒ Contradiction

 Théorème 2 :

S’il existe une solution randomisée de Bayes * alors il en existe une qui est pure.
Randomisation
Démonstration : Soit * une solution randomisée de Bayes .

Donc, 𝜌 ∗ ≤ 𝜌  ∀  𝜖 ф

Soit 𝜚 = 𝜌 ∗ = inf 𝜌 𝜑
𝜑𝜖𝜙

Montrons que ∃ a∗ 𝜖 𝐴 𝑡𝑒𝑙 𝑞𝑢𝑒 𝜌 a∗ = inf 𝜌 𝑎 = ϱ


𝑎𝜖𝐴

Pour cela, on montre que 𝜌 a∗ ≥ ϱ et que 𝜌 a∗ ≤ ϱ

1- 𝜌 a∗ ≥ ϱ

𝐴 ⊂ 𝜙 (Cf Définition 5) ⇒ 𝜚 = inf 𝜌 𝜑 ≤ inf 𝜌 𝑎 = 𝜌 a∗


𝜑𝜖𝜙 𝑎𝜖𝐴

2- 𝜌 a∗ ≤ ϱ

𝜌 a∗ = inf 𝜌 𝑎 ≤ 𝜌 𝑎 ∀a 𝜖 A ⇒ 𝜌 a∗ ≤ 𝜌 𝑎𝑗 ∀ 𝑗 ∈ < 1, 𝑛 >


𝑎𝜖𝐴

⇒ 𝑗∗ 𝜌 a∗ ≤ ∗𝑗 𝜌 𝑎𝑗 ∀ 𝑗 ∈ < 1, 𝑛 >

𝑗=1 𝑗 𝑗=1 𝑗 𝑗=1 𝑗


𝑛 ∗ 𝑛 ∗ 𝑛 ∗
⇒ 𝜌 a∗ ≤ 𝜌 𝑎𝑗 a𝑣𝑒𝑐 =1

⇒ 𝜌 a∗ ≤ 𝑛
∗ 𝜌 𝑎𝑗 = 𝜌 ∗ = 𝜚 (Cf . propriété 2)
Randomisation
 Recherche de la solution randomisée de Bayes par la méthode graphique : Cas de
 = 𝛉𝟏 , 𝛉𝟐 :
Soit  𝜖 ф une solution randomisée et 𝑥𝑖 = 𝐿(𝜃𝑖 , 𝜑) ∀ 𝑖 ∈ < 1, 𝑚 >
𝑚 𝑚
𝜌 𝜑 = 𝑖=1 𝜆𝑖 𝐿(𝜃𝑖 , 𝜑 ) = 𝑖=1 𝜆𝑖 𝑥𝑖 =< λ, 𝑥 >

Pour Θ = 𝜃1 , 𝜃2 , 𝜌 𝜑 =< λ, 𝑥 > = 𝜆1 𝑥1 + 𝜆2 𝑥2 = 𝜚 varie et atteint son minimum


en 𝜚* solution de Bayes.
Randomisation
 Remarque 2 : La solution de Bayes peut être non unique.
Randomisation
 Exemple 3 : Soit le problème de décision (, A, L) suivant :
A a1 a2 a3 a4 a5

𝜃1 0 1 1/2 1 -1
𝜃2 1 0 1/2 2 5/3
Soit la distribution à priori 𝑓 𝜃 = 𝜆𝕀𝜃1 + 1 − 𝜆 𝕀𝜃2 .

1. Déterminer la classe complète minimale.

2. Déterminer la solution pure de Bayes pour 𝜆= ½.

3. Trouver le risque de Bayes pour 𝜆= ½ associé à la décision randomisée  qui consiste à choisir
d’une manière aléatoire équilibrée entre a1, a2 et a5 et vérifier si elle pourrait être optimale au
sens de Bayes.

4. Tracer ф.

5. trouver la solution randomisée de Bayes graphiquement et calculer le risque de Bayes associé


et ce, pour 𝜆= ½ et 𝜆= ¼.

6. Pour quelles valeurs de 𝜆 la solution randomisée de Bayes ne serait pas unique. Trouver dans ce
cas l’ensemble des solutions randomisées de Bayes ainsi que le risque de Bayes associé.
Randomisation
 Définition 6 :

Soit  𝜖 ф une solution randomisée et 𝑥𝑖 = 𝐿(𝜃𝑖 , 𝜑) ∀ 𝑖 ∈ < 1, 𝑚 >


(1)
𝜑 (1) est une solution randomisée minmax ssi max 𝑥𝑖 ≤ max 𝑥𝑖 ∀ 𝜖 ф

 Recherche de la solution randomisée minmax par la méthode graphique : Cas de


 = 𝛉𝟏 , 𝛉𝟐 :
Randomisation
 Ainsi pour tous les points dans l’intersection de ф et le complément du carré, soit ф’,
le point minmax se trouve sur la pointe nord est du carré.

 La stratégie est donc de déplacer le carré jusqu’au dernier point d’intersection entre
ф et le carré.
Randomisation
 Remarque 3 : Si ф est du côté négatif du repère, prendre toujours le point
d’intersection le plus bas.
Randomisation
 Remarque 4 : La solution minmax dans le cas où la première bissectrice ne passe
pas par ф, la stratégie est toujours de déplacer le carré vers le bas jusqu’au dernier
point d’intersection entre ф et le carré.
Randomisation
 Remarque 3 : La solution minmax peut être non unique. C’est le cas où le polyèdre
ф ne coupe pas la première bissectrice et le segment de ce polyèdre ayant la perte
minimale est parallèle au côté du carré
Randomisation
 Exemple 4 :

Reprendre l’énoncé de l’exemple 3.

Soit le problème de décision (, A, L) suivant :


A a1 a2 a3 a4 a5

𝜃1 0 1 1/2 1 -1
𝜃2 1 0 1/2 2 5/3
1. Tracer ф.

2. Trouver la solution randomisée minmax graphiquement et analytiquement.

3. Pour quelle distribution à priori la solution randomisée de Bayes est une solution
minmax.
Randomisation
 Exercice 1 :

Reconsidérer l’énoncé de l’exercice 2 du chapitre précédent relatif à la société


d'informatique avec comme décision supplémentaire a3 : « S’associer à une autre
société pour partager le gain et le risque » de tel façon que : 𝐿(𝜃1 , 𝑎3 )=-25 et
𝐿(𝜃2 , 𝑎3 )=-10

1. Tracer ф.

2. Soit la distribution à priori 𝑓 𝜃 = 𝜆𝕀𝜃1 + (1 − 𝜆)𝕀𝜃2 , trouver la solution


randomisée de Bayes graphiquement et calculer le risque de Bayes associé et ce,
pour 𝜆= ½, 𝜆= ⅓ et 𝜆= 2/3.

3. Trouver la solution randomisée minmax graphiquement et analytiquement.

4. Pour quelles valeurs de 𝜆 la solution randomisée de Bayes ne serait pas unique.


Trouver dans ce cas l’ensemble des solutions randomisées de Bayes ainsi que le
risque de Bayes associé.

5. Pour quelle distribution à priori la solution randomisée de Bayes est une solution
minmax.
Randomisation
 Exercice 2 : Extrait de l’examen de la théorie de la décision –rattrapage 2016-
Une société « X » construit pour le compte d’une compagnie électrique des générateurs
d’électricité. Le profit net pour chaque générateur est de 40000 dirhams (dh). Cependant, 25%
des générateurs seraient à priori défectueux. La panne n’étant décelée qu’après installation
chez le client, le prestataire est tenu de faire des réparations sur site coûtant 60000 dh l’unité.
La société « X » a une alternative en utilisant un nouveau procédé innovant de fabrication
garantissant 0 pièces défectueuses. Ce procédé étant coûteux ramène le gain de la société à
10000 dh la pièce au lieu de 40000 dh.
1. Montrer que le tableau de perte pour la construction d’un générateur peut être établi
comme suit en spécifiant les états de la nature et les décisions : Θ A a a
1 2
θ1 2 -1
θ2 -4 -1
2. Faut-il utiliser le procédé innovant selon le critère de Bayes ?
3. N’étant pas sûr du pourcentage de pièces défectueuses « p », pour quelles valeurs de « p »,
le procédé trouvé en « 2 » reste optimal ?
4. Le client voudrait renégocier le contrat pour avoir un dédommagement sur chaque pièce
défectueuse. Quelle valeur de ce dédommagement, la société « X » serait prête à payer en
gardant le même procédé trouvé en « 2 » en tant que stratégie optimale ?
5. Un consultant propose un test pouvant garantir de détecter une unité défectueuse avant
son installation chez le client. Quel est le prix maximal que la société serait prête à payer pour
ce test ?
6. Si la compagnie a la possibilité de choisir pour chaque unité construite un procédé différent
(penser randomiser), quelle serait la démarche optimale selon le critère minmax pour la
construction de 100 unités ?
Prise de décision avec
observations
Prise de décision avec observations

Jusqu'à présent, le décideur ne disposait d’aucune information. Qu’en est-il si l’on

dispose de Z un ensemble d’informations.

 Définition 1 :

Un problème de décision avec observations est un problème de décision (, A, L)

auquel on adjoint un ensemble Z d’observations et une famille de lois 𝑃𝜃 𝜃∈Θ .

𝑑∶𝑍⟶𝐴
Une règle de décision d est une application de Z dans A.
𝑧 𝑎 = 𝑑(𝑧)

• Remarque 1 : Soit D l’ensemble des règles de décision. #D=#A#Z


Prise de décision avec observations
Analyse en forme normale (AFN)
 Définition 2 :

Soit (, A, L) un problème de décision muni d’un ensemble Z d’observations et une


famille de lois 𝑃𝜃 𝜃∈Θ . La perte associée à la règle de décision d 𝜖 D est :

𝐿 𝜃, d(z) 𝑑𝑃𝜃 (𝑧)


L ,d = 𝐸𝑃𝜃 𝐿(𝜃, 𝑑(𝑧)) =
𝐿 𝜃, d(z) 𝑃𝜃 (𝑧)
z∈Z
• Remarque 2 : z est une observation aléatoire régie par 𝑃𝜃

⇒ d(z) est une fonction aléatoire régie par 𝑃𝜃

⇒ 𝐿(𝜃, 𝑑(𝑧))est une observation aléatoire régie par 𝑃𝜃


Prise de décision avec observations
Analyse en forme normale
• Remarque 3 :

• 𝑃𝜃 (𝑧)=P(z/) : Probabilité d’échantillonnage : La probabilité d’observer z sachant


que l’état de la nature est .

• P(z) : Probabilité prédictive.

• P() : Probabilité à priori notée également f() ou λ().

• 𝑃𝑍 (𝜃)=P(/z) : Probabilité à postériori ou révision de la probabilité à priori notée


également ().

 Définition 3 :

Soit (, A, L) un problème de décision muni d’une distribution à priori λ(), d’un
ensemble Z d’observations et d’une famille de lois 𝑃𝜃 𝜃∈Θ . Le risque de Bayes

associée à la règle de décision d 𝜖 D est : ρ d = 𝐸𝜆 𝐿(𝜃, 𝑑) =  𝜆 𝜃 𝐿(𝜃, d)𝑑𝜃


 𝜆 𝜃 𝐿(𝜃, d)
Prise de décision avec observations
Analyse en forme normale

 Définition 4 :

d* 𝜖 D est solution de Bayes si 𝜌 d∗ ≤ 𝜌 d ∀ d 𝜖 D. Autrement 𝑑 ∗ = argmin 𝜌 𝑑 .


𝑑𝜖𝐷

 Définition 5 :

Soit d𝜖D et 𝑀𝑑 = max 𝐿 𝜃, 𝑑 . d0 est dite solution minmax si


𝜃𝜖Θ

𝑑0 = argmin 𝑀𝑑 c’est-à-dire 𝑀𝑑0 ≤ 𝑀𝑑 ∀d𝜖D.


𝑑𝜖𝐷
• Remarque 4 : En général, 𝑑0 ≠ 𝑑 ∗ .

• Remarque 5 :
 Toutes les notions établies dans le chapitre « Eléments et critères de décision » sont valables
pour les règles de décision.

 Toutes les propositions, les définitions et les démarches de détermination des solutions
randomisées établies sur A sont valables pour D.
Prise de décision avec observations
Analyse en forme normale
 Définition 5 : La valeur espérée de l’information imparfaite est définie par :

VEII = PEM – PEII

Où PEM représente la perte espérée minimale étant donnée l’information à priori

seulement et sans l’information Z, soit PEM = 𝜌(𝑎∗ ) = min 𝜌 𝑎 telle que calculée
a 𝜖A

dans le chapitre des probabilités subjectives.

Et PEII est la perte espérée avec information imparfaite (Z), soit PEII = 𝜌(𝑑 ∗ ) =

min 𝜌 𝑑 .
𝑑ϵ𝐷

• Remarque 6 : PEII n’inclut pas le coût de l’expérience ou de l’étude permettant

d’avoir l’information Z.
Prise de décision avec observations
Analyse en forme normale
• Exemple 1 :
Considérons le problème de décision (, A, L) relatif à l’octroi du visa de
distribution d’un médicament au niveau national tel que :
𝜃1 : 𝑚é𝑑𝑖𝑐𝑎𝑚𝑒𝑛𝑡 𝑒𝑓𝑓𝑖𝑐𝑎𝑐𝑒
Θ=
𝜃2 : 𝑚é𝑑𝑖𝑐𝑎𝑚𝑒𝑛𝑡 𝑛𝑜𝑛 𝑒𝑓𝑓𝑖𝑐𝑎𝑐𝑒
𝑎1 : 𝐴𝑡𝑡𝑟𝑖𝑏𝑢𝑒𝑟 𝑙𝑒 𝑝𝑒𝑟𝑚𝑖𝑠 𝑑𝑒 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑡𝑖𝑜𝑛
𝐴= 𝑎2 : 𝑅𝑒𝑓𝑢𝑠𝑒𝑟 𝑙𝑒 𝑝𝑒𝑟𝑚𝑖𝑠 𝑑𝑒 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑡𝑖𝑜𝑛
𝑎3 : 𝐸𝑥𝑖𝑔𝑒𝑟 𝑢𝑛𝑒 𝑒𝑥𝑝é𝑟𝑖𝑚𝑒𝑛𝑡𝑎𝑡𝑖𝑜𝑛 𝑠𝑢𝑝𝑝𝑙é𝑚𝑒𝑛𝑡𝑎𝑖𝑟𝑒
Et le tableau de perte comme suit : A a1 a2 a3

𝜃1 0 5 4
𝜃2 8 2 4
𝑧1 : 𝑚é𝑑𝑖𝑐𝑎𝑚𝑒𝑛𝑡 𝑒𝑓𝑓𝑖𝑐𝑎𝑐𝑒
On effectue un prélèvement, on observe Z = et
𝑧2 : 𝑚é𝑑𝑖𝑐𝑎𝑚𝑒𝑛𝑡 𝑛𝑜𝑛 𝑒𝑓𝑓𝑖𝑐𝑎𝑐𝑒
on décide entre les décisions a1, a2 et a3 selon une règle dD. Admettons que la
distribution Pθ de z est comme suit :
 1 2
Z
z1 0,9 0,3
z2 0,1 0,7
Prise de décision avec observations
Analyse en forme normale
• Exemple 1 : (suite)
1. Donner l’ensemble des règles dD.
2. Donner le tableau de perte L(θ,d).
3. Donner l’ensemble complet minimal de D.
4. Donner, parmi les règles de décision pures, la solution minmax.
5. Donner, parmi les règles de décision pures, la solution de Bayes par rapport à la
distribution à priori de θ, λ(θ 1)=1/3.
6. Quelle est le prix maximal que le décideur serait prêt à payer pour avoir l’information Z.
7. Donner graphiquement la solution minmax parmi les règles de décision randomisées.
8. Donner graphiquement, parmi les règles de décision randomisées, la solution de Bayes
par rapport à la distribution à priori de θ, λ(θ1)=1/3.
9. Pour quelles valeurs de 𝜆 la règle de décision randomisée solution de Bayes ne serait pas
unique. Trouver dans ce cas l’ensemble des règles de décision randomisées solutions de
Bayes ainsi que le risque de Bayes associé.
10. Pour quelle distribution à priori la règle de décision randomisée solution de Bayes est
une solution minmax.
Prise de décision avec observations
Analyse en forme normale
• Remarque 7 :
Un problème de décision avec observations peut être représenté selon un arbre de
décision tel que :
Chaque nœud correspond à la réalisation de l’expérimentation

𝑧1 : 𝑚é𝑑𝑖𝑐𝑎𝑚𝑒𝑛𝑡 𝑒𝑓𝑓𝑖𝑐𝑎𝑐𝑒
Z= .
𝑧2 : 𝑚é𝑑𝑖𝑐𝑎𝑚𝑒𝑛𝑡 𝑛𝑜𝑛 𝑒𝑓𝑓𝑖𝑐𝑎𝑐𝑒
Une flèche issue d’un nœud indique la décision prise suivant le schéma :

a1

a2

a3

 Un chemin issu d’un sommet 0 et aboutissant au numéro d’une règle de décision


indique les décisions associées à cette règle pour chaque observation.
Prise de décision avec observations
Analyse en forme normale
• Exemple 2 : Etablir l’arbre de décisions de l’exemple 1
Z D L(i , dj)
z1 z2 di 𝜃1 𝜃2
1 0 8
4 0,5 3,8
6 0,4 5,2
5 4,5 6,2
2 5 2
8 4,9 3,4
7 3,6 6,8
9 4,1 2,6
3 4 4
Pour d4, si on observe z1, la flèche monte donc on décide a1 et si on observe z2, la
flèche reste horizontal donc on décide a2. Donc :
𝑑4 : 𝑍 ⟶ 𝐴
𝑧1 𝑎1
𝑧2 𝑎2
Prise de décision avec observations
Analyse en forme normale
• Exercice 1 : Extrait « Statistique », Claude Fourgeaud et Aimé Fuchs.
Considérons le problème de décision (, A, L) relatif à l’octroi du visa de
distribution d’un médicament au niveau national tel que :
𝜃1 : 𝑚é𝑑𝑖𝑐𝑎𝑚𝑒𝑛𝑡 𝑒𝑓𝑓𝑖𝑐𝑎𝑐𝑒 𝑖𝑒 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑑𝑢 𝑟𝑒𝑗𝑒𝑡 𝑑𝑢 𝑝𝑟é𝑙è𝑣𝑒𝑚𝑒𝑛𝑡 𝑒𝑠𝑡 p1=0,4
Θ=
𝜃2 : 𝑚é𝑑𝑖𝑐𝑎𝑚𝑒𝑛𝑡 𝑛𝑜𝑛 𝑒𝑓𝑓𝑖𝑐𝑎𝑐𝑒𝑖𝑒 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑑𝑢 𝑟𝑒𝑗𝑒𝑡 𝑑𝑢 𝑝𝑟é𝑙è𝑣𝑒𝑚𝑒𝑛𝑡 𝑒𝑠𝑡 p2=0,6

𝑎1 : 𝐴𝑡𝑡𝑟𝑖𝑏𝑢𝑒𝑟 𝑙𝑒 𝑝𝑒𝑟𝑚𝑖𝑠 𝑑𝑒 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑡𝑖𝑜𝑛


𝐴=
𝑎2 : 𝑅𝑒𝑓𝑢𝑠𝑒𝑟 𝑙𝑒 𝑝𝑒𝑟𝑚𝑖𝑠 𝑑𝑒 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑡𝑖𝑜𝑛
Et le tableau de perte comme suit : A a1 a2

𝜃1 0 10
𝜃2 20 0
On effectue trois prélèvements X1, X2, et X3 et on teste le médicament :

1 ∶ 𝑅𝑒𝑗𝑒𝑡𝑒𝑟 𝑙𝑒 𝑝𝑟é𝑙é𝑣𝑒𝑚𝑒𝑛𝑡 𝑎𝑣𝑒𝑐 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑝


𝑋𝑖 =
0 ∶ 𝑁𝑒 𝑝𝑎𝑠 𝑟𝑒𝑗𝑒𝑡𝑒𝑟 𝑙𝑒 𝑝𝑟é𝑙é𝑣𝑒𝑚𝑒𝑛𝑡 𝑎𝑣𝑒𝑐 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 1 − 𝑝
On admet que p peut prendre 2 valeurs p1=0,4 et p2=0,6.
Prise de décision avec observations
Analyse en forme normale
• Exercice 1 : (Suite)
1. Quelles sont les valeurs que peut prendre 𝑍 = 𝑖 𝑋𝑖 ?

2. Quelle est la loi de probabilité de Z?


3. En déduire Pθ(z).
4. Expliciter les règles de décisions sous forme d’un arbre de décision.
5. Donner le tableau de perte L(θ,d).
6. Donner l’ensemble complet minimal de D.
7. Donner, parmi les pures, la règle de décision solution minmax.
8. Donner, parmi les pures, la règle de décision solution de Bayes par rapport à la
distribution à priori de θ, λ(θ 1)=2/3 et λ(θ 1)=3/4.
9. Donner graphiquement la règle de décision solution minmax parmi les solutions
randomisées.
10. Donner graphiquement, parmi les solutions randomisées, la règle de décision solution de
Bayes par rapport à la distribution à priori de θ, λ(θ 1)=2/3 et λ(θ 1)=3/4.
11. Pour quelle distribution à priori la règle de décision solution randomisée de Bayes est une
solution minmax.
Prise de décision avec observations
Analyse en forme normale
• Exercice 2 : Extrait de l’examen de la théorie des décisions -juin 2012-
Un agent immobilier est devant deux décisions :
•a1 : Investir son argent (10 millions de dirhams) dans l’achat d’un terrain dans une région éloignée.
•a2 : Ne pas investir son argent.
S’il prend la bonne décision alors sa perte est nulle, c'est-à-dire dans les deux cas suivants :
•Il investit et le prix du foncier augmente.
•Il n’investit pas et le prix du foncier se dégrade.
S’il prend la mauvaise décision c'est-à-dire dans les deux cas suivants :
•S’il investit et le prix du foncier se dégrade alors il perd 1% de la valeur du placement.
•S’il n’investit pas et le prix du foncier augmente alors il perd 0,5% de la valeur du placement.
1. Donner le tableau de perte L(θ,a) en explicitant les états de la nature Θ.
2. Admettons pour la suite que le tableau de perte est comme suit : Θ A a1 a2
θ1 0 5
θ2 10 1
Pour prendre sa décision, l’agent immobilier va se baser sur la croissance du prix du foncier dans la région
pour le mois précédent Z qui peut prendre deux valeurs (z1 équivalente à la hausse et z2 équivalente à la
baisse). Ainsi, il observe Z et décide entre les décisions a1 et a2 selon une règle dD. Admettons que la
distribution Pθ de z est comme suit : Θ Z z1 z2
a.Donner l’ensemble des règles dD. θ1 0,8 0,2
θ2 0,4 0,6
b.Donner le tableau de perte L(θ,d).
c.Donner, parmi les pures, la solution minmax.
d.Donner, parmi les pures, la solution de Bayes par rapport à la distribution à priori de θ, λ(θ 1)=λ (θ 2)=1/2.
e.Donner graphiquement la solution minmax parmi les solutions randomisées.
f.Donner graphiquement, parmi les solutions randomisées, la solution de Bayes par rapport à la distribution
à priori de θ, λ(θ1)=λ(θ2)=1/2.
Prise de décision avec observations
Analyse en forme extensive (AFE)
Soit (, A, L) un problème de décision muni d’une distribution à priori λ(), d’un
ensemble Z d’observations et une famille de lois 𝑃𝜃 𝜃∈Θ .

 Définition 6 : La distribution à postériori sur  est :

𝑓(𝑧/𝜃)𝜆 𝜃

π  = 𝑓(𝜃/𝑧) =  𝑓(𝑧/𝜃)𝜆 𝜃 𝑑𝜃
𝑓(𝑧/𝜃)𝜆 𝜃
 𝑓(𝑧/𝜃)𝜆 𝜃
 Définition 7 : Le risque de Bayes à postériori associée à la règle de décision d 𝜖 D

est : ρ d/z = 𝐸𝜋 𝐿(𝜃, 𝑑) =  𝜋 𝜃 𝐿(𝜃, d(𝑧))𝑑𝜃


 𝜋 𝜃 𝐿(𝜃, d(𝑧))
Prise de décision avec observations
Analyse en forme extensive (AFE)
 Théorème 1 : Théorème de Blackwell Rao

La règle optimale de Bayes d* est celle qui pour chaque z 𝜖 Z attribut le risque minimum
de ρ d/z .

 Exemple 3 : Reconsidérer l’exemple 1

Retrouver par l’AFE la règle optimale de Bayes.

 Exercice 3 : Extrait de l’examen de la théorie des décisions -juin 2012-

Considérons autrement le problème de décision de l’exercice 2. Soit le tableau de perte


suivant : Θ A a a 1 2
θ1 0 5
θ2 10 1
Et la distribution à priori λ de θ, λ(θ1)=λ(θ2)=1/2.
1-Calculer la distribution à postériori π de θ selon les valeurs de Z.
2-Calculer le risque de bayes à postériori.
3-Trouver la règle optimale de Bayes et comparer à celle trouvée dans l’exercice
2(question 2.d)
Prise de décision avec observations
Analyse en forme extensive (AFE)

 Proposition 1 : Application aux estimateurs

Etant donné la fonction de perte quadratique : 𝐿(𝜃, 𝑑)=(𝜃 − 𝑑)², l’estimateur de Bayes

d* de 𝜃 associé à la loi à priori λ() est la moyenne à postériori de  : d*=E(/z).

Démonstration :

ρ d/z = 𝐸𝜋 𝐿(𝜃, 𝑑(𝑧)) = 𝐸𝜋 (𝜃 − 𝑑(𝑧))² = 𝐸𝜋 𝜃² − 2𝑑 𝑧 𝐸𝜋 𝜃 + 𝑑 2 𝑧

Qui est une fonction quadratique en x=d(z) de type f(x) =ax²+bx+c qui est minimal en

−𝑏
f’(x)=2ax+b=0, soit en 𝑥 = 2𝑎
= 𝐸𝜋 𝜃 =E(/z).
Prise de décision avec observations
Analyse en forme extensive (AFE)
• Remarque 8 : Etant donné la fonction de perte : 𝐿(𝜃, 𝑑)= 𝜃 − 𝑑 ,

l’estimateur de Bayes d* de 𝜃 ∈  ⊂ ℝ associé à la loi à priori λ() est la


médiane à postériori de .

Démonstration :

ρ d/z = 𝐸𝜋 𝐿(𝜃, 𝑑(𝑧)) =  𝜋 𝜃 𝐿(𝜃, d(𝑧))𝑑𝜃=  𝜋 𝜃 𝜃 − 𝑑(z) 𝑑𝜃

𝑑(𝑧) +∞
= − −∞ 𝜋 𝜃 (𝜃 − 𝑑(z)) 𝑑𝜃 + 𝑑(𝑧)
𝜋 𝜃 (𝜃 − 𝑑(z)) 𝑑𝜃

Qui est une fonction convexe est dérivable et qui est minimal en

𝑑(𝑧)∗ +∞
𝜕ρ d/z
= 𝜋 𝜃 𝑑𝜃 − 𝜋 𝜃 𝑑𝜃 = 0
𝜕𝑑(𝑧) −∞ 𝑑(𝑧) ∗

soit 𝜋 𝜃 ≤ 𝑑(𝑧)∗ = 𝜋 𝜃 ≥ 𝑑(𝑧)∗ , D’où 𝑑(𝑧)∗ est la médiane à postériori de


.
Prise de décision avec observations
Analyse en forme extensive (AFE)
Remarque 9 : L’estimateur de Bayes d* est généralement biaisé.

Exemple 3 : Soit (Zi)1in tel que Zi~N(ө,σ²) pour tout 1in iid et ө~N(µ0, σ0²).

𝜎² 2 𝜎²𝜎20
𝑛
𝜇 0 +𝜎0 𝑋 𝑛
1. Montrer que à postériori 𝜃/𝑧1 ,𝑧2 , … , 𝑧𝑛 ∼ 𝑁 𝜎²
, 𝜎²
𝑛
+𝜎02 𝑛
+𝜎02

2. Si l’on considère la fonction de perte quadratique, en déduire un estimateur


de Bayes de la moyenne de ө.

Exercice 3 : Examen de la théorie de la décision –rattrapage 2016-

Soit (Zi)1in la variable aléatoire exprimant le revenu d’un ménage "i" où


Zi~N(ө,1) pour tout 1in iid. Si l’on considère la fonction de perte quadratique,
trouver un estimateur de Bayes de la moyenne du revenu ө si sa distribution à
priori ө~N(0,1).
Prise de décision avec observations
Analyse en forme extensive (AFE)
Exercice 5 : Examen de rattrapage de la théorie des décisions –Février 2015-
Soit X le nombre d’accidents survenus sur un tronçon autoroutier donné. Supposons que
X suit une loi de poisson de paramètre , réel positif, et que, à priori, ~Г(a,b).
1. Etant donné une observation x, un entier, de X, montrer que la distribution à
postériori de  est une Г(x+a,b+1).
2. En adoptant la perte quadratique, trouver un estimateur bayésien de .
Rappel :
Une variable aléatoire X~P() si sa fonction de masse est comme suit : 𝑃 𝑋 = 𝑥 =
𝑥 𝑒 −
𝑥!
Une variable aléatoire Y suit une loi de Г(a,b) si sa fonction de densité prend la forme
𝑦 𝑎−1 𝑒 −𝑏𝑦 𝑏𝑎
suivante : 𝑓 𝑦 = (𝑎)
Où a et b sont deux réels strictement positifs et (a) la fonction gamma d'Euler :
𝛤 𝑎 = 𝑦 𝑎−1 𝑒 −𝑦 𝑑𝑦

Exercice 6 :

1 1 𝜇−𝑥 2
1. Soit 𝑋 ∼ 𝑁 𝜇, et 𝜃 ∼ Γ 𝛼, 𝛽 . Montrer que 𝜃/𝑥 ∼ Γ 𝛼 + ,𝛽 +
𝜃 2 2

2. Soit 𝑋 ∼ 𝐵𝑁 𝑎, 𝜃 et 𝜃 ∼ 𝛽 𝛼, 𝑏 . Montrer que 𝜃/𝑥 ∼ 𝛽 𝛼 + 𝑎, 𝑏 + 𝑥


Prise de décision avec observations
Analyse en forme extensive (AFE)

Exercice 7 : Examen de la théorie des décisions -novembre 2014-


Soit « p » la proportion de pièces défectueuses dans un lot de « n » pièces. Pour avoir
une idée de cette proportion, on fait le prélèvement d’une seule pièce « x ».
1. Donner la distribution de x.
2. Donner la distribution à priori de « p ».
3. Monter que la distribution à postériori de « p » est une bêta de 1ère espèce
BI(x+1,2-x).
4. En adoptant la perte quadratique, trouver un estimateur bayésien de « p ».
Rappel :
Une variable aléatoire Y suit une loi de bêta de 1ère espèce BI(p,q) si sa fonction de
densité prend la forme suivante :
1
𝑓𝑌 𝑦 = 𝑦 𝑝−1 1 − 𝑦 𝑞−1 𝕀 0,1 (𝑦)
𝐵 𝑝, 𝑞
Où p,q sont deux réels strictement positifs et B(p,q) la fonction bêta d'Euler :
1
𝐵 𝑝, 𝑞 = 𝑥 𝑝−1 (1 − 𝑥)𝑞−1 𝑑𝑥
0
Prise de décision avec observations
Analyse en forme extensive (AFE)

Exercice 8 : Examen de rattrapage de la théorie des décisions –Février 2017-

Soit X la durée de vie d’une ampoule LED. Supposons que X suit une loi exponentielle
de paramètre , réel positif, (X~exp()) et que, à priori, ~exp(a).
1. Etant donné une observation x, un entier, de X, montrer que la distribution à
postériori de  est une Г(2,x+a).
2. En adoptant la perte quadratique, trouver un estimateur bayésien de .
Rappel :
Une variable aléatoire X~exp()  X~ Г(1,)
Une variable aléatoire Y suit une loi de Г(a,b) si sa fonction de densité prend la forme
suivante :
𝑦 𝑎−1 𝑒 −𝑏𝑦 𝑏𝑎
𝑓 𝑦 =
(𝑎)

Où a et b sont deux réels strictement positifs et (a) la fonction gamma d'Euler :

𝑎 = 𝑦 𝑎−1 𝑒 −𝑦 𝑑𝑦
Prise de décision avec observations
Analyse en forme extensive (AFE)
Exemple 4 : Application aux tests d’hypothèse :

Le Ministre de l’Economie et des Finances s’interroge sur l’opportunité de prendre des


mesures de relance économique. Sa décision est fondée sur la croissance mensuelle de
l’indice des prix à la production (IPP noté I), avec I~N(μ,σ²), où σ=0,2%. Sur l’historique,
on a observé qu’en cas de récession µ=0,3% et en cas normal µ=0,5%. Il observe sur le
dernier trimestre I1, I2 et I3 et propose la règle ad hoc : Prendre des mesures de relance
si I < 0,35%.

1. Est-il possible de mesurer les risques associés à cette règle?

2. Peut-on fixer le seuil selon des règles plus objectives?

En fait le problème de décision est Θ = Θ0 ⨃Θ1

avec 𝐻0 : 𝜃 ∈ Θ0 ie I~N(0,3%;0,2%²) et 𝐻1 : 𝜃 ∈ Θ1 ie I~N(0,5%;0,2%²).

𝑑0 𝑝𝑟𝑒𝑛𝑑𝑟𝑒 𝑑𝑒𝑠 𝑚𝑒𝑠𝑢𝑟𝑒 𝑑𝑒 𝑟𝑒𝑙𝑎𝑛𝑐𝑒 𝑠𝑖 I < 𝑘


Et D= où k=0,35% est les seuil critique.
𝑑1 𝑁𝑒 𝑟𝑖𝑒𝑛 𝑓𝑎𝑖𝑟𝑒 𝑠𝑖 I ≥ 𝑘
Prise de décision avec observations
Analyse en forme extensive (AFE)
Exemple 4 : (Suite)

Chaque décision est liée à une erreur éventuelle :

1. Ne rien faire (ie 𝑑1 ) en période de récession (ie Θ0 = 𝐻0 ) et accentuer le chômage


avec probabilité :

0,2%
𝛼 = 𝑃(𝑑1 /Θ0 )= P I ≥ 𝑘/µ=0,3% avec I ∼ 𝑁(0,3%; ²) sous Θ0 .
3

I−0,3% 𝑘−0,3%
𝛼=P 0,2% ≥ 0,2% = P Z ≥ 0,43 = 0,33: Risque de 1er espèce.
3 3

I−0,3%
Avec Z = 0,2% ∼ 𝑁(0,1)
3

2. Relancer l’économie (ie 𝑑0 ) en période d’expansion (ie Θ1 = 𝐻1 ) et favoriser


l’inflation avec probabilité :

𝛽 = 𝑃(𝑑0 /Θ1 )= P I < 𝑘/µ=0,5% = P Z < −1,3 = 0,097: Risque de 2nd espèce.
Prise de décision avec observations
Analyse en forme extensive (AFE)
Application aux tests d’hypothèse :

Soit le modèle statistique où 𝑃𝜃 𝜃∈Θ 𝑙𝑎 𝑙𝑜𝑖 𝑑𝑒 𝑍 𝑑é𝑝𝑒𝑛𝑑 𝑑e 𝜃 ∈ Θ ⊂ ℝ tel que


Θ = Θ0 ⨃Θ1avec 𝐻0 : 𝜃 ∈ Θ0 et 𝐻1 : 𝜃 ∈ Θ1 .

Le test revient à construire une règle qui consiste à observer 𝑧1 ,𝑧2 , … , 𝑧𝑛 et de décider
comme suit :

𝑧1 ,𝑧2 , … , 𝑧𝑛 ∈ 𝑊 la région critique alors on rejette 𝐻0 ie on décide d1.

𝑧1 ,𝑧2 , … , 𝑧𝑛 ∈ 𝑊 la région d’acceptation alors on ne rejette pas 𝐻0 ie on décide d0.

Autrement : H D d0 d1
H0 C00 C01
H1 C10 C11
On rejette 𝐻0 ie on décide d1 si ρ 𝑑0 /𝑧1 ,𝑧2 , … , 𝑧𝑛 > ρ 𝑑1 /𝑧1 ,𝑧2 , … , 𝑧𝑛

𝐿1 (𝐶01 −𝐶00 ) 𝑝0
Ou 𝜋0 𝐶00 + 𝜋1 𝐶10>𝜋0 𝐶01 + 𝜋1 𝐶11. Soit, rejeter H0 si >
𝐿0 (𝐶10 −𝐶11 ) 1−𝑝0

Avec  la distribution à postériori de 𝜃. Soit, si L est la fonction de vraisemblance de Z et p


𝑝0 𝐿0 1−𝑝0 𝐿1
la distribution à priori de 𝜃 ∶ 𝜋0 = 𝑝 et 𝜋1 = 𝑝
0 𝐿0 +𝑝1 𝐿1 0 𝐿0 +𝑝1 𝐿1
Prise de décision avec observations
Analyse en forme extensive (AFE)
Exemple 5 : Une machine produit des pièces dont une proportion θ présente un défaut
qui les classent en second choix. Une pièce de 2nd choix est vendue à 6 dirhams de
moins que celle de 1er choix. Si la machine fonctionne bien alors θ=0,1 et si elle se
dérègle alors θ=0,2. On estime que la probabilité que la machine soit bien réglée est
p0=0,6.

On peut souscrire à un contrat de maintenance de la machine qui revient à un coût par


pièce produite de 0,4 dirham. Après contrôle des 100 premières pièces, 13 ont été
déclassées en 2nd choix.

1. Donner le tableau de perte L(θ,a) en explicitant les états de la nature Θ et les


décisions.

2. Doit-on souscrire à un contrat de maintenance (ou autrement doit-on rejeter


l’hypothèse nulle 𝐻0 : θ=0,1) ?
Prise de décision avec observations
Solution Minmax
Application aux tests d’hypothèse :

Dans le test minimax, nous utilisons le test de Bayes qui correspond à la distribution à priori λ()
(ou 𝑝0 ) la plus défavorable (Cf. Remarque 4 du chapitre relatif aux probabilités subjectives).
Dans ce cas, la région critique optimale W* est définie par :

max 𝜌 𝑝0 , 𝑊 ∗ = min max 𝜌 𝑝0 , 𝑊 < max 𝜌 𝑝0 , 𝑊 .


𝑝0 𝑊 𝑝0 𝑝0

En d'autres termes, W* est la région critique qui minimise le risque de Bayes associé à la
distribution à priori λ() la plus défavorable. Autrement, si on suppose que les opérations de
minimisation et de maximisation sont interchangeables, nous avons :

min max 𝜌 𝑝0 , 𝑊 = max min 𝜌 𝑝0 , 𝑊 = max 𝜌∗ 𝑝0


𝑊 𝑝0 𝑝0 𝑊 𝑝0

Ainsi, le test de minimax correspond au test de Bayes pour la distribution à priori λ() (ou 𝑝0 ) la
plus défavorable, c'est-à-dire 𝑝0 qui maximise le coût moyen :
𝜌∗ 𝑝0 = 𝐶00 𝑃 𝑑0 /𝐻0 𝑝0 + 𝐶01 𝑃 𝑑1 /𝐻0 𝑝0 + 𝐶10 𝑃 𝑑0 /𝐻1 (1 − 𝑝0 ) + 𝐶11 𝑃 𝑑1 /𝐻1 (1 − 𝑝0 )
Prise de décision avec observations
Analyse en forme extensive (AFE)
Exercice 9 : Un système de communication binaire consiste à envoyer durant chaque
période (T secondes) l’un des deux signaux possibles : s(t) =0 ou s(t)=1. Nous observons
à la réception un signal x(t) =s(t) +n(t) où n(t) est un bruit blanc.

H0 : s(t)=0 et H1 : s(t)=1 et

𝑒− 𝑥 1
𝑓(x/𝐻0 ) = , 𝑓(x/𝐻1 ) = 𝑒 −2 𝑥 , P(𝐻0 ) = 2
2

et
H D d0 d1
H0 0 1
H1 2 0

1. Quelle serait la règle de décision optimale selon le critère de Bayes?

2. Qu’en est-il selon le critère minmax?

Exercice 10 : Examen de rattrapage de la théorie des décisions –Février 2017-

3
Refaire l’exercice pour P(𝐻0 ) =
4
Prise de décision avec observations
Analyse en forme extensive (AFE)
Exercice 11 : Extrait de l’examen de la théorie des décisions –Décembre 2013-

Le Ministre de l’économie et des finances veut instaurer une règle de relance


économique en cas de crise selon le critère de Bayes. Sa décision est fondée sur la
croissance mensuelle de l’indice des prix à la production (IPP) durant les quatre derniers
mois, avec I~N(μ,σ²), où σ=0,2%. Sachant qu’en cas de récession µ=0,3% et en cas
normal µ=0,5%. Supposons que la probabilité d’entrer dans une récession est p=0,6, que
la prise d’une bonne décision est sans coût et que le coût de la relance à tort est trois
fois celui de ne rien faire en cas de récession :

1. Donner le tableau de perte L(θ,a) en explicitant les états de la nature Θ et les


décisions.

2. Construire une règle de décision selon le critère de Bayes, pour prendre des
mesures de relance, basée sur I la moyenne observée de la croissance de l’IPP
durant les quatre derniers mois.
3. Si l’on observe sur les quatre mois I1=0,3%, I2=0,32%, I3=0,34% et I4=0,35%, doit-on
prendre des mesures de relance ?
Prise de décision séquentielle
Source : Nedzela
Prise de décision séquentielle

Evolution du problème :

Jusqu'à présent, le décideur choisit une décision 𝑎 ∈ 𝐴 au moment où la nature

présente un état 𝜃 ∈ Θ. Il en résulte ainsi une perte L(𝜃, 𝑎). Le problème de décision

est ainsi clos.

Il se peut qu’on soit devant un problème où on doit prendre une suite de décisions qui

soient interdépendantes et séquentielles. Par conséquent, chaque décision est

influencée par celle qui la précède et les conséquences dépendent des nouveaux

états de la nature.

Pour modéliser ce problème, on choisit la démarche par arbre de décision qui

présente l’ordre chronologique du problème.


Prise de décision séquentielle
• Structure de l’arbre de décision :
Un problème de décision séquentielle peut être représenté selon un arbre de décision
comportant deux types de nœuds :
□ : Le nœud décisionnel à partir duquel partent des branches qui représentent les
actions possibles à choisir.
o : Le nœud aléatoire à partir duquel partent des branches qui représentent les états
possibles de la nature.
( ) : Au dessus de chaque branche aléatoire est marquée la probabilité de réalisation
d’un état de la nature.
 La perte associée à chaque branche est mise au dessous.
 Chaque cheminement le long des branches représente un scénario avec une suite
d’actions et d’états de la nature et donc une perte cumulée associée. Cette dernière
est la somme des pertes partielles le long du chemin.
 La perte globale est renseignée à l’extrémité de la branche finale du cheminement.
Prise de décision séquentielle
 Exemple 1 :
Une société d’informatique vient de créer un nouveau produit dont le coût de fabrication
est très onéreux. Elle doit choisir dans un premier temps entre deux décisions :
a1 : Garder l’ancien produit.
a2 : Lancer le nouveau produit.
Le maintien du produit actuel génère un gain de 20 millions de dirhams. Le lancement du
nouveau produit générerait un gain de 30 millions de dirhams si le marché est favorable et
de 2 millions de dirhams seulement s’il ne l’est pas. La probabilité que le marché soit
favorable est de λ = 60%.
Dans un deuxième temps, et au cas où la société a choisi a2 et que le marché s’est avéré
défavorable, la société doit choisir entre deux décisions :
a3 : Ne pas faire de publicité.
a4 : Faire une publicité.
La campagne publicitaire coûterait 3 millions de dirhams avec un profit escompté de 11
millions de dirhams si elle réussit et de seulement 2 millions de dirhams si jamais elle ne
réussit pas. L’échec et la réussite de cette campagne sont équiprobables.
Dresser l’arbre de décision.
Prise de décision séquentielle

a1
-20
-20
θ 1 (0,6) -30
-30
a2 a3
-2
-2
θ 2 (0,4) θ 3 (0,5)
-8
-11
a4
3
θ 4 (0,5)
1
-2
Prise de décision séquentielle

Analyse d’un arbre décisionnel : Critère de Bayes (perte espérée minimale)

Pour ce critère, la stratégie optimale est telle que l’on procède dans le sens

chronologique inverse partant de droite vers la gauche en remontant l’arbre de

décision:

1. Calculer pour chaque nœud aléatoire la perte espérée.

2. Choisir pour chaque nœud décisionnel l’action (ie la branche) donnant la perte

espérée minimale et barrer les autres branches.

3. Répéter jusqu’à remonter au nœud décisionnel initial.


Prise de décision séquentielle
 Exemple 2 :

Reprendre l’arbre de décision de l’exemple 1 :

1. Trouver la stratégie optimale.

2. Quant est-il si le gain associé à la décision a1 est 18 millions de dirhams?

3. Pour quelle valeur de la probabilité de réussite de la campagne publicitaire, la société

devrait considérer l’opportunité d’introduire le nouveau produit?

4. Pour quelle valeur de la probabilité que le marché soit favorable, la société devrait

considérer l’opportunité d’introduire le nouveau produit?


Prise de décision séquentielle
 Exemple 2 : (Suite)

1- a1
-20
-20
-20 θ 1 (0,6) -30
-30
a2 a3
-19,4 -2
-2
θ 2 (0,4) θ 3 (0,5)
-3,5 -8
-11
a4 -3,5
3
θ 4 (0,5)
1
-2
2-
a1
-18
-18
-19,4 θ 1 (0,6) -30
-30
a2 a3
-19,4 -2
-2
θ 2 (0,4) θ 3 (0,5)
-3,5 -8
-11
a4 -3,5
3
θ 4 (0,5)
1
-2
Prise de décision séquentielle
• Cas de prise décision séquentielle avec observations:
Dans le cas de l’existence d’un ensemble d’observations Z, nous considérons les règles
de décision 𝑑 ∶ 𝑧 𝑎 qui à chaque observation associe une décision. La démarche
z 1 (f(z1))
reste la même en introduisant de plus : z 2 (f(z2))
Z .
Z : Le nœud de réalisation des observation. .
.
z n (f(z n))
( ) : Au dessus de chaque branche issue de ce nœud la probabilité de réalisation
d’une observation.
On calcule les probabilités à postériori qui remplacent dans l’arbre de décision celles à
priori.
 Exemple 3 :
Reprendre l’arbre de décision de l’exemple 1 dans sa première étape (ie sans la partie
concernant la campagne publicitaire) avec en plus une étude de marché qui peut être
faite avant le lancement du nouveau produit. Cette étude permet d’observer  1 2
Z
𝑧1 : 𝑚𝑎𝑟𝑐ℎé 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒 z1 5/6 ½
Z= tel que la distribution Pθ de z est :
𝑧 : 𝑚𝑎𝑟𝑐ℎé 𝑑é𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒 z2 1/6 ½
Prise de décision séquentielle
a
 Exemple 3 : (Suite) 1 -20
a1
-20 z 1 (0,7) θ 1 (5/7)
-20 -30

1-
θ 2 (2/7)
Z -2
a1
-20
z 2 (0,3) θ 1 (1/3)
-30
a2
θ 2 (2/3)
-2
a1
-20
a1 z 1 (0,7) θ 1 (5/7)
2- -20
-20 -22 -30
-21,4 -22
θ 2 (2/7)
Z -21,4 -2
a1
-20
z 2 (0,3) θ 1 (1/3)
-20 -30
a2 -34/3
θ 2 (2/3)
-2
Remarque 1 : Cette stratégie reste optimale tant que le coût de l’étude est gratuit, sinon la
société serait prête à payer la VEII = 1,4 million de dirhams (calculée dans le chapitre
précédent) pour faire cette étude sinon elle maintiendra l’ancien produit.
Exercice 1 :
Prise de décision séquentielle
Une société de BTP « INSEABTP » vient de s’adjuger un marché pour la construction
d'un pont. La durée du marché est de 18 mois. La société estime la construction d’un
pont sur piliers en 12 mois à un coût mensuel de 150 millions de dirhams. Pour un
pont suspendu, elle doit faire des tests de la résistance du sol (en 6 mois à un coût
mensuel de 20 millions de dirhams) et des câblages (en 6 mois à un coût mensuel de
80 millions de dirham). Les tests peuvent être réalisés simultanément ou
successivement. Si les tests sont concluants, la société peut construire le pont
suspendu en 6 mois à un coût mensuel de 160 millions de dirhams. Le service des
études de la société estime qu'il y a 9 chances sur 10 pour que le sol s'avère
suffisamment solide et 3 chances sur 4 pour que les câblages le soient également. En
cas extrême, et en faisant appel à l’aide d’une société concurrente (soit un sérieux
coup à sa notoriété), la société « INSEABTP » peut construire le pont sur piliers en 6
mois à un coût mensuel de 160 millions de dirhams.

Quelle est la stratégie optimale qui minimise la perte espérée totale et quelle serait ce
coût ?
Prise de décision collective
PRISE DE DECISION COLLECTIVE

 Pb : (Өi, Ai, Li); (Zi, Pө) ө 𝜖Өi


 Comment agréger (amalgamer) les choix individuels pour
arriver à un choix collectif?
 Définition : Soit X un ensemble de choix {x1, x2, …} pour « n »
individus possédant chacun une relation d’ordre Ri

 x1 R i x2 L’individu « i » préfère le choix x1 au choix x2

 Une fonction de choix social F(R1, R2, … Rn) = R associe à


toutes les relations d’ordre un ordre global et unique pour la
collectivité.
TYPES DE PRISE DE DECISION COLLECTIVE

 DICTATORIALITE

• 𝑥𝑅𝑖0 𝑦⇒ 𝑥𝑅𝑖 𝑦 ∀𝑖𝜖 1, 𝑛 𝑡𝑒𝑙 𝑞𝑢𝑒 𝑖 ≠ 𝑖0

• F(R1, R2, … Rn) =𝑅𝑖0

 MAJORITE
𝑛
• 𝑥𝑅 𝑦 # 𝑖/𝑥𝑅𝑖 𝑦 >
2

• 𝑛 𝑖𝑚𝑝𝑎𝑖𝑟 ⇒ règle décisive.


TYPES DE PRISE DE DECISION COLLECTIVE

 MAJORITE PONDEREE

1
• 𝑥𝑅 𝑦 𝑖/𝑥𝑅𝑖 𝑦 𝑝𝑖 > 2 où 𝑝𝑖 est le poids de l’individu « i ».

1
• 𝐷𝑎𝑛𝑠 𝑙𝑒 𝑐𝑎𝑠 𝑑𝑒 𝑙𝑎 𝑚𝑎𝑗𝑜𝑟𝑖𝑡é 𝑠𝑖𝑚𝑝𝑙𝑒 𝑝𝑖 = 𝑛 ∀𝑖𝜖 1, 𝑛

• Pour schématiser le droit de véto, on considère les 𝑝𝑖 tel que :

o 𝑝𝑖 =1 pour les membres simples, 𝑝𝑖 > 1 pour les membres influents


et 𝑝𝑖 = +∞ pour les membres « j « ayant le droit de véto.

𝑖≠𝑗 𝑝𝑖
o Dans ce cas 𝑥𝑅 𝑦 𝑖/𝑥𝑅𝑖 𝑦 𝑝𝑖 > .
2
PARADOXES DE PRISE DE DECISION COLLECTIVE
 PARADOXE DE CONDORCET OU DE LA REGLE DE MAJORITE :
• La collectivité ne peut pas toujours être simultanément transitive et
respectueuse de la règle de majorité.

Groupe (x,y) (y,z) (x,z) Choix du groupe


G1 𝑥𝑅1 𝑦 𝑦𝑅1 𝑧 𝑥𝑅1 𝑧 𝑥𝑅1 𝑦𝑅1 𝑧
G2 𝑦𝑅2 𝑥 𝑦𝑅2 𝑧 𝑧𝑅2 𝑥 𝑦𝑅2 𝑧𝑅2 𝑥
G3 𝑥𝑅3 𝑦 𝑧𝑅3 𝑦 𝑧𝑅3 𝑥 𝑧𝑅3 𝑥𝑅3 𝑦
Collectivité 𝑥𝑅 𝑦 𝑦𝑅 𝑧 𝑧𝑅 𝑥
(Règle de majorité)

• 𝑅 𝑒𝑠𝑡 𝑛𝑜𝑛 𝑡𝑟𝑎𝑛𝑠𝑖𝑡𝑖𝑣𝑒 ∶ 𝑥𝑅 𝑦 𝒆𝒕 𝑦𝑅 𝑧 alors que 𝑧𝑅 𝑥


PARADOXES DE PRISE DE DECISION COLLECTIVE

 PARADOXE DE REPRESENTATIVITE :

• Le choix des délégués peut différer de celui du suffrage universel.

Groupe 𝑥𝑅 𝑦 𝑦𝑅 𝒙 Choix des délégués

G1 20 40 𝑦𝑅𝑥
G2 20 40 𝑦𝑅𝑥 𝒚𝑹𝒙
G3 60 0 𝑥𝑅𝑦 ≠
Collectivité 𝟏𝟎𝟎 𝟖𝟎 𝒙𝑹 𝒚
(Règle de majorité)
PARADOXES DE PRISE DE DECISION COLLECTIVE
THÉORÈME D’ARROW : Les cinq conditions suivantes ne peuvent être simultanément
satisfaites :

• C1 : Condition de définition : Il y a au moins deux individus et trois choix.


• C2 : Condition de souveraineté : Si la société soulève un choix collectif, il
existe des choix individuels qui y aboutissent :

∀ 𝑥 𝑒𝑡 𝑦 𝑡𝑒𝑙 𝑞𝑢𝑒 𝑥𝑅 𝑦 ⇒ ∃ 𝑅𝑖 ∀𝑖𝜖 1, 𝑛 tel que F(R1, R2, … Rn) =𝑅

• C3 : Condition de non dictatorialité : il n’y a pas de dictateur :

∄𝑖0 𝜖 1, 𝑛 / 𝑥𝑅𝑖0 𝑦⇒ 𝑥𝑅𝑖 𝑦 ∀𝑖𝜖 1, 𝑛 𝑝𝑜𝑢𝑟 𝑖 ≠ 𝑖0

• C4 : Condition de positivité (ou monotonie) : Si le choix d’un individu


change en faveur de celui de la société alors le choix collectif de cette
dernière reste le même.
• C5 : Condition d’externalité (ou indifférence des options tierces) : Le choix
collectif entre x et y n’est pas modifié par l’introduction d’une nouvelle
alternative externe « z ».
THEORIE DE DECISION

INSEA 2017/2018
Boumahdi Ilyes
ilyesboum@yahoo.fr
Supports du cours : https://sites.google.com/site/ilyesboumahdi/
* Ce document sujet à enrichissement. Merci de m’envoyer toute remarque pouvant en améliorer le
contenu et la forme. Version : 03-11-17 09:57

S-ar putea să vă placă și