Documente Academic
Documente Profesional
Documente Cultură
Creierul uman are o capacitate remarcabilă de a lua decizii ı̂n prezent, a in-
format, iilor incerte sau incomplete. Facem predict, ii, uneori incons, tient, despre
evenimente din viitor sau pe care nu le putem observa direct s, i asta ne ajută să
interact, ionăm atât de eficient cu lumea din jur.
Este necesar, deci, atunci când discutăm despre inteligent, ă artificială să ne
punem problema reprezentării incertitudinii unor evenimente, fie că aceasta pro-
vine din absent, a unor observat, ii, fie că este consecint, a unor procese aleatoare,
nedeterministe (e.g. aruncarea unui zar). Cadrul matematic care oferă concep-
tele utile acestei discut, ii ı̂l reprezintă teoria probabilităt, ilor. În cele ce urmează
sunt reluate câteva not, iuni elementare necesare.
1
N evenimente sunt independente două câte două, acestea nu sunt necesar inde-
pendente ı̂n ansamblu.
p (X ∩ Y ) = p (X) · p (Y ) (2)
Două evenimente X s, i Y se numesc incompatibile dacă acestea nu se pot
produce simultan: p (X ∩ Y ) = 0.
p (X ∩ Y )
p (X|Y ) = (3)
p (Y )
Formula 3 poate fi aplicată succesiv pentru a desfăs, ura probabilitatea unui
eveniment combinat din N evenimente (vezi Formula 4).
Exemplu Să presupunem că un agent vrea să ı̂s, i evalueze s, ansele de a câs, tiga
un joc cu zar. Fie C evenimentul ı̂n care agentul câs, tigă jocul. Presupunând
că agentul cunoas, te probabilitatea ca zarul să pice pe fiecare dintre cele s, ase
fet, e ale sale p (Z = i) , ∀i ∈ {1, . . . , 6}, acesta trebuie să evalueze apoi care sunt
s, ansele de a câs, tiga ı̂n fiecare dintre acele cazuri p (C|Z = i). Atunci, s, ansele ca
agentul să câs, tige jocul sunt date de cantitea următoare (Formula 7):
2
6
X
p (C) = p (C|Z = i) · p (Z = i) (7)
i=1
p (Y |X) p (X)
p (X|Y ) = (8)
p (Y )
Teorema lui Bayes paote fi interpretată ca o condit, ionare cauzală. Frumuse-
t, ea acestei formule vine din faptul că exprimă probabilitatea unei cauze pe baza
unei observat, ii făcute, ı̂ntorcând direct, ia de condit, ionare. Probabilitatea pos-
terioară p (X|Y ) este exprimată ca produsul dintre verosimilitatea observat, iei
făcute dată fiind cauza X, p (Y |X), s, i probabilitatea apriorică a cauzei p (X)
ı̂mpărt, it la probabilitatea totală a evenimentului Y .
O aplicat, ie uzuală a Teoremei lui Bayes este aplicarea ı̂n cazul evenimentelor
complementare precum ı̂n Formula 9.
p (Y |X) p (X)
p (X|Y ) = (9)
p (Y |X) p (X) + p (Y |¬X) p (¬X)
Exemplu
Se consideră o anume formă de gripa ce afectează un procent cunoscut din
populat, ie (1%) s, i un test ce semnalează cu o anumită certitudine prezent, a acestei
boli. Mai precis, se cunosc următoarele probabilităt, i:
3
Aplicând teorema lui Bayes putem afla care este probabilitatea ca un individ
să fie bolnav dacă testul a ies, it pozitiv:
p (+|Gripa) p (Gripa)
p (Gripa|+) =
p (+)
p (+|Gripa) p (Gripa)
= (10)
p (+|Gripa) p (Gripa) + p (+|¬Gripa) p (¬Gripa)
0.9 · 0.01
= ≈ 0.04348
0.9 + 0.01 + 0.2 · 0.99
Artificiu de calcul Uneori, ı̂n teorema lui Bayes numitorul este greu de cal-
culat. Se poate evita acest calcul direct folosindu-se evenimentul complementar.
Calculându-se doar numărătorii din Ecuat, iile 11 s, i 12, se rezolvă apoi următorul
sistem de ecuat, ii:
γP 1 + γP 2 = 1 (13)
p (X|Y ) = γP 1 (14)
4
A p (A) ···
p (B|A) ···
B
p (B|¬A) ···
5
A B C
D E
F G
Lant, de cauzalitate Fie ret, eaua bayesiană din Figura 3 cu trei variabile A,
B s, i C. Să presupunem că aceasta modelează următoarea situat, ie: variabila A
reprezintă faptul că este iarnă, variabila B starea de a ninge afară, iar variabila
C faptul că Ionut, se dă cu sania. În primul caz să presupunem că nu s, tim
dacă afară ninge sau nu. Informat, ia despre anotimpul curent (dacă este iarnă
sau nu, adică observarea variabilei A) modifică ceea ce credem despre faptul că
Ionut, se dă cu sania. Mai precis, ı̂ntr-un alt anotimp decât iarna, acest lucru ar
părea improbabil, deoarce este foarte put, in probabil să ningă. Iarna, ı̂n schimb,
putem crede că sunt s, anse mari să ningă, drept urmare sunt s, anse mai mari ca
6
Ionut, să se dea cu sania. Dar, odată ce aflăm dacă ninge sau nu, informat, ia
despre anotimpul curent nu mai poate influent, a s, ansele pe care le acordăm
evenimentului Ionut, se dă cu sania. În acest caz, deci, A ⊥ C|B s, i A 6⊥ C.
A B C A B C
Cauză comună Fie ret, eaua bayesiană din Figura 4. În acest caz variabila B
condit, ionează atât variabila A, cât s, i variabila C. Să asociem trei evenimente
concrete celor trei variabile: evenimentul plouă este descris de variabila binară
B, variabila A reprezintă faptul că oras, ul Bucures, ti este aglomerat, iar variabila
C faptul că Ionut, poartă o umbrelă. Exact ca ı̂n cazul precedent, să presupunem
ı̂ntâi că nu s, tim dacă afară plouă. Faptul că ı̂l vedem pe Ionut, cu o umbrelă
ne poate face mai ı̂ncrezători ı̂n faptul că traficul este aglomerat deoarece este
foarte probabil să plouă. Totus, i, observând dacă afară plouă sau nu, umbrela
lui Ionut, nu ne mai aduce nicio informat, ie despre traficul din Bucures, ti. Deci,
ı̂n acest caz A ⊥ C|B s, i A 6⊥ C.
B B
A C A C
7
A C
A C A C
B B
(c) A 6⊥ C|B
Explaining away Fie ret, eaua bayesiană din Figura 5. În acest caz: A 6⊥ C|B
s, i A ⊥ C. Să ı̂ncercăm să suprapunem un exemplu. Ionut, este microbist s, i echipa
lui preferată este Barcelona care are un meci important cu rivala din Madrid.
De asemenea, Ionut, este programator s, i as, teaptă verdictul unui interviu pe care
l-a avut de curând. Să zicem că variabila A corespunde evenimentului Barcelona
a câs, tigat meciul cu Real Madrid, iar variabila C reprezintă evenimentul Ionut,
a luat interviul. Fără nicio informat, ie suplimentară cele două evenimente nu au
nicio legătură s, i informat, ii despre unul dintre ele nu ne pot schimba probabili-
tatea pe care o asociem celuilalt. Dacă, ı̂n schimb, observăm variabila B s, i aflăm
că Ionut, este fericit, atunci apare nevoia unei explicat, ii. De ce este Ionut, fericit?
În cazul acesta, dacă aflăm că rezultatul meciului a fost negativ, din nevoia de
oferi o explicat, ie pentru bucuria lui Ionut, , vom avea o certitudine ridicată că
acesta a luat interviul. Variabilele de care depinde B devin dependente deoarece
se activează un rat, ionament intercauzal ı̂n căutarea unei explicat, ii.
2.2 D-Separabilitate
Not, iunea de D-separabilitate foloses, te o analiză a grafului care descrie ret, eaua
bayesiană pentru a determina dacă două mult, imi de variabile sunt independente
condit, ional sau nu.
O cale neorientată ı̂ntre o mult, ime de noduri X s, i o mult, ime de noduri Z
este orice secvent, ă de arce (indiferent de orientarea lor) care pleacă de la un
membru al mult, imii X s, i ajunge la un membru al mult, imii Z.
8
Dându-se o mult, ime de noduri O observate, o cale p este blocată dacă una
dintre următoarele trei condit, ii este adevărată:
1. există un nod Y ∈ O care reprezintă destinat, ia unui arc din p s, i sursa unui
alt arc din p (ı̂nlănt, uire cauzală);
2. există un nod Y ∈ O care reprezintă sursa a două arce diferite din p (cauză
comună);
3. niciun nod Y care reprezintă destinat, ia a două arce din p nu se află ı̂n O
s, i nici vreun descendent de-ai lui nu se află ı̂n O.
O mult, ime de noduri O d-separă două mult, imi X s, i Z dacă orice cală neo-
rientată ı̂ntre X s, i Z este blocată prin observarea variabilelor din O.
3 Exemplu s, i probleme
A B C
D E
F G
Întrebarea 2. De cât, i parametri este nevoie pentru a descrie complet ret, eaua
bayesiană din Figura 6? De cât, i ar fi fost nevoie ı̂ntr-o reprezentare tabulară
completă a p (A, B, C, D, E, F, G)?
a) A ⊥ G|D
b) A ⊥ B|F
c) A ⊥ C
9
d) A ⊥ C|E
e) F ⊥ G|A
f) B ⊥ C|G
g) F ⊥ C|G
A B C A B C
D E D E
F G F G
a) p (D|F ∩ G)
b) p (F |G)
p (D) 0.7
D
10
Întrebarea 5. Considerând doar variabilele D, E, G, precum ı̂n Figura 9,
calculat, i următoarele probabilităt, i :
a) p (D|E)
b) p (D|G ∩ E)
p (G|D ∩ E) 0.9
p (G|D ∩ ¬E) 0.8
G p (G|¬D ∩ E) 0.6
p (G|¬D ∩ ¬E) 0.2
Întrebarea 6. Urmărind ret, eaua bayesiană din Figura 10, calculat, i următoarele
probabilităt, i:
a) p (B|F )
b) p (A|¬F ∩ ¬G)
c) p (B|¬C)
11
p (B) 0.8
p (C) 0.1
p (A) 0.6 A B C
p (D|A ∩ B) 0.9
p (D|A ∩ ¬B) 0.6 p (E|C) 0.7
D E
p (D|¬A ∩ B) 0.6 p (E|¬C) 0.2
p (D|¬A ∩ ¬B) 0.05
p (G|D ∩ E) 0.9
p (F |D) 0.8 p (G|D ∩ ¬E) 0.8
F G
p (F |¬D) 0.5 p (G|¬D ∩ E) 0.6
p (G|¬D ∩ ¬E) 0.2
Figura 10: Ret, ea bayesiană cu 7 noduri pentru ı̂ntrebarea 6.
12