Sunteți pe pagina 1din 14

Modelul probabilistic Bayesian clasic aplicat diagnosticarii

Fie

=(1, .., n) multimea starilor posibile (clase, defecte, boli); r-starea reala H=(H1,..,Hn) multimea ipotezelor diagnostice A=(a1,,an) multimea actiunilor (variantelor decizionale, ai: r i, sau ai:Hi adevarat) X=(x1,..,xm) vectorul m-dimensional al caracteristicilor P(i) , i-1,..,n probabilitatile apriorice ale starilor P(X/ i) i=1,..n distributia de probabilitate conditionala a vectorului caracteristicilor in cadrul fiecarei stari wij (ai,j), cu i=1,..,n si j=1,..,n pierderea (cistigul) in cazul luarii deciziei ai cind starea reala este j

Se cere: pentru o realizare a vectorului caracteristicilor x=(x1, x2,xm) sa se aleaga o regula de decizie care sa conduca la minimizarea pierderilor (maximizarea cistigului) exprimate prin functia W(,A)
1

Modelul probabilistic Bayesian clasic aplicat diagnosticarii


Procedura: pas 1. analiza apriorica evaluarea ipotezelor pe baza probabilitatilor apriorice pas 2. sunt suficiente informatiile? da: pas 6 nu: continua

pas 3. achizitie informatie criterii de alegere a testelor diagnostice valoarea informatiei unui test
pas 4. analiza aposteriorica evaluarea aposteriorica a ipotezelor: - achizitie globala - achizitie secventiala pas 5. sunt suficiente datele? da: pas 6 nu: pas 3 pas 6. alege varianta optima criterii de alegere a deciziei optime
2

Modelul probabilistic Bayesian clasic aplicat diagnosticarii


Exemplul 1.
Fie

H=(H1, H2) multimea ipotezelor diagnostice unde H1=bolnav TBC (intr-o comunitate de mineri) P(H1) probabilitatea apriorica de a prezenta TBC reflecta probabilitatea de a prezenta TBC, inainte ca pacientul sa fie consultat. Cum obtinem P(H)? considerind cele doua stari echiprobabile P(H1)=P(H2), sau putem alege diferite valori in functie de cunostintele anteriore pe care le avem referitor la rata aparitiei in aceea comunitate a TBC-ului Presupunem P(H1)=0.3

Analiza apriorica: evaluarea apriorica a ipotezelor presupunem ca nu mai consideram alta boala: P(H1)+ P(H2)=1 exclusive si exhaustive P(H2)=0.7 putem lua decizie numai pe baza informatiei apriorice? daca da, presupunind regula de decizie: decide H1 daca P(H1)>P(H2), altfel H2 rezulta, conform analizei apriorice decizia este: a2 : H2= adevarata (pacientul nu prezinta TBC)

Interpretarea formulei lui Bayes


formula probabilitatii cauzelor sau formula ipotezelor = regula de inferenta
Fie

H=(H1, , Hm ): o multime de ipoteze probabile referitoare la starile posibile ale mediului


X=(x1,..,xn) multimea caracteristicilor

presupunem ca aprioric observatiei sunt cunoscute P(Hi) si P(x/Hi), unde x reprezinta o realizarea a vectorului caracteristicilor Conform teoremei lui Bayes, increderea reactualizata a ipotezei Hi (sau probabilitatea aposteriorica a ipotezei Hi ) dindu-se ca vectorul x s-a realizat va fi:

P( H i / X = x) =

P( x / H i ) P( H i )

j =1

P( x H j ) P( H j )

sau

P( H i / X = x) =
m

P( x / H i ) P( H i ) P( x)
reprezinta constanta de normalizare

unde

P( x) = P( x H j ) P( H j )
j

P( H i x) = P( x H i ) P( H i )

interpretare: informatia apriori privind situatia reala este amplificata de selectie si da o apreciere probabilistica curenta a situatiei; conform abordarii bayesiene cunoasterea este descrisa de multimea probabilitatilor aposteriorice
4

Modelul probabilistic Bayesian clasic aplicat diagnosticarii


Este suficienta analiza apriorica?

Achizitia informatie presupunem X=febra, cu dom( X ) = ( x, x) , o caracteristica care diferentiaza cele doua stari (nu cu certitudine) si presupunem cunoscute P(x/H1)=0.85, si P(x/H2)=0.03;

in urma observatiei constat ca pacientul prezinta febra X=x (proba sau evidenta)

Analiza aposteriorica: evaluarea aposteriorica a ipotezelor. probabilitatea aposteriorica a ipotezei H1 dindu-se rezultatul masurarii caracteristicii, X=x, este data de teorema lui Bayes:

unde

P( H1 / X = x) =

P( x / H1 ) P( H1 ) = 0.92 P( x)

P( x) = P( x / H1 ) P( H1 ) + P( x / H 2 ) P( H 2 ) = 0.276

daca observam

X = x,

P( H x ) = ?
5

Modelul probabilistic Bayesian clasic aplicat diagnosticarii

Observatie: calculul probabilitatii aposteriorice necesita cunoasterea a trei probabilitati:


probabilitatile apriorice, probabilitatea marginala a probei si verosimilitatile probei; este acesta un dezavantaj?

Teorema lui Bayes permite inversarea sensului inferentei:

In diagnosticare in cazul obtinerii probabilitatilor de la experti, acestora le este mai usor sa furnizeze probabilitatile in sens cauzal P(X/H), dar sa doreasca sa calculeze increderea in sens diagnostic P(H/X).

dindu-se influenta ipotezei asupra caracteristicii, TB permite sa se calculeze influenta caracteristicii asupra ipotezei; in sens cauzal: dindu-se influenta cauzei asupra efectului, TB permite inversarea rationamentului in sens diagnostic: dindu-se efectul, care este cauza?

Modelul probabilistic Bayesian clasic aplicat diagnosticarii (4)


Evaluarea ipotezelor diagnostice Presupunem H=(H1,..,Hn) multimea ipotezelor diagnostice mutual exclusive si exhaustive vectorul caracteristicilor X=(X1,..,Xm), unde Xi variabile discrete, si x=(x1,.xm) o realizare a acestuia; elementele multimii domeniului unei variabile sunt mutual exclusive si exhaustive P(x/Hi) verosimilitatea probei x in cadrul ipotezei Hi

Achizitia globala

conform teoremei lui Bayes avem:

P( H i / x1 ,.., xm )

P( x1 ,.., xm / H i ) P( H i )
n j 1

P( x1 ,..xm / H j ) P( H j )

sau, considerind formula probabilitatii compuse, numaratorul devine:

P( H i , x1 ,.., xm ) P( H i ) P( x1 / H i ).... P( xm / H i , x1 ,.., xm1 )


7

Modelul probabilistic Bayesian clasic aplicat diagnosticarii

Achizitia secventiala:

regula lui Bayes se poate aplica iterativ. Consideram caractestica x1 observata, aplicind formula lui Bayes obtinem P(Hi/x1):
P ( H i / x1 ) P ( x1 / H i ) P( H i ) P ( x1 )

presupunem ca observam si caracteristica X2=x2,


P ( H i / x1 , x2 ) P ( x2 / H i , x1 ) P ( H i , x1 ) P ( x1 , x2 )

sau, tinind cont ca dupa prima iteratie contextul este conditionat de x1, rezulta:
P( H i / x1 , x2 ) = P( H i x1 )

P( x2 / H i , x1 ) P( x2 x1 )

Generalizind:

P( H i / x1 ,..,xk 1 , xk ) = P( H i x1 ,..,xk 1 )

P( xk / H i , x1 ,..,xk 1 ) P( xk x1 ,..,xk 1 )

unde

P ( H i / x1 ,.., xk 1 ) se cunoastea de la itereatia anterioara si


8

P( xk / x1 ,.., xk 1 )

este o constanta de normalizare

Modelul probabilistic Bayesian clasic aplicat diagnosticarii

Exemplul 3. Presupunem P(x1/H1)=0.95, P(x1/H2)=0.05 si P(H1)=0.01, unde X1 febra si presupunem ca medicul constata ca pacientul prezinta febra; aplicind regula lui Bayes rezulta: P(H1/x1)=0.162 Presupunem ca medicul considera informatia insuficienta si mai observa o caracteristica: tuse si constata ca pacientul prezinta tuse. Presupunem, deasemenea ca medicul stie ca in 70% din cazurile in care TBC si febra au fost confirmate, si in 10% din cazurile in care gripa si febra au fost confirmate, pacientii prezinta tuse. Care este increderea in diagnosticul TBC in urma observarii celui de-al doilea sipmtom? din datele problemei: P( x2 / H1 , x1 ) = 0.7 si P( x2 / H 2 , x1 ) = 0.1 rezulta:

P( H i / x1 , x2 ) = 0.162

0.7 P( x1 x2 )

dar

P( x2 x1 ) = P( x2 H1, x1 )P(H1 x1 ) + P( x2 / H2 , x1 )P(H 2 x1 ) = 0.1966


0.7 = 0.573 0.1966
9

rezulta

P( H i / x1 , x2 ) = 0.162

Modelul probabilistic Bayesian naiv- ipoteza de independenta a caracteristicilor


Tinind cont de ipoteza de independenta in cazul achizitiei globale obtinem:
P( H i / x1 ,.., xk 1 , xk ) = P( H i x1 ,.., xn ) P( x1 / H i )....P( xn H i ) P( x1 )..... P( X n )

in cazul achizitiei secventiale:

pentru prima caracteristica obtinem:


P ( H i / x1 ) = P ( x1 / H i ) P ( H i ) P ( x1 )

pentru urmatoarea caracteristica putem considera probabilitatea aposteriorica obtinuta ca probabilitate apriorica:
P ( H i / x1 , x2 ) = P( H i x1 ) P ( x2 / H i ) P ( x2 )

generalizare

P( H i / x1 ,.., xk ) = P( H i x1 ,.., xk 1 )

P ( xk / H i ) P ( xk )

10

Modelul probabilistic Bayesian clasic aplicat diagnosticarii (6) -teorema lui Bayes in termenii sansei si a ratei verosimilitatii

Daca O(X) reprezinta sansa variabilei X atunci

O( X )

P( X ) P( X )

presupunem ipotezele H , H si caracteristica X, aplicind formula lui Bayes avem:

prin impartire, se obtine: sau tinind cont de formula sansei:

unde se numeste raportul de plauzibilitate al variabilei X Probabilitatea aposteriorica functie de sansa:

P( H / X )

O( H / X ) L( X )O( H ) 1 O( H / X ) 1 L( X )O( H )

11

Modelul probabilistic Bayesian clasic aplicat diagnosticarii (6) -teorema lui Bayes in termenii sansei si a ratei verosimilitatii

Exemplu: daca probabilitatea apriorica P(X)=0.01, sau 1%, rezulta: O(X)=0.1/0.99=1/99=1:99 Daca L(X) =5 dupa realizarea probei: O(H/X)= 5 x 1/99=5:99 L(X)=1 O(H)=O(H/X) sau P(H/X)=P(HC/X) proba nu aduce informatie suplimentara L(X)>1O(H/X)>O(X), sau P(H/X)> P(HC/X) proba in favoarea ipotezei H L(X)<0 O(H/X) <O(H) sau P(H/X)<P(HC/X) proba este in favoarea negatei lui H

L(X) 0 O(H/X) 0 sau P(H/X) 0


L(X) O(H/X) sau P(H/X) 1

proba exclude ipoteza H


proba confirma H

12

Modelul probabilistic Bayesian clasic aplicat diagnosticarii (7) -teorema lui Bayes in termenii sansei si a ratei verosimilitatii

Generalizare, pentru n teste independente:

O( H / X 1 ,.., X n ) L( X 1 ) L( X 2 ) .. L( X n ) O( H )

(2)

Exemplu: Presupunem ipotezele H , H cu P(H)=0.01 si caracteristicile binare: X1, X2, X3, (cu x=pozitiv, si x negativ). Presupunem cunoscute plauzibilitatile : L(x1)=8.33 (sau in termenii sansei 25:3), L(x2)=18 (sansa 18:1), L(x3)=3.5 (sansa 7:2). Care este probabilitatea ca starea reala sa fie H daca probele au iesit pozitive? Din relatia (2) rezulta:

O( H / x1 , x2 , x3 ) L( x1 ) L( x2 ) L( X 3 ) O( H )
O( H / x1 , x2 , x3 ) 25 18 7 1 3150 3 1 2 99 594

respectiv, probabiltatea aposteriorica:

P( H / x1 , x2, x3 )

3150 0.84 3159 594


13

Modelul probabilistic Bayesian clasic aplicat diagnosticarii (8) -teorema lui Bayes in termenii sansei si a ratei verosimilitatiiPentru a usura calculele si a da o interpretare mai sugestiva informatiei achizitionate prin observarea caracteristicilor, sansa poate fi masurata in decibeli:

O(H / X1,...,X n ) db (L( X1 ) db L( X 2 ) db .. L( X n ) db )O(H ) db

(3)

Pentru exemplul de mai sus avem: O(H)db=-20db L(x1)db=9db L(x2)db=13db L(x3)db=5db


Rezulta O(H/x1,x2,x3)db=7db Fata de sansa intiala de numai -20db, sansa aposteriorica a crescut la 7db.
14

S-ar putea să vă placă și