Documente Academic
Documente Profesional
Documente Cultură
Rezolvări probleme
În cadrul acestui capitol ne propunem să prezentăm, în plus faţă de
problemele rezolvate în cadrul fiecărui capitol, rezolvarea a câtorva
probleme din cele propuse spre rezolvare cititorilor, deci a unei selecţii, din
cadrul capitolelor anterioare.
Problemele rezolvate sunt acelea care prin conţinutul lor facilitează
înţelegerea unor concepte fundamentale, prezintă anumite metode specifice
de rezolvare, au un anumit grad de dificultate, au o semnificaţie specifică
(unele dintre ele fiind considerate probleme fundamentale), au o utilitate
practică directă etc.
Capitolul 5
(10.2)
conduce la următoarea relaţie între probabilităţi:
lim Fx (a ) P{x1 a1 ,..., xi ,..., x N a N } P{xi } 0. (10.3)
ai
Algoritmi şi metode inteligente cu aplicaţii în electronică şi biomedicină, vol I
390
Rezolvări probleme
ipoteza anterioară.
Deci, dacă considerăm partiţia U = [A1, A2, ..., An] a evenimentului
sigur S şi fie B un eveniment arbitrar din S, atunci:
P( B) P( B | A1 ) P( A1 ) ... P( B | An ) P( An ) (10.14)
Rezolvare: În mod evident, folosind şi distributivitatea operaţiei de
înmulţire din teoria mulţimilor vom putea scrie:
B BS B( A1 A2 ... An ) BA1 BA2 ... BAn (10.15)
Întrucât evenimentele Ai şi Aj sunt mutual exclusive atunci şi
evenimentele BAi şi BAj vor fi, de asemenea, mutual exclusive.
Folosind a treia axiomă a probabilităţii vom avea:
P( B) P( BA1 ) P ( BA2 ) ... P( BAn ) (10.16)
Din formula probabilităţii condiţionate (5.52) avem că:
P( BAi ) P ( B | Ai ) P( Ai ) (10.17)
de unde rezultă mai departe teorema probabilităţii totale:
P( B) P( B | A1 ) P( A1 ) ... P( B | An ) P( An ) (10.18)
392
Rezolvări probleme
393
Algoritmi şi metode inteligente cu aplicaţii în electronică şi biomedicină, vol I
(10.26)
394
Rezolvări probleme
1
( a ki ) 2 2 a ki n 2 2 2 0 2
i i
2 x2 02
'e
1 n 1 1 1 2
2 2 2 2 2
2 x 0 a ki 02 2 ( a ki ) 2 02
'e x i 0 x i 0
1 n 1 2 1
2 2
2 x 0
2
2 aki 002
''e x i
(10.27)
În relaţiile mai sus prezentate constantele ’ şi ’’ includ constanta
şi, respectiv, toţi acei factori rezultanţi care nu depind de . Ceea ce
am obţinut pentru densitatea posterioară a lui este o funcţie
exponenţială a unei funcţii cuadratice de ; mai exact, vorbim tot de o
funcţie gaussiană. Dacă scriem forma generică a funcţiei de densitate
gausiană pentru vectorul aleator |Xk ~ N( 1, σ12) astfel:
2
1 1 1 1 1 12
2 2
2
1 1 1 2 12 12
f θ | X ( | X k )
2
e e 1 (10.28)
2 1 2 1
şi egalăm coeficienţii din relaţia (10.27) cu cei corespondenţi din
relaţia (10.28) obţinem:
1 n 1 1 n
şi 2 x 02 (10.29)
2
1 2
x 2
0
1 x
2
0
n
unde x 1 aki , reprezintă media aritmetică a valorilor particulare ce
n i 1
0.45
0.4
Densităţi posterioare
0.35
calculate pentru
0.3 diverşi n:
35
0.25 8
0.2 Densitatea Funcţia de
5
0.15 anterioară verosimilitate
0.1
2
0.05
0
-5
-1
11
15
19
23
27
31
35
39
43
47
51
395
Algoritmi şi metode inteligente cu aplicaţii în electronică şi biomedicină, vol I
396
Rezolvări probleme
ab *T f xy (a, b)da db (10.36)
σy2).
Rezolvare:
y = my + σyx (10.39)
Capitol 6
Rezolvare:
C x E E *T ( E ) E *T E E *T
(a). (10.40)
*T *T
E E
EE
I
398
Rezolvări probleme
În final rezultă:
d
Cx j (10.41)
j 1
Capitol 7
399
Algoritmi şi metode inteligente cu aplicaţii în electronică şi biomedicină, vol I
x x m xi
1
g i cia x m xi cic y m yi , cib x m xi cid y m yi ki
y 2 y m yi
(10.46)
x 1
gi { cia x m xi cic y m yi x m xi
y 2 (10.47)
cib x m xi cid y m yi y m yi } ki
În final după efectuarea tuturor înmultirilor din paranteze şi
gruparea termenilor putem scrie relaţia sub următoarea formă
canoncă:
x 1
gi cia x 2 cid y 2 2cia mxi cic cib m yi x
y 2
ai
2cid m yi cic cib mxi y cic cib xy
bi di
cia m2xi cid m2yi cic cib mxi m yi ki
ei
(10.48)
cu notaţiile făcute în relaţia (10.48):
a i 2cia m xi cic cib m yi (10.49)
d i c ic c ib (10.51)
2
ei c ia m xi c id m 2yi c ic cib m xi m yi (10.52)
obţinem următoarea formă ai relaţiei (10.48):
400
Rezolvări probleme
x 1
g i cia x 2 cid y 2 a i x bi y d i xy ei k i
y 2
(10.53)
Dar ştim, că pentru determinarea ecuaţiei suprafeţei de decizie între
clasa i şi clasa j trebuie să egalăm funcţiile discriminant a celor două
clase:
gi (x) = gj (x) (10.54)
Având în vedere ca avem doar două clase, putem scrie:
1
2
c1a x 2 c1d y 2 a1 x b1 y d1 xy e1 k1
(10.55)
1
c2a x 2 c2 d y 2 a2 x b2 y d 2 xy e2 k 2
2
Care se poate scrie în următoarea formă canonică care este de altfel
şi răspunsul la problema noastră:
c1a c2a x 2 c1d c2d y 2 a2 a1 x b2 b1 y (10.56)
d1 d 2 x y e1 e2 2k1 2k2 0
Capitol 8
401
Algoritmi şi metode inteligente cu aplicaţii în electronică şi biomedicină, vol I
2 0.19 a a 0 .1
2 a 0.01 0.1 a 0.165
2 0.32 a 0.165 a 0.22
2 a 0.12 0.22 a 0.265 (10.57)
Vn
2 0.41 a 0.265 a 0.3
2 a 0.19 0.3 a 0.335
2 0.48 a 0.335 a 0.4
2 a 0.32 0.4 a
Ştiind că:
3 (10.58)
fˆ ( x )
6Vn
2.5
1.5
0.5
-0.4 -0.2 0 0.2 0.4 0.6 0.8
x
Figura 10.2. Reprezentarea grafică a estimntului funcţiei densitate
de probabilitate
402
Rezolvări probleme
x2
b2
4 b4 b1
2 b3
1 a1 a2
a6 x1
-1 a3 1 2 3
a5 a4 -1
Rezolvare:
(a). Anterior determinării mediilor celor două clase se numerotează
elementele conform Figura 10.3. Cu aceste notaţii pentru prima
clasă avem următoarele elemente:
403
Algoritmi şi metode inteligente cu aplicaţii în electronică şi biomedicină, vol I
0 1 1 0 1 1
a 1 , a 2 , a 3 , a 4 , a 5 , a 6
1 1 0 1 1 0
în timp ce pentru cea de a doua clasă:
1 2 1 0
b1 , b 2 , b 3 , b 4
4 5 3 4
Mediile claselor se determină într-un mod similar celui
prezentat în cadrul Problemei 5.31. Astfel, media primei clase
este:
404
Rezolvări probleme
2
d 2 || o 0 - m2 || o10 m2,1 o20 m2,2 2 02 2 2 4 (10.62)
3 V2
b3
2 o0
1
a2 V3
a 6 a1 V1 x1
-1 a3 1 2 3
a5 a4 -1
C x E x m x x m x *T (10.64)
Estimarea matricei de covarianţă pentru prima clasă este dată
de relaţia:
406
Rezolvări probleme
1 6
T
1 0 1 1
Cˆ1 a i mˆ 1 a i mˆ 1 0 1 1 1 1 0
6 1
6 i 1 1 0
1 1 0
1 0 1 1 0 1
0 1 1
(10.65)
În calculul estimării matricii de covarianţă prezentată anterior
s-a ţinut cont de valoarea vectorului mediu dat de relaţia (10.59).
În final obţinându-se:
1 0 0 1 1 1 0 1 0 1 1 0 0
Ĉ1
6 0 1 1 1 0 0 0 0 1 1 0 1
2 1
3
13 2
3 3
(10.66)
Pentru cea de a doua clasă relaţia de calcul a valorii estimate a
matricii de covarianţă este similară cu cea din relaţia (10.65),
particularizată pentru elementele acestei clase. În final se obţine
valoarea:
1 1
Ĉ 2 1 2 1 4 (10.67)
4 2
407
Algoritmi şi metode inteligente cu aplicaţii în electronică şi biomedicină, vol I
j 1...M
Pci f x o0 ci max P c j f x o0 c j (10.68)
Definind:
g i a P ci f x a ci (10.69)
10 i 1 C i1 10 i 1
o 0 1 2 o mˆ o 2 mˆ i 2
g i o 0 10 P ci e 2 i2
o2 1
2 Ci 2
(10.70)
După cum se observă şi din relaţia (10.70), în primul pas avem
însă nevoie de inversele matricelor de covarianţă ce
caracterizează ambele clase:
408
Rezolvări probleme
1 ˆ* 2 1 3 2 1
Cˆ11 C1 3 13
2 1 2
(10.71)
Cˆ1 3 3
1 ˆ * 16 1 2 1 4 8 3 4 3
Cˆ 21 C2 (10.72)
Cˆ 2 3 1 4 1 2 4 3 8 3
409
Algoritmi şi metode inteligente cu aplicaţii în electronică şi biomedicină, vol I
3-NN
Bayes-ian
Capitol 9
410