Documente Academic
Documente Profesional
Documente Cultură
entropie(T ) = −1log(1) = 0
N N N
entropiediviziune(T ) = 1 entropie(T 1) + 2 entropie(T 2) + ... k entropie(T k )
N N N
F = ( f ij )1i n
1 j m
definim
2 =
( f observat− f estimat)
ij ij
2
i j f ij estimat
undefij observat= frecventa de aparitie a
evenimentului {X = xi ,Y = y j }
m n
total(linia i ) total(coloana j )
f f
j =1
ij
i =1
ij
f ij estimat = = n m
f
nr. total observatii
ij
i =1 j =1
Pentru a testa ipoteza:
X si Y sunt independente
se calculeaza χ2.
Daca ipoteza este adevarata,
χ2 va avea o distributie Chi-patrat cu (n-
1)(m-1) grade de libertate
unde nxm este dimensiunea matricii de
corelatie
Pentru testarea ipotezei se va calcula p-valoarea
distributiei.
Cu cat p este mai mic cu atat sansele ca ipoteza
sa fie adevarata sunt mai mici si deci cu cat p
este mai mic cu atat X si Y sunt mai strans
legate.