Sunteți pe pagina 1din 46

BIOSTATISTICA

TABELE DE CONTINGENȚĂ

Estimarea efectului:
RR – Risc Relativ sau Raportul Riscurilor(Risk Ratio)
OR – Raportul Cotelor (Odd Ratio)
Compararea frecvențelor:
Testul Chi pătrat (Chi Square test)
Testul Fisher (Fisher test)

Conf. Dr. Vasile Lucian Boiculese, Conf. Dr. Mihaela Moscalu


Exemple de probleme medicale în care cerințele de rezolvare implică folosirea frecvențelor de apariție a
evenimentelor studiate:

- În cadrul afecțiunilor pulmonare se pune problema detectării factorilor de risc: fumat, consum alcool,
mediu toxic de muncă, etc.

- În cadrul apariției alergiilor la copii, se pune problema posibilei cauze datorate părinților alergici, sau
influența posibilă a părinților ce fumează sau chiar combinația ambelor cauze.

- În cadrul pacienților (gastroenterologie) tratați cu inhibitori ai pompei protonice se pune problema


influenței asupra infecției cu Clostridium Difficile (larg studiată și dovedită în literatura de specialitate).

La modul general – Observăm că există un factor de influență (fumatul, consumul de alcool, alergia
părinților, tratamentul cu un anumit tip de antibiotic, etc.) și prezența sau absența afecțiunii de studiu.
Putem crea un tabel cu frecvențele de apariție ale evenimentelor pentru cele 4 cazuri posibile definite de
prezența/absența factorului respectiv prezența/absența afecțiunii.
Tabelul de contingență - cuprinde frecvențele absolute ale evenimentelor

Notație: Frecvențe AFECȚIUNE


Prezența este codificată cu + sau 1, absolute Total
Absența este codificată cu – sau 0. + -

Conform tabelului avem un număr a de persoane ce + a b a+b

FACTOR
prezintă atât afecțiunea cât și factorul studiat.
- c d c+d
Factorul poate avea efect pozitiv, negativ sau poate să nu
aibă efect. Total a+c b+d a+b+c+d=n

Factor de risc – acesta crește probabilitatea de apariție a afecțiunii.


Factor preventiv sau protector – acesta scade probabilitatea de apariție a afecțiunii.

• Cum măsurăm influența factorului asupra efectului definit de prezența/absența afecțiunii ?


• Un posibil răspuns ar fi definirea unei măsuri gen un risc datorat factorului …
• Realizăm că aceste evenimente definesc probabilități în prezenta conturare a unui spațiu de lucru … !
• BIOSTATISTICA – ne ajută !
Risc
Riscul se defineşte ca fiind numărul de cazuri raportate la numărul total de indivizi din studiu. Dacă avem
un eşantion de 250 de persoane, din care 64 suferă de afecțiunea studiată, putem determina riscul ca fiind
64/250=25,6%. Este o probabilitate aproximată prin frecvența evenimentului studiat.
Frecvențe AFECȚIUNE Putem crea două populaţii, în sensul grupării după criteriul
absolute Total
+ - factor prezent, respectiv absent. Avem astfel posibilitatea de a
determina riscurile în cele două eșantioane definite de citirea pe
FACTOR

+ a b a+b
rânduri a datelor din tabel.
- c d c+d Din grupul Factor prezent (+) calculăm riscul de a avea
afecțiunea: R  a
a+c b+d a+b+c+d=n
F ( a  b)
Total

Din grupul Factor absent (-) calculăm riscul de a avea afecțiunea: RF   c


(c  d )
a
Astfel Raportul Riscurilor (Risc Ratio) sau Riscul Relativ este: RR 
RF  ( a  b)

RF  c
c  d 
Observație: RR este un raport de probabilități, este sigur pozitiv
deci mai mare sau egal cu 0. Poate tinde la infinit în situația în
care riscul în grupul factor absent este 0 și riscul în grupul factor
prezent este mai mare ca 0 (operația 0/0 nu are sens).
Factor de risc:
Dacă prezența factorul implică o creștere a probabilității de apariție a afecțiunii => factorul se numește de risc.

Atunci RF   RF  deci RR > 1.

Factor preventiv (protector, benefic):


Dacă prezența factorul implică o scădere a probabilității de apariție a afecțiunii => factorul se numește preventiv.

Atunci RF   RF  deci RR < 1.

Daca valorile riscurilor sunt aproape egale RF   RF  implica RR ≈ 1 atunci factorul nu are influență
asupra afecțiunii !

- Cum validăm existența unei influențe (efect) cauzată de prezența factorului studiat?
- Cât de aproape de 1 trebuie să fie valoarea RR astfel încât să putem considera nulă influența factorului studiat
?
- Dacă răspundem la cele 2 întrebări, verificarea sensului în efect al factorul (este de risc sau preventiv) devine
ușor de realizat ?
Răspunsul este evident prin analiza statistică –

Vom calcula intervalul de confidență al RR pentru factorului de studiu (standard 95%).


Statistica prin datele sale prezintă o anumită precizie de lucru – ca urmare intervalul de confidență exprimă
exact acest lucru. Cu cât volumul eșantionului est mai mare, cu atât avem mai multe date ce implică mai multă
informație deci o precizie mai bună.

Observație 1– la volume mari ale eșantionului precizia poate deveni atât de bună încât putem avea erori f.
mici în estimarea valorii RR de exemplu. Astfel o valoare RR=1.001 poate avea semnificație statistică față de
1 adică risc confirmat. Utilitatea medicală a rezultatului nu poate fi acceptată decât prin decizia unui specialist
în domeniu !
Observație 2 – pentru calculul intervalului de confidență se folosește distribuția standard Gauss Laplace –
aceasta este o distribuție simetrică.
Problema constă în faptul că distribuția RR nu respectă o curbă Gauss-Laplace. Pentru a respecta o astfel de
distribuție valorile RR trebuie logaritmate – cu alte cuvinte se lucrează în spațiul logaritmic unde se calculează
intervalul de confidență (ce este simetric) apoi se aplică funcția inversă deci se exponențiază și se ajunge în
spațiul normal RR.

Concluzie – intervalul de confidență al RR este simetric în forma logaritmică dar în forma normală este
asimetric – caracteristică importantă !
Intervalul de confidență pentru Riscul Relativ (Raportul Riscurilor RR)

 b d 
 
RR(limita inf.) este: exp LN ( RR )  z1 / 2   a  (a  b)  c  (c  d ) 
 
 b d 

RR(limita sup.) este: exp LN ( RR)  z1 / 2    
 a  (a  b) c  (c  d ) 
Încrederea în estimare este standard 95% sau 0.95. Astfel α = 0.05 sau 5%.
Z(1-α/2) este abscisa corespunzătoare densității de probabilitate Gauss-Laplace pentru o încredere simetrică
de 1-α. Pentru 95% încredere Z(1-α/2)=1.96.
b d
Valoarea : z 1 / 2    se numește precizie.
a  ( a  b ) c  (c  d )
Se notează: LL OR (0.95%) – Lower Limit ; UL OR (0.95%) – Upper Limit

Exemple calcul RR și interval de confidență folosind EpiInfo și Excel.


INTRODUCETI VALORILE : a,b,c,d: alpha= 0.05
AFECȚIUNE Z(1-alpha/2)= 1.95996398
+ - total Precizie= 0.62000326
+ 32 123 155 RR= 2.13333333
FACTOR
- 12 112 124 LL RR (0.95% prob) = 1.14761106
total 44 235 279 UL RR (0.95% prob) = 3.96572609
În cadrul studiilor de tip cohortă RR este corect calculat conform cu formulele prezentate deja.
Problema apare în situația studiilor tip caz-martor. Aici proporțiile reale între cazuri și martori nu sunt de obicei
respectate. Pentru aceasta ar trebui create eșantioane ce să țină cont de prevalența afecțiunii în populația studiată –
prevalență ce în studiul de cohortă este prezentă în proporțiile participanților selectați aleator.
Pentru a măsura corect efectul riscului în studii de tip caz-martor se definește o măsură echivalentă riscului numită
COTĂ – aceasta compensează lipsa de prevalență
Cota este raportul dintre probabilitatea ca un eveniment să se realizeze și
P( A) P( A)
probabilitatea ca acel eveniment să nu se realizeze: Odd A  
P( A ) 1  P( A)
Cota este un număr pozitiv mai mare sau egal cu 0 (ca și riscul).
Facem apel la tabelul de contingență și calculăm cotele și raportul acestora.
a /(a  b) a
Cota pentru grupul celor expuși factorului: Odd F   
b /(a  b) b
c /(c  d ) c
Cota pentru grupul celor neexpuși factorului: Odd AF    Frecvențe AFECȚIUNE
d /(c  d ) d absolute Total
+ -
ad
Astfel Raportul Cotelor (Odd Ratio): OR  + a b a+b

FACTOR
bc
- c d c+d

Total a+c b+d a+b+c+d=n


Intervalul de confidență al raportului cotelor (CI95% OR)

Ca și în cazul riscului și a raportului riscurilor , putem calcula intervalul de confidență al OR. Este de
asemenea nesimetric deoarece se logaritmează valorile punctuale pentru a respecta o distribuție simetrică de tip
Gauss-Laplace.
Prezentăm mai jos formulele de calcul :
 1 1 1 1 
OR(limita inf.) este: LL(OR)  exp LN (OR)  z1 / 2      

 a b c d 
 1 1 1 1 
OR(limita sup.) este: UL(OR)  exp LN (OR)  z1 / 2      

 a b c d 

Exemple de calcul folosind aplicația EpiInfo și Excel:


AFECȚIUNE alpha= 0.05
+ - total Z(1-alpha/2)= 1.95996398
+ 32 123 155 Precizie= 0.73034245
FACTOR
- 12 112 124 OR= 2.4282
total 44 235 279 LL OR (0.95% prob) = 1.1924
UL OR (0.95% prob) = 4.9445
DE REȚINUT:

Intervalul de confidență atât pentru RR cât și pentru OR este simetric în forma logaritmică !
În forma normală acest interval nu este simetric.

Punctul critic pentru un raport este 1. Această valoare arată că numitorul și numărătorul sunt egali. În cazul
analizei de risc valoarea RR=1 sau OR=1, arată lipsa influenței factorului studiat asupra afecțiunii. Valori exact 1
sunt foarte greu de obținut !

Dacă intervalul de confidență (standard 95% încredere) pentru RR sau OR cuprinde valoarea 1 înseamnă că
nu există asociere între cele două variabile (afecțiune și factor), deci nu vom avea semnificație.

Dacă limita inferioară a RR sau OR pentru interval de confidență (cu 0.95 încredere) este mai mare ca 1
atunci efectul expunerii este negativ ducând la o creștere a probabilității de îmbolnăvire (avem factor de risc),
deci avem și semnificație statistică.

Dacă limita superioară a RR sau OR pentru interval de confidență (cu 0.95 încredere) este mai mică ca 1
atunci efectul expunerii este pozitiv (benefic) ducând la o scădere a probabilității de îmbolnăvire (avem factor de
prevenție), deci vom avea și semnificație.
În cadrul studiului riscului se mai definesc următorii indicatori
statistici:

Diferența absolută a riscurilor (ARD-absolute risk difference)


Prezintă două formule de calcul deoarece valoarea acesteia
trebuie să fie pozitivă.
Dacă factorul este de risc și crește probabilitatea de apariția a
Frecvențe AFECȚIUNE
afecțiunii atunci avem creșterea absolută a riscului (ARI-absolute absolute Total
risk increase): a c + -
ARI  RF   RF   
ab cd

FACTOR
+ a b a+b

Dacă avem un factor protectiv atunci diferența se numește - c d c+d


reducerea absolută a riscului (ARR-absolute risk reduction): a+c b+d a+b+c+d=n
Total
c a
ARR  RF   RF   
cd ab

Se poate exprima procentual.


Diferența relativă a riscurilor (RRD-relative risk difference)

Prezintă două formule de calcul analog riscului absolut.


Dacă factorul este de risc și crește probabilitatea de apariția a
afecțiunii atunci avem creșterea relativă a riscului (RRI-relative
risk increase):
a c
 Frecvențe AFECȚIUNE
R  RF  a  b c  d
RRI  F   absolute Total
RF  c + -
cd

FACTOR
+ a b a+b

Dacă avem un factor protectiv atunci diferența se numește - c d c+d


reducerea relativă a riscului (RRR-relative risk reduction): a+c b+d a+b+c+d=n
c a Total

R  RF  c  d a  b
RRR  F  
RF  c
cd
Se poate exprima procentual.
Număr necesar de persoane expuse pentru a obține un
eveniment nou.
Se pune problema să aflăm câte persoane expuse sunt necesare
pentru a obține un nou eveniment (ex. îmbolnăvire sau însănătoșire).

Prezintă două formule de calcul funcție de tipul factorului.


Dacă factorul este de risc atunci prin expunere crește probabilitatea Frecvențe AFECȚIUNE
de apariție a afecțiunii. Numărul necesar pentru un eveniment absolute Total
negativ (NNH – number needed to harm): + -
NNH = 1/ARI

FACTOR
+ a b a+b
Cu cât NNH este mai mare cu atât este mai bine.
- c d c+d

a+c b+d a+b+c+d=n


Dacă avem un factor preventiv atunci avem număr necesar Total
pentru un eveniment pozitiv (NNT-number needed to treat):
NNT = 1/ARR
Cu cât NNT este mai mic cu atât tratamentul este mai eficace.
Dacă NNT=1 rezultă o persoană tratată implică o persoană
însănătoșită – ideal.
Exemplu:

Condition (disease) Condition (disease)


Observed Present Absent Total Expected Present Absent Total
Present 126 145 271 Yes 115.7 155.3 271
Factor Factor
Absent 46 86 132 No 56.3 75.7 132
Total 172 231 403 Total 172 231 403

RR= 1.334188994 Risk(FP)= 126 / 271 = 0.464945


Confidence
level 0.95
Risk(FA)= 46 / 132 = 0.348485

STDEV(lnRR)= 0.13568288 Absolute risk increase (ARI)


LB(RR)= 1.022642593 0.11646 or 11.65%
UB(RR)= 1.740647499
OR= 1.624587706 Relative risk increase (RRI)
Confidence 0.334189 or 33.42%
level= 0.95
Number needed to harm (NNH)
STDEV(lnRR)= 0.219545205
LB(RR)= 1.056491349
8.586654 meaning 9 patients
UB(RR)= 2.498160745
Testul Chi pătrat , aproximarea Fisher în tabele de contingență 2X2

În cadrul tabelelor de contingență o altă metodă de rezolvare a problemei constă în compararea


frecvențelor de apariție a afecțiunii grupând datele după prezența / absența factorului de risc.
Practic comparăm frecvențele de pe rânduri sau de pe coloane.
Pentru eșantioane bogate aceste frecvențe măsoară probabilitatea de apariție a evenimentului studiat.
Acest tip de comparație se realizează cu teste de tip Chi pătrat (χ2).
V2
Total
Ce cunoaștem - sunt frecvențele absolute a,b,c,d numite 1 0
valori observate notate O11=a, O10=b , etc. 1 (1,1) = a (1,0) = b a+b
V1 0 (0,1) = c (0,0) = d c+d
Total a+c b+d a+b+c+d=n
Întrebarea la care răspundem prin acest test se poate enunța astfel:
Este proporția de date cu V2=1 din eșantionul definit de V1=1 egală cu proporția de date cu V2=1 din
eșantionul V1=0 ?
Cu alte cuvinte proporțiile definite de V2 în cele două seturi definite de V1 sunt egale ?
Este exact ceea ce ne interesează – dacă V1 reprezintă factorul iar V2 afecțiunea întrebarea devine:
Este proporția de bolnavi diferită în grupele definite de prezența / absența factorului studiat ? Are factorul
studiat influență asupra frecvenței de apariție a afecțiunii ?
Este un test statistic de comparație deci lucrăm cu ipoteze de tip H0 respectiv H1.
Ipoteza nulă (H0) : Frecvențele în cele două seturi sunt egale deci nu diferă semnificativ.
Ipoteza alternativă (H1): Frecvențele în cele două seturi sunt diferite și avem astfel semnificație.
Metoda de calcul – testul Chi pătrat (χ2)
Pentru a pune în formă matematică informația prezentă în tabelul de contingență facem apel la statistica
de tip Chi pătrat.
Conform teoriei dacă avem n variabile independente distribuite normal N(0,1), atunci suma pătratelor
acestor n variabile urmează o distribuție de tip Chi pătrat cu n-1 grade de libertate.
Cum gândim în cazul tabelelor de contingență ?
Presupunem că nu există influență între V1 și V2 și ca urmare calculăm frecvențele ce le numim
așteptate din acest tabel. Pentru aceasta presupunem că știm doar valorile totale de pe linii respectiv coloane.
Valorile așteptate se notează cu E (expected).
V2
Total
Trebuie să determinăm valorile așteptate E.
1 0 Dacă grupul V1=1 este independent de V1=0 și au
V1
1 E11 E10 a+b aceeași frecvență pentru starea V2 atunci E11=(a+c)*(a+b)/n.
0 E01 E00 c+d
Total a+c b+d a+b+c+d=n
Este relativ ușor de înțeles – pur și simplu calculăm valoarea așteptată definită de proporții: Proporția
de V1=1 din total este (a+b)/n și totalul de V2=1 este a+c. Astfel valoarea absolută așteptată pentru V1=V2=1
este a+c ponderată de proporția V1=1 din total – deci produsul.
nr . de ev.
Oi  Ei 2
În final se calculează statistica Chi pătrat după formula:  calculat
2
 i 1 Ei
O – valorile observate ale frecvenţelor absolute (observed).
E – valorile determinate teoretic, dacă nu ar exista legătură între variabile (expected = aşteptate).
Numărul de evenimente pentru tabele 2X2 este 4 (2 rânduri, 2 coloane).
Testul Chi pătrat este un test neparametric – nu se fac presupuneri asupra formei de distribuție a datelor.

Metodă de lucru

• Se calculează statistica Chi pătrat conform formulei (folosind ambele tabelul de date);
• Se calculează corespunzător statisticii Chi și a gradelor de libertate (k=(nr. rânduri-1)*(nr. col-1)))
semnificația notată p. Aceasta este particulară tabelului de date – caracterizează datele noastre.
• Dacă valoarea semnificației p ≤ 0.05 (atenție – în unele cărți se prezintă valoarea prag a semnificației pentru
acest tip de test p ≤ 0.10; noi vom utiliza standardul de 0.05) atunci avem semnificație deci există o influență
a factorului asupra afecțiunii. În continuare pentru a avea o măsură a efectului se va calcula RR sau OR
funcție de tipul de studiu folosit.
• Dacă valoarea p > 0.05 nu avem semnificație deci factorul nu are influență asupra afecțiunii.
Observație
Consistența datelor (cantitatea de informație) este definită de volumul eșantioanelor de lucru. Este de așteptat
ca odată cu creșterea volumului eșantionului deci a informației culese să avem încredere mai mare în rezultatele
obținute. Devine evidentă întrebarea : care este minimul de date sub care nu mai avem încredere în test ?
Astfel consistența unui test de tip Chi pătrat este definită de procentul de frecvențe așteptate ce se află sub
pragul de 5.
Dacă procentul de frecvențe așteptate de valoare sub 5 este mai mare ca 20% atunci nu putem
accepta rezultatul testului Chi pătrat – cu alte cuvinte avem erori prea mari prin acest calcul.

Exemple de calcul folosind EpiInfo și Excel


Pentru cazul particular al tabelului 2X2 dacă o celulă conține o valoare sub 5 atunci avem 25% din valori
subdimensionate – deci dacă măcar o valoare așteptată este mai mică ca 5 testul Chi pătrat devine inconsistent.
Pentru situația critică în care avem mai mult de 20% din valorile așteptate mai mici ca 5 se poate aplica
metoda Fisher de calcul a semnificației.

Testul exact Fisher


Pentru cazul în care volumul eșantionului este mic și condiția de 20% nu este îndeplinită pentru a aplica
testul Chi pătrat, există metoda Fisher care face apel la distribuția hipergeometrică de calcul a semnificației
statistice (de aceea se numește metodă exactă - se calculează prin tehnici combinatorice).
Și aici există o condiție de consistență (în sensul dimensiunii eșantionului) – valorile așteptate să nu fie mai
mici ca 1.
Exemple practice EpiInfo și Excel
Valori Afectiune Valori Cancer plămân
Observate Prezent Absent Total Așteptate Prezent Absent Total
Factor Da 8 123 131 Da 11.4 119.6 131
Fumător
risc Nu 7 35 42 Nu 3.6 38.4 42
Total 15 158 173 Total 15 158 173

Iată în cadrul valorilor așteptate avem valoarea 3.6 mai mică ca 5; practic 25% din date sunt mai mici ca 5 –
avem inconsistență în aplicarea testului Chi pătrat. Ca urmare testul exact Fisher trebuie aplicat.
Rezultate obținute

Valoare Valoare
semnificativă ! nesemnificativă !

Observații
- Testele gen Chi pătrat și Fisher verifică existența asocierii dintre date – ne spun dacă frecvențele diferă sau
nu, dar nu cuantifică diferența.
- Magnitudinea efectului este măsurată prin RR sau OR – avem o imagine mai clară: RR=2 înseamnă că este
de două ori mai riscant în prezența factorului să ne îmbolnăvim.
- Dacă obținem semnificație prin Chi pătrat ne așteptăm ca în intervalul de confidență (95% încredere) pentru
RR sau OR să nu avem valoarea 1.
Sumar al ideilor principale

- În cadrul tabelelor de contingență compararea frecvențelor se face folosind testul Chi pătrat sau Fisher;
- Condiția de consistență pentru testul Chi pătrat: Mai puțin de 20% din frecvențele așteptate să fie mai mici ca 5;
- Formula de calcul a statisticii Chi pătrat (tabel de contingență): nr . de ev .
Oi  Ei 2
Notație: O=valori observate, E=valori așteptate. 
 calculat 
2

i 1 Ei
- Testul Chi pătrat este neparametric;
- Dacă valorile așteptate mai mici ca 5 sunt în procent mai mare de 20% atunci testul Chi pătrat este înlocuit de testul
Fisher;
- Formula de calcul a RR este (conform tabelelor 2x2 prezentate): RR=(a/(a+b))/(c/(c+d));
- Formula de calcul a OR este (conform tabelelor 2x2 prezentate): : OR=(a*d)/(b*c);
- Calculul cotei pentru un eveniment A este (P reprezintă probabilitatea): P( A) P( A )

- Calculul riscului pentru un eveniment A este (P reprezintă probabilitatea): P ( A)

- Pentru calculul intervalului de confidență al RR dar și al OR se aplică o transformare logaritmică pentru a avea
distribuții normale;
- Pentru a avea semnificație statistică, punctul critic care nu trebuie să fie cuprins în intervalul de confidență al RR
dar și al OR este 1;
- Intervalul de confidență al RR dar și al OR este asimetric față de valoarea punctuală calculată.
Întrebări / Discuții pe aceste teme / Exemple practice

Spor la învățat !
VĂ MULȚUMIM !
BIOSTATISTICA
REGRESIE LOGISTICĂ

Conf. Dr. Vasile Lucian Boiculese


Conf. Dr. Mihaela Moscalu
În domeniul medical (și nu numai) sunt dese situațiile în care ne interesează efectul anumitor factori,
asupra probabilității de apariție a unei afecțiuni.
Astfel vorbim de o variabilă dependentă sau răspuns (de exemplu afecțiunea prezentă, notată y) ce poate
fi măsurată pentru fiecare participant la studiu și poate avea două valori de tipul prezent sau absent.
Factorii, covariabilele sau variabilele explicative (numite și variabile independente notate xi) pot fi
numerice sau categoriale deci ocupă toată sfera posibilă a tipului unei variabile.

Exemple:

- La modul general y= afecțiune, x1= tipul de tratament, x2=vârsta, etc.


- Copil alergic = y, x1=mamă alergică, x2=tată alergic, x3=mamă fumătoare, x4=vârsta mamei la naștere;
- Infecție cu Clostridiun Difficile depinde de: administrarea de antibiotice care modifică flora intestinală,
boli intestinale inflamatorii, administrarea de medicamente care scad aciditatea gastrică, vârsta, etc. ?
- Cancerul de plămân depinde de fumat, mediul toxic de muncă de consumul de alcool, alimentație
deficitară, etc. ?
- Nașterea prematură depinde de suprasolicitarea fizică, multiparitate (sarcini numeroase), probleme ale
uterului etc. ?

Observație: variabila de răspuns (y) are doar două valori, este dicotomică.
Regresia logistică seamănă cu regresia liniară dar este dezvoltată pentru variabila de răspuns (y) de tip
dicotomic.
Dacă avem variabila dependentă de tip dicotomic, înseamnă că aceasta poate lua doar două valori de
obicei codificate cu 1 (de exemplu: afecțiune prezentă, deces, eveniment studiat realizat) respectiv 0
(afecțiune absentă, supraviețuire, eveniment studiat nerealizat).

Iată grafic cum ar arăta valorile determinate experimental (valori practice) pentru o astfel de situație:
Y
Regresia liniară nu este utilă deoarece ar
produce ușor valori peste 1 sau mai mici ca 0,
(0,1) chiar dacă am lua în calcul probabilitatea
evenimentului (s-ar obține erori mari).

(0,0)
X
Se pune problema determinării unei funcții notate cu g, care să aproximeze graficul alăturat, de forma:
g(𝑦) = 𝑓 𝑥𝑖 = 𝑎0 + 𝑎1 ∙ 𝑥1 + 𝑎2 ∙ 𝑥2 + … . +𝑎𝑛 ∙ 𝑥𝑛

𝑦 - este y estimat prin funcția propusă,


𝑎𝑖 - sunt coeficienții de regresie,
𝑥𝑖 - sunt variabilele explicative (covariabile, factori).
Tehnic ne trebuie o funcție care să exprime șansa de a avea evenimentul studiat realizat. Ținând cont de
faptul că domeniul pentru variabilele explicative, la modul general, poate să varieze de la -∞ la +∞ ,
concluzionăm că și codomeniul deci variația pentru y trebuie să cuprindă aceeași plajă.

Astfel se va lucra cu probabilitatea de realizare a evenimentului dar într-o formă ce să acopere domeniul
utilizat la maxim deci -∞ la +∞.

p
Aceasta este funcția logit definită: logit p =ln 1−p , p reprezintă probabilitatea realizării evenimentului
y. Probabilitatea variază de la [0,1] ceea ce rezultă că logit(p) variază de la -∞ la +∞ așa cum am dorit.
p 𝑛
Avem astfel: logit p =ln
1−p = 𝑎0 + 𝑎1 ∙ 𝑥1 + 𝑎2 ∙ 𝑥2 + … . +𝑎𝑛 ∙ 𝑥𝑛 = 𝑖=0 𝑎𝑖 ∙ 𝑥𝑖
Coeficientul a0 reprezintă intersecția funcției cu axa YY’. Se obține pentru x1=x2= … =xn=0
p
Raportul 1−p este tocmai cota – realizăm astfel că va exista o legătură între coeficienții ai (forma
exponențială) și cotă.
𝑛
𝑒𝑥𝑝 𝑖=0 𝑎𝑖 ∙𝑥𝑖
Dacă scoatem probabilitatea din funcția anterioară avem: p= 𝑛 𝑎 ∙𝑥 , aceasta este funcția
1+𝑒𝑥𝑝 𝑖=0 𝑖 𝑖
logistică.
Iată grafic funcția logistică care aproximează probabilitatea evenimentului studiat funcție de
covariabilele xi.
Prob(Y=1|x) - reprezintă probabilitatea ca Y=1 (amintim Y este codificat cu 1 sau 0), condiționată de
valorile variabilelor explicative x.

Prob(Y=1|x)

p=1

p=0

X
𝒏
𝒆𝒙𝒑 𝒊=𝟎 𝒂𝒊 ∙ 𝒙𝒊 𝟏
Funcția logistică : p Y=1|𝒙𝒊 = 𝒏
= 𝒏
𝟏 + 𝒆𝒙𝒑 𝒊=𝟎 𝒂𝒊 ∙ 𝒙𝒊 𝟏 + 𝒆𝒙𝒑 − 𝒊=𝟎 𝒂𝒊 ∙ 𝒙𝒊
Interpretarea coeficienților în cadrul regresiei logistice.
p
În forma inițială : logit p =ln 1−p = 𝑎0 + 𝑎1 ∙ 𝑥1 + 𝑎2 ∙ 𝑥2 + … . +𝑎𝑛 ∙ 𝑥𝑛 , coeficienții sunt greu de
interpretat – aceasta deoarece logaritmul natural din cotă este mai greu de înțeles.
Facem următorul calcul: mai întâi creștem doar o covariabilă cu Δx, apoi scădem cele două funcții logit.
Alegem de exemplu variabila x1 , aceasta nu va bloca generalizarea rezultatului.
p′
Avem astfel: logit p′ =ln = 𝑎0 + 𝑎1 ∙ (𝑥1 +∆𝑥) + 𝑎2 ∙ 𝑥2 + … . +𝑎𝑛 ∙ 𝑥𝑛
1−p′
p′ p
Scădem funcțiile: logit p′ − logit p = 𝑎1 ∙ ∆𝑥 avem apoi ln -ln 1−p = ln 𝐶𝑜𝑡𝑎1 − ln 𝐶𝑜𝑡𝑎2
1−p′
Cota1
Și obținem: ln Cota2 = ln 𝑂𝑅 = 𝑎1 ∙ ∆𝑥 , unde OR este raportul cotelor (Odd Ratio).
Prin exponențiere scoatem OR = exp(a1·Δx).

Pentru Δx=1 avem OR = exp(a1).

Interpretarea devine lesne de înțeles: exponențiala din coeficientul unei covariabile, reprezintă
raportul cotelor (OR) deci de câte ori este mai riscant de a avea afecțiunea sau evenimentul studiat
pentru creșterea covariabilei respective cu un punct și menținerea constantă a celorlalte covariabile.
Dacă avem doar o covariabilă și aceasta este de tip dicotomic atunci OR calculat prin regresie logistică
coincide cu OR calculat din tabelul de contingență și se numește valoare neajustată.
Dacă avem mai mult de o covariabilă, atunci se ține cont prin regresie de toate efectele variabilelor
explicative și valorile OR se numesc ajustate – acestea sunt de interes deoarece se pot elimina factorii de
confuzie.
Coeficientul a0 reprezintă valoarea de referință a modelului, deci pentru toate covariabilele xi egale cu 0.
Dacă variabila xi este de tip numeric referința este clar punctul 0 al acesteia. Dacă variabila este
categorială cu mai mult de două variante atunci punctul de referință este greu de ales. O metodă ar consta
în alegerea categoriei ce are cele mai puține valori – pentru a permite o putere statistică bună.

Ce informații ne aduc coeficienții ai (în unele cărți notați cu bi sau Bi)


Cazul 1
ai<0 , atunci OR=exp(ai ) este mai mic ca 1 și ca urmare probabilitatea evenimentului studiat scade pentru
creșterea cu o unitate a covariabilei xi.
Cazul 2
ai>0 , atunci OR=exp(ai ) este mai mare ca 1 și ca urmare probabilitatea evenimentului studiat crește
pentru creșterea cu o unitate a covariabilei xi.

De obicei programele de statistică prezintă atât coeficienții ai cât și exp(ai ) și intervalele de confidență.
Atenție: Exp(a0) nu reprezintă OR, reprezintă doar cota în punctul de referință.
Testul Hosmer - Lemeshow

Este utilizat în regresia logistică pentru a verifica dacă modelul este util (cât de bine se potrivește datelor
practice) deci poate fi utilizat statistic.
Funcția discriminantă respectă o distribuție de tip Chi pătrat și verifică diferențele dintre frecvențele
observate și cele așteptate.
Dacă frecvențele observate și cele așteptate (deci deduse din model) sunt apropiate atunci nu avem
semnificație și modelul este util reușind să prezică corect.
În caz contrar, cu alte cuvinte dacă frecvențele observate diferă de cele așteptate și ca urmare avem
semnificație deducem că modelul nu este util, și practic erorile sunt mari.

Avem două ipoteze:

H0: Nu există diferență între frecvențele observate și cele așteptate, deci modelul prezice corect

H1: Avem diferență între cele două tipuri de frecvențe ceea ce înseamnă că modelul prezice cu erori.

Dezavantaj – testul este criticat deoarece are putere statistică relativ mică și de asemenea depinde de
definirea grupurilor în calculul cuantilelor (depinde de volumul eșantionului).
Testul Omnibus

Crearea modelului pentru mai multe variabile de intrare se poate face pas cu pas prin introducerea a câte o
covariabilă și apoi verificarea utilității acesteia. Există și metoda inversă – se pleacă cu toate covariabilele și
se elimină pe rând cele nesemnificative.
Acest test verifică diferența dintre modelul la pasul anterior și modelul la pasul actual. Dacă se obține
diferență semnificativă statistic rezultă că ultima variabilă este utilă (sau ultima modificare este utilă).
Se poate să se impună introducerea tuturor covariabilelor odată. Astfel testul omnibus va verifica modelul
de la momentul 0 (adică cel doar cu coeficientul a0, deci termenul liber) cu modelul format din toate variabilele
explicative – este evident că dorim să obținem semnificație.
Acest test ar fi o variantă mai bună comparativ cu verificarea prin metoda Hosmer-Lemeshow.

Tabelul de clasificare
Avem două tabele de clasificare – înainte de a introduce covariabilele, deci modelul doar cu termenul a0 și
modelul cu toate covariabilele alese introduse.
Se verifică prin aceasta ca procentul total de clasificare să fie crescut pentru modelul logistic cu variabilele
explicative introduse.
Pseudo coeficientul R2

Metoda de calcul a coeficienților în cadrul regresiei logistice (maximizarea funcției de verosimilitate) este
total diferită de metoda de minimizare a sumei erorilor pătratice folosită la regresia liniară. Astfel interpretarea
pseudo coeficienților R2 în regresia logistică este diferită.

Un pseudo coeficient R2 normalizat în domeniul [0,1] este cel propos de Nagelkerke / Cragg & Uhler’s.

Acesta măsoară îmbunătățirea față de modelul nul, adusă de modelul cu variabile explicative. Acest
modelul nul este cel în care covariabilele sunt egale cu 0 – deci ar rezulta o medie simplă a variabilei
dependente pentru predicție.

Acești pseudo coeficienți pot fi folosiți pentru comparație doar utilizând aceeași bază de date – forma
matematică nu permite altfel de comparații. Astfel putem verifica dacă introducerea sau eliminarea unei
variabile explicative are efect asupra performanței modelului.
Dimensiunea eșantionului în cadrul regresiei logistice

Volumul eșantionului are un rol foarte important în precizia de măsurare dar și în puterea testului, deci
șansa de a găsi semnificație statistică. Mai simplu prezentat, cu cât avem mai multă informație cu atât avem
încredere mai mare în rezultate.
Există mai multe metode de determinare a dimensiunii eșantionului.

Vom prezenta în continuarea ”regula celor zece evenimente” – o regulă des întâlnită.
Aceasta spune că trebuie să existe 10 evenimente studiate realizate, pentru fiecare covariabilă introdusă în
model.
Presupunem că avem m variabile explicative, iar probabilitatea cea mai mică (din aceste variabile) de
apariție a evenimentului studiat este pmin. Atunci volumul (n) minim al eșantionului devine: n=10/pmin·m.

Sunt lucrări care determină volumul eșantionului cu un minim de 20 de evenimente pe variabilă,


considerând că modelul trebuie testat nu pe datele de antrenament ci pe date diferite, numite de test.
De asemenea sunt demonstrații care arată că doar pentru coeficientul a0 sunt necesare cel puțin 96 de
înregistrări pentru studiu.
Exemplu practic – 1

Dorim să vedem în ce măsură părinții alergici atât mama cât și tata pot influența probabilitatea de apariție a
alergiei la copil. Apoi vom trece la o problemă mai complexă introducând în model și informația cu privire la
fumat.
Conform codificărilor standard am notat cu 1 prezența alergiei respectiv a fumatului iar cu 0 lipsa acestora.
Iată variabilele de interes sunt prezentate în tabelul de mai jos (folosim aplicația SPSS):
Alegem în continuare din meniul SPSS: Analyze + Regression + Binary Logistic

Avem grijă să definim variabilele categoriale


cu punctul de referință cel mai mic (deci 0).
În cadrul opțiunilor alegem să fie realizat
testul Hosmer-Lemeshow de potrivire dar și
intervalele de confidență pentru exp(coeficienți)
– pentru a putea interpreta efectul
covariabilelor.
Rezultate obținute

Classification Tablea,b
Predicted
La pasul inițial (Step 0) avem o clasificare corectă
allergy child (conform tabelului) în procent de 69.3%. Aceasta
Observed Absent Prezent Percentage Correct rezultă din: 819/1182=69.2%
Step 0 allergy Absent 819 0 100.0 Inițial avem doar constanta în ecuație, deci cele
child Prezent 363 0 .0
p
două covariabile sunt 0: logit p =ln
1−p = 𝑎0 .
Overall Percentage 69.3
a. Constant is included in the model.
b. The cut value is .500 p=363/1182=0.3071 deci p/(1-p)=0.443=exp(a0)
Variables in the Equation
B S.E. Wald df Sig. Exp(B) Astfel a0=ln(p/(1-p))=ln(0.443)=-0.814
Step 0 Constant -.814 .063 166.526 1 .000 .443

Classification Tablea,b
Clasificarea finală (Step 1) nu aduce îmbunătățiri. Predicted
allergy child
Cu toate că am adăugat două covariabile în model, Observed Absent Prezent Percentage Correct
acesta nu reușește să îmbunătățească predicția. Step 1 allergy Absent 819 0 100.0
child Prezent 363 0 .0
Overall Percentage 69.3
a. Constant is included in the model.
b. The cut value is .500
Variables not in the Equation
Score df Sig.
Step 0 Variables allergy mother 4.541 1 .033 Variabilele care nu sunt în model prezintă semnificație –
allergy father 8.213 1 .004
Overall Statistics 11.280 2 .004
deci trebuie verificat și introduse în calcul.

Omnibus Tests of Model Coefficients


Chi-square df Sig. Testul omnibus este semnificativ deci modelul este util
Step 1 Step 11.187 2 .004
Block 11.187 2 .004 statistic – confirmat statistic.
Model 11.187 2 .004

Model Summary
Cox & Snell Nagelkerke R
Step -2 Log likelihood R Square Square Pseudocoeficientul de determinare (puterea
a
1 1446.848 .009 .013
a. Estimation terminated at iteration number 4 because parameter
predictivă), prezintă mai multe forme.
estimates changed by less than .001. Nagelkerke R Square variază în domeniul [0,1] și
este preferat.
Valoare foarte mică arată că modelul nu satisface
cerințele de predicție.
Iată următoarele rezultate obținute

Conform testului Hosmer-Lemeshow nu avem semnificație – deci acceptăm ipoteza nulă, nu există
diferență semnificativă între frecvențe.
În următorul tabel avem informații despre coeficienții regresiei logistice (notați cu B). Obținem semnificație
doar pentru prezența alergiei la tată – iar aceasta arată un risc în spațiul OR de valoare 1.401 (OR=1.401).
Deci pentru copil este de 1.4 ori mai riscant să prezinte alergie dacă tatăl la rândul lui este alergic comparativ
cu un tată nealergic.
Prezența semnificației este marcată și în intervalul de confidență (nu cuprinde valoarea 1).

Hosmer and Lemeshow Test


Step Chi-square df Sig.
1 .318 2 .853
Variables in the Equation
95% C.I.for EXP(B)
B S.E. Wald df Sig. Exp(B) Lower Upper
Step 1aallergy mother(1) .230 .131 3.069 1 .080 1.259 .973 1.628
allergy father(1) .337 .130 6.720 1 .010 1.401 1.086 1.807
Constant -1.033 .093 122.487 1 .000 .356
a. Variable(s) entered on step 1: allergy mother, allergy father.
Vom introduce toate covariabilele în modelul matematic și interpretăm rezultatele.

În primul rând observăm că toți coeficienții au semnificație – deci toate covariabilele au efect. Valorile OR
sunt prezentate în coloana Exp(B) , coeficienții sunt notați cu B.
Testul Hosmer-Lemeshow nu este semnificativ deci modelul este util – confirmat statistic.

Dacă am dori să vedem cât de riscant este să avem ambii părinți


fumători comparativ cu situația ambii nefumători, cum calculăm OR ?
Făcând calculul matematic rezultă înmulțirea celor două valori exp(B).

ORfumători = ORmamă_f ·ORtată_f = 1.652·1.742 = 2.877


Exemplu practic – 2

Verificăm influența vârstei asupra afecțiunii Clostridium Difficile (CDI).


Avem baza de date ce conține un număr de 314 participanți la studiu.
Coloana y_CDI_0_1 conține informația codificată cu 0 – lipsă infecție respectiv 1 – infecție prezentă.
Vârsta în ani este prezentă prin coloana x_varsta_ani, respectiv pentru pragul de 65 ani avem coloana
numită Varsta≥65. Codificarea standard este prin 0 (absență eveniment) respectiv 1 (prezență).
Calculăm efectul asupra riscului de a avea CDI pentru pragul de 65 de ani.

Din meniu alegem Analyze + Regression + Binary Logistic.


Definim apoi variabila dependentă y_CDI_0_1 apoi Varsta≥65 drept covariabilă.
În cadrul opțiunilor bifăm CI for exp(B) și lăsăm implicit 95% standardul de calcul al intervalului de
confidență.
Confirmăm și lansăm calculele prin clic pe OK.
Ne interesează mai întâi să vedem dacă obținem semnificație statistică – și iată conform cu datele noastre
avem p< 0.001. Menționăm că acest calcul este recursiv și odată ce valoarea este mai mică ca 0.001 nu mai
are sens să se continue aproximarea – deci avem semnificație (p este mai mic ca 0.05 pragul standard).

Citim apoi valoarea exp(B) ce reprezintă OR (Odd Ratio deci Raportul Cotelor). Obținem OR=4.189.

Astfel prin trecerea de la 0 la 1 adică de la sub 65 ani la 65 sau peste această vârstă, riscul de a te
îmbolnăvi de CDI crește de 4.189 ori.

Variables in the Equation


95% C.I.for EXP(B)
B S.E. Wald df Sig. Exp(B) Lower Upper
Step 1a Varsta≥65_0_1 1.433 .374 14.699 1 .000 4.189 2.014 8.713
Constant -2.735 .298 84.323 1 .000 .065
a. Variable(s) entered on step 1: Varsta≥65_0_1.
Continuăm analiza și considerăm acum vârsta în forma continuă deci ani.
În definirea regresiei logistice se modifică doar definirea covariabilei vârsta în forma x_varsta_ani.

Vârsta este o covariabilă ce prezintă semnificație p=0.021 deci are influență asupra infecției cu CDI.
Interpretarea coeficientului în forma exponențială: OR=1.042 ceea ce arată o influență negativă. Mai clar, la
creșterea cu un an în vârstă riscul persoanei de a avea CDI crește în spațiul OR la 1.042 adică de 1.042 ori
mai riscant.

Variables in the Equation


95% C.I.for EXP(B)
B S.E. Wald df Sig. Exp(B) Lower Upper
a
Step 1 x = varsta (ani) .041 .018 5.330 1 .021 1.042 1.006 1.080
Constant -4.617 1.169 15.600 1 .000 .010
a. Variable(s) entered on step 1: x = varsta (ani).
Nu este întotdeauna interesant de a calcula riscul, raportat la fiecare an de creștere sau altfel spus, la
fiecare unitate de creștere a covariabilei. Poate mai pertinent ar fi să răspundem la următoarea întrebare:
La 10 ani de creștere a vârstei cum se schimbă riscul ?
Pentru aceasta creăm o nouă variabilă în care unitatea de măsură este de 10 ani. Notăm această variabilă
cu x_varsta_10ani. De fapt aceasta este vârsta /10 (împărțim vârsta la 10), deoarece măsoară vârsta din 10
în 10 ani.
Repetăm calculul in SPSS schimbând covariabila de interes în cea nou creată x_varsta_10ani.
Obținem aceeași semnificație – deoarece aceasta nu depinde de unitatea de măsură.
Coeficientul exp(B) = 1.513 ceea ce arată că este de 1.513 mai riscant de a avea CDI la o creștere cu 10
ani a vârstei persoanei, risc măsurat în spațiul OR (raportul cotelor).

Același rezultat se obține dacă folosim vârsta din an în an, avem coeficientul B=0.041 (din tabelul
precedent) îl înmulțim cu 10 (deci o creștere cu 10 ani) și apoi exponențiăm:
Orcreștere cu 10 ani = exp(0.041·10) = exp(0.41) = 1.504 (diferența apare deoarece am folosit doar 3 zecimale).
Variables in the Equation
95% C.I.for EXP(B)
B S.E. Wald df Sig. Exp(B) Lower Upper
a
Step 1 Varsta (10 ani) .414 .179 5.330 1 .021 1.513 1.065 2.150
Constant -4.617 1.169 15.600 1 .000 .010
a. Variable(s) entered on step 1: Varsta (10 ani).
VĂ MULȚUMESC !

S-ar putea să vă placă și