a. Repartitia binominal
a neg-
ativ
a
f (x) = (1 p)x p
se numeste variabil
a geometric
a, iar (x, f (x)), x = 0, 1, 2, ... se numeste repartitie
geometric a.
Cum 0 < p < 1, avem
p
f (x) = p [1 + (1 p) + (1 p)2 + ...] = = 1.
x=0
1 (1 p)
1
Cazul 2. r = 1
Daca f (x) este probablitatea de a obtine exact x insuccese nainte de succesul r, atunci
pentru a se realiza acest eveniment, trebuie sa obtinem un succes n experienta r + x si n
cele r + x 1 experiente anterioare sa obtinem r 1 succese si x insuccese.
Probabilitatea de a obtine r 1 succese n primele r + x 1 experiente este
r1
Cr+x1 pr1 (1 p)x ,
se numeste variabil
a binominal
a negativ
a, iar (x, f (x)) repartitie binominal
a
negativ
a.
Propozitia 1. Daca X, Y sunt variabile aleatoare independente, repartizate binominal
negativ de parametri (r1 , p), respectiv (r2 , p), atunci variabila X + Y este repartizata
binominal negativ de parametri (r1 + r2 , p).
2
2 Inegalitatea lui Cebsev
D2 (X)
P [|X M (X)| < L] 1 .
L2
Demonstratie. Consideram ( )
x1 x2 ... xn
X:
p1 p2 ... pn
si
n
n
2
= pi (xi M (X)) =2
pi i2 unde i = xi M (X).
i=1 i=1
12 22 ... n2 .
12 22 ... i2 L i+1
2
... n2 .
2 L [pi+1 + ... + pn ]
sau
2
pi+1 + ... + pn .
L
Suma pi+1 + ... + pn reprezinta probabilitatea ca abaterea sa fie mai mare sau egala cu L
si prin urmare
2
P [|X M (X)| L] .
L
Din relatia
P [|X M (X)| L] + P [|X M (X)| < L] = 1
rezulta inegalitatea din enunt.
Daca L = k atunci:
1
P [|X M (X)| < k ] 1 .
k2
Daca k = 3 rezulta
8
P [|X M (X)| < 3] .
9
( )
8
Aceasta nseamna ca 89% dintre abaterile absolute ale variabilei X nu depasesc 3
9
(regula trei sigma).
Se observa deci ca dispersia functioneaza ca indicator de concentrare a abaterilor n jurul
valorii medii.
3
3 Convergenta sirurilor de variabile aleatoare
oricare ar fi > 0.
Definitia 5. Spunem ca sirul de variabile aleatoare (Xn ) converge aproape sigur catre
variabila aleatoare X, daca ( )
P lim Xn = X = 1.
n
Definitia 7. Daca
lim D2 (Xn X) = 0,
n
D2 (Xn X)
1 P (|Xn X| < ) 1,
de unde, trecand la limita pentru n , se obtine ca daca D2 (Xn X)n
0, atunci
P (|Xn X| < )n
1
4
Demonstratie. Daca Xn n
X aproape sigur, atunci pentru orice > 0 avem
( )
lim P sup |Xn X| > = 0.
N nN
Rezulta de aici ca
lim P (|Xn X| > ) = 0.
n
Propozitia 4. Daca D (Xn X)n
2 0
si M (Xn X)2 < +, atunci Xn n
X
i=1
aproape sigur.
5
4 Legi ale numerelor mari
D2 (Xn)
1 P (|X
n M (X
n )| < ) 1.
Deoarece
1 2
n
nc c
2
D (Xn ) = 2 D (Xj ) 2 = ,
n i=1 n n
obtinem
c
1 P (|X
n M (X
n )| < ) 1
n
si de aici
n M (X
lim P (|X n )| < ) = 1.
n
Teorema lui Cebsev arata ca desi variabilele aleatoare independente pot lua valori
departate de mediile lor, media aritmetica a unui numar suficient de mare de astfel
de variabile aleatoare ia, cu o probabilitate mare, valori n vecinatatea constantei
1
n
M (Xj ). Prin urmare, ntre comportarea variabilelor aleatoare si media lor exista o
n j=1
mare deosebire. In cazul variabilelor aleatoare nu putem prezice cu o probabilitate mare
valoarea, pe cand, n cazul mediei aritmetice ale acestor variabile, putem preciza, cu o
probabilitate apropiata de 1, ce valoare ia.
Media aritmetica a unui numar suficient de mare de variabile aleatoare si pierde calitatea
de variabila aleatoare.
Teorema 2[Bernoulli] Sa presupunem ca se fac n experiente independente, n fiecare
experienta probabilitatea evenimentului A fiind p, si fie numarul de realizari ale
evenimentului A n cele n experiente. Pentru orice avem
( )
lim P p < = 1.
n n
= X1 + X2 + ... + Xn
6
unde fiecare din variabilele X1 , X2 , ..., Xn are repartitia
( )
1 0
Xi : .
p 1p
De aici rezulta: M (Xi ) = p, D2 (Xi ) = p (1p), si M () = np, D2 () = n p (1p).
1
Aplicand inegalitatea lui Cebsev variabilei rezulta:
n
( )
( ( ) ) D2
n
P M < 1 2
n n
sau ( )
p (1 p)
P p < 1 .
n n2
inand seama ca p (1p) 41 , obtinem
T
( )
1
P p < 1 .
n 4n2
Trecand la limita, obtinem
( )
lim P p < = 1,
n n
ceea ce demonstreaza teorema.
D2 ( n ) (100)2 99
1 1 > 0.99 1 > 4n > 106 n > 250.000
102
4n 100