Documente Academic
Documente Profesional
Documente Cultură
Indice
Introduzione
ii
iii
.
.
.
.
.
.
.
1
1
4
6
10
12
12
16
20
20
23
25
Bibliografia
28
3 ESERCIZI PROPOSTI
3.1 Esercizi di tipo analitico . . . . . . . . . .
3.2 Esercizi sulla convergenza in distribuzione
3.3 Esercizi con le funzioni caratteristiche . .
3.4 Esercizi sulla condizione di Lindeberg . .
3.5 Esercizi sulla legge dei grandi numeri . . .
3.6 Esercizio riassuntivo . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
29
29
30
30
32
33
33
ii
CP31-nov-2009
Introduzione
`e semplicemente (0, 1), B(0, 1), |(0,1) , dove B(0, 1) `e la sigma-algebra dei boreliani e |(0,1) `e la misura di Lebesgue
ristretta allintervallo (0, 1).
Questi appunti (parzialmente basati su appunti scritti per altri corsi) non sono in nessun modo completi. Le lezioni
sono basate principalmente sui testi di Billingsley [1] e di Koch [2].
ATTENZIONE: le notazioni potrebbero differire da quelle usate a lezione.
GLI APPUNTI NON SONO ANCORA COMPLETATI(ad esempio, nella sezione sui vari tipi di convergenza,
mancano le definizioni), E NON SONO STATI ANCORA CORRETTI.
CP31-nov-2009
iii
iv
CP31-nov-2009
Capitolo 1
Come dovrebbe essere noto uno spazio di probabilit`a `e una terna (, F, P), dove
F `e una -algebra, ovvero F `e una famiglia di sottoinsiemi di , cio`e F `e un sottoinsieme di P(), tale che
F;
se A F, allora Ac F ;
se An F, n N, allora nN An F;
(1.1)
(1.2)
(1.3)
A 7 P(A)
(1.4)
(1.5)
nN
La -algebra F rappresenta linformazione disponibile, ovvero gli eventi appartenenti a F sono gli unici eventi di
cui abbiamo la possibilit`a di sapere se si sono verificati oppure no.
Oltre alla misura di probabilit`a P, per tutti gli eventi A F con P(A) > 0, si possono definire le probabilit`
a
condizionate 1 allevento A, che rappresentano la valutazione della probabilit`a nel caso in cui si verificasse levento
A:
P(|A) F : [0, 1]
P(E A)
E
7 P(E|A) :=
P(A)
(1.6)
(1.7)
CP31-nov-2009
Esempio 1.1. Qualunque sia , la -algebra banale F = {, } `e una -algebra, e necessariamente P() = 1 e
P() = 0.
Esempio 1.2. Qualunque sia , preso un sottoinsieme proprio A di la -algebra F = {, A, Ac , } `e una -algebra,
e necessariamente P() = 1, P() = 0, P(A) = p, P(Ac ) = 1 p, per un p [0, 1].
Esempio 1.3. Qualunque sia , sia {Hm , m = 1, 2, . . . , N } una partizione finita di , cio`e se gli eventi sono
incompatibili:
Hn Hm = per n 6= m, n, m {1, 2, . . . , N }
ed esaustivi:
N
[
Hm = ,
m=1
allora la famiglia M = {A =
pm 0, m = 1, 2, . . . , N,
Hm = ) `e una
pm = 1,
m=1
pm ,
per A =
mI
Hm ,
(1.8)
mI
allora la famiglia
F = {A =
(con la convenzione che
Hm , al variare di I N},
mI
Hm = ), `e una -algebra2 .
verifica `
e banale:
=
Hm , ovvero I = N
mN
se A =
Hm , allora Ac =
mI
se An =
[
mIn
Hm
mI c
Hm , n 1, allora
[
n=1
An =
[
mI
Hm , per I =
n=1 In .
CP31-nov-2009
P(A) =
pm ,
per A =
mI
Hm ,
(1.9)
mI
`e la -algebra5 generata da K.
In particolare quindi la -algebra M, generata dalla partizione {Hm ; m N} come nellEsempio 1.4, coincide
con ({Hm ; m N}), in quanto, come gi`a visto M `e una -algebra, e inoltre ogni -algebra che contenga
{Hm ; m N}, deve necessariamente contenere tutte le unioni del tipo mI Hm .
4 la -algebra generata
S da una collezione di -algebre
Nel caso in cui K = G , dove G sono -algebre, allora si pone
_
[
G :=
G .
M N = ({Hm K` ; m N, ` N}) = E =
Hm K` ; con J N N .
(m,`)J
3 La
se An =
mIn
allora
An =
nN
e quindi P
nN
4 La
Hm con I =
mI
nN
X X
X
X
P An ,
p` =
pm =
An = P A =
`I
nN mIn
nN
verifica `e banale:
F , in quanto G , per ogni ;
se A F , cio`
e se A G , per ogni , allora Ac G , per ogni , e quindi Ac F ;
[
[
An F ;
An G , per ogni , e quindi
se An F , n N cio`
e se An G , per ogni , n N allora
nN
5 Il
fatto che
T
G:KG
nN
CP31-nov-2009
5 la -algebra dei Boreliani Nel caso in cui K = A, la famiglia degli aperti di Rk , allora
B(Rk ) := (A)
`e detta -algebra dei boreliani, o -algebra di Borel, ed ogni elemento di I di B(Rk ) `e detto boreliano.
1.2
Variabili aleatorie
X : 7 Rk ; 7 X() = X1 (), . . . , Xk () ,
basta infatti sostituire R con Rk .
Vediamo alcuni esempi di variabili aleatorie F-misurabili, al variare della -algebra F.
Esempio 1.5. Se F = {, }, allora le uniche variabili aleatorie reali X F-misurabili sono le costanti:
Se X : 7 R; 7 X() = c, allora X 1 (O) `e levento impossibile(=insieme vuoto ), se c
/ O, oppure `e linsieme
certo(=), se c O.
Viceversa se X : 7 R; 7 X() non `e costante allora X assume almeno due valori c1 e c2 distinti (cio`e esistono
i tale che X(i ) = ci , per i = 1, 2, con c1 6= c2 ). Quindi se c1 O, ma c2
/ O, allora 1 X 1 (O), mentre
1
1
2
/ X (O), ovvero X (O) (dove le inclusioni sono in senso stretto), e quindi X non `e F-misurabile.
Si noti che lesempio precedente mostra anche che tutte le variabili aleatorie costanti sono misurabili rispetto a
qualunque -algebra ({, } F, per ogni -algebra F).
Esempio 1.6. Sia {Hm , m N} una partizione numerabile, e sia M come nellesempio 1.4. Allora X : 7 R; 7
X() `e M-misurabile, se e solo se esiste una successione di costanti {cm , m N}8 , tale che
X
X() =
cm IHm ().
(1.10)
mN
CP31-nov-2009
n mI n
Hm M,
n
nI
Esempio 1.7. Sia X : 7 R; 7 X(), una funzione discreta, ovvero tale che limmagine X() = {x
R, tali che esiste un con X() = x} di X sia un insieme numerabile (finito o infinito), cio`e X() = {xm , m N},
con xn 6= xm per n 6= m. Allora
X
X() =
xm IHm (),
(1.11)
mN
dove
Infine la variabile aleatoria X si dice semplice o elementare, se linsieme X() `e un insieme finito.
Si pu`o dimostrare che
1 se X `e una variabile aleatoria F-misurabile, allora la controimmagine X 1 (I) F, per ogni boreliano I B(R),
2 la variabile aleatoria X `e F-misurabile, se e solo se ciascuna componente
Xi `e F-misurabile9 , per ogni i = 1, . . . , k.
T
1
In particolare X ({x}) F, per ogni x R, in quanto {x} = n (x 1/n, x + 1/n).
Connessa con la precedente Definizione 1.1 `e la seguente definizione:
solo la necessit`
a, che `
e immediata: basta prendere O = R R Oi R R.
|
{z
}
|
{z
}
i1 volte
ki volte
famiglia RX non `
e vuota, in quanto contiene almeno G = P(), linsieme delle parti di .
11 Una funzione g : Rk 7 Rd , si dice boreliana se `
e una funzione tale che le controimmagini di aperti sono boreliani.
Ovviamente le funzioni continue sono boreliane. Sono boreliane anche le funzioni continue a tratti, o meglio ancora costanti a tratti.
Per chi non avesse familiarit`
a con i concetti di misurabilit`
a pu`
o pensare a queste funzioni, o a funzioni che siano limite puntuale di funzioni
di uno dei due tipi precedenti.
CP31-nov-2009
Esempio 1.8. Sia X una funzione semplice, come in Esempio 1.7, allora
[
(X) = ({Hm , m N}) = {A =
Hm ; I N},
mI
come discende immediatamente dallEsempio 1.6. Di conseguenza se g : R 7 R tale che g(xm ) = cm , per ogni m N,
allora
X
X
X
Z() :=
cm IHm = Z() =
g(xm )IX 1 ({xm }) () =
g(xm )I{xm } X() = g(X()).
m
Terminiamo questa sezione, ricordando che le operazioni di massimo, minimo, somma, prodotto, di due funzioni
misurabili, danno luogo a funzioni misurabili: quindi se X ed Y sono variabili aleatorie F-misurabili, lo sono anche
X Y = max(X, Y ), X Y = min(X, Y ), X + Y , XY . In particolare sono variabili aleatorie X + := X 0 e
X := (X) 0.
1.3
1
PX (I) := P X I = P X (I) . Nel seguito, a volte useremo anche il simbolo X per indicare la distribuzione di
probabilit`a di X.
Come `e noto, associata alla variabile aleatoria X c`e anche la funzione di distribuzione12
FX (x) := P( : X() x) = PX (, x] ,
x Rk .
(1.12)
La funzione di distribuzione gode di alcune propriet`a caratterizzanti13 :
Propriet`
a delle funzioni di distribuzione
0 FX (x) [0, 1]
1 La funzione FX `e continua dallalto14 , nel senso che, per ogni x Rk si ha
lim FX (y1 , , yi , , yk ) = F (x1 , , xi , , xk ),
y&x
13 Si
14 Nel
(, x] = (, x1 ] (, xk ].
CP31-nov-2009
yi
Inoltre
lim
|x|+
` importante sottolineare che la funzione di distribuzione FX individua la misura di probabilit`a indotta PX sulla
E
famiglia (di boreliani)
(, b] := {x Rk : xi bi }
con b = (b1 , , bk ) Rk .
Questa famiglia ha la propriet`a di essere chiusa rispetto allintersezione finita:
(, b] (, b0 ] = (, b b0 ],
Ci`o `e sufficiente a individuare la misura di probabilit`a indotta, grazie a un risultato molto utile di teoria della
misura:
Lemma 1.1 (Lemma di Dynkin, Billingsley 1984 [1]). Sia A una famiglia di eventi che genera la -algebra G e che
`e chiusa rispetto alla intersezione finita (cio`e: A, B A implica A B A). Se due misure di probabilit`
a e
coincidono su A, allora le due misure coincidono su G = (A).
Definizione 1.3 (variabili aleatorie con densit`a discreta). Si dice che una variabile aleatoria elementare X ha densit`
a
discreta
x1 x2 xm
p1 p2 pm
dove x1 , x2 , xm sono elementi di Rk e p1 , p2 , pm sono numeri reali tali che
pj 0
per ogni j = 1, 2, , m,
m
X
pj = 1,
j=1
15 Nel
caso k = 1, la propriet`
a 3 corrisponde alla propriet`
a di monotonia 2:
se a b
allora
FX (a) FX (b).
allora
Per k 2 la propriet`
a 3 non si riduce alla propriet`
a di monotonia 2, come mostra il seguente controesempio:
(
0 se x < 0, oppure se x + y < 1,
oppure se y < 0.
F (x1 , x2 ) =]
1 se x 0, y 0, e x + y 1
Si vede facilmente che F `
e una funzione monotona. Tuttavia F non soddisfa la propriet`
a 3, infatti
F (1, 1) F (1, 0) F (0, 1) + F (0, 0) = 1 1 1 + 0 = 1.
CP31-nov-2009
m
X
PX (I) := P(X I) =
pj .
j=1
xj I
x1 x2 xm xm+1
p1 p2 pm pm+1
Esempio 1.9 (variabili aleatorie con distribuzione binomiale). Ogni variabile aleatoria X per la quale
n
X
n h
PX (I) :=
p (1 p)nh
h
h=0
hI
viene detta una variabile aleatoria binomiale di parametri n e p e si scrive in breve X Bin(n, p).
Definizione 1.4 (variabili con densit`a). Sisupponga di avere una funzione f : Rk 7 R con le propriet`
a:
Z
f (x) 0 per ogni x Rk ,
f (x) dx = 1,
Rk
Esempio 1.10 (distribuzione gaussiana). Come caso particolare si consideri il caso della variabile aleatoria
unidimensionale con densit`
a
(x)2
1
e 22
f (x) =
2
dove `e un numero reale e `e un numero (strettamente) positivo. Una variabile aleatoria con questa distribuzione `e
detta gaussiana o normale di valore atteso (o valore medio) e varianza 2 . Brevemente si indica X N (, 2 ).
Se = 0 e 2 = 1 si dice che X `e una variabile gaussiana (o normale) standard.
Vediamo ora dei semplici esempi di calcolo della distribuzione indotta.
Esempio 1.11 (una variabile aleatoria binomiale). Sia
= {0, 1}N = { = (1 , 2 , . . . , N ), con i {0, 1}, per i = 1, 2, . . . , N },
sia
F = P(),
linsieme delle parti di , sia la probabilit`
a definita attraverso la relazione
PN
P({}) := p
i=1
PN
(1 p)N
i=1
dove p `e un numero fissato con la condizione che p (0, 1). Sia infine X la variabile aleatoria definita da
X() :=
N
X
i=1
i .
CP31-nov-2009
N h
PX (h) := P(X = h) =
p (1 p)N h ,
h
N
X
N h
p (1 p)N h
PX (I) := P(X I) =
h
h=0
hI
Esempio 1.12 (Variabili esponenziali). Sia = (0, 1) F = B(0, 1) e P la misura di Lebesgue su (0, 1). Sia > 0 e
X() := log(1 )/. Allora
FX (x) = P(X x) = mis{ (0, 1) : log(1 ) x} = mis{ (0, 1) : 1 e x },
e quindi
(
FX (x) =
0
1 e x
per x 0,
per x > 0.
Per il Lemma di Dynkin (Lemma 1.1) sappiamo che la funzione di distribuzione individua univocamente la
` quindi facile convincersi che, tale distribuzione coincide con la distribuzione
distribuzione di X. E
(dx) = 1(0,) (x) e x dx,
che `e nota come la distribuzione esponenziale di parametro .
Sempre nello stesso spazio si pu`
o definire la variabile aleatoria
Y () =
log()
,
log 1 e X()
Y () =
,
= 1 e X() .
log 1e x
Di conseguenza, se G := {(x, y) : x > 0, y > 0, ey =
}, `e facile convincersi che
PX,Y (I) = x (G I) = y (G I)
Ah := {X = h} `
e rappresentato dallinsieme, di cardinalit`
a
=
h.
La
probabilit`
a
di
ciascuno
di
questi
vale
quindi
i=1 i
PN
PN
P() = p
i=1
PN
(1 p)N
N
,
h
i=1
e la probabilit`
a dellinsieme vale
P(X = h) = P(Ah ) =
X
Ah
P() =
X
Ah
N
ph (1 p)N h
10
CP31-nov-2009
x2
x2
1 x2 +y2
1
1
2
=
e
e 2
e 2
2
2
2
Tale densit`
a caratterizza le variabili aleatorie gaussiane com media nulla e matrice di covarianza lidentit`
a (si veda
lAppendice 1.6).
A volte, invece di definire lo spazio di probabilit`a e la variabile aleatoria X ed infine trovare la distribuzione di X,
si pu`o dare direttamente la distribuzione di X. Questo `e il caso delle variabili aleatorie che vengono caratterizzate
solo attraverso la densit`a discreta o con densit`a (di probabilit`a).
Pi`
u in generale, le distribuzioni si possono specificare solo attraverso la funzione di distribuzione.
Quando si specifica una variabile aleatoria attraverso la sua distribuzione, e ancor di pi`
u se invece si specifica solo
una funzione che goda delle propriet`a delle funzioni di distribuzione (si veda pag. 6), rimane il dubbio che una tale
variabile aleatoria esista, ovvero che esista uno spazio di probabilit`a (, F, P) e una variabile aleatoria X. A questo
problema risponde il teorema di Skorohod (vedere Appendice 2.1).
1.4
Valori attesi
In questa sezione ricordiamo come si pu`o definire il valore atteso per variabili aleatorie generali, a partire dalla sua
definizione per variabili aleatorie semplici. Per maggiori approfondimenti si rimanda, ad esempio, al libro di Billingsley
[1] o a quello di Williams [3].
Definizione 1.5 (Valore atteso per variabili semplici). Sia X una variabile aleatoria in (, F, P), non negativa e
semplice, cio`e come in Esempio 1.7,
X
X() =
xm IHm (), con Hm F per ogni m N,
mN
allora si definisce
E[X] =
xm P(Hm ).
mN
Osservazione 1.1. Ogni variabile aleatoria X in (, F, P), non negativa, ammette una successione di variabili
aleatorie Xn , semplici e non negative, tali che
0 Xn () Xn+1 (),
17
Infatti
basta prendere
Xn () =
n
n2
1
X
m=0
n2
1
X
m
m
I
1 m m+1 (X()) + n1[n,) (X()),
(n) () + nI (n) () =
n
H
H
m
n
n2
2
2n [ 2n , 2n )
m=0
(1.13)
CP31-nov-2009
11
dove si `e posto
(n)
Hm
= X 1
2n ,
m+1
2n
F per 0 m n2n 1,
(n)
Hn2n = X 1 [n, ) ,
e, per A F,
IA () = 1
se
IA () = 0
se
x [a, b)
1[a,b) (x) = 0
/ A,
se
se
x
/ [a, b).
` infine interessante notare che, posto bxc la parte intera inferiore18 di x, si pu`
E
o riscrivere nel seguente modo
Xn () =
b2n X()c
n.
2n
Definizione 1.6 (Valore atteso per variabili nonnegative). Sia X una variabile aleatoria in (, F, P), non negativa,
si definisce
E[X] = sup
n
nX
i=1
o
inf X() P(Ai ) al variare tra le partizioni dellevento certo A1 , , An .
Ai
Si dimostra che
E[X] = lim E[Xn ],
n
dove {Xn ; n N} `e la successione monotona definita come in (1.13) dellOsservazione precedente. Il limite esiste ed
`e monotono, per la propriet`
a di monotonia del valore atteso, sulle variabili aleatorie semplici. Si noti bene che tale
limite pu`
o valere anche +, nel qual caso si dice che la variabile X ha valore atteso infinito.
bn ; n N} `e unaltra successione di variabili aleatorie semplici che converge
Osservazione 1.2. **Ovviamente se {X
bn ] `e una successione che converge monotonamente. Si
monotonamente ad X, anche la successione dei valori attesi E[X
pu`
o dimostrare che il limite non dipende dalla successione scelta19 ed in particolare coincide con il limite considerato
nella precedente Definizione 1.6.
Arriviamo ora alla definizione generale del valore atteso:
Definizione 1.7 (Valore atteso per variabili generali). Sia X una variabile aleatoria in (, F, P), Siano X + := X 0 e
X := (X)0, le variabili aleatorie non negative, definite alla fine della sezione precedente. Si noti che X = X + X
e che invece |X| = X + + X . Si definisce allora, se ha senso20
E[X] = E[X + ] E[X ].
18 La
da cui si deduce immediatamente che limk E[Yk ] limn E[Zn ]e quindi luguaglianza, scambiando il ruolo delle due successioni.
P
Si fissi quindi k e si consideri che, per ipotesi Yk `
e semplice e che quindi si pu`
o scrivere Yk = `i=1 yi IAi , dove Ai = {Yk = yi } (ovviamente `
(n)
(n)
Bi
= Ai {Zn > yi }.
probabilit`
a deve valere allora che P(Bi
E[Zn ]
(n+1)
Bi
.
) % P(Ai ). Ovviamente si ha
`
X
(n)
(yi )P(Bi )
e quindi
i=1
lim E[Zn ]
`
X
(yi )P(Ai ).
i=1
P`
Per larbitrariet`
a di si ha allora limn E[Zn ] i=1 yi P(Ai ) = E[Yk ].
20 Si considera che la somma E[X + ] E[X ] ha senso
1 se E[X + ] < , E[X ] < , nel qual caso E[X] R e inoltre si ha anche E[|X|] = E[X + ] + E[X ] < ;
2 se E[X + ] < , E[X ] = , nel qual caso E[X] = ;
3 se E[X + ] = , E[X ] < , nel qual caso E[X] = +;
Il caso che rimane escluso `
e quindi il caso in cui E[X + ] = , E[X ] = , del resto si avrebbe la forma indeterminata .
12
CP31-nov-2009
Se invece di usare la probabilit`a P si usa la probabilit`a condizionata ad un evento A, ovvero P(|A), allora si parla
di valore atteso di X condizionato allevento A e si usa la notazione
E[X|A].
Ci`o significa che, nel caso di una variabile aleatoria semplice
X
X() =
xm IHm (), con Hm F per ogni m N,
mN
si ha
E[X|A] =
xm P(Hm |A).
mN
**Terminiamo questa sezione ricordando che la definizione di valore atteso di una variabile aleatoria X corrisponde
alla definizione dellintegrale della funzione misurabile X rispetto alla misura P e che per il valore atteso valgono i due
famosi risultati di passaggio al limite sotto il segno di integrale:
Teorema della convergenza monotona:
se Xn sono variabili aletaorie limitate dal basso e che convergono
monotonamente ad X (P q.c.) allora la successione dei valori attesi E[Xn ] converge monotonamente a E[X].
Teorema della convergenza dominata: se Xn sono variabili aletaorie che convergono ad X P q.c. e se Y
`e una variabile aleatoria tale che |Xn | Y , con E[Y ] < , allora la successione dei valori attesi E[Xn ] converge a
E[X].
1.4.1
QUESTA SEZIONE SI PUO SALTARE Oltre a definire le variabili aleatorie reali o vettoriali si possono definire in
modo naturale anche variabili aleatorie a valori in spazi misurabili.
Definizione 1.8 (variabile aleatoria (o ente alealorio) a valori in (S, S)). Siano (, F) e (S, S) due spazi misurabili.
Una variabile aleatoria a valori in S `e una funzione misurabile
X : (, F) (S, S); 7 X().
In altre parole una funzione da in S e tale che per ogni B S, la sua controimmagine tramite X appartiene a F,
ossia linsieme X 1 (B) F.
Se S `e uno spazio metrico (o pi`
u in generale uno spazio topologico, allora la sigma-algebra S coincide con la
sigma-algebra dei boreliani, ossia la sigma-algebra generata dagli aperti.
Esempi tipici nascono quando si vogliono trattare i processi aleatori come funzioni aleatorie, ed in particolare a
funzioni aleatorie continue. In tale caso si pu`o prendere, ad esempio, lo spazio delle funzioni continue su [0, T ] a valori
reali. Prendendo poi come sigma-algebra la sigma-algebra dei boreliani, allora si pu`o affermare che funzioni come il
massimo o il minimo, sono variabili aleatorie.
Come si vede, nella definizione di variabile aleatoria non abbiamo neanche nominato la misura di probabilit`a su
(, F).
1.5
2 (B2 ) := 1 1 (B2 ) ,
B2 A2 .
CP31-nov-2009
13
Ovviamente perche la precedente definizione sia ben posta bisogna verificare che effettivamente definisca una misura
(questo `e un semplice esercizio ed `e lasciato al lettore).
Tornando agli Esempi precedentemente citati ed in particolare agli Esempi 1.12, 1.13, in entrambi (A1 , A ) =
(0, 1), B(0, 1) e 1 = P, la misura di Lebesgue ristretta a (0, 1), mentre A2 = R nel primo esempio e invece A2 = R2 ,
nel secondo esempio. Inoltre nel primo esempio sono state considerate due funzioni 1 () = X() = log(1)
e
log()
2 () = Y () = , mentre nel secondo esempio
la funzione := (1 , 2 ). NellEsempio 1.14,
`e stata considerata
2
invece (A1 , A ) = (0, 1) (0, 1), B((0, 1) (0,
1)
e
A
=
R
e
`
e
la
misura
di Lebesgue ristretta
a (0, 1) (0, 1).
2
1
B S.
f (x) PX (dx).
S
Riportiamo qui la dimostrazione nellambito astratto della Definizione 1.9 di misura indotta.
Lemma 1.2 (Cambio di variabile). Sia f Mb (A2 ), ossia una funzione misurabile da A2 , A2 in (R, B(R) e
limitata. Allora
Z
Z
f (a2 )2 (da2 ) =
f ((a1 ))1 (da1 )
(1.14)
A2
A1
Dimostrazione. Iniziamo con il mostrare che, per definizione di 2 , (1.14) `e valida per f = IB2 , per ogni B2 A2 :
da una parte
Z
dallaltra, tenuto conto che IB2 ((a1 )) = I1 (B2 ) (a1 ), in quanto (a1 ) B2 se e solo se a1 1 (B2 ),
Z
Z
A1
La dimostrazione segue poi con una tecnica che `e standard nellambito della teoria della misura.
Sia H linsieme delle funzioni f per cui `e valida luguaglianza (1.14).
Linsieme H verifica le seguenti propriet`a:
(i) linearit`
a, ovvero se f , g H, allora, per ogni a,b R la funzione a f + b g H
caso di variabili aleatorie vettoriali lo spazio (S, S) coincide con Rd , B(Rd ) . Ma la formula vale anche per variabil aleatorie
a valori in spazi pi`
u generali, come ad esempio gli spazi metrici, prendendo come sigma-algebra la sigma-algebra dei boreliani, ossia la
sigma-algebra generata dagli aperti (in altre parole la pi`
u piccola sigma algebra contente gli aperti). Come gi`
a detto esempi di tale genere
si incontrano quando ci si interessa di processi aleatori, pensati come variabili aletorie a valori in uno spazio di funzioni, ad esempio lo
spazio delle funzioni continue su un intervallo [0, T ], con la metrica della norma uniforme.
21 Nel
14
CP31-nov-2009
Le precedenti propriet`a assicurano che H `e una classe monotona. Basta allora applicare il teorema delle classi
monotone, che per comodit`a del lettore riportiamo di seguito.
Teorema 1.3 (Teorema delle classi monotone). Sia (, F) uno spazio misurabile e sia H un insieme di funzioni reali
misurabili e limitate, con le seguenti propriet`
a:
(i) H `e uno spazio vettoriale,
(ii) H contiene la funzione costante 1,
(iii) fn H, fn % f , f limitata implicano f H
cio`e H `e una classe monotona.
Se inoltre H soddisfa anche la seguente propriet`
a
(iv) H contiene le funzioni del tipo IA per ogni A A, dove A F `e un -sistema, cio`e `e chiuso per intersezione
finita,
allora H contiene tutte le funzioni limitate e (A)-misurabili.
Il precedente Teorema 1.2 si applica anche quando vogliamo calcolare la distribuzione di una trasformazione
di una variabile
ad esempio, se Z `e una variabile aleatoria con distribuzione PY ed Z = (Y ), allora
aleatoria:
(z)
1
(y)
z
det y
1
y=
(z)
Particolarmente semplice `e il caso di trasformazioni lineari (o affini) in cui lo Jacobiano `e il determinante della
matrice. Ad esempio se Z = AY , con A invertibile, allora 1 (z) = A1 z e la formula precedente diviene
fZ (z) = fY (A1 (z))
1
.
|det(A)|
Esempio 1.15. Un esempio di trasformazione che incontreremo spesso nel seguito `e il caso in cui Y = (Y1 , Y2 , , Ym )
e
Z1 = Y1 ,
Z2 = Y1 + Y2 ,
Zm = Y1 + Y2 + + Ym ,
1
1
z1 = y1 ,
z2 = y1 + y2 ,
0
1
1
0
0
1
zm = y1 + y2 + + ym .
0
0
0
con determinante uguale ad 1.
1
realt`
a basta che esista un aperto O, tale che la densit`
a fY (y) = 0 per y
/ A e tale che sia invertibile da O a (O,
CP31-nov-2009
15
La trasformazione inversa `e
y1 = z1 ,
y2 = z2 z1 ,
ym = zm zm1 ,
1
0
0
1 1
0
=
0 1 1
0
0
0
0
0
1 1
Z
0
0
fY1 +Y2 (x) = fZ2 (x) =
fZ1 ,Z2 (x, x ) dx =
fY1 ,Y2 (x, x0 x) dx0 .
R
16
CP31-nov-2009
1.6
Variabili gaussiane
QUESTO ARGOMENTO DOVREBBE ESSERE GIA STATO SVOLTO IN ALTRO CORSO, ALMENO IN
PARTE...
Cominciamo con il definire una variabile aleatoria gaussiana standard unidimensionale:
Definizione 1.10. Si dice che una variabile aleatoria reale Z `e gaussiana di valore atteso e varianza 2 , se
ammette densit`
a
(
2 )
1
1 x
.
fZ (z) = exp
2
2
In questo caso si usa la notazione Z N (, 2 ). Se = 0 e 2 = 1 allora si dice che Z segue una legge normale
o gaussiana standard.
Caso ndimensionale: iniziamo con il caso di un vettore (colonna) aleatorio
Y1
Y2
Y =
Yk
Yn
a componenti indipendenti e tutte gaussiane standard, ovvero il caso in cui
1
1
exp yi2
2
2
i=1
i=1
(
)
n
1
1X 2
1
1 0
=
exp
=
y
exp y y .
2 i=1 i
2
(2)n/2
( 2)n
fY (y) =
n
Y
fYi (yi ) =
n
Y
(z)
1
1
(y)
z
det y
1
y=
0
1
1
1
fZ (z) = n exp A1 (z m) A1 (z m)
.
2
|det(A)|
2
Essendo
(A1 (z m))0 A1 (z m) = (z m)0 (A1 )0 A1 (z m)
= (z m)0 (A0 )1 A1 (z m) = (z m)0 (AA0 )1 (z m)
si ottiene
fZ (z) =
1
1
1
0
0 1
exp
(z
m)
(AA
)
(z
m)
.
2
(2)n/2 |det(A)|
(z)
CP31-nov-2009
17
(A0 )1 = (A1 )0
(i)
in quanto
A0 z = w z = (A0 )1 w
e inoltre
0
A0 z = w (z 0 A) = w z 0 A = w0 z 0 = w0 A1
0
z = w0 A1 z = A1 w.
(AA0 )
(ii)
= (A0 )
A1
in quanto
(AA0 )
z = w z = AA0 w A1 z = A0 w (A0 )
A1 z = w.
` interessante notare che sia il vettore m che la matrice AA0 = A0 A hanno una interpretazione probabilistica:
E
E(Zi ) = E(
n
X
ai,k Yk ) + mi =
k=1
n
X
ai,k E(Yk ) + mi = mi
k=1
n
X
ai,k Yk
k=1
n
X
aj,h Yh ] =
h=1
n X
n
X
k=1 h=1
e quindi
Cov(Zi , Zj ) =
n
X
k=1
1,n
n X
X
k=1 h6=k
n
X
k=1
Si osservi che se Z = (Z1 , ..., Zn ) `e un vettore gaussiano allora (Z1 ...Zk ) e (Zk+1 , ..., Zn ) sono indipendenti, se e
solo se Cov(Zi , Zh ) = 0 per ogni i = 1, , k e h = k + 1, , n. In tale caso allora `e ovvio che il vettore (Z1 ...Zk ) `e
un vettore gaussiano23
Terminiamo questo paragrafo con il ricordare quanto valgono i momenti di una variabile aleatoria gaussiana.
Sia Z una variabile aleatoria N (0, 2 ). Per quanto visto prima possiamo considerare Z = Y con Y una variabile
aleatoria N (0, 1). Da questa osservazione segue subito che
E[Z k ] = k E[Y k ]
e
23 Per ottenere lo stesso risultato nel caso generale, ovvero che se Z = (Z , ..., Z ) `
e un vettore
n e un vettore gaussiano allora (Z1 ...Zk ) `
1
gaussiano, si pu`
o procedere nel seguente modo. Innanzitutto basta considerare il caso in cui i valori attesi sono nulli senza ledere in
e definita in modo che a0ij = aij qualunque siano i = 1, ...k e
generalit`
a. Inoltre si pu`
o pensare che Z = AY . Se la matrice A0 = (a0ij ) `
0
j = 1, ...., n, e il vettore aleatorio Z `
e definito da
Z 0 = A0 Y ,
allora, chiaramente,
Se inoltre
0
(Zk+1
,
per i = 1, ...k.
= 1, ...., n sono presi in modo che il vettore (Z10 , , Zk0 ) = (Z1 , , Zk ) sia indipendente dal vettore
0 = E[Zi Zh0 ] = Cov(Zi , Zh0 ) =
n
X
ai,` a0h,`
`=1
18
CP31-nov-2009
r
E[|Y |
2k+1
]=
2
(2k)!! =
2
(2k)(2k 2) 4 2 =
2 k
2 k!.
Prima di dimostrare queste tre uguaglianze si osservi che le ultime due si possono scrivere in modo sintetico come
r
2
E[|Y |n ] = C((1)n ) (n 1)!!
.
C(+1) = 1
C(1) =
La prima relazione `e banale, per ragioni di simmetria, e permette di ricavare la seconda osservando che
E[euY ] = e
u2
2
h
X
X
1 u2
1 u2h
=
.
h! 2
h! 2h
h=0
h=0
X
X
1 k k
1
u Y ]=
u2h E[Y 2h ]
k!
(2h)!
k=0
h=0
si deve necessariamente avere che i coefficienti delle due serie devono coincidere:
1 1
1
=
E[Y 2h ],
h
h! 2
(2h)!
ovvero
(2h)!
2h(2h 1)(2h 2)(2h 3) 3 2 1
=
h
h!2
h(h 1) 3 2 1 2h
(2h)!!(2h 1)!!
2h h! (2h 1)!!
=
=
= (2h 1)!!.
h
h!2
2h h!
E[Y 2h ] =
q
Infine la terza si ricava per integrazione per parti e calcolando a mano che E[|Y |] =
2
.
Concludiamo questo paragrafo con un lemma che riguarda il comportamento asintotico della funzione di
sopravvivenza di una gaussiana standard e del modulo di una gaussiana standard.
Lemma 1.4. Sia Y una gaussiana standard, allora, posto fY (y) =
y
1 e 2
2
1
1
1
x+
fY (x) P(Y > x) fY (x),
x
x
1
1
1
x+
f|Y | (x) P(|Y | > x) f|Y | (x),
x
x
P(|Y | > x) e
24 Si
x2
2
noti che dalle ultime due relazioni sui momenti si ottiene che
E[|Y |m ] = (m 1)!!C(1)m ,
con C+1 = 1, C1 =
x > 0,
(1.15)
x > 0,
(1.16)
x > 0.
(1.17)
2
.
CP31-nov-2009
19
Dimostrazione. La disuguaglianza (1.16) discende immediatamente dalla prima disuguaglianza (1.15), la quale equivale
a
1
x2
x2
1
1
1 1
e 2 P(Y > x) e 2 ,
x+
x
x
2
2
e discende dalla seguente relazione
1
Z +
w2
z2
1
1 w2
w+
e 2
e 2 dz
e 2 ,
w
w
w
w > 0.
(1.18)
z2
2
Inoltre
dz
1
w
z e
z2
2
dz =
1 w2
e 2 ,
w
w2
d 1 w2
1
2
e
= 1 + 2 e 2
dw w
w
e quindi
1 w2
e 2 =
w
Z +
z2
z2
1
1
1 + 2 e 2 dz 1 + 2
e 2 dz ,
z
w
w
= 2e
Z +
y2
y 2 x2
x2
1
1
e 2 dy = 2 e 2
e 2 dy
2
2
x
Z +
Z +
2
(y+x)(yx)
(z+2x)z
1
1
x2
2
e
e 2 dz
dy = 2 e
2
2
x
0
Z +
x2
1 z2
e 2 dz = e 2 .
2
0
P(|Y | > x) = 2
2
x2
2 e
x2
2
Capitolo 2
lim F (t + ) = F (t);
0+
t+
R
X() = ()
(2.1)
CP31-nov-2009
21
(per definizione di X e di (, F, P ))
(per laffermazione (2.1))
ovvero
FX (x) = F (x).
Si tratta dunque di provare laffermazione (2.1). Dimostriamo innanzitutto che
(u) = min{y : F (y) u},
cio`e
F ((u)) u.
(2.2)
Infatti, essendo (u) = inf{y : F (y) u}, esiste una successione {yn }
n=0 tale che:
(a) F (yn ) u per ogni n, e quindi yn (u),
(b) {yn } tende a (u) per n .
Allora, poiche F `e continua a destra,
F ((u)) = lim F (yn ) u.
n
allora
u F (x).
E infatti, poiche F `e non decrescente, se (u) x, allora F ((u)) F (x) e quindi per la (2.2)
u F ((u)) F (x).
Proviamo ora linclusione opposta {u (0, 1) : (u) x} {u (0, 1) : u F (x)}, mostrando che, per ogni u
in (0, 1),
se u F (x),
allora
(u) x.
che U Unif(0, 1) `
e una v.a. che ha densit`
a
f (t) :=
1,
0,
0<t<1
altrove
8
< 0,
t,
F (t) FU (t) =
:
1,
t<0
0t1
t>1
dt = b a
a
quantit`
a che dipende solo dallampiezza dellintervallo, il che spiega la dizione uniforme
22
CP31-nov-2009
Dimostrazione. Infatti
P(X x) = P((U ) x) = P(U {u (0, 1) : (u) x})
= P(U {u (0, 1) : u F (x)}) = F (x).
e `e crescente:
Sempre la stessa propriet`a (2.1) ci garantisce che la funzione X
e Sia 0 , vogliamo mostrare che X()
e
e 0 ).
Osservazione 2.1 (Crescenza di X).
= min{x : F (x) } X(
e 0 ) = min{x : F (x) 0 } e quindi si ha che
La relazione (2.1) garantisce che X(
e 0 ) 0 .
F X(
Quindi (in quanto 0 )
e 0 ) 0 ,
F X(
e 0 ) {x : F (x) } da cui
e cio`e X(
e
e 0 ).
X()
= min{x : F (x) } X(
Osservazione 2.2 (spazi completi). Terminiamo questa sezione con una osservazione importante, che riguarda la
possibilit`
a di considerare spazi di probabilit`
a completi, cio`e di spazi che contengono anche gli insiemi trascurabili
N = {A : B F, tale che A B , e P(B ) },
ossia i sottoinsiemi degli insiemi di misura nulla: infatti, se A `e trascurabile allora esiste una successione di eventi
B1/n tali che, per ogni n, B1/n contiene A e con probabilit`
a minore uguale a 1/n. Non si lede in generalit`
a a supporre
che B1/n sia una successione monotona. Di conseguenza A B :=
n=1 B1/n e P(B) = 0.
` noto che la misura di Lebesgue si pu`
E
o costruire (estendendo la misura definita sullalgebra delle unioni finite di
intervalli) su spazi completi, e sulla -algebra L(0, 1) degli insiemi Lebesgue misurabili, che `e appunto il completamento
della -algebra B(0, 1) dei boreliani. Tutte le funzioni boreliane sono ovviamente L-misurabili (cio`e misurabili secondo
Lebesgue).
Quindi
la variabile
aleatoria definita
nel teorema di Skorohod `e ancora misurabile se consideriamo
(0, 1), L(0, 1), , invece di (0, 1), B(0, 1), , e quindi possiamo affermare che il teorema di Skorohod assicura che,
data F che soddisfa le propriet`
a P0 - P3 esiste uno spazio completo, dove `e possibile definire una variabile aleatoria
X con FX = F .
CP31-nov-2009
2.2
23
Laffermazione che una successione di variabili aleatorie {Xn , n N} `e una successione di v.a. indipendenti con
Xn = n , `e unaffermazione che riguarda le distribuzioni finito dimensionali del processo {Xn , n N}. Lesistenza
di una tale successione si potrebbe quindi dedurre dal teorema di rappresentazione di Kolmogorov, o magari da un
risultato ad hoc la cui prova fosse la semplificazione del procedimento usato nel dimostrare tale teorema. Tuttavia
lesistenza di una tale successione tuttavia si pu`o dedurre direttamente, pur di dare per scontato che esiste la misura di
Lebesgue su (0, 1). Infatti su (0, 1) si possono definire delle variabili aleatorie indipendenti ed identicamente distribuite,
a valori nellinsieme {0, 1}, e che assumono il valore 0 con probabilit`a 1/2 (lo stesso vale per il valore 1). A partire da
questa successione di variabili aleatorie si pu`o costruire una successione di variabili
aleatorie
{Uj , j N} indipendenti
ed uniformi in (0, 1), come descritto qui di seguito. Infine, posto Fn (x) = n (, x] , la successione cercata `e data
dalla successione delle v.a. Fn1 (Un ).
Lemma 2.3 (Successioni di v.a. indipendenti uniformi in (0, 1): esistenza). Nello spazio = (0, 1) con la misura di
Lebesgue sui boreliani, `e possibile avere una successione di v.a. uniformi in (0, 1) ed indipendenti.
Per costruire tale successione si ricordi che scrivendo (0, 1) in forma diadica
=
Wi ()
1
,
2i
X
fi,n () 1 .
Un () =
W
2i
i=0
fi,n = W2i1 (2n+1) , che corrisponde a riordinare la successione {Wi } in questo modo:
Ad esempio si pu`o prendere W
W1
W2
W4
W8
..
.
W3
W6
W12
W24
..
.
W5
W10
W20
W40
..
.
W7
W14
W28
W9
ottenendo da {Wi } infinite sottosuccessioni (corrispondenti alle colonne di questa matrice) in modo tale che nessuna
Wi venga tralasciata ne ripetuta.
****
fi,n , i 1), e che
Rimane da osservare che, per ogni n, la variabile aleatoria Un `e misurabile secondo Fen := (W
tali sigma algebre sono indipendenti2 . Quindi le variabili aleatorie Un formano una succesione di variabili aleatorie
indipendenti.
fk,n , k 1, esattamente come la variabile
Inoltre poiche le variabili aleatorie Un () sono definite attraverso le W
fk,n ,
aleatoria U () = `e costruita attraverso le Wk (), k 1, e, per ogni n, la successioni di variabili aleatorie W
k 1 `e una successione di variabili aleatorie indipendenti identicamente distribute (esattamente come Wk (), k 1)
anche la legge di Un `e la stessa di U e cio`e uniforme su (0, 1).
Osservazione 2.3. **Ribadiamo che la precedente costruzione `e riportata affinche sia chiaro che laffermazione che
esiste una successione di v.a. indipendenti ed uniformi in (0, 1), `e vera.
A questo punto, data una successione di funzioni di distribuzione Fn , per costruire
una successione di variabili
aleatorie indipendenti Yn e con funzione di distribuzione Fn , basta mettersi nello spazio (0, 1), B(0, 1), |(0,1) , definire
Yn () = Fn Un () ,
2 Si
confronti il Corollario 2 pag. 50 di [1] oppure, meglio il Teorema 20.2 pag. 268.
24
CP31-nov-2009
dove le Un sono le variabili aleatorie definite sopra, e infine usare il Corollario 2.2, per ottenere che Yn ha funzione di
distribuzione FYn = Fn , e infine, grazie allosservazione che Yn `e misurabile rispetto alla sigma algebra generata da
Un , dedurre che le Yn formano una successione di variabili aleatorie indipendenti.
CP31-nov-2009
2.3
25
Esistono vari tipi di convergenza per variabili aleatorie. Noi ci occuperemo principalmente di tre tipi di convergenza:
1 CONVERGENZA QUASI CERTA
mettere definizione
`
2 CONVERGENZA IN PROBABILITA
mettere definzione
3 CONVERGENZA IN LEGGE O IN DISTRIBUZIONE (DETTA ANCHE DEBOLE)
mettere definizione
Valgono le seguenti implicazioni
Xn X
n
in P r
Xn X
n
L
Xn X
P q.c.
Nel caso in cui X `e una variabile aleatoria degenere (ossia se esiste un a R tale che P(X = a) = 1) allora la
convergenza in probabilit`a equivale alla convergenza in legge:
in P r
Xn a
n
Xn
m
L
a
Infine vale anche una specie di implicazione inversa, nel senso specificato dal teorema di immersione di Skorohod (vedi
il successivo Teorema 2.4)
L
Xn X
n
L
L
e
e
en =
e=
Xn , X, with X
Xn , X
X
e
e F,
e P),
(,
e tali che
en X
e
X
n
e q.c.
P
Teorema 2.4 (Teorema di rappresentazione di Skorohod per successioni). Se la successione di variabili aleatorie Xn
e e una successione di variabili aleatorie X
e F,
e P),
en e
converge in legge ad X, allora esiste uno spazio di probabilit`
a (,
e
una variabile aleatoria X su tale spazio, con la stessa legge di Xn e di X, rispettivamente, e tali che
en X
e
X
n
e q.c.
P
e = (0, 1)
Dimostrazione. Come nel teorema di rappresentazione di Skorohod (Teorema 2.1) lo spazio di probabilit`a `e
e
e
con F = B(0, 1), i boreliani di (0, 1) e P `e la misura di Lebesgue ristretta ai boreliani di (0, 1). Inoltre, posto Fn ed F
le funzioni di distribuzione di Xn ed X, rispettivamente, le variabili aleatorie sono
en () = F () = inf{y : Fn (y) },
X
n
e
X()
= F () = inf{y : F (y) }.
e
(e quindi X()
> x F (x) > ).
26
CP31-nov-2009
en () X(),
e
limn X
en () X(
e 0)
limn X
(0, 1),
0
(II)
(2.3)
(2.4)
e 0 ).
e
en () limn X
en () lim X(
X()
limn X
0
+
e
La tesi segue allora in quanto le disuguaglianze sono tutte uguaglianze se `e un punto di continuit`a per X:
e
en () limn X
en () lim X(
e 0 ) = X()
e
X()
limn X
0
+
e
limn Xn () x > X()
.
scopo `
e ottenere che esista un y di continuit`
a per F e tale che F (y) > , per poter garantire poi che, per n sufficientemente grande
en () y. Purtroppo il fatto di sapere che X()
e
Fn (y) ossia che X
< y implica solo che F (y) y e ci`
o a sua volta non ci garantisce
che Fn (y) y, per n sufficientemente grande...
CP31-nov-2009
27
e
(dove la prima disuguaglianza deriva semplicemente dal fatto che X()
`e una funzione non descrescente5 .
e 0 ) < y implica che
La disuguaglianza X(
e 0 ) F (y).
F X(
e 0 ) 0 , e quindi
Inoltre sappiamo che F X(
e 0 ) F (y).
< 0 F X(
Il fatto che
< F (y),
garantisce che definitivamente (ossia per n sufficientemente grande)
< Fn (y),
da cui
Fn (y),
e
X()
y.
e 0 ) + otteniamo quindi
Poiche sappiamo che y < X(
e
e 0 ) + .
X()
y < X(
A questo punto possiamo affermare che
e 0 ) + ,
limn X(
5 Si
Bibliografia
[1] Billingsley, P. Probability and measure, third ed. Wiley Series in Probability and Mathematical Statistics. John
Wiley & Sons Inc., New York, 1995. A Wiley-Interscience Publication.
[2] Koch, G. La matematica del probabile, prima ed. Aracne, Roma, 1997.
[3] Williams, D. Probability with martingales. Cambridge Mathematical Textbooks. Cambridge University Press,
Cambridge, 1991.
28
Capitolo 3
ESERCIZI PROPOSTI
In questo capitolo sono raccolti alcuni esercizi da scolgere: alcuni sono di tipo analitico e sono parte integrante di
alcune dimostrazioni fndamentali, alcuni sono stati parzialmente o totalmente svolti a lezione.
Lo studente dovr`
a consegnare gli esercizi e discuterne durante lesame orale, un paio a scelta del docente.
Sar`a possibile, limitatamente alla sessione della prova in itinere (novembre 2009) portare gli esercizi scritti anche
dopo lesame orale. In tal caso la discussione degli esercizi avverr`a alla consegna degli esercizi.
3.1
allora
n
1 X
ak = .
n n
lim
k=1
i=n i
n1
1
= 1,
i=1 i
1+
n
1+
=1
n
ix X
|x|n
|x|n+1
(ix)k
e
,
2
min
k!
(n + 1)!
n!
k=0
29
30
CP31-nov-2009
m
X
(ix)k
k=0
k!
im+1
m!
()
n
ix X
(ix)k
|x|n+1
e
k!
(n + 1)!
k=0
n
ix X
|x|n
(ix)k
e
2
.
k!
n!
k=0
3.2
x2
.
2
Fn (x) =
pn (t) dt,
per n 1,
dove
p(t) dt,
dove
p(x) = 1(0,1) (x),
e che invece
pn (x) 9 p(x).
Discutere la relazione di questo esempio con il Teorema di Scheffe.
Esercizio 3.6. Sia X uniforme in (0, 1) e siano Xn := X n . Indivuduare le funzioni di distribuzione Fn delle variabili
aleatorie Xn . Dimostrare che la successione di variabili aleatorie Xn converge in distribuzione e individuare la variabile
aleatoria limite. La successione Xn converge anche in qualche altro senso?
1 La
formula () `
e sostanzialmente la formula del resto nello sviluppo di Taylor, e si pu`
o facilmente ottenere per induzione dalla formula
Z x
eix = 1 + i
eiy1 dy1 .
0
Z x
Z y1
Z x Z y1
eiy1 dy1 = 1 + i
1+i
eiy2 dy2 dy1 = 1 + ix + i2
eiy2 dy2 dy1
0
0
0
0
0
Z x Z x
Z x
iy
2
iy2
2
2
= 1 + ix + i
e
dy1 dy2 = 1 + ix + i
x y2 e dy2 .
eix = 1 + i
y2
CP31-nov-2009
31
Esercizio 3.7. Sia X uniforme in ( 21 , 32 ) e siano Xn := X n . Individuare le funzioni di distribuzione Fn delle variabili
aleatorie Xn . La successione di variabili aleatorie Xn converge in distribuzione? e se s`, a quale variabile aleatoria?
e se no, la successione Xn `e una successione tight (ovvero trattenuta)?
3.3
Esercizio 3.8. (a) Per n 1, sia Xn una variabile aleatoria esponenziale di parametro n. La successione di variabili
aleatorie Xn converge in distribuzione? e se s`, a quale variabile aleatoria?
(b) Per n 1, sia Yn una variabile aleatoria Gamma di parametri (n, n). La successione di variabili aleatorie Xn
converge in distribuzione? e se s`, a quale variabile aleatoria?
Suggerimento: usare le funzioni caratteristiche.
Esercizio 3.9 (esercizio svolto a lezione). Siano X ed Y due variabili aleatorie indipendenti, entrambe esponenziali
di parametro 1.
(a) Dimostrare che la variabile aleatoria Z = X Y ammette densit`
a
pZ (z) =
1 |z|
e
.
2
Suggerimento: utilizzare il fatto che, se le variabili aleatorie sono indipendenti e ammettono densit`
a, allora la densit`
a
della somma `e la convoluzione.
(b) Dimostrare che la funzione caratteristica di Z = X Y `e
Z (t) =
1
.
1 + t2
(c) Utilizzare la formula di inversione per le funzioni caratteristiche integrabili e dedurre che lespressione della funzione
1
caratteristica di una variabile aleatoria V con distribuzione di Cauchy (cio`e con densit`
a 1 1+x
e
2) `
V (t) = e|t| .
(d) Dedurre, dallaforma
della funzione caratteristica di una variabile aleatoria V con distribuzione di Cauchy, che
non esiste finito E |V | .
Esercizio 3.10 (parzialmente svolto). Sia X una variabile aleatoria con densit`
a
(
0
per |x| 2,
pX (x) =
1
c x2 log
per |x| > 2,
|x|
dove c > 0 `e la costante di normalizzazione (N.B. la costante c non deve essere calcolata)
(i) Dimostrare che X non `e integrabile (ossia che E[|X|] = ).
Suggerimento: utilizzare il fatto che la densit`
a `e una funzione pari.
(ii) Dimostrare che X (t) ammette derivata prima in t = 0 e che 0X (0) = 0.
Soluzione: (ATTENZIONE leggermente diverso da come fatto a lezione)
utilizzando il fatto che la densit`
a `e una funzione pari il rapporto incrementale X (h)1
si pu`
o scrivere come un integrale
h
su (2, ) rispetto a pX (x) dx, in cui i termini:
X (h) 1
=c
h
Z
{x:|x|>2}
cos hx 1 1
1
dx
h
log |x| x2
32
CP31-nov-2009
Quindi, per mostrare che
X (h) 1
0
h0
h
X (h) 1
h0
h
Z
Z
cos hx 1 1
cos hx 1 1
1
1
1 cos |hx| 1
1
dx c
dx,
log |x| x2 dx = 2c
2
2
h
log
|x|
x
h
|h|
log
|x|
x
{x:|x|>2}
{x:|x|>2}
2
basta mostrare che
1 cos |h|x 1
1
dx 0.
h0
|h|
log |x| x2
1
1
,
log(y/|h|) y 2
1
log |y/h|
1
log |y|+| log |h||
0,
y > 0,
si ha che
g|h| (y) 0.
h0
1
1
,
log |y/h|
log 2
2
0 1 cos y = 2 sin(y/2) 2
per y 2|h|,
2
1
y
= y2 ,
2
2
per ogni y
e
0 1 cos y 2,
possiamo affermare che
per ogni y,
1
2 1
,
,
2 log 2 log 2 y 2
y>0
g(y)dy <
0
3.4
1
,
2
n
X
1
E[|Xk |2 1{|Xk |> sn } ] = 0,
n
s2n
lim
k=1
CP31-nov-2009
33
maxk=1,...,n k2
6= 0.
n
s2n
lim
3.5
Esercizio 3.13 (esercizio parzialmente svolto a lezione). Siano Xn variabili aleatorie con P(Xn = n ) = 21 .
(a) Mostrare che per < 0 vale la legge dei grandi numeri (N.B. senza assumere lindipendenza delle variabili
aleatorie Xn )
Si assuma lulteriore ipotesi che le variabili aleatorie Xn siano indipendenti.
(b) Mostrare che per [0, 1/2) vale la condizione del Teorema di Kolmogorov, e quindi vale la legge dei grandi
numeri.
(c) (da svolgere dopo aver studiato il teorema centrale del limite, ed in particolare dopo aver svolto
lesercizio 3.11)
Mostrare che, per > 0, posto Sn = X1 + X2 + ...Xn ed s2n = V ar(Sn ) si ha
s2n
n2+1
2 + 1
cio`e
s2n
n2+1
2+1
Sn
sn
e n =
1
,
2
e che quindi la successione non pu`
o convergere in distribuzione.
limn P(n Yn x)
sn
n (>
x > 0,
Esercizio 3.14. Siano Xn variabili aleatorie indipendenti identicamente distribuite, tutte con distribuzione di Cauchy.
(a) Dimostrare che (|X1 | + |X2 | + ... + |Xn |)/n converge quasi certamente ad infinito, quindi per le variabili aleatorie
|Xn | vale la legge dei grandi numeri.
(b) Dimostrare che (X1 + X2 + ... + Xn )/n converge in distribuzione ed individuare la distribuzione limite.
Suggerimento: Utilizzare le funzioni caratteristiche.
34
3.6
CP31-nov-2009
Esercizio riassuntivo
Esercizio 3.15. Utilizzare la rappresentazione della variabile aleatoria U () = in = (0, 1) [come al solito si
assume anche F uguale ai boreliani di (0, 1) e la probabilit`
a P uguale alla misura di Lebesgue ristretta a (0, 1)]
=
Wi ()
1
,
2i
dove Wi sono variabili aleatorie indipendenti identicamente distribuite, con P(Wi = 1) = P(Wi = 0) = 12 , per ottenere
una dimostrazione probabilistica della relazione
sin t Y
t
=
cos i .
t
2
i=1
Suggerimento: utilizzare il fatto che U ha distribuzione uniforme su (0, 1), e che la variabile aleatoria
V () := 2U () 1 = 2
Wi ()
X
1
1
1=
(2 Wi () 1) i
i
2
2
1
n
X
(2 Wi () 1)
1
,
2i