Sunteți pe pagina 1din 86

COMPLEMENTI DI PROBABILIT

FABIO DURASTANTE
S OMMARIO . Convergenza di variabili aleatorie e leggi. Spazi di probabilit astratti; indipendenza; legge 0 1 di Kolmogorov; lemmi di
Borel-Cantelli; convergenza quasi certa; disuguaglianze di convessit;
convergenza in probabilit; leggi dei grandi numeri; funzioni caratteristiche; convergenza in legge; aspettazione condizionale; martingale e
convergenza di martingale. Si vedano i testi: [1] e [2].

I NDICE
1. Richiami di teoria della misura
1.1. Spazio misurabile e misura
1.2. Funzioni misurabili
2. Variabili aleatorie
2.1. Esistenza di una v.a. con funzione di ripartizione data
2.2. -algebra generata e misurabilit
2.3. Indipendenza
2.4. Secondo Lemma di Borel-Cantelli
2.5. Borel-Cantelli e convergenza q.c.
2.6. La -algebra coda
3. Integrazione Astratta
3.1. Funzioni misurabili, teoremi di convergenza
3.2. Funzioni Integrabili
3.3. Misura assolutamente continua
4. Spazi L1 (, F, P) e L1 (, F, P)
4.1. Disuguaglianze di Markov e Jensen
4.2. Lo spazio Lp (, F, P)
4.3. Lo spazio Lp (, F, P)
4.4. Lo spazio L2 (, F, P)
5. Concetti di Convergenza
5.1. Leggi dei grandi numeri
5.2. Il Teorema di Approssimazione di Weierstrass
5.3. Convergenza in Distribuzione
6. Misure Prodotto
6.1. Misure prodotto e Teorema di Fubini
6.2. Leggi Congiunte
1

2
4
8
10
11
12
14
16
16
18
20
21
24
25
27
28
29
30
31
34
38
40
41
44
45
47

FABIO DURASTANTE

6.3. Indipendenza e Leggi Prodotto


7. Funzioni Caratteristiche
7.1. Regolarit delle funzioni caratteristiche
7.2. Teoremi di Inversione e Caratterizzazione
7.3. Gaussiane Multivariate
8. Convergenza in Rd
8.1. Convergenza in Legge
8.2. Tightness e convergenza in legge
8.3. Uniforme Integrabilit e Convergenza dei Momenti
9. Speranza Condizionale
9.1. Casi Particolari
9.2. Caso Generale
9.3. Propriet
10. Martingale
10.1. Decomposizione di Doob
10.2. Tempi DArresto
10.3. Martingale arrestate
11. Comportamento asintotico di martingale
11.1. Convergenza q.c. di Martingale
11.2. Convergenza in Lp
Riferimenti bibliografici

49
51
51
54
55
57
57
61
64
67
68
69
72
74
76
78
80
81
83
84
86

1. R ICHIAMI DI TEORIA DELLA MISURA


Definizione 1 (algebra). Sia S un insieme, A P(S) si dice algebra se:
(1) A.
(2) A A Ac A. S
(3) {Ai }i=1,...,n A ni=1 Ai A.
Definizione 2 (-algebra). Sia S un insieme, A P(S) si dice -algebra se:
(1) A.
(2) A A Ac S
A.
(3) {Ai }iN A iN Ai A.
Osserviamo che se S finito allora A unalgebra se e solo se A una
-algebra.
Esempio 1. -algebra banale data da F = {, S}, la pi grande -algebra
possibile per S data data F = P(S). Dato un insieme A S abbiamo
F = {, A, Ac , S}.
Proposizione 1. Una -algebra (algebra) chiusa rispetto alle intersezioni numerabili (finite).

COMPLEMENTI DI PROBABILIT

Dimostrazione. Sia I finito o numerabile, allora:


!c
\
[
(1.1)
An =
Acn
F
nI

nI


Siano F1 ,F2 -algebre allora F1 F2 non in generale una -algebra. Come controesempio consideriamo A, B S con B 6= A e siano F1 = {, A, Ac , S}
e F2 = {, B, Bc , S}, allora A B
/ F1 F2 .
Proposizione 2. Sia (F )T con T qualunque famiglia di -algebre allora si ha
che: T F una -algebra.
Dimostrazione. Verifichiamo la definizione:
T
(1) F T allora T F .
T
T
(2) A T F A F T Ac F T Ac T F .
S
(3) Sia (An )n1 T F (An )n1 F T n1 An F
S
T n1 An T F .

Esempio 2. Sia = {Ci }iI , con I finito o numerabile, una partizione di S.
Sia ora:

[
(1.2)
F = AS : A=
Ci , I A I

iIA

allora F una -algebra, infatti:


S
(1) = iI Ci F.
S
(2) Ac = iIAc Ci Ac F.
S
S S
S
(3) j1 Aj = j1 iIA Ci j1 Aj F.
j

Definizione 3. Sia C P(S) una famiglia. Si dice -algebra generata da C,


e si scrive (C), la pi piccola -algebra contenente C.
Osserviamo che la definizione ben posta, infatti, nel caso peggiore, possiamo sempre prendere come (C) = P(S). Possiamo inoltre caratterizzare
la -algebra generata da C come:
\
(1.3)
(C) =
F =G
F C

dove C = {F algebra che contiente C}, questo ha senso poich per linclusione () si ha che (C) C , mentre se () fosse falsa sarebbe violata la
minimalit di (C).
Esempio 3. Consideriamo lesempio gi fatto per A S abbiamo che (A) =
{, A, AC , S}.

FABIO DURASTANTE

Proposizione 3. Valgono le seguenti propriet:


(1) Se C una -algebra allora (C) = C.
(2) Se C1 C2 allora (C1 ) (C2 ).
(3) Se C2 una -algebra e C1 una famiglia con C1 C2 allora (C1 )
(C2 ) = C2
Definizione 4 (Borel). Sia S uno spazio topologico (S, ), si dice -algebra di
Borel di S:
(1.4)

B(S) = ()

un elemento B B(S) detto boreliano.


Osservazione 1. Sia C la famiglia dei chiusi, allora: (C) () (C),
inoltre C () (C) (). Dunque B(S) = () = (C).
Esempio 4. Sia S = R allora:
Gli intervalli aperti sono boreliani.
Gli intervalli chiusi sono boreliani.
Gli intervalli della forma (a, b],[c, d), con b, c R e a, d R, sono
boreliani.
I punti sono boreliani, ma non generano B(R).
Esistono altri generatori di B(R) oltre gli aperti:
I chiusi.
Gli intervalli aperti, infatti, detta I la famiglia degli intervalli aperti
si ha S
che I (I) (), inoltre A {In }nN I tale che
A = iN Ii , dunque (I), ovvero abbiamo le due inclusioni e
B(S) = (I).
Gli intervalli semiaperti, infatti, detta K la famiglia degli intervalli semiaperti si ha che K B(S), dunque (K) B(S), inoltre
S
(a, b) = nN (a, b n1 ], dunque I (K), ovvero abbiamo le due
inclusioni B(S) = (K).
Le semirette chiuse a destra, infatti dette (R) la loro famiglia si ha
che (R) B(S), quindi ((R)) B(S), inoltre (a, b] = (, b]
(, a]c K (R) B(S) ((R)), ovvero abbiamo le due
inclusioni B(S) = ((R)).
1.1. Spazio misurabile e misura.
Definizione 5 (Spazio Misurabile). Siano S un insieme ed F una algebra
su S, allora la coppia (S, F) si dice spazio misurabile.
Definizione 6 (Misura). Si dice misura su (S, F) unapplicazione: : F
[0, +] tale che:
(1) () = 0.
P
(2) (An )n1 F, Ai Aj = i 6= j (tn1 An ) = n1 (An )

COMPLEMENTI DI PROBABILIT

Definizione 7. Una misura si dice finita se: (S) < +.


Definizione 8. Una misura si dice -finita se (Sn )n1 F tale che:
S
(1) n1 Sn = S,
(2) (Sn ) < + n 1.
Definizione 9. Una misura si dice di probabilit se (S) = 1.
Definizione 10 (Spazio di Probabilit). Si dice spazio di probabilit una
terna (S, F, ) dove S un insieme, F una -algebra su S e una misura di
probabilit su (S, F).
Definizione 11. Un insieme F si dice di misura nulla se:
F F,
(F) = 0.
Definizione 12 (q.c.). Si dice che una propriet S vera quasi certamente
(q.c.), se, detto:
(1.5)

F = {s S : S(s) falsa}

si ha che F F e (F) = 0, cio se F di misura nulla.


Definizione 13 (-System). Si dice -System una famiglia di insiemi di S
chiusa rispetto ad intersezione finita.
Esempio 5. La famiglia delle semirette chiuse a destra un -System.
Lemma 1. Siano (S, F) uno spazio misurabile, un -system su S e 1 ,2 due
misure finite su (S, F). Allora:
(1.6)

1 2 su 1 2 su ()

Corollario 1. Siano (S, F) uno spazio misurabile, un -system su S e 1 ,2


due misure di probabilit su (S, F). Allora:
(1.7)

1 2 su 1 2 su ()

Teorema 1 (Caratheodory). Sia S un insieme, 0 unalgebra su S e 0 : 0


[0, ) tale che:
(1) 0 ()
= 0,  P
S+
S+
+
(2) 0
k=1 Ak =
k=1 0 (Ak ) {Ak }k1 0 tali che k=1 Ak 0 .
Allora, posto = (0 ), esiste una misura su (S, ) tale che: |0 = 0 .
Inoltre, se 0 -finita tale estensione unica.
Esempio 6. Costruiamo come esempio la misura di Lebesgue sullo spazio
misurabile ((0, 1], B((0, 1])). Consideriamo:
S
(1) 0 = {F (0, 1] : F = ri=1 (ai , bi ]},
P
(2) 0 : 0 [0, 1] definita come 0 () = 0 e 0 (F) = rk=1 (bk ak )

FABIO DURASTANTE

allora = (0 ) = B((0, 1]) dunque per il Teorema di Caratheodory esiste


unestensione, che, essendo unica, coincide con la misura di Lebesgue.
Lemma 2. Sia (S, , ) uno spazio di misura finito, allora:
(1) A, B , A B  (a) (A)
 + (B \ A) = (B).
S
(2) (An )n1
n1 An n1 (An ).
(3) (An )n1 tale (An ) = 0 n 1 (n1 An ) = 0.
(4) A (Ac ) = (S) (A).
(5) Formula di inclusione/esclusione: A1 , . . . , An si ha:
!
n
[
X
X

Ak =
(Ak )
(Ai Aj ) + . . . + (1)n1
k=1

k: kn

i,j:i<jn

n
\

!
Ak

k=1

Dimostrazione. La parte (1) si ottiene immediatamente dalla definizione di


misura. Perla (2) osserviamo
che possiamo sempre scrivere gli An come:
S
S
Sn1 
Bn = A n \
n1 Bn =
n1 An , Bi Bj =
k=1 Ak che sono tali che
i 6= j, Bn An n 1, per cui abbiamo:
X
X
(1.8)
(n1 An ) = (n1 Bn ) =
(Bn )
(An )
n1

n1


Definizione 14. (An )n1 si dice che cresce ad A con A = n1 An se
An An+1 , si scrive An A.
Definizione 15. (Bn )n1 si dice che decresce a B con B = n1 Bn se
Bn Bn+1 , si scrive Bn B.
Proposizione 4. Se una misura finita allora si ha che:
(1) An A (An ) (A), ovvero (A) = limn (An ).
(2) Bn B (Bn ) (B), ovvero (B) = limn (Bn ).
Dimostrazione. Dimostriamo entrambi i punti:
0
(1) Sia AS
n1 allora:
n = An \ AS
Snk=1 Ak0 = Snk=1 Ak = An
k1 Ak0 = k1 Ak
allora abbiamo che:
!
+

n
[
X
X
0
0
(A) =
Ak =
(Ak ) = lim
(Ak0 ) =
k=1

(1.9)

= lim
n

n+

k=1
n
[
k=1

k=1

!
Ak0

= lim (An )
n

(2) Se Bn B, allora Bcn n1 Bcn = (n1 Bn )c = Bc , dunque:


(1.10)

lim (Bcn ) = (Bc ) lim ((S) (Bn )) = (S) (B)

n+

n+

COMPLEMENTI DI PROBABILIT

e allora: (B) = limn (Bn ).



Proposizione 5. Sia (, F, P) uno spazio di probabilit. Se (Fn )n1 F sono
tali che P(Fn ) = 1 allora P(n1 Fn ) = 1.
Dimostrazione. Dallipotesi P(Fcn ) = 0 P(n1 Fcn ) = 0, si veda il lemma
(lem. 2), P(n1 Fn ) = P() P(n1 Fcn ) = 1.

Ricordiamo i seguenti fatti dellanalisi reale:
(1) Sia {xn }n1 R,
lim sup xn = inf sup xk = lim sup xk
n+

n1 kn

n+ kn

lim inf xn = sup inf xk = lim inf xk


n+

(2)

n1 kn

n+ kn

lim xn se lim inf xn = lim sup xn .

n+

n+

n+

(3) Se lim sup xn z xn z definitivamente.


n+

(4) Se lim sup xn z xn z per un numero infinito di indici.


n+

Definizione 16. Sia (, F, P) uno spazio di probabilit e sia (En )n1 F,


definiamo allora:

\ [

lim sup En =
Ek =
(1.11)

n1

kn

={ | n 1 n()

n : En()
}=

={ En i.o.}

[ \

lim inf En =
Ek =
n+

(1.12)

n1

kn

={ | n()

: Ek k n()}

=
={ En def.te }

Lemma 3 (Fatou, Insiemi). Sia (, F, P) uno spazio di probabilit e sia data la


successione (En )n1 F, allora:


(1.13)
P lim inf En lim inf P(En )
n+

n+

Dimostrazione. Siano Dn = kn Ek e D = lim supn+ En , allora Dn D,


dunque:

(1.14)

P(D) = lim P(Dn ) = lim P (kn Ek ) =


n+
n+

En
z}|{
= lim inf P kn Ek lim inf P(En )
n+

n+

FABIO DURASTANTE


Lemma 4 (Fatou inverso, Insiemi). Sia (, F, P) uno spazio di probabilit e sia
(En )n1 F, con (En ) < def.te, allora:


(1.15)
P lim sup En lim sup P(En )
n+

n+

Dimostrazione. Siano Gn = kn Ek e G = n1 Gn = lim supn+ En ,


allora Gn G, dunque:
(1.16)

P(G) = lim P(Gn ) = lim sup P(Gn ) lim sup P(En )


n+

n+

n+


Lemma 5 (Borel-Cantelli I). Sia
P (, F, P) uno spazio di probabilit e sia data la
successione (En )n1 F, con n1 (En ) < , allora:


(1.17)
P lim sup En = P(En i.o.) = 0
n+

Dimostrazione. Sia D = lim supn+ En = n1 Dn , ovvero Dn = nk=1 Ek ,


allora:
X
P(Ek ) = 0
(1.18) P(D) = lim P(Dn ) = lim P(nk=1 Ek ) lim
n+

n+

n+

kn


1.2. Funzioni misurabili.
Definizione 17 (Funzione Misurabile). Siano (S, S),(E, E) spazi misurabili,
allora una funzione f : (S, S) (E, E) si dice misurabile se A E
f1 (A) S. A livello di notazione: f1 (A) = {f A} = {i S : f(i) A}.
Osservazione 2. La misurabilit strettamente legata alle -algebre. Se f :
(S, S) (E, E) misurabile, allora date E 0 E e S 0 S -algebre, si ha
che f : (S, S 0 ) (E, E 0 ) ancora misurabile.
Definizione 18 (-algebra generata). Sia f : (S, S) (E, E) misurabile. Si
dice -algebra generata da f, si indica (f), la pi piccola -algebra su S che
rende f misurabile. Cio se f : (S, Sf ) (E, E) misurabile allora (f) Sf .
Proposizione 6. (f) = {f1 (A), A E} := Sf
Dimostrazione. Mostriamo la doppia inclusione,
: Se, per assurdo, esistesse A E tale che f1 (A)
/ (f) allora f non
sarebbe misurabile.
: Mostriamo che Sf una -algebra:
= f1 () Sf .
Sia A Sf A = f1 (B) Ac = f1 (B)c = f1 (Bc ) Sf .

COMPLEMENTI DI PROBABILIT

Sia (An )n1 Sf disgiunti An = f1 (Bn ) n 1 si ha


che: n1 An = n1 f1 (Bn ) = f1 (n1 Bn ) Sf .
dunque essendo Sf una -algebra che rende misurabile f, si ha che
(f) Sf .

Osservazione 3. Se C una classe di generatori di E allora:





(1.19)
(f) = f1 (c) : c C
= f1 (C)

infatti, f1 (C) Sf = (f) e se A (f) allora A = f1 (B) = f1 (B(c
C)) = B(f1 (c C)) Sf = (f).
Esempio 7. Sia f : (S, S) (E, E) misurabile. Se f costante allora (f) =
{, f1 (c) = S}. Inoltre se E contiene i singleton e (f) = {, S} allora f
costante, infatti se per assurdo non lo fosse s1 , s2 S tali che f(s1 ) 6= f(s2 )
f1 (f(s1 )), f1 (f(s2 )) (f), che assurdo.
Esempio 8. Sia f : (R, B(R)) (R, B(R)) e sia f = 1A con A R. Allora f
misurabile A B(R). Inoltre (f) = {, A, Ac , R}.
Proposizione 7. f, g : (S, S) (E, E) misurabili, h : (E, E) (E, E) misurabile. Allora se f = h g (f) (g), inoltre se g = k f allora
(g) = (f).
Dimostrazione. Sia A (f) A = f1 (B E) = g1 (h1 (B) E)
(g).

Proposizione 8 (Criterio di Misurabilit). Siano (S, S),(E, E) spazi misurabili
e C classe di generatori di E, cio (C) = E, allora:
(1.20)

f misurabile f1 (c) S c C

Dimostrazione. Mostriamo le due implicazioni.


(): Questa implicazione ovvia, dalla definizione di misurabilit.
(): Consideriamo G = {A E : f1 (A) S}, tale G una -algebra,
infatti:
(1) = f1 () S G.
(2) A G f1 (A) S f1 (Ac ) = (f1 (A))c S Ac G.
(3) (An )n1 G disgiunti f1 (An ) S n 1 si ha che:
f1 (n1 An ) = n1 f1 (An ) S n1 An G.
per ipotesi si ha che: C G E dunque E = (C) (G) E,
dunque (G) = E.

Osservazione 4. Sia f : (S, S) (R, B(R)), allora se f1 ((, x]) S x R
f misurabile. Se f : (Rn , B(Rn )) (R, B(R)) continua allora anche
misurabile.

10

FABIO DURASTANTE

Proposizione 9. Date f, f1 , f2 : (S, S) (R, B(R)) misurabili, R allora si


ha che:
(1) f1 + f2 misurabile.
(2) f misurabile.
Dimostrazione. Mostriamo le due affermazioni:
(1) {f1 + f2 > x} = qQ ({f1 > q} {f2 > x q}) S.
(2) {f > x} = {f > x } S.

Proposizione 10. Date f : (S, S) (E, E) e h : (E, E) (F, F) misurabili,
allora h f : (S, S) (F, F) misurabile.
Dimostrazione. A F h1 (A) E (h f)1 (A) = f1 (h1 (A)) S.

Proposizione 11. Sia fn : (S, S) (R, B(R)) misurabili n 1. Allora:


(1) Le funzioni infn1 fn , supn1 fn , lim infn1 fn , lim supn1 fn sono misurabili.
(2) {s S : limn+ fn < } S.
Dimostrazione. Abbiamo che:
{infn1 fn > c} = n1 {fn > c} S,
{supn1 fn < c} = n1 {fn < c} S,
lim infn1 fn = supn1 infkn fn misurabile,
lim supn1 fn = infn1 supkn fn misurabile,
{s S : limn+ fn < } = {lim infn1 fn < } {lim supn1
fn < } {lim supn1 fn = lim infn1 fn } S.

2. VARIABILI ALEATORIE
Definizione 19 (Variabile Aleatoria). Sia (, F, P) uno spazio di probabilit, con X : (, F) (R, B(R)) misurabile, allora X detta variabile
aleatoria.
Definizione 20 (Legge). Sia X una v.a. si dice legge di X la funzione X :
B(R) [0, 1] che mappa A 7 P({X A}) = P(X1 (A)).
Proposizione 12. La legge di una v.a. X : B(R) [0, 1] una misura di
probabilit sullo spazio (R, B(R)).
Dimostrazione. Osserviamo che X : B(R) [0, 1], X (R) = P(X1 (R)) =
P() = 1 e, (An )n1 B(R) disgiunti, si ha che:
(2.1)

X (tn1 An ) =P(X1 (tn1 An )) = P(tn1 X1 (An )) =


X
X
=
P(X1 (An )) =
X (An )
n1

n1

COMPLEMENTI DI PROBABILIT

11

Definizione 21 (Funzione di Ripartizione). Si definisce funzione di ripartizione di una variabile aleatoria X la funzione FX : R [0, 1] che mappa
x 7 X ((, x]) = P({X x}).
Osservazione 5. Data una v.a. X la sua legge univocamente determinata dal
valore assunto sulle semirette, ovvero dalla sua funzione di ripartizione.
Proposizione 13. Data una v.a. X la sua funzione di ripartizione FX tale che:
(1) FX non decrescente.
(2) limx+ FX (x) = 1.
(3) limx FX (x) = 0.
(4) FX continua a destra.
Dimostrazione. Mostriamo in ordine le propriet:
(1) Sia x y FX (x) = P({X x}) P({X y}) = FX (y).
(2) Sia An = {x tn } con tn + allora n1 An = A = {x R}
dunque: limx+ FX (x) = limn+ FX (tn ) = limn+ P(An ) =
P(A) = 1.
(3) Analogo al caso precedente.
(4) Sia tn x, An = {x tn }, A = n1 {X tn } = {X x}, allora
An A e limtx+ Fx (t) = limn+ P(An ) = P(A) = FX (x).

Osservazione 6. Osserviamo che:
(2.2)

lim F(t) = P(X < x)

tx

Il caso discreto sia X : (, F) (E, P(E)) con E discreto, allora abbiamo:


pX : R [0, 1] con x 7
P P({X = x}) e quindi la legge : X : P(E) [0, 1]
con la posizione A 7 xE pX (x){x} (A).
Nel caso assolutamente continuo sia X : (, F) (R, B(R)), allora
abbiamo la densit f : R [0, +)
che ci permette di definire la legge
R
come: X (A) = P({X A}) = A f(x)dx. Come notazione si usa anche
X (dx) = f(x)dx.
2.1. Esistenza di una v.a. con funzione di ripartizione data. Sia FX una
funzione con le propriet di una funzione di ripartizione (si veda def. 21 e
prop. 13), consideriamo lo spazio misurabile (R, B(R)), definiamo lalgebra
0 come quella formata dagli insiemi della forma F = (a1 , b1 ]. . .(an , bn ]
per cui definiamo la funzione:
X
(2.3)
0 (F) =
(FX (bk ) FX (ak ))
kr

possiamo allora applicare il Teorema di Estensione di Caratheodory (thm.


1) alla coppia (0 , 0 ) e costruire una misura su (0 ) e allora:
(2.4)

FX (x) = P(X x) = ((, x]) = F(x)

12

FABIO DURASTANTE

Teorema 2 (Skorohod). Si pu sempre trovare una v.a. con funzione di ripartizione assegnata FX su ([0, 1], B([0, 1])).
Dimostrazione. Riduciamoci prima al caso in cui la funzione FX strettamente crescente e continua. Basta prendere X(w)
= F1
X (). Se FX ha

 delle
discontinuit di salto allora tale che

lim FX (x), lim+ FX (x) ed in

xx

xx

tal caso pongo X() = x . Se FX costante poniamo X() = X ().



P
Esempio 9. Sia (pk )k1 R con pk 0 e k1 pk = 1 definiamo:

0
x<1
P[x]
(2.5)
F(x) =
k=1 pk x 1
X
una funzione di ripartizione su (N, P(N), P), con P(A) =
pk A
P(N), definiamo X : (N, P(N)) (N, P(N)) come X() = .

kA

2.2. -algebra generata e misurabilit.


Osservazione 7. Se (E, E) uno spazio discreto, ovvero E = {e1 , e2 , . . .}, E =
P(E). Allora (X) = (CX ) dove CX la partizione i cui atomi sono {X = x}
per x E. Infatti CC (X) (CX ) = (X). Linclusione inversa
verificata perch i punti sono una classe di generatori di P(E).
Osservazione 8. Sia C una partizione di , al pi numerabile, allora (X) =
(C) X costante sugli atomi di C. Infatti se X non costante su un
atomo c C allora esistono c1 , c2 C tali che: X1 ({c1 }) c e X1 ({c2 }) c,
assurdo. Se X discreta allora banale per losservazione precedente.
Definizione 22. Siano X1 , X2 , . . . , Xn v.a. reali allora (X1 , . . . , Xn ) la pi
piccola -algebra che rende misurabili le X1 , . . . , Xn ed tale che:
!
n
[
(2.6)
(X1 , . . . , Xn ) =
(Xi )
i=1

Osservazione 9. Considero la v.a. n-dimensione X = (X1 , . . . , Xn ) : (, F)


(Rn , B(Rn )) allora (X1 , . . . , Xn ) = (X).
Definizione 23. Sia (Xn )n1 una successione di v.a. reali. Allora, detto
S
Gn = (X1 , . . . , Xn ), si ha che Gn Gn+1 . Allora sia A = +
n=1 Gn . A cos
definita unalgebra e posto:
(2.7)

((Xn )n1 ) = (A)

Definizione 24. Sia (X ) con qualunque, la ((X ) ) deve essere


tale che: (n )n1 le X1 , . . . , Xn devono essere misurabili, dunque
dobbiamo porre:
[
[
(2.8)
A=
(X1 , . . . , Xn )
n1 1 ,...,n

COMPLEMENTI DI PROBABILIT

13

che unalgebra, allora definiamo:


(2.9)

((X ) ) = (A)

Teorema 3 (Delle Classi Monotone). Sia H una famiglia di funzioni f : S R


limitata tale che:
(1) H uno spazio vettoriale,
(2) 1 H,
(3) (fn )n1 H, fn 0, fn f f H.
Se inoltre 1A H A I con I -system. Allora H contiene tutte le funzioni
limitate (I) misurabili.
Lemma 6. Siano Y, Z : (, F) (R, B(R)) v.a., allora Z (Y)-misurabile
h : (R, B(R)) (R, B(R)) boreliana tale che Z = h(Y).
Dimostrazione. Dimostriamo tutte e due le implicazioni:
(): Se Z = h(Y) allora A B(R) Z1 (A) = Y 1 (h1 (A)) (Y).
(): Osserviamo che basta dimostrare il risultato per v.a. limitate. Infatti, se Z non limitata basta considerare H = arctan(Z), dunque
Z = arctan1 (H) con H limitata dunque H = h(Y). Mostriamo dunque per v.a. limitate. Sia H la famiglia delle v.a. Z tali che Z = f(Y)
con f funzione boreliana limitata. Allora H uno spazio vettoriale
e, chiaramente, 1 H. Consideriamo ora (Xn )n1 H, cio Xn K
n 1 con Xn 0 n 1 e Xn X. fn t.c. Xn = fn (Y) con
fn boreliana limitata. Dunque, poich Xn K X K. Inoltre,
essendo Xn = fn (Y)1 allora: f = lim sup fn e X = f(Y). Dunque sia
n+

F (Y), allora (Y) un -system e basta mostrare che: 1F H


F (Y) per applicare il teorema delle classi monotone (thm. 3). Si
ha che F = Y 1 (A), A B(R), dunque 1F () = 1A (Y()) H che
misurabile.

Proposizione 14. Siano X, Y v.a. reali. Allora (X) = (Y) h1 , h2 boreliane
tali che X = h1 (Y), Y = h2 (X).
Dimostrazione. Vediamo tutte e due le implicazioni:
(): Se (X) = (Y) per il lemma precedente (lem. 6) X (Y)misurabile e Y (X)-misurabile, dunque h1 , h2 boreliane tali che
X = h1 (Y), Y = h2 (X).
(): Se X = h1 (Y), A B(R) si ha che X1 (A) = Y 1 (h1 (A)) (Y)
(X) (Y), analogamente per laltra inclusione con h2 .

1

Lesistenza del limite non garantita dalla crescenza, poich fn crescente solo su
Im(Y).

14

FABIO DURASTANTE

2.3. Indipendenza.
Definizione 25 (Indipendenza -algebre). Sia (, F, P) uno spazio di probabilit. Sia (Gn )n1 F una famiglia di -algebre. Le (Gn )n1 sono
indipendenti,
, se e solo se n N per i1 , . . . , in distinti ed interi si
ha:
(2.10)

P(Gi1 . . . Gin ) = P(Gi1 ) . . . P(Gin ) Gij Gij j = 1, . . . , n

Definizione 26 (Indipendenza di v.a.). Sia (Xn )n1 v.a. su (, F, P) spazio di probabilit si dicono indipendenti se la famiglia ((Xn ))n1 di
-algebre indipendenti.
Definizione 27 (Indipendenza di eventi). Data una successione di eventi
(En )n1 F, questi sono indipendenti se sono indipendenti le -algebre
generate ((En ))n1 .
Osservazione 10. (En )n1 F (1En )n1 , infatti (En ) = (1En ) =
{, En , Ecn , }.
Proposizione 15. Siano (, F, P) spazio di probabilit, I1 , . . . , Im -system
contenenti e G1 = (I1 ), . . . , Gm = (Im ), allora:
P(G1 . . . Gm ) =

m
Y

P(Gl ) Gl Gl

l=1

(2.11)

{i1 , . . . , ik } 1, . . . , m
k m
Qk
P(Ji1 . . . Jik ) = l=1 P(Jil ) Jil Iil

Dimostrazione. Dimostriamo tutte e due le implicazioni.


(): Avendo lindipendenza tra m eventi, per provare lindipendenza
tra k < m eventi sufficiente prendere m k eventi uguali ad ,
che, per ipotesi, appartiene ai -system.
(): Fissiamo J2 I2 , . . . , Jm Im e definiamo 1 : G1 [0, 1] e

^ 1 : G1Q [0, 1] come 1 (G1 ) = P(G1 (m


^1 =
i=2 Ji )) G1 G1 e
P(G1 ) m
P(J
)

G
rispettivamente.
Allora

^
i
1
1
1
1 sono
i=2
due misure finite su G1 e coincidono sul -system I1 , dunque per
il Teorema di Estesione di Charateodory (thm. 1) si ha che queste
coincidono su G1 . Dunque:
(2.12)

G1 G1 , J2 I2 , . . . , Jm Im P(G1 (m
i=2 Ji )) = P(G1 )

m
Y

P(Ji )

i=2

per ottenere la tesi sufficiente iterare il procedimento fissando:


G1 G1 , . . . , Gk1 Gk1 Jk+1 Ik+1 , . . . , Jm Im .


COMPLEMENTI DI PROBABILIT

15

Corollario 2. Siano I1 , . . . , Im -system contenenti , allora:


(2.13)

(I1 ), . . . , (Im ) P (m
i=1 Ji ) =

m
Y

P(Ji ) Ji Ii

j=1

Riconduciamo le nuove definizione di indipendenza a quelle vecchie.


Definizione 28 (Old). Gli elementi della successione (En )n1 sono eventi
indipendenti se n 1 {i1 , . . . , in } N distinti:
n
 Y
P nj=1 Eij =
P(Eij )

(2.14)

j=1

La nuova definizione implica direttamente questa, mentre per il viceversa basta osservare che {En }n1 un -system che genera (En ) e dunque, a meno di aggiungere una copia di al -system, si pu applicare la
proposizione precedente per ottenere lequivalenza.
Definizione 29 (Old). Gli elementi della successione (Xn )n1 sono v.a. indipendenti se n N {i1 , . . . , in } N distinti:
(2.15)

nj=1 {Xij

xij } =


n
Y

P {Xij xij }

j=1

La nuova definizione implica direttamente questa, mentre per il viceversa basta osservare che {Xn x} x R un -system che genera (Xi ),
dunque, a meno di aggiungere una copia di al -system, si pu applicare
la proposizione precedente per ottenere lequivalenza.
Osservazione 11. Osserviamo che:
(2.16)

(Xn )n1
k N P

ki=1 {Xi

xi } =

k
Y

P ({Xi xi })

i=1

infatti se consideriamo {Xn } n


/ {i1 , . . . , iN }) = I, allora:




N
P N
{X

x
}
=
lim
P

{X

x
}

{
{X

k}}
=
i
i
i
i
j
jI
/
j=1
j=1
j
j
j
j
k+

= lim

k+

N
Y

N
Y

P({Xij xij })

N
Y
j=1

Y
jI
/

j=1

P({Xij xij })

P(Xj k) =

jI
/

j=1

P({Xij xij })

P(Xj ) =

16

FABIO DURASTANTE

Proposizione 16. Siano (Xn )n1 ed f : R R boreliana, allora si ha che


(f(Xn ))n1
.
Dimostrazione. Sia Yn = f(Xn ) n 1, allora:
1
(Yn ) ={Yn1 (E), E B(R)} = {X1
n (f (E)), E B(R)}

(2.17)

{X1
n (A), A B(R)} = (Xn )


2.4. Secondo Lemma di Borel-Cantelli.


Lemma
7 (Borel-Cantelli II). Sia (En )n1 successione di eventi indipendenti, se
P
P(E
n ) = +. Allora:
n=1


(2.18)
P lim sup En = 1
n

Dimostrazione. Sia pn = P(En ), poich lim supn En


mostriamo che:


(2.19)
P lim inf Ecn = 0

c

= lim infn Ecn ,

si ha che:
(2.20) P (mn Ecm ) =

P(Ecm ) =

mn

(1pm )

mn

epm = e

P
mn

pm

mn

dunque:


P lim inf Ecn =P (n1 mn Ecm ) = lim P(mn Ecm )
(2.21)

lim e

n+

n+

mn pm

=0


2.5. Borel-Cantelli e convergenza q.c.


Definizione 30 (Convergenza lim sup). Sia (, F, P) spazio di probabilit,
(Xn )n1 ,X v.a. reali. Allora si dice che:
(2.22)

lim sup Xn = X q.c.


n+

Se e solo se:
(2.23) N F : P(N) = 0 t.c. \ N lim sup Xn () = X() < +
n+

Teorema 4. (Xn )n1 ,X v.a. reali:






P lim inf{Xn < X + } = 1
 n+

P lim sup Xn = X = 1 > 0

n+

P lim sup{Xn > X } = 1


n+

COMPLEMENTI DI PROBABILIT

17





e P lim inf{Xn < X + } = 1 P lim sup{Xn X + } = 0.
n+

n+

Dimostrazione. Mostriamo ambedue le direzioni:



(): P lim supn+ Xn = X = 1 implica che:



1 =P >0 lim inf{Xn < X + } lim sup{Xn > X }

n+
n+


P lim inf{Xn < X + } lim sup{Xn > X }
n+
n+
(2.24)


P lim inf{Xn < X + } 1
n+


P lim sup{Xn > X } 1
n+

ovvero la tesi.
(): Mostriamo laltra implicazione:


P lim sup Xn = X =
n+
!

P
(2.25)

\
lim inf{Xn < X + } lim sup{Xn > X }
>0

n+

n+





1
lim sup Xn > X
P
lim inf Xn < X +
n+
N
n+
N=1




1
= lim P lim inf Xn < X +
lim sup Xn > X
n+
N
N
n+
+
\

1
N
1
N

!
=

=1


Teorema 5. (Xn )n1 ,X v.a. reali:






P
lim
inf
{X
>
X

}
=1

n
n+


P lim inf Xn = X = 1 > 0
n+

P lim sup{Xn < X + } = 1


n+





e P lim inf{Xn > X } = 1 P lim sup{Xn X } = 0.
n+

n+

Teorema 6. (Xn )n1 ,X v.a. reali:





> 0 P lim inf {|Xn X| < } = 1
 n+

P lim Xn = X = 1
n+
> 0 P lim sup {|Xn X| } = 0


n+

18

FABIO DURASTANTE

Teorema 7. (Xn )n1 ,X v.a. reali:






P lim sup Xn = + = 1 k > 0 P lim sup{Xn > k} = 1
n+
n+




k > 0 P lim inf{Xn > k} = 1
 n+

P lim Xn = + = 1
n+
k > 0 P lim sup{Xn k} = 0
n+




P lim inf Xn = = 1 k > 0 P lim sup{Xn < k} = 1
n+
n+




k > 0 P lim inf{Xn < k} = 1
 n+

P lim Xn = = 1
n+
k > 0 P lim sup{Xn k} = 0
n+

Osservazione 12. Siano (Xn )n1 v.a. reali, allora:


{lim supn+ Xn > x} {Xn > x i.o.} {lim supn+ Xn }.
{lim infn+ Xn < x} {Xn < x i.o.} {lim supn+ Xn }.
2.6. La -algebra coda.
Definizione 31. Siano (Xn )n1 v.a. reali e siano:
n = (Xi , i > n) n 0

(2.26)

allora si dice -algebra coda la:


(2.27)

n0

Proposizione 17. Si ha che: infnm Xn , supnm Xm sono m1 -misurabili


m 1. Mentre lim supn+ Xn e lim infn+ Xn sono -misurabili.
Dimostrazione. Mostriamo prima inf e sup:


\
{Xn > x} m1
(2.28)
inf Xn > x =
nm

sup Xn x

(2.29)

nm

nm

{Xn x} m1

nm

mostriamo ora che lim supn+ Xn N -misurabile N 0:


(2.30)

lim sup Xn = inf sup Xk = inf sup Xk che N misurabile


n+

n1 kN

nN+1 kn

mostriamo ora che lim infn+ Xn N -misurabile N 0:


(2.31)

lim inf Xn = sup inf Xk = sup inf Xk che N misurabile


n+

n1 kN

nN+1 kn

COMPLEMENTI DI PROBABILIT

19

Osservazione 13. Osserviamo che:









lim Xn () = lim inf Xn = lim sup Xn
n+
n+
n+






+
n
X

X



Xk () = lim
Xk () <

n+
k=1

k=1

Teorema 8 (Legge 0-1 di Kolmogorov). Siano (Xn )n1 v.a. reali allora:
(1) La -algebra coda PP-triviale, cio:
A P(A) {0, 1}

(2.32)

(2) Se una v.a. -misurabile, allora c R {} tale che:


(2.33)

P({ = c}) = 1

Dimostrazione. Dimostriamo tutte e due le affermazioni:


(1) Siano:
(2.34)

n = (Xi , i > n)
n = (Xi , i = 1, . . . , n)
= (Xi , i 1)
allora si ha che:
n
n , infatti i -system:

(2.35)

Kn = {X1 < x1 , . . . , Xn < xn | xi R {}, i = 1, . . . , n}

(2.36)

Jn = {Xn+1 < xn+1 , . . . , Xn+k < xn+k | xn+k R {}, k N}


generano, rispettivamente, n = (Xi , i = 1, . . . , n) e n =
(Xi , i > n) e sono indipendenti.
n
, poich n n e n .

, infatti n1 Kn un -system che genera e se A
n1 Kn allora n N tale che A Kn , ma Kn .

, poich e
dunque usando che , si ha che A :

(2.37)

P(A) = P(A A) = P(A)P(A) P(A) {0, 1}

(2) Sia c = sup{x : P({ < x}) = 0}, allora:


Se c = P({ = }) = 1.
Se c = + P({ = +}) = 1.
Se c R P({ c 1/n}) = 0 e P({ c + 1/n}) = 1 n N
P({ = c}) = 1.


20

FABIO DURASTANTE

3. I NTEGRAZIONE A STRATTA
Definizione 32. Sia (S, , ) uno spazio di misura, si definiscono:
m :={f : (S, ) (R, B(R)), misurabile}

(3.1)

(m)+ :={f m | f 0}

(3.2)

(SF)+ :={f (m)+ , semplice}

(3.3)

Definizione 33 (Funzioni Semplici). Una funzione f (m)+ si dice semplice se n N a1 , . . . , an [0, +] ed A1 , . . . , An tali che:
(3.4)

f(x) =

n
X

ai 1Ai (x)

k=1

Definizione 34. Data una funzione f (SF)+ si dice integrale su S di f:


Z
n
X
fd =
ak (Ak )
(3.5)
S

k=1

mentre su A , si dice integrale su A di f:


Z
Z
(3.6)
fd = f1A d
A

Osservazione 14. Dalle definizioni discende:


(1) La definizione di integrale ben posta. Infatti se si hanno due
rappresentazioni della medesima f gli integrali coincidono.
(2) Data f (SF)+ si pu sempre rappresentarla tramite una partizione
infatti, detti ai i = 1, . . . , n i valori assunti da f, si prende Ai = {f =
ai } i = 1, . . . , n.
+ possono essere scritte tramite gli stessi insiemi poich
(3) f, g (SF)
P
P
se f =
a k 1 Ak e g =
bj 1Bj , si possono considerare gli insiemi
Ck,j = Ak Bj per i = 1, . . . , n, k = 1, . . . , m.
Proposizione 18. (S, , ) spazio di misura,
(1)
(2)
(3)
(4)
(3.7)

R
f (SF)+ , A tale che (A) = 0 RA fd = 0.
R
Siano f, g (SF)+ con (f 6= g) R= 0 SRfd = S gd.
Siano f, g (SF)+ con f g S fd S gd.
Siano , R+ , f, g (SF)+ allora:
Z
Z
Z
(f + g)d = fd + gd
S

(5) Sia f

(SF)+

tale che

S
S fd

= 0 ({f > 0}) = 0.

Dimostrazione. Dimostriamo in ordine i risultati:


R
R
P
P
(1) A fd = S f1A d = nk=1 k (Ak A) (A) nk=1 k = 0.

COMPLEMENTI DI PROBABILIT

21

P
(2) Sia BP= {f 6= g}, allora (B) = 0, dunque f = nk=1 k 1Ak + 1B e
g = nk=1 k 1Ak + 1B , quindi:
Z
Z
n
n
X
X
(3.8)
fd =
k (Ak ) + (B) =
k (Ak ) + (B) = gd
S

k=1

k=1

(3) Detto Cj,k = Aj Bk abbiamo che:


Z
Z
n,m
n,m
X
X
(3.9)
fd =
j,k (Ci,k )
j,k (Ci,k ) = gd
S

k,j=1

k,j=1

(4) Detto Cj,k = Aj Bk abbiamo che:


Z
Z
n,m
n,m
X
X
fd + gd =
k (Ci,k ) +
k (Ci,k ) =
S

(3.10)
=

k,j=1
n,m
X

k,j=1

(j,k + j,k (Ci,k ) =

(f + g)d
S

k,j=1

R
Pn
) = 0 (Ak ) =
(5) f =
k=1 k (A
k=1 k 1Ak , quindi S fd =
Pk
0 k t.c. k 6= 0 ({f > 0}) = k 6=0 Ak k 6=0 (Ak ) = 0.

Pn

Osservazione 15. Siano f, g (SF)+ allora f g, f g (SF)+ .


3.1. Funzioni misurabili, teoremi di convergenza.
Definizione 35 (Integrale). Sia (S, , ) spazio di misura, sia f (m)+
definiamo lintegrale di f su S:

Z

Z

(3.11)
fd = sup
hd h (SF)+ e h f
S

e, con A definiamo lintegrale di f su A:


Z
Z
(3.12)
fd = f1A d
A

Proposizione 19. (S, , ) spazio di misura,


R
(1) f (m)+ , A tale che
(A) =R 0 A fd = 0.
R
(2) f, g (m)+R, f g S fd S fgd.
(3) f (m)+ e S fd = 0 ({f > 0}) = 0.
Dimostrazione. Dimostriamo tutte le proposizioni:
(1) Dalla definizione:


Z
Z
Z

+

fd = f1A d = sup
hd h (SF) e h f1A =
S
A
S

Z

(3.13)

= sup
hd h (SF)+ e h f = 0
A

22

FABIO DURASTANTE

(2) Dalla definizione:



Z

Z

+

fd = sup
hd h (SF) e h f
A
S

Z
Z
(3.14)

+

sup
hd h (SF) e h g = gd
S

(3) Si ha che {f > 0} = n1 {f > 1/n}, sia, per assurdo ({f > 0}) > 0,
allora n tale che ({f > 1/n})
> 0:
Z
Z
1
fd f1{f>1/n} d ({f > 1/n})
>0
(3.15)
n
S
S
lassurdo cercato.

Teorema 9 (Convergenza Monotona).
Sia (S,
R , ) spazio di misura, siano
R
fn , f (m)+ tali che fn f, allora: S fn d S fd.
Osservazione 16. Sia f (mF)+ , definiamo la funzione:

x=0
0
n
i1
i
i1
n
(3.16)
(x) =
n
2n < x 2n i = 1, . . . , n2
2
n
x>n
allora:
fn (x) = (n f) (x)

(3.17)

sono tali che (fn )n1 (SF)+ e fRn f q.c.,Rquindi per il Teorema di Convergenza Monotona (thm. 9) si ha S fn d S fd.
Proposizione 20. Sia (S, , ) spazio di misura,

R
R
(1) Siano f, g (m)+ con ({f 6= g}) = 0 S fd = S gd.
(2) Siano , R+ , f, g (m)+ allora:
Z
Z
Z
(3.18)
(f + g)d = fd + gd
S

Dimostrazione. Dimostriamo i due risultati:


R
R
R
R
(1) RS fd = limn+ S fn d R= limn S gn d = S gd. R
(2) S (f+g)d
R = limn+
R S (fn +g
R n )d = limn+ S fn d+
limn+ S fn d = S fd + S gd.

Teorema 10 (Convergenza Monotona q.c.). Sia (S, , )
R spazio diR misura,
siano fn , f (m)+ tali che fn f quasi certamente, allora: S fn d S fd.

COMPLEMENTI DI PROBABILIT

23

Dimostrazione. fn f quasi certamente, quindi N (N) = 0 tale che


s S \ N fn f, quindi:
Z
Z
Z
Z
fn d =
fd = lim
fd = f1S\N d =
n+ S\N
S\N
S
S
(3.19)
Z
Z
fn d
fn 1S\N d = lim
= lim
n+ S

n+ S


Osservazione 17. Se la misura
R di Lebesgue ed f una funzione integrabile secondo Riemann allora S P
fd lintegrale
P di Riemann. Se una
combinazione lineare di : = k1 k {xk } e k1 k = 1, allora:
Z
X
(3.20)
fd =
k f(xk )
S

k1

Lemma 8 (Lemma di Fatou). Sia (fn )n1 (m)+ , allora:


Z
Z
(3.21)
lim inf fn d lim inf fn d
S n+

n+

Dimostrazione. lim infn+ fn = supn1 infkn fn allora, una volta posto


gn = infkn fn , si ha che gn g = lim infn+ fn e gn fk k n, quindi:
Z
Z
(3.22)
gn d fk d k n
S

dunque:
Z

Z
gn d inf

(3.23)
S

e allora:

kn S

fk d

(3.24)

gd = lim
S

n+ S

gn d lim inf

n+ kn S

fk d = lim inf
n+

fn d
S


Lemma 9 (Lemma
di Fatou Inverso). Sia (fn )n1 (m)+ , g (m)+ tale
R
che fn g e S gd , allora:
Z
Z
(3.25)
lim sup fn d lim sup fn d
S n+

n+

Dimostrazione. Si applica il Lemma di Fatou per funzioni (lem. 8) alla funzione hn = g fn .




24

FABIO DURASTANTE

3.2. Funzioni Integrabili.


Definizione 36 (Funzione Integrabile). Sia f m, f si dice integrabile se:
Z
Z
+
(3.26)
f d < + e f d < +
S

cio se:

Z
|f|d =

(3.27)

(f+ + f )d < +

indichiamo con L1 (S, , ) linsieme delle funzioni integrabili.


Definizione 37 (Integrale). Sia f m integrabile, definiamo lintegrale di
f su S:
Z
Z
Z
+
(3.28)
fd = f d f d
S

R
R
Osservazione 18. f L1 (S, , ) si ha che S fd S |f|d.
Proposizione 21. Siano f, g L1 (S, , ), , R, allora:
1
(1) f
R + g L (S, , )
R
R
(2) S (f + g)d = S fd + S gd
Dimostrazione. Dimostriamo in primo luogo che f + g L1 (S, , ), si ha
che:
Z
Z
Z
(3.29)
|f + g|d || |f|d + || |g|d <
S

chiamiamo
che h+ + f R+ g = hR+ g+ + f+
R abbiamo
R + h= f + g, per cui

+
+
+

S (hR + g + f R)d SRh d R S h d =


R +S (h +R f + g )d
R =
+

S f d S f d + S g d S g d S hd = S fd + S gd. Per
0 abbiamo che:
(3.30)
Z

Z
Z
Z
Z
Z
+

fd = f d f d =
f d f d = fd
S

Per = 1:

(3.31)

Z
+

f d
S

fd =
S

f d =
S

fd
S


Teorema 11 (Convergenza Dominata). Siano (fn )n1 m, f m e sia:
(1) lim fn (s) = f(s) s S.
n+

(2) |fn | g, g L1 (S, , ) n N.


Allora:
Z
(3.32)
lim
|fn f|d = 0
n+ S

Z
lim fn d =

n+

fd
S

COMPLEMENTI DI PROBABILIT

25

R
Dimostrazione. Osserviamo che |fn f| 2g e S 2gd < +, dunque per
il Lemma di Fatou Inverso (lem. 9) abbiamo che:
Z
Z
Z
(3.33)
0 = 0d = lim sup |fn f|d lim sup |fn f|d 0
S

quindi limn+
(3.34)

S n+

n+

S |fn

f|d = 0 e:
Z
Z
Z


fn d fd |fn f|d = 0


S

= 0 A ({f 6= 0}) = 0.
R
R
Dimostrazione. Osserviamo che: {f > 0} {f>0} fd = S f1{f>0} d = 0


f1{f>0} > 0 = 0 dunque ({f > 0}) = 0. Inoltre, {f < 0}


R
R
f1{f<0} > 0 = ({f < 0}) = 0 e
{f<0} fd = S f1{f<0} d = 0
quindi abbiamo la tesi ({f 6= 0}) = ({f < 0}) + ({f > 0}) = 0.

Proposizione 22. Sia f L1 (S, , ) e

A fd

3.3. Misura assolutamente continua.


Definizione 38. Sia f (m)+ definiamo f : [0, +] come:
Z
(3.35)
f (A) = fd
A

Proposizione 23. Valgono le seguenti propriet,


(1) f una misura su (S,R ).
R
(2) Se g (m)+ allora S gdf = S gfd.
Dimostrazione. Verifichiamo che f una misura.
R
f () = fd = 0, integrale di un insieme di misura nulla.
Siano (An )n1 disgiunti:

Z
Z X
Z
[
S

f
An = S
fd = f1 n1 An d =
f1An d =
n1

(3.36)

n1

An

Z
(thm. 9) =
=

lim

N
X

S N+ n1

XZ

n1 An

S n1

N Z
X

f1An d = lim

fd =

N+

f1An d =

n1 S

f (An )

n1

Mostriamo ora la seconda parte della proposizione, mostriamola per funzioni semplici. Per linearit ci basta mostrare per g = 1B con B :
Z
Z
Z
Z
Z
(3.37)
gdf = 1B df = f (B) = fd = f1B d = fgd
S

(SF)+ ,

dunque vero g
applicando il Teorema di Convergenza Monotona (thm. 9) si ha che g (m)+ .


26

FABIO DURASTANTE

Osservazione 19. Data f possiamo definire (f )g e, per la proposizione


precedente, si ha che: (f )g = fg .
Proposizione 24. Sia f (m)+ e h m, allora:
(1) h L1 (S, , f ) hf R L1 (S, , ),
R
(2) Se h L1 (S, , f ) S hdf = S hfd.
R
R
Dimostrazione. Si ha che S |h|df = S |h|fd, da cui la tesi. Inoltre si ha
che:
Z
Z
Z
Z
Z
hdf = h+ df h df = h+ fd h fd =
S
S
S
S
ZS
Z
Z
(3.38)
+

= (hf) d (hf) d = hfd


S


Definizione 39. Sia = f con f (m)+ allora si dice che ha densit
rispetto a e scriviamo d
d = f
Definizione 40 (Assoluta Continuit). Siano , misure su (S, ) allora
assolutamente continua rispetto a , si scrive << , se e solo se:
(3.39)

F : (F) = 0 (F) = 0

Osservazione 20. Osserviamo che f assolutamente continua rispetto a .


Teorema 12 (Radon-Nycodim). Siano , misure -finite su (S, ). Se <<
f (m)+ tale che = f . Inoltre se f 0 unaltra densit (f 0 6= f) =
(f 0 6= f) = 0.
Osservazione 21. Se , sono misure -finite su (S, ) con << allora
d
h L1 (S, , ) h d
L1 (S, , ).
Proposizione 25. Date , , misura -finita su (S, ) allora:
(1) << , << << .
d d
(2) d
d = d d q.c.
Dimostrazione. Sia A tale che (A) = 0 (A) = 0 (A) = 0, inoltre
abbiamo:
d
(3.40)
=h
<< h (m)+ t.c.
d
d
(3.41)
<< g (m)+ t.c.
=g
d
d
(3.42)
<< f (m)+ t.c.
=f
d
(3.43)
allora = h , = g = (g )h = gh e = f , dunque per il Teorema
di Radon-Nycodim f = gh q.c.


COMPLEMENTI DI PROBABILIT

27

Definizione 41. La densit che gi si conosceva detta densit di RadonNycodim rispetto alla misura di Lebesgue.
4. S PAZI L1 (, F, P) E L1 (, F, P)
Definizione 42. Sia X L1 (, F, P) v.a. allora si dice media di X:
Z
X()dP()
(4.1)
E[X] =

Proposizione 26. Sia X v.a. su (, F, P) con legge X su (R, B(R)) e h : R R


boreliana, allora:
h(X) L1 (, F, P) h L1 (R, B(R), X )
R
e in tal caso E[h(X)] = R h(x)dX (x).

(4.2)

Dimostrazione. Sia h = 1B , B B(R), allora:


Z
Z
Z
E[h(X)] =
h(X)dP =
1B dP = P(X B) = X (B) = 1B (x)dX (x)

Per linearit estendiamo il risultato alle funzioni semplici (SF)+ , per la convergenza monotona possiamo estendere il risultato a (m)+ , con h+ ed h
lo estendiamo a tutte le funzioni misurabili m.

Osservazione 22. Il risultato che abbiamo appena visto ci permette di trovare
la classica definizione di media di una variabile aleatoria. Infatti se X una
v.a. assolutamente continua con densit f, allora abbiamo che X ammette
media se:
Z
Z
(4.3)
|x|f(x)dx = |x|dX (x) < +
R
R
R
R
R
e E[X] = R xf(x)dx = R xdX x = X()dP(). Invece se X una v.a.
discreta si ha che X ammette media se:
X
(4.4)
|x|f(x) < +
e E[X] =

xR xf(x)

xR

R xdX (x) =

X()dP().

Proposizione 27. Valgono le seguenti propriet,


(1) Siano X, Y L1 (, F, P) allora si ha che:
E[X + Y] = E[X] + E[Y] , R

(4.5)

(2) P(X 0) = 1 E[X] 0.


(3) P(X Y) = 1 E[X] E[Y].
(4) |E[X]| E[|X|].
Teorema 13 (di Convergenza). Siano X,(Xn )n1 v.a. su (, F, P) per cui si ha
che lim Xn = X q.c.
n+

Convergenza Monotona: Se Xn 0 e Xn X E[Xn ] E[X].

28

FABIO DURASTANTE



Lemma di Fatou: E lim inf Xn lim inf E [Xn ].
n+

Convergenza Dominata: Se |Xn |

n+
< Y L1 (, F, P)

e si ha che:

lim E[|Xn X|] = 0 X L1 (, F, P) e lim E[Xn ] = E[X].

(4.6)

n+

n+

Convergenza Dominata Limitata: Se |Xn | k R e si ha che:


(4.7)

lim E[|Xn X|] = 0 X L1 (, F, P) e lim E[Xn ] = E[X].

n+

n+

Osservazione 23. Osserviamo che:


(1) Sia X (mF)+ con E[X] < , allora P(X < +) = 1, cio X quasi
certamente finita.
P
P
(2) Siano (Zn )n1 (mF)+ , allora: E[ n1 Zn ] =
n1 E[Z]. Se le
somme sono finite questo banalmente vero per linearit. Se le
PN
somme
sono
infinite,
basta
porre
X
=
N
n=1 Zn , allora XN X =
P
monotona si conclude.
n1 Zn dunque per la convergenza
P
(3) Siano (Zn )n1 (mF)+ con k1 E[Zk ] < + allora:

X
X
(4.8)
E
Zk
E[Zk ] < +
k1

k1

dunque

(4.9)

Zk < + = 1

k1

quindi:

(4.10)


lim Zk = 0 = 1

k+

perch {limk+ Zk = 0} {
R
(4) Se F F E[X1F ] = F XdP.

k1 Zk

< +}.

4.1. Disuguaglianze di Markov e Jensen.


Teorema 14 (Disuguaglianza di Markov). Sia Z (mF) e g : R [0, +)
non decrescente boreliana, allora:
(4.11)

E[g(Z)] g(c)P(Z c) c R

Dimostrazione. Fissato un c R:






E[g(Z)] =E g(Z)1{Z<c} + E g(Z)1{Zc} E g(Z)1{Zc}


(4.12)
g(c)E 1{Zc} = g(x)P(Z c)


COMPLEMENTI DI PROBABILIT

29

Esempio 10. Sia g(c) = c con c > 0 e Z (mF)+ , allora:


E[Z] cP(Z c)

(4.13)

Se R+ , Y (mF)+ allora:
h i
(4.14)
E eY ec P(Y c)
Teorema 15 (Disuguaglianza di Jensen). Sia G un intervallo di R ed f : G R
convessa, dunque continua perch convessa su di un intervallo, allora se X
L1 (, F, R) con P(X G) = 1 e f(X) L1 (, F, P) si ha che:
E[f(X)] f(E[X])

(4.15)

Dimostrazione. Sia L(x) la retta tangente ad f(x) in E[X], allora:


(4.16)

f(E[X]) = L(E[X]) = E[L(X)] E[f(X)]




4.2. Lo spazio Lp (, F, P).


Definizione 43. Sia p 1, allora X Lp (, F, P) se X (mF) e:
Z
p
(4.17)
E[|X| ] =
|X|p dP < +

Osservazione 24. Se X (mF) con |X| K q.c. X Lp (, F, P) p


Proposizione 28. Lp (, F, P) uno spazio vettoriale.
Dimostrazione. Infatti:
(1) E[|X|p ] = ||p E[|X|p ] X Lp (, F, P) e R.
(2) |X + Y|p (|X| + |Y|)p 2p (|X|p + |Y|p ) e quindi abbiamo che X, Y
Lp (, F, P) si ha E[|X + Y|p ] 2p (E[|X|p ] + E[|Y|p ]).

Proposizione 29. Sia 1 p r < + allora si ha che:
(4.18)

X Lr (, F, P) X Lp (, F, P)

Dimostrazione. Sia Xn = (|X| n)p allora (Xn )n0 una successione di v.a.
limitate e tale che Xn |X|p . Consideriamo anche la funzione f(x) = xr/p per
x > 0, questa funzione convessa e positiva, possiamo dunque applicare
la disuguaglianza di Jensen (thm. 15) e ottenere:
(4.19)

E[Xrn ] = E[f(Xpn )] f(E[Xpn ]) = E[Xpn ]r/p

dunque, per il Teorema di Convergenza Monotona (thm. 9) si ha che:


(4.20)

E[Xp ]r/p E[Xr ]




30

FABIO DURASTANTE

Teorema 16 (Disuguaglianza di Hlder). Siano date le v.a.: X Lp (, F, P)


e Y Lq (, F, P) con 1/p + 1/q = 1, allora si ha che:
(1) XY L1 (, F, P).
(2) Vale la disuguaglianza:
1
Z
 1 Z
p
q
q
p
|E[XY]| E[|XY|]
|Y| dP
|X| dP
= E[|X|p ]1/p E[|Y|q ]1/q

Teorema 17 (Disuguaglianza di Minkowski). Siano X, Y Lp (, F, P), allora X + Y Lp (, F, P) e vale la disuguaglianza:


1
Z
 1 Z
1
Z
p
p
p
p 1/p
p
p
p
E[|X + Y| ] =
|X + Y|

|X|
+
|Y|
=
(4.21)

=E[|X|p ]1/p + E[|Y|p ]1/p


Proposizione 30. Siano X1 , . . . , Xn L1 (, F, P) allora si ha che:
(1) X1 . . . Xn L1 (, F, P).
(2) E[X1 . . . Xn ] = E[X1 ] . . . E[Xn ].
Dimostrazione. Dimostriamolo nel caso n = 2. Come al solito partiamo da
X1 = 1A e X2 = 1B con A, B F , cos definite si ha banalmente che
X1 , X2 L1 (, F, P), inoltre si ha che:
(4.22)

E[X1 X2 ] =E[1A 1B ] = E[1AB ] = P(A B) = P(A)P(B) =


=E[1A ]E[1B ] = E[X1 ]E[X2 ]

dunque lasserto verificato in (SF)+ . Mostriamolo ora per X1 , X2 (mF)+ ,


definiamo Yn = n X1 e Zn = n X2 , per cui abbiamo che Yn X1 e Zn
X2 , ora Zn e Yn sono funzioni semplici e indipendenti, infatti (Yn ) (X1 )
e (Zn ) (X2 ), allora possiamo scrivere:
(4.23)

E[X1 X2 ] = lim E[Yn Zn ] = lim E[Yn ]E[Zn ] = E[X1 ]E[X2 ]


n+

n+

dove abbiamo usato, nellordine, il Teorema di Convergenza Monotona (thm.


9) ed il punto precedente. Per generalizzare ad (mF) non resta che applicare
il punto precedente ad f+ e ad f .

4.3. Lo spazio Lp (, F, P).
Definizione 44 (Norma p). Sia X Lp (, F, P), definiamo:
Z
1 

p
p
(4.24)
||X||p =
|X| dP
= E[|X|p ]1/p

Lapplicazione appena definita soddisfa le seguenti propriet:


(1) ||X||p = 0 X = 0 q.c.
(2) ||X||p = ||||X||p X Lp (, F, P) R.

COMPLEMENTI DI PROBABILIT

31

(3) ||X + Y||p ||X||p + ||Y||p per la disuguaglianza di Minkowski (thm.


17)
dunque || ||p non una una norma su Lp (, F, P) perch la propriet (1)
vale solo quasi certamente. Diamo allora la seguente definizione:
Definizione 45. Definiamo su Lp (, F, P) la seguente relazione di equivalenza X, Y Lp (, F, P):
(4.25)

X Y X = Y q.c.

Possiamo quindi definire lo spazio quoziente:


Definizione 46 (Lp ). Definiamo lo spazio quoziente di Lp (, F, P) rispetto
alla relazione :
(4.26)

Lp (, F, P) = Lp (, F, P)/

Proposizione 31. Lo spazio Lp (, F, P) con la || ||p uno spazio normato.


Per snellire la notazione indicheremo, quando non sono ambigui gli spazi in questione, Lp := (Lp (, F, P), || ||p ).
Definizione 47 (Convergenza Lp ). Siano (Xn )n1 Lp (, F, P) ed X
Lp (, F, P), allora si dice che Xn X in Lp se:
(4.27)

lim ||Xn X||p = 0

n+

Proposizione 32. (Lp (, F, P), || ||p ) uno spazio normato completo, ovvero
uno spazio di Banach.
Proposizione 33 (Convergenza dei Momenti). Siano (Xn )n1 Lp (, F, P)
ed X Lp (, F, P) con Xn X in Lp allora ||Xn ||p ||X||p .
Dimostrazione. Se Xn X in Lp allora, per definizione (def. 47), abbiamo
che: limn+ ||Xn X||p = 0, ma:
(4.28)
(4.29)

||Xn ||p ||Xn X||p + ||X||p


||X||p ||X Xn ||p + ||Xn ||p

||Xn ||p ||X||p ||Xn X||p


||X||p ||Xn ||p ||Xn X||p

e dunque abbiamo: |||Xn ||p ||X||p | ||Xn X||p 0 per n +.

4.4. Lo spazio L2 (, F, P). Si ha che L2 (, F, P), oltre ad essere uno spazio di Banach, dunque normato e completo, anche uno spazio di Hilbert,
infatti la norma indotta dal prodotto scalare:
Z
(4.30)
< X, Y >2 = E[XY] =
XYdP X, Y L2 (, F, P)

per cui la norma risulta essere: || ||2 =

< , >2 .

Teorema 18 (Disuguaglianza di Schwartz). Siano X, Y L2 (, F, P) allora:


(4.31)

| < X, Y >2 | ||X||2 ||Y||2

32

FABIO DURASTANTE

Dimostrazione. Riconduciamo, come al solito, prima a v.a. limitate ponendo: Xn = |X| n e Yn = |Y| n, allora presi a, b R abbiamo che:
(4.32)

0 E[(aXn + bYn )2 ] = a2 E[X2n ] + 2abE[Xn Yn ] + b2 E[Yn2 ]

questo implica che il dellequazione di secondo grado 0, dunque:


(4.33)

E[Xn Yn ]2 E[X2n ]E[Yn2 ] 0

per il Teorema di Convergenza Monotona (thm. 9) abbiamo che:


(4.34)

| < X, Y > |2 = |E[XY]| E[X2 ]1/2 E[Y 2 ]1/2 = ||X||2 ||Y||2




Teorema 19 (Disuguaglianza Triangolare). Siano X, Y L2 (, F, P) allora:


(4.35)

||X + Y||2 ||X||2 + ||Y||2

Dimostrazione. Sfruttiamo le propriet del prodotto scalare:


||X + Y||22 = < X + Y, X + Y >2 = ||X||22 + 2 < X, Y >2 +||Y||22
(4.36)

||X||22 + 2||X||2 ||Y||2 + ||Y||22 =


=(||X||2 + ||Y||2 )2


Definizione 48 (Covarianza, Varianza). Siano X, Y L2 (, F, P), dette X =


X E[X] e Y = Y E[Y] definiamo:
Y >= E[XY] E[X]E[Y]
(4.37) Cov(X, Y) = < X,
(4.38) Var(X, Y) = Cov(X, X) = ||X E[X]||22 = E[X2 ] E[X]2

Covarianza
Varianza

Definizione 49. Siano X, Y L2 (, F, P) allora definiamo:


< X, Y >2
(4.39)
cos() =
||X||2 ||Y||2
per cui abbiamo che X Y < X, Y >2 = 0.
Definizione 50 (Correlazione lineare). Siano X, Y L2 (, F, P) allora definiamo coefficiente di correlazione lineare la quantit:
Y >2
< X,
Cov(X, Y)
(4.40)
=
=p
2 ||Y||
2
||X||
Var(X) Var(Y)
Teorema 20 (Regola del Parallelogramma). Siano X, Y L2 (, F, P) allora:
(4.41)

||X Y||22 + ||X + Y||22 = 2||X||22 + 2||Y||22

Dimostrazione. Per calcolo diretto otteniamo:


||X Y||22 + ||X + Y||22 = < X Y, X Y >2 + < X + Y, X + Y >2 =
(4.42)
=2||X||22 + 2||Y||22


COMPLEMENTI DI PROBABILIT

33

Teorema 21 (Esistenza della Proiezione Ortogonale). Sia X L2 e K L2


un sottospazio chiuso, allora:
(1) Y K tale che inf ||X Z||2 = ||X Y||2 .
zK

(2) X Y Z Z K.
Dimostrazione. Sia = inf ||X Z||2 allora (Yn )n1 K tale che =
zK

lim ||X Yn ||2 , mostriamo che tale Yn di Cauchy sfruttando la regola

n+

del parallelogramma (thm. 20):


(4.43) ||X

Yn ||22

+ ||X

Ym ||22


2
2




1
1
= 2 X (Yn + Ym ) + 2 (Yn Ym )
2
2
2
2

e dunque, passando al limite, si ha:


(4.44)

lim

n,m+

||Yn Ym || = 0

per la completezza dello spazio abbiamo quindi che Yn Y L2 per


n + e inoltre:
(4.45)

||X Y||2 ||X Yn ||2 + ||Yn Y||2

cio = ||X Y||2 .


Mostriamo ora lortogonalit, fissata una Z K si ha che Y + tZ K
t Z:
||X Y tZ||22 2

(4.46)
quindi:
(4.47)

2t < Z, X Y > +t2 ||Z||22 0 t R

e dunque: < Z, X Y >= 0, ovvero X Y Z Z K.

Proposizione 34. Sia X L2 e () = ||X ||2 con R, allora:


(4.48)

inf () = ( ) = E[X]

ovvero la migliore approssimazione costante di una v.a. in L2 la sua media.


Dimostrazione. Si ha che:
(4.49)

2 () = ||X ||22 = E[X2 ] 2E[X] + 2

che ha minimo per = E[X].

Osservazione 25. Osserviamo che lerrore che si commette nellapprossimare


X con E[X] :
p
(4.50)
||X ||2 = ||X E[X]||2 = Var(X)
ovvero, la deviazione standard.

34

FABIO DURASTANTE

Proposizione 35. Siano X, Y L2 e (x) = ax + b, allora se (a, b) = ||Y


(aX + b)||2 si ha che:

a = Cov(X,Y)
Var(X)
(4.51)
(a , b ) = inf ||Y (aX + b)||2 con
a,b
b = E[Y] aE[X]
Dimostrazione. Partiamo dallosservare che:
(4.52)

2 (a, b) = E[Y 2 ] + a2 E[X2 ] + b2 2aE[XY] 2bE[Y] + 2abE[X]

e derivando rispetto ad a e b si ottiene che il minimo raggiunto per:



a = Cov(X,Y)
Var(X)
(4.53)
b = E[Y] a E[X]
infatti:
(4.54)



E[X2 ] E[X]
H(a, b) = 2
E[X]
1

per cui si ha che (, )H(a, b)(, )t > 0 (, ).

Osservazione 26. Si ha che lerrore commesso :

(4.55)

||Y a X b || =E[(Y a X b)2 ]1/2 =


h
i1/2
=E ((Y E[Y]) + a (X E[X]))2
=
h
i1/2
= Var(Y) + a 2 Var(X) 2a Cov(X, Y)
=
1/2

Cov(X, Y)
=
= Var(Y)
Var(X)
!
Var(X) Var(Y) Cov2 (X, Y)
=
Var(X)

da cui si ricava anche che:


(4.56)



Cov(X, Y)


p
<1
Var(X) Var(Y)

ovvero che il coefficiente di correlazione minore di 1.


5. C ONCETTI DI C ONVERGENZA
Definizione 51. Siano (Xn )n1 , X v.a. da (, F, P) (R, B(R)) si dice che:
(1) Xn X quasi certamente se e solo se:


(5.1)
P
: lim Xn () = X()
=1
n+

COMPLEMENTI DI PROBABILIT

35

cio se N tale che P(N) = 0 e \ N si ha che:


lim Xn () = X() < +

(5.2)

n+

ovvero se:

> 0

(5.3)

lim P

m+

|Xn X| > = 0

nm

(2) Xn X in probabilit se:


lim P(|Xn X| > ) = 0 > 0

(5.4)

n+

Proposizione 36. Se Xn X q.c. Xn X in probabilit, inoltre:


(1) Xn X q.c. X unico q.c.
(2) Xn di Cauchy q.c. Xn X q.c.
Proposizione 37. Se Xn X in probabilit (nk )k1 tale che Xnk X q.c.
Dimostrazione. Si ha che: lim P(|Xn X| > ) = 0 > 0, dunque:
n+

allora Ynk
(5.6)

1
2k
= Xnk X 0 q.c. per il Lemma di Borel-Cantelli I (lem. 5), perch:
X
P (|Ynk | > ) < +
k > 0 nk t.c. P(|Xnk X| > ) <

(5.5)

k1


Proposizione 38. Xn X in probabilit Xnk sotto-successione di Xn ,
Xnkl tale che: Xnkl X q.c. per l +.
Dimostrazione. Dimostriamo le due implicazioni:
(): Poich Xn X in probabilit si ha la tesi dalla proposizione
precedente (pro. 37).
(): Per assurdo, si abbia che Xn 6 X in probabilit, allora:
(5.7)

> 0 t.c.

lim P(|Xn X| > ) > > 0

n+

dunque P(|Xn X| > ) > definitivamente, quindi non possibile estrarre da X una sotto-successione convergente in probabilit,
ovvero non possibile estrarne una che converge quasi certamente.

Corollario 3. Il limite in probabilit unico quasi certamente.
Corollario 4. Si abbia che Xn X in probabilit e sia f una funzione continua,
allora f(Xn ) f(X) in probabilit.

36

FABIO DURASTANTE

Dimostrazione. Data una qualsiasi sotto-successione (f(Xnk ))k1 della successione (f(Xn ))n1 si ha che, poich Xnk X in probabilit, esiste una
sotto-sotto-successione (Xnkl )l1 tale che (Xnkl )l1 X quasi certamente.
Allora (f(Xnkl ))l1 una sotto-sotto-successione di quella di partenza convergente ad f(X) quasi certamente, dunque f(Xn ) f(X) in probabilit per
la proposizione precedente.

Definizione 52. Una successione (Xn )n1 di v.a. si dice di Cauchy in probabilit se e solo se:
(5.8)

> 0 k > 0 :

lim P(|Xn Xn+k | > ) = 0

n+

Proposizione 39. Se (Xn )n1 di Cauchy in probabilit allora X v.a. tale che
Xn X in probabilit.
Dimostrazione. Osserviamo che se (Xn )1 di Cauchy in probabilit allora
esiste una sua sotto-successione (Xnk )k1 di Cauchy q.c.. Sia ora (Xnk )k1
una sottosuccessione di (Xn )n1 , allora essa di Cauchy in probabilit e
dunque ammette unestratta (Xnkl )l1 che lo q.c. e dunque X tale che
Xnkl X q.c., quindi Xn X in probabilit.

Definizione 53. Siano (Xn )n1 ,X Lp , allora si dice che Xn X in Lp se e
solo se:
(5.9)

lim ||Xn X||p

n+

lim E[|Xn X|p ] = 0

n+

Proposizione 40. Se Xn X in Lp Xn X in probabilit.


Dimostrazione. Si applica la disuguaglianza di Markov (thm. 14):
(5.10)

P(|Xn X| > )

E[|Xn X|p ]
0
p


Proposizione 41. Se (Xn )n1 tale che |Xn | < Y Lp n 1 e Xn X in


probabilit X Lp e Xn X in Lp .
Dimostrazione. Poich |Xn | < Y Lp n 1 si ha che (Xn )n1 Lp . Inoltre,
poich Xn X in probabilit, si ha che (Xnk )k1 Lp tale che Xnk X
quasi certamente, dunque X Lp , infine:
(5.11)

E[|Xn X|p ] =E[|Xn X|p 1{|Xn X|} ] + E[|Xn X|p 1{|Xn X|>} ]
p + E[(Y + |X|)p 1{|Xn X|>} ] p

poich, in generale, se Y L1 e si ha una successione (An )n1 F tale che


P(An ) 0 allora E[X1An ] 0.

Proposizione 42. Siano Xn X in probabilit ed f una funzione limitata e
lipshitziana, allora: f(Xn ) f(X) in Lp .

COMPLEMENTI DI PROBABILIT

37

Dimostrazione. Si ha che |f| M e |f(x) f(y)| L|x y|, allora:


E[|f(Xn ) f(X)|p ] =E[|f(Xn ) f(X)|p 1{|Xn X|} ]+
+ E[|f(Xn ) f(X)|p 1{|Xn X|>} ]

(5.12)

Lp p + (2M)p P(|Xn X| > )



Osservazione 27. Dalla precedente proposizione si ha che la convergenza in
probabilit metrizzabile, cio:
(5.13)

d t.c. Xn X in probabilit lim d(Xn , X) = 0


n+

infatti:
(5.14)

Xn X in probabilit arctan(Xn ) arctan(X) in Lp


lim || arctan(Xn ) arctan(X)||p = 0
n+

e si ha che: limn+ || arctan(Xn ) arctan(X)||p = 0 arctan(Xn )


arctan(X) in Lp arctan(Xn ) arctan(X) in probabilit si pu concludere che: tan(arctan(Xn )) tan(arctan(X)) in probabilit Xn X in
probabilit.
Dunque basta porre:
(5.15)

d(X, Y) = || arctan(X) arctan(Y)||p

Diversamente la convergenza quasi certa non metrizzabile. Ci segue


dal fatto che la convergenza in probabilit non implica quella quasi certa.
Infatti, se Xn X in probabilit esiste una sotto-successione convergente
ad X quasi certamente, per ogni sotto-successione di (Xn )n1 . Se la convergenza quasi certa fosse metrizzabile si avrebbe che Xn X q.c., ovvero
avremmo mostrato limplicazione Xn X in probabilit Xn X q.c.
che falsa.
Esempio 11. Analizziamo alcuni di contro-esempi:
(1) Xn X in probabilit 6 Xn X q.c. scegliamo come spazio di
probabilit (, F, P) la terna ((0, 1), B((0, 1)), Leb) e siano:

(5.16)

1,1 (x) = 1(0,1) (x)


2,1 (x) = 1(0,1/2) (x)
..
.

2,2 (x) = 1(1/2,1) (x)

k,j (x) = 1( j1 , j ) (x)


k

che ordiniamo, fissato k, per j crescente, allora si ha che:


(5.17)

P(|Xn 0| > ) =

1
0
kn

38

FABIO DURASTANTE

ma:

(5.18)

{|Xn 0| > } = 1 m

nm

dunque Xn 0 in probabilit, ma Xn 6 X q.c.


(2) Xn X in Lp 6 Xn X q.c., si dimostra con il medesimo esempio
del caso (1).
(3) Xn X in probabilit 6 Xn X in Lp . Consideriamo k,j =
k1/p k,j e sia Yn = kn ,jn , allora Yn 0 in probabilit e Xn 6 X in
Lp , poich E[Ynp ] = 1 6= 0.
(4) Xn X q.c. 6 Xn X in Lp . Basta considerare Xn = 2n 1(0,1/n) .
5.1. Leggi dei grandi numeri.
Definizione 54. Sia (Xn )n1 una successione di v.a. poniamo:
(1) Sn = X1 + . . . + Xn ,
(2) X n = Snn .
Teorema 22 (Legge Forte dei Grandi Numeri 1). Siano (Xn )n1 una successione di v.a. indipendenti con E[X4n ] M e E[Xn ] = n 1, allora si ha che:
X n q.c.
Dimostrazione. Dimostriamo il risultato, senza perdita di generalit, per
= 0, infatti ci si pu sempre ricondurre a questo caso ponendo Y = X :

!4
n
n
n
X
X
X
E[X2i X2j ]
E[X4i ] +
E[S4n ] =E
Xi =
i<j=1
i=1
i=1
(5.19)
n(n 1)
(thm. 15) nM + 6
M 3Mn2
2
dunque:

"  #
X  Sn 4
X
X 3M
Sn 4
=
(5.20)
E
E

< +
n
n
n2
n1

n1

n1

da cui si ha che:
(5.21)

X  Sn 4
n1

< + q.c

quindi:
(5.22)

Sn
= lim X n = 0 q.c.
n+ n
n+
lim

COMPLEMENTI DI PROBABILIT

39

Teorema 23 (Legge Debole dei Grandi Numeri I). Siano (Xn )n1 v.a. in L2 a
due a due non correlate con 2n = Var(Xn ) tale che supn 2n = < +, allora:

(5.23)



!
n
1 X



(Xk E[Xk ]) > 0 per n +
P
n

k=1

Dimostrazione. Sia Zk = Xk k , dove k = E[Xk ] k 1, applichiamo la


disuguaglianza di Markov (thm. 14):

(5.24)



!

P
n
n
1 X

Var n1 nk=1 Zk
1 X


P
Zk >
=
Var(Zk )
n

2
n2 2
k=1
k=1

2 0 per n +
n


Teorema 24 (Legge Forte dei Grandi Numeri di Rajchman). Siano (Xn )n1
v.a. in L2 a due a due non correlate con 2n = Var(Xn ) tale che supn 2n = <
+ e E[Xn ] = n 1, allora: X n q.c.
Dimostrazione. Dimostriamo il risultato, senza perdita di generalit, per
= 0, infatti ci si pu sempre ricondurre a questo caso ponendo Y = X ,
applichiamo la disuguaglianza di Markov (thm. 14):
n
Var(X n2 )

1 X
> )
Var(Xk ) 2 2
=
2
2
4

n
n
2

(5.25)

P(X n2

k=1

dunque X n2 0 q.c.
N n tale che n2 N (n + 1)2 , allora:
SN
|SN Sn2 | + |Sn2 |
|S 2 | Dn

n2 + 2
N
N
n
n

(5.26)

con Dn = supn2 N(n+1)2 |SN Sn2 |.


Dobbiamo quindi verificare che

Dn
n2

0 q.c., si ha che:
(n+1)2 1

(5.27)

D2n

sup
n2 N(n+1)2

|SN Sn2 |
2

N=n2

|SN Sn2 |2

40

FABIO DURASTANTE

abbiamo quindi:
(n+1)2 1

(n+1)2 1

E[D2n ]

E[|SN Sn2 | ] =
2

(n+1)2 1

(5.28)

(n+1)2 1 (n+1)2

N
X

N=n2

k=n2 +1

(n+1)2 1 

E[|Xn2 +1 + + XN |2 ] =

N=n2

N=n2

Var(Xk )

N=n2

k=n2 +1

Var(Xk )


(n + 1)2 (n2 + 1) =

N=n2
(n+1)2 1

2n 4n2

N=n2

e quindi:

(5.29)


Dn
1
4
Dn
> 2 4 E[D2n ] 2 2 2 0 q.c.
2
n
n
n
n


Teorema 25 (Legge Forte dei Grandi Numeri di Kolmogorov). Sia data la


successione di v.a. (Xn )n1 i.i.d. allora:
(1) se E[|X1 |] < X n E[X1 ] q.c.
(2) se E[|X1 |] = + lim supn+ |X n | = +.
Esempio 12 (Stimatore della Varianza). Siano (Xn )n1 i.i.d. con varianza 2
e sia:
n
1 X
(5.30)
S2n =
(Xk X n )2
n1
k=1

mostriamo che S2n 2 q.c., si ha che:


S2n =

n
n
1 X
2X n X
n 2
Xk
Xk +
X =
n1
n1
n1 n
k=1

(5.31)
=

1
n1

n
X
k=1

k=1

X2k

n 2
X E[X21 ]
| {z }
n1 n
thm. 25

E[X1 ]2
| {z }

= 2

thm. 25 o thm. 24

5.2. Il Teorema di Approssimazione di Weierstrass. Siano (Xn )n1 i.i.d.


con Xn Be(p), allora E[Xn ] = p e Var(Xn ) = p(1 p), inoltre si ha che Sn
Bi(n, p) e E[Sn ] = np e Var(Sn ) = np(1 p), dunque dalla disuguaglianza di
Markov (thm. 14):




Sn
Sn

Var
)
1
1
n
(5.32)
P
p >
= 2 2 np(1 p) 2
2
n

n
4 n

COMPLEMENTI DI PROBABILIT

41

Teorema 26 (Teorema di Approssimazione di Weierstrass). Sia f C([0, 1]),


allora > 0 esiste un polinomio Bn tale che:
sup |f(x) Bn (x)| <

(5.33)

x(0,1)

Dimostrazione. Prendiamo come polinomio Bn il polinomio:


   X
  
n
Sn
k
n k
(5.34)
Bn (p) = E f
=
f
p (1 p)nk
k
n
n
k=0


Sn
:

B
(p)
n
n
  

Sn
(5.35)
|Bn (p) f(p)| |E f
Bn (p) | E[Yn ]
n


e allora, se Snn p < Yn < 2 :
i
h
E[Yn ] =E Yn 1{| Sn p|<} + E[Yn 1{| Sn p|} ]
n
n 


Sn
= + 2 max |f| P
p
2
n
x[0,1]
(5.36)
| {z }


allora, detto Yn = f

=M

Var Snn

+ 2M
2
2

2M 1
+ 4
< def.te
2
4n2


5.3. Convergenza in Distribuzione.


Definizione 55. Siano (Xn )n1 su (n , Fn , Pn ) ed X in (, F, P), allora si
dice che Xn X in legge o in distribuzione se e solo se:
(5.37)

lim Fn (x) = F(x) x punto di continuit di F

n+

Osservazione 28. Facciamo le seguenti osservazioni:


(1) Osserviamo che i punti che non sono di continuit per la F sono al
pi un insieme numerabile.
(2) Questo lunico tipo di convergenza che non richiede che le v.a.
siano definite tutte sullo stesso spazio.
(3) Se n la legge di Xn e la legge di X si ha che:
(5.38)

Xn X in dist. n ((, x]) ((, x]) x : ({x}) = 0

Teorema 27 (Skohorod). Siano (n )n1 , misure su ((0, 1), B((0, 1)), Leb) con
n per n +. Allora (Xn )n1 , X v.a. su ((0, 1), B((0, 1)), Leb) tali
che le leggi di Xn sono n , la legge di X e Xn X q.c.

42

FABIO DURASTANTE

Dimostrazione. Siano:
(5.39)
(5.40)

Xn () = inf{x : Fn () }
X() = inf x : F(x)

allora:
(5.41)

{Xn () x} = {Fn (x) }

(5.42)

{X() x} = {F(x) }

mostriamo ora che Xn () X() punto di continuit di X in modo


che Xn X quasi certamente.
Se punto di continuit di X ed > 0, allora:
(5.43)

x (X() , X()) t.c. ({x}) = 0

perch i punti tali che ({x}) 6= 0 sono al pi numerabili, allora:


(5.44)

F(x) <

dunque, dato che Fn (x) F(x):


(5.45)

n t.c. Fn (x) < n n

quindi si ha che:
(5.46)

x < Xn () n n

cio:
(5.47)

lim inf Xn () > x > X()


n+

e, per 0:
(5.48)

lim inf xn () X()


n+

analogamente si mostra che:


(5.49)

lim sup Xn () X()


n+


Teorema 28. Le seguenti affermazioni sono equivalenti:
(1)
R n in Rdistribuzione.
(2) fdn fd f Cb (R).
(3) n (A) (A) A B(R) t.c. (A) = 0.
Dimostrazione. Mostriamo le implicazioni:
R
R
(1 2): Osserviamo che: fdn fd f limitata tale che Df :=
{x : f non continua in x} e (Df ) = 0, siano (Yn )n1 le variabili
aleatorie associate alle misure n garantite dal Teorema di Skohorod

COMPLEMENTI DI PROBABILIT

43

(thm. 27), allora abbiamo che f(Yn ) f(Y) q.c., dunque possiamo
applicare il Teorema di Convergenza Dominata ed ottenere:
Z
Z
(5.50)
fdn = E[f(Yn )] E[f(Y)] = fd
(1 3): Basta applicare lo stesso ragionamento del punto precedente
fissando f = 1A .
(3 1): Se si pone A = (, x] si ha il risultato dalla definizione.
(2 1): Siano x < y e sia:

x < x
1
xy
x < xy
(5.51)
f(x) =
x y
0
x > y
allora:

Z
Fn (x) fdn Fn (y)

(5.52)
e:

F(x) fd F(y)

(5.53)
dunque:
(5.54)

lim sup Fn (x) lim sup fdn = fd F(y) y > x


n+

n+

infine se y x + :
lim sup Fn (x) F(x+ ) = F(x)

(5.55)

n+

inoltre:
(5.56)

lim inf Fn (y)


lim inf fdn = fd F(x) x < y
n+

n+

dunque per x y :
(5.57)

lim inf Fn (y)


F(y )
n+

e quindi, se y un punto di continuit di F, si ha che:


(5.58)

lim inf Fn (y) = F(y)


n+


Proposizione 43. Siano (Xn )n1 , X v.a. tali che Xn X in probabilit
Xn X in distribuzione.

44

FABIO DURASTANTE

Dimostrazione. Si ha che:
{Xn x} ={Xn x, X Xn } {Xn x, X Xn > }
(5.59)
{X x + } {X Xn > }
{Xn > x} ={Xn > x, X Xn > } {Xn > x, X Xn }

(5.60)

{X x } {Xn X > }

dunque:
(5.61)

Fn (x) F(x + ) + P({X Xn > })


1 Fn (x) 1 F(x ) + P({Xn X > })

cio:
(5.62)

F(x ) P({Xn X > }) Fn (x) F(x + ) + P({X Xn > })

e otteniamo, mandando n + ed 0, che limn+ Fn (x) = F(x) x


di continuit.

Proposizione 44. Siano (Xn )n1 v.a. tali che Xn c in distribuzione, con c
costante Xn c in probabilit.
Dimostrazione. Proviamolo, senza perdita di generalit, per c = 0, altrimenti si pone Yn = Xn c, in questo modo abbiamo che:
(5.63)

P(|Xn | > ) =P(Xn > ) + P(Xn < ) = 1 Fn () + Fn () 0



6. M ISURE P RODOTTO

Definizione 56 (-algebra prodotto). Siano (S1 , 1 ) e (S2 , 2 ) spazi misurabili, detto S = S1 S2 definiamo la -algebra prodotto, a partire da:
(6.1)

1 : S S1
(s1 , s2 ) 7 s1

2 : S S2
(s1 , s2 ) 7 s2

come = (1 , 2 ).
Osservazione 29. Si ha che:
(6.2)

= ({A1 S1 , A1 1 } {S1 A2 , A2 2 })

Inoltre tale definizione si pu estendere facilmente al prodotto di un numero finito di spazi misurabili.
Osservazione 30. Un -system che genera :
(6.3)

I = {A1 A2 | A1 1 , A2 2 }

Proposizione 45. Siano (Ei , i ) spazi misurabili per i = 1, . . . , n e:


(6.4)

X = (X1 , . . . , Xn ) : (, F) (E1 En , )

allora X misurabile se e solo se Xi : (, F) (Ei , i ) misurabile i =


1, . . . , n.

COMPLEMENTI DI PROBABILIT

45

Dimostrazione. Dimostriamo ambedue le implicazioni:


(): Sia B1 . . . Bn I, allora:
1

X (B1 . . . Bn ) =

(6.5)

n
\

X1
k (Bk ) F

k=1

ma I un -system che genera , quindi abbiamo la tesi.


(): Sia Bi i allora:
(6.6)

1
X1
i (Bi ) = X (E1 . . . Bi . . . En ) F


6.1. Misure prodotto e Teorema di Fubini. Ci restringiamo al caso di i
misure finite su (Si , i ).
Definizione 57. Dato lo spazio misurabile (S, ) definiamo:
(6.7)

b = {f : S R t.c. f -misurabile e limitata }

Lemma 10. Sia f : S1 S2 R con f b, siano poi:


(6.8)

f1 (s1 ) =f(s1 , s2 )

s2 S2

(6.9)

f2 (s2 ) =f(s1 , s2 )

s1 S1

allora f1 b1 e f2 b2 .
Dimostrazione. Sia H b la famiglia delle funzioni che soddisfano la tesi,
allora:
(1) H uno spazio vettoriale.
(2) 1 H.
(3) Se (fn )n1 H ed fn f allora f H
Inoltre se A I si ha che 1A H, perch se A I allora A = B1 B2 e:

0
s2 6 B2
b
(6.10)
f1 (s1 ) = 1A (s1 , s2 ) =
1B1 (s1 ) s2 B2
analogamente si mostra che f2 (s2 ) b2 . La conclusione deriva quindi dal
Teorema delle Classi Monotone (thm. 3).

Definizione 58. Data f b si definisce:
Z
f
(6.11)
I1 (s1 ) =
f(s1 , s2 )d2 (s2 )
S2
Z
f
I2 (s2 ) =
(6.12)
f(s1 , s2 )d1 (s1 )
S1

Lemma 11. Sia f b con f : S1 S2 R. Allora si ha che:


(1) If1 b1 ,
(2) If2 b2 ,

46

e:

FABIO DURASTANTE

Z
If1 (s1 )d1 (s1 )

(6.13)

If2 (s2 )d1 (s2 )

=
S2

S1

Dimostrazione. Sia H la classe di funzioni di b per cui vale la tesi. Allora


H tale che:
(1) H uno spazio vettoriale.
(2) 1 H.
(3) Se (fn )n1 H ed fn f allora f H
Inoltre si ha che: A I 1A H, infatti:

Z Z
f(s1 , s2 )d2 (s2 ) d1 (s1 ) = 1 (B1 )2 (B2 ) =
S1
S2

(6.14)
Z Z
=
f(s1 , s2 )d1 (s1 ) d2 (s2 )
S2

S1

e concludiamo per il Teorema delle Classi Monotone (thm. 3).

Definizione 59 (Misura prodotto). Definiamo la misura prodotto sullo spazio misurabile (S = S1 S2 , = 1 2 ) come:
Z
Z
I11F (s1 )d1 (s1 ) F
(6.15)
(F) =
I12F (s2 )d2 (s2 ) =
S1

S2

Proposizione 46. La funzione appena definita : [0, +) una misura


su (S, ), inoltre lunica misura su I definita come:
(6.16)

(A1 A2 ) = 1 (A1 )2 (A2 )

Dimostrazione. La -additivit della discende direttamente dal Teorema


di Convergenza Monotona (thm. 9), mentre per il lemma 11 e il Teorema di
Estensione di Caratheodory (thm. 1) si ha lunicit e la scrittura.

Teorema 29 (Fubini). Sia f (m)+ o f L1 (S, , ) allora:

Z
Z Z
fd =
f(s1 , s2 )d2 (s2 ) d1 (s1 ) =
S1 S2
S1
S2

(6.17)
Z Z
=
f(s1 , s2 )d1 (s1 ) d2 (s2 )
S2

S1

Dimostrazione. Dal Lemma 10 e dal Lemma 11 segue che la proposizione


valida per le funzioni in b, dunque valida per le funzioni in (sF)+ e
quindi, per il Teorema di Convergenza Monotona (thm. 9), vale in (m)+ . Per
f L1 (S, , ) basta decomporre la f = f+ f e si ottiene la dimostrazione
per linearit.

Osservazione 31. Facciamo le seguenti osservazioni:
(1) Il Teorema di Fubini vale anche in ipotesi di misure 1 e 2 solo finite.

COMPLEMENTI DI PROBABILIT

47

(2) Il Teorema di Fubini cade se una delle misure 1 e 2 non -finita.


Siano infatti:
(6.18)

(S1 , 1 , 1 ) =([0, 1], B([0, 1]), Leb)

(6.19)

(S1 , 1 , 1 ) =([0, 1], B([0, 1]), ])

e sia: F = {(x, y) S1 S2 | x = y} , per cui 1F una funzione


-misurabile, ma:
Z
(6.20)
1f (s1 , s2 )d2 (s2 ) =2 ({s1 }) = 1
S2
Z
(6.21)
1f (s1 , s2 )d2 (s1 ) =2 ({s2 }) = 0
S1

Proposizione 47. Sia X una v.a. tale che P(x 0) = 1 allora:


Z +
(6.22)
E[X] =
P(X x)dx
0

Dimostrazione. Sia S = (, F, P) ([0, +), B([0, +)), Leb) e mu = P


Leb, sia:
A = {(, x) S | 0 x X()}

(6.23)

allora 1A soddisfa le ipotesi del Teorema di Fubini (thm. 29) e:


Z
Z X()
(6.24)
I11A () =
1A (, x)dx =
dx = X()
0
0
Z
1A
I2 (x) = 1A (, x)dP = P(X x)
(6.25)

dunque:

Z Z +

E[X] =

XdP) =

Z +

(6.26)

Z + Z
dxdP =

1[0,X() xdPdx =
0

P({X x})dx

=
0

Osservazione 32. Si ha che B(Rn ) =

Qn

i=1 B(R).

6.2. Leggi Congiunte.


Definizione 60 (Legge Congiunta). Siano X, Y : R si dice legge congiunta della coppia (X, Y) la:
(6.27)

X,Y ( ) = P((X, Y) ) B(Rn )

Osservazione 33. La famiglia {(, x)x(, y), x, y R} un -system che


genera i B(R2 ), dunque X,Y determinata univocamente dalla funzione
di ripartizione:
(6.28)

FX,Y (x, y) = P(X x, Y y)

48

FABIO DURASTANTE

Definizione 61. Si dice che (X, Y) ammette densit se fX,Y : R2 R+ tale


che:
ZZ
fX,Y dxdy
(6.29)
X,Y =
F

e allora: fX,Y =

dX,Y
d Leb .

Proposizione 48. Se (X, Y) ammettono densit congiunta, allora X e Y sono


assolutamente continue.
Dimostrazione. Mostriamo che X assolutamente continua:
ZZ
fX,Y (x, y)dxdy =
P(X F) =P(X F, Y R) =
FR


(6.30)
Z Z
=
fX,Y (x, y)dy dx
F

e la densit di X :

(6.31)

fX (x) =

fX,Y (x, y)dy


R

analogamente si fa per Y.

Osservazione 34. Non vale il viceversa del della proposizione precedente,


infatti, sia X N(0, 1) e Y = X1|X| X1|X|> N(0, 1), allora il vettore
(X, Y) non ammette densit:
(6.32)

P(Y y) =P(X y, |X| ) + P(X y, |X| > ) =


=P(X y, |X| ) + P(X y, |X| > ) = P(X y)

consideriamo ora A = {(x, y) R2 : |x| , x = y}, per questo si ha che


Leb(A) = 0 mentre P((X, Y) A) = P(|X| ) > 0.
Proposizione 49. Siano X, Y v,a, con legge congiunta X,Y in (R2 , B(R2 )) e sia
f : R2 R boreliana, allora:
(6.33)

f(X, Y) Lp (, F, P) f Lp (R2 , B(R2 ), X,Y )

Dimostrazione. Mostriamolo per funzioni semplici:


Z X
n
n
X
E[f(X, Y)] =
ck 1Ak (X, Y)dP =
ck P((X, Y) Ak ) =
(6.34)

k=1
n
X

ck X,Y (Ak ) =

k=1

Z
=

Z X
n
R k=1

f(x, y)dX,Y (x, y)


R2

k=1

ck 1Ak (x, y)dX,Y (x, y) =

COMPLEMENTI DI PROBABILIT

49

sia ora f (mB(R2 ))+ , allora, per il Teorema di Convergenza Monotona (thm.
9), si ha che:
E[f(X, Y)] = lim E[sn (X, Y)] = lim sn (x, y)dX,Y (x, y) =
n+
n+
Z
f(x, y)dX,Y (x, y)
=

(6.35)

R2

se f L1 (, F, P) la tesi vale per f+ ed f e si conclude perch la tesi vale


per linearit per f, sfruttando la maggiorazione con |f|.

Osservazione 35. Se X,Y << Leb si ha che:
Z
Z
f(x, y)dX,Y (x, y) =
(6.36)
E[f(X, Y)] =

f(x, y)pX,Y (x, y)dxdy

R2

R2

6.3. Indipendenza e Leggi Prodotto.


Teorema 30. Siano X, Y v.a. di legge X , Y e con funzioni di ripartizione FX ,FY
rispettivamente. Allora risultano equivalenti le seguenti:
(1) X
Y,
(2) X,Y = X Y ,
(3) P(X x, Y y) = FX (x)FY (y),
Dimostrazione. Dimostriamo le implicazioni:
(1 2): Sia A I, il -system che genera i B(R2 ), allora:
X,Y (A) =P((X, Y) A = A1 A2 ) = P(X A1 , Y A2 ) =

(6.37)

=P(X A1 )P(Y A2 ) = X (A1 )Y (A2 )

passando alle -algebre generate la tesi vale A B(R2 ).


(2 3): Discende in modo ovvio dalla definizione.
(3 1): Gi dimostrato nella prop. 15.

Proposizione 50. Se (X, Y) ha densit congiunta fX,Y si ha che:
X
Y fX,Y (x, y) = fX (x)FY (y) q.c.

(6.38)

Dimostrazione. Dimostriamo ambedue le implicazioni:


(): Sia A = A1 A2 allora:
Z
(6.39)
X,Y (A) = fX,Y (x, y)dxdy
A

e:
(6.40)

Z
Z
X,Y (A) =X (A1 )Y (A2 ) =
fX (x)dx
fY (y)dy =
A1
A2
Z
= fX (x)fY (y)dxdy
A

dunque fX,Y (x, y) = fX (x)FY (y) q.c.

50

FABIO DURASTANTE

(): Banale.

Proposizione 51. Siano X1 , . . . , Xn v.a. su (, F, P), allora, se fi 0:
E[f1 (X1 ) . . . fn (Xn )] =

(6.41)

n
Y

E[fi (Xi )]

i=1

Dimostrazione. Sia la legge congiunta di (X1 , . . . , Xn ) allora:


" n
# Z
n
Y
Y
E
fi (Xi ) =
fi (Xi )d(x1 , . . . , xn ) =
i=1

(6.42)

Z
=

Rn i=1
n
Y

fi (Xi )

n
Y

Rn i=1
n
Y

i=1

d(xi ) =

n Z
Y

fi (xi )di (xi ) =

i=1 R

E[fi (xi )]

i=1


Corollario 5. La proposizione precedente vale anche se le fi sono solo integrabili.
Proposizione 52. Siano X, Y v.a. di legge X e Y rispettivamente, allora
X + Y ha legge X Y .
Dimostrazione. Sia A B(R):

(6.43)

X+Y (A) =P(X + Y A) =


dX,Y (x, y) =
{(x,y)R2 : x+yA}
Z
=
dX (x)dY (y) =
{(x,y)R2 : x+yA}
Z
Z
= dX (x)
dY (y) =
R
{yR : x+yA}
Z
= Y (A x)dX (x) = (X Y )(A)
R


Osservazione 36. Se, nelle ipotesi della proposizione precedente, si ha anche
X
che X assolutamente continua con: fX = dd
Leb allora:

Z Z
(6.44)
P(X + Y A) =
fX (x y)dY (y) dx
A

se anche Y assolutamente continua si ha che:



Z Z
(6.45)
P(X + Y A) =
fX (x y)fY (y)dy dx
A

COMPLEMENTI DI PROBABILIT

51

7. F UNZIONI C ARATTERISTICHE
Definizione 62 (Funzione Caratteristica). Sia X una variabile aleatoria a
valori in (Rm , B(Rm )), si dice funzione caratteristica di X, la funzione X :
Rm C con:
h
i
i<,X>
(7.1)
X () = E e
= E[cos < , X >] + iE[sin < , X >]
Osservazione 37. Osserviamo che:
(1) X () definita
Rm e |X ()| 1.
R
(2) X () = Rm ei<,X> d(x) con legge di X.
da cui abbiamo che v.a. con la stessa legge posseggono la stessa funzione
caratteristica.
Proposizione 53. Si ha che:
(1) X (0) = 1.
(2) X () = X ().
(3) Se la legge di X simmetrica, ovvero X X, allora X reale.
(4) Sia Y = AX + b con A Rpm , b Rp allora Y una v.a. a valori in Rp
e:
Y () = ei<,b> X (At )

(7.2)

(5) Siano X,Y a valori in Rm indipendenti e sia Z = X + Y allora:


(7.3)

Z () = X ()Y ()

Dimostrazione. Dimostriamo la (2):


i
i
h
h
(7.4)
X () = E ei<,X> = E ei<,X> = X ()
Dimostriamo la (4):
i
i
h
h
t
(7.5) Y () = E ei<,AX+b> = ei<,b> E ei<A ,X> = ei<,b> X (At )
Dimostriamo la (5):
(7.6)

h
i
h
i
Z () =E ei<,X+Y> = E ei<,X> ei<,Y> =
h
i h
i
=E ei<,X> E ei<,Y> = X ()Y ()


7.1. Regolarit delle funzioni caratteristiche.


Proposizione 54. X uniformemente continua.
Dimostrazione. Si ha che P(|X| > R) 0 per R + X v.a. dunque
> 0 R t.c. R R si ha che P(|X| > R) < 4 .
Inoltre:


i<1 ,X>

(7.7)
ei<2 ,X> |x||1 2 |
e

52

FABIO DURASTANTE

infatti, se consideriamo che la funzione 7 ei<,X> differenziabile e si ha:



i<,X>

(7.8)
e
= ixk ei<,X> |xk |
k


e allora ei<,X> |x| Rm , dunque tale funzione lipshitziana in
con costante |x|, ovvero si ha che:
h
i


|X (1 ) X (2 )| = E ei<1 ,X> ei<2 ,X>
i
h


E ei<1 ,X> ei<2 ,X>

i
h


E ei<1 ,X> ei<2 ,X> 1{|X|R } +
(7.9)

h
i


+ E ei<1 ,X> ei<2 ,X> 1{|X|>R }
R |1 2 | + 2P (|X| > R )

+ <
4 2
avendo posto |1 2 | = 2R .

Lemma 12. Siano (S, , ) ed f(t, x) con x S, t (, ) R a valori


complessi e:
f(t,x)
(1)
t x A, A e (A) = 1.


1
(2) f(t,x)
t g(x) con g(x) L (S, , ).

allora:
(7.10)

Z
f(t, x)d(x) =

f(t, x)
d(x)
t

Proposizione 55. Sia m = 1, se X ha momento k-mo finito allora X k-volte


derivabile e:
h
i
(k)
(7.11)
X () = E (iX)k eiX
Dimostrazione. Sia f(, x) = eiX , questa tale che:
(1) f(t,x)
t x A, A F e P(A) = 1.
f(t,x)
(2) t |x| con |x| L1 (, F, P), perch X ha momento primo
finito.
possiamo quindi applicare il lemma precedente:
Z
Z
Z

eiX
(7.12)
eiX dP =
dP = (iX)eiX dP

da cui otteniamo il risultato iterando per i = 2, . . . , k e ponendo ogni volta:


(i) iX
f(, x) = ei .


COMPLEMENTI DI PROBABILIT

53

Proposizione 56. Se X () k-volte derivabile con k pari allora X ha momento


k-mo finito e si ha:
(k)

E[Xk ] = X ()|=0

(7.13)

Dimostrazione. Sia k = 2 allora:


(7.14)
(7.15)

1
X () =X (0) + X0 (0) + X00 (0)2 + o(2 )
2
1
X () =X (0) X0 (0) + X00 (0)2 + o(2 )
2

dunque:
(7.16)

X () + X () 2X (0) = 00 (0)2 + o(2 )

quindi:
X () + X () 2X (0)
= 00 (0)
0
2

(7.17)

lim

inoltre si ha che:
(7.18)

X () + X () 2X (0) = E[2 cos(X) 2]

e:


(7.19)




2(cos(X) 1)
2(1 cos(X))
E
= E
2
2

inoltre:
2(1 cos(X))
X2 q.c.
2

(7.20)
e:

2(1 cos(X))
0 q.c.
2

(7.21)

possiamo quindi applicare il Lemma di Fatou (lem. 8) per ottenere:






2(1 cos(X))
2(1 cos(X))
(7.22) E lim inf
lim inf E
= 00 (0)
0
0
2
2
dunque: 0 E[|X|2 ] 00 (0), quindi X ammette momento secondo finito
e la formula segue dalla proposizione precedente.
Mostriamo ora che se laffermazione vera per k allora vera per k + 2,
si ha infatti che:
(k)

(7.23)

(k)

(k)

X () + X () 2X (0)
k+2 (0) q.c.
2

54

FABIO DURASTANTE

e:


(k)
(k)
(k)
X () + X () 2X (0) E (iX)k eiX + (iX)k eiX 2(iX)k
=
=
2
2


(cos(X) 1)
=E 2(iX)k
=
2


(1 cos(X))
= i k E Xk
2
e quindi: 0 E[|X|k+2 ] ik k+2 (0) = k+2 (0).

Osservazione 38. Facciamo le seguenti osservazioni:


(k)

(1) Se X ha momento k-mo finito: ik E[Xk ] = X (0).


(2) Se k pari e X k-volte derivabile in 0 si ha la formula precedente
anche in queste ipotesi pi deboli.
Proposizione 57. Sia X v.a. a valori in Rm e un multi-indice. Sia || =
1 + . . . + m e x = x1 1 . . . xmm . Allora, se E[|X||| ] < +, si ha che
volte derivabile e:
i
h
|| X ()
|| i<,X>
=
E
i
X
e
(7.24)

7.2. Teoremi di Inversione e Caratterizzazione.


Teorema 31. Siano , misure su (Rm , B(Rm )), se = allora = .
Teorema 32. Siano X1 , . . . , Xm a valori in Rn1 , . . . , Rnm allora:
(7.25)

X1 , . . . , Xm
(X1 ,...,Xm ) () =

m
Y

Xj (j )

j=1

Dimostrazione. Dimostriamo ambedue le implicazioni:


(): Si ha che:
m
h
i Y
h
i
(X1 ,...,Xm ) () =E ei(<1 ,X1 >+...+<m ,Xm >) =
E ei<j ,Xj > =
j=1

(7.26)
=

m
Y

Xj (j )

j=1

(): Siano Ui indipendenti tali che Ui Xi allora:


(7.27)

(X1 ,...,Xm ) () =

m
Y
j=1

Xj (j ) =

m
Y

Uj (j ) = (U1 ,...,Um ) ()

j=1

dunque (X1 , . . . , Xm ) (U1 , . . . , Um ) cio X1 , . . . , Xm .




COMPLEMENTI DI PROBABILIT

55

Osservazione 39. Se si conosce la funzione caratteristica di (X1 , . . . , Xm ) si


conosce anche quella di Xj j = 1, . . . m, infatti:
h
i
(7.28)
Xj (1 ) = E ei1 X1 = (X1 ,...,Xm ) (e1 ) e1 = (1, 0, . . . , 0)
Teorema 33 (di Inversione). Sia la funzione caratteristica di una v.a. X ,
allora per a < b si ha che:
Z T ia
1
e
eib
1
(7.29) ((a, b)) =
lim
()d+ (({a}) + ({b}))
2 T + T
i
2
e se sommabile allora << Leb e la sua densit :
Z
1
eix ()d
(7.30)
f(x) =
2 R
7.3. Gaussiane Multivariate.
Definizione 63. Siano X1 , . . . , Xm N(0, 1) e sia X = (X1 , . . . , Xm ) allora se
X1 , . . . , Xm sono indipendenti:
fX (x) = fX1 (x1 ) . . . fXm (xm ) =

(7.31)

|x|2
1
e 2
m/2
(2)

e:
(7.32)

X () =

m
Y

Xj (j ) = e 2 ||
1

j=1

allora X Nm (0, I) gaussiana multivariata di media 0 e matrice di covarianza I.


Definizione 64. Sia X Nm (0, I), A Rmm , z Rm e si definisce Y =
AX + z e diciamo che Y Nm (z, AAt ), gaussiana multivariata di media z e
matrice di covarianza AAt .
Si ha che:
(7.33)

h
i
1
t
Y () = E ei<,AX+z = ei<,z> X (At ) = ei<,z> e 2 <,AA

detta C = AAt , C simmetrica e:


(7.34)

ci,j = Cov(Yi , Yj )

ed definita positiva e C si dice matrice di covarianza di Y.


Proposizione 58. Sia z Rm , C Rmm simmetrica e definita positiva. Allora
esiste misura su (Rm , B(Rm )) tale che:
(7.35)

() = ei<,z> e 2 <,C>

56

FABIO DURASTANTE

Dimostrazione. Basta provare che esiste A Rmm tale che AAt = C, possiamo fare di pi prendendo in realt A simmetrica, prendendo A radice
quadrata di C. Se C diagonale con elementi non nulli 1 , . . . , m si prende:

..
(7.36)
A=

m
se non diagonale
diagonalizzabile, cio O Rmm tale che C = Ot O
e si prende A = Ot 0 con diagonale.

Proposizione 59. Se C invertibile Y Nm (z, C) la densit :


1
(7.37)
fY (y) =
fX A1 (y z)
| det A|
con fX densit di una Nm (0, I).
Dimostrazione. Si ha che:
fY (y) =fX (1 (y))|D1 (y)| =
(7.38)
=

(2)m/2 | det C|1/2

e 2 <C

1
fX (A1 (y z)) =
| det A|

1 (yz),(yz)>

con (x) = Ax + z.

Proposizione 60. Sia X Nm (z, C), A Rpm e b Rp , sia:


(7.39)

Y = AX + b

allora Y Np (Az + b, ACAt ).


Dimostrazione. Mostriamolo per calcolo diretto:
h
i
Y () =E ei<,AX+b> = ei<,b> X (A ) =
(7.40)

=ei<,b> ei<A

t ,z>

e 2 <CA

t ,At >

12 <ACAt ,>

=ei<,Az+b> e


Proposizione 61. La marginali di una gaussiana multivariata sono gaussiane.
Dimostrazione. Sia = (1 , 0, . . . , 0) allora:
(7.41)

X1 (1 ) = X () = ei1 z1 e 2 1 c1,1

dunque X1 N(z1 , c1,1 ).


Proposizione 62. Se C diagonale le componenti sono indipendenti.

COMPLEMENTI DI PROBABILIT

57

Dimostrazione. Dire che C diagonale significa che le Xi sono a due a due


scorrelate, sia ora Y Nm (z, C), allora:
Y () =ei

Pm
j=1

j zj 21

Pm
j=1

j cjj

m
Y

eij zj e 2 j cjj =

j=1

(7.42)
=

m
Y

Xj (j )

j=1


8. C ONVERGENZA IN Rd
Riscriviamo in questo caso le definizioni per le convergenze gi viste:
Definizione 65. Siano X, (Xn )n1 v.a. in (Rd , B(Rd )) allora:
(1) Xn X in probabilit se e solo se:
> 0 lim P(||Xn X|| > ) = 0

(8.1)

n+

(2) Xn X quasi certamente se e solo se:


(8.2)

N F : P(N) = 0 e lim Xn () = X() \ N


n+

(3) Xn X in

Lp

se e solo se:
lim E[||Xn X||p ] = 0

(8.3)

n+

Osservazione 40. Si osserva che:


(8.4)

Xn X in Lp Xn X in probabilit

(8.5)

Xn X q.c. Xn X in probabilit

8.1. Convergenza in Legge.


Definizione 66. Siano n , Prob(Rd ), insieme delle misure di probabilit
su (Rd , B(Rd )), allora si dice che n in legge o in distribuzione se e
solo se:
Z
Z
(8.6)
fdn
fd f : Rd Rd continua e limitata
Rd

Rd

Teorema 34. Siano n , Prob(Rd ) sono equivalenti le seguenti:


(1)
R n in legge.
R
(2) Rd fdn Rd fd f : Rd Rd uniformemente continua e limitata.
(3) lim sup n (F) (F) F B(Rd ) chiuso.
n+

(4) lim sup n (G) (G) G B(Rd ) aperto.


n+

(5)

lim n (A) = (A) A B(Rd ) tale che (A) = 0.

n+

Dimostrazione. Dimostriamo le implicazioni:

58

FABIO DURASTANTE

(1 2): Dalla definizione.


(2 3): Sia F chiuso e sia:

(8.7) > 0 f (x) =

d(x, F)
1

1
0=
1

d(x,F)

xF
0 < d(x, F) <
d(x, F)

allora f uniformemente continua e si ha che lim0 f (x) = 1F (x)


x Rd . Inoltre si ha anche che f 1F e allora:
Z
Z
f dn =
lim sup n (F) = lim sup dn lim sup
n+ Rd
n+
n+ F
Z
Z
=
f d d = (F) 0

(8.8)

Rd

(3 4): Basta passare al complementare e applicare (3) a Gc .


(4 5): Si ha che:
(8.9)

lim sup n (A)


lim inf n (A)
(A)
= (A)
(A) = (A)
n+

n+

e dunque si ha che: limn+ n (A) = (A).


(5 1): Sia f : Rd R continua, limitata e tale che f 0 allora:
Z
Z ||f||
n (f t)dt =
lim
fdn = lim
n+ Rd
n+ 0
(8.10)
Z ||f||
Z

(f t)dt =

=
0

fd
Rd

perch ({f t}) = ({f = t}) = 0 q.o. dunque n (f t) (f


t) q.o., se f non positiva si procede allo stesso modo per f+ ed f .

Osservazione 41. Si ha che n in legge 6 E[Xkn ] E[Xk ].
Proposizione 63. Xn X in probabilit Xn X in distribuzione.
Dimostrazione. Basta provare che f UCb (Rd ) si ha:
(8.11)

lim E[f(Xn )] = E[f(X)]

n+

si ha che:
|E[f(Xn )] E[f(X)]| E[|f(Xn ) f(X)|1{|Xn X|>} ]+
(8.12)

+ E[|f(Xn ) f(X)|1{|Xn X|} ]


2Mf P({|Xn X| > }) +


Proposizione 64. Xn c in distribuzione Xn c in probabilit.

COMPLEMENTI DI PROBABILIT

59

Dimostrazione. Sia B (c) palla aperta, allora:


(8.13)

P({|Xn c| }) = P(Xn Bc (c)) = n (Bc (c))

e si ha:
(8.14)

lim sup n (Bc (c)) (Bc (c)) = P({|c c| }) = 0


n+


Proposizione 65. Xn X in distribuzione, f continua f(Xn ) f(c) in
probabilit.
Dimostrazione. Basta osservare che se g Cb (Rd ) allora g f Cb (Rd ) e si
ottiene la convergenza dalla definizione.

Proposizione 66. Siano (Xn )n1 in Rd con Xn n e n << Leb con densit
fn . Se fn f in L1 allora f una densit e Xn X in distribuzione con X e
<< Leb con densit f.
Dimostrazione. Si ha che:
Z
(8.15)

Z
fn (x)dx

n (A) =

f(x)dx A B(Rd )

R
e f(x) 0 q.o. e R f(x) = 1 dunque f una densit e X esiste ed << Leb,
mostriamo che Xn X in distribuzione, cio che: g Cb (Rd ) E[g(Xn )]
E[g(X)]:

(8.16)

Z

|E[g(Xn )] E[g(X)]| =

Rd



g(x) (fn (x) f(x)) dx
|fn (x) f(x)|dx 0

Mg
R


Teorema 35. Siano n , Prob(Rd ) allora:
(8.17)

n in distribuzione n () () Rd

Proposizione 67. Siano Xn X in distribuzione, Yn Y q.c. Xn + Yn


X + Y in distribuzione.

60

FABIO DURASTANTE

Dimostrazione. Dimostriamo il risultato in dimensione 1:


h
i


|Xn +Yn (t) X+Y (t)| = E eit(Xn +Yn ) eit(X+Y)
i
h


E eit(Xn +Yn ) eit(Xn +Y) +
h
i


+ E eit(Xn +Y) eit(X+Y)
i
h
itYn
it(Xn +Y)
E
e

e

+ |Xn (t) X (t)| =
(8.18)

i
h


=E eitYn eit(Xn +Y) 1|Yn Y| +

h
i


+ E eitYn eit(Xn +Y) 1|Yn Y|> +
+ |Xn (t) X (t)|
2P({|Yn Y|} > ) + t + |Xn (t) X (t)|
e si ha che: 2P({|Yn Y|} > ) + t + |Xn (t) X (t)| t per n + e
t 0 per 0.

Proposizione 68. Siano Xn X, Yn Y in distribuzione con Xn Yn e
X
Y Xn + Yn X + Y in distribuzione.
Dimostrazione. Si ha che:
(8.19)

lim Xn +Yn (t) = lim Xn (t)Yn (t) = X (t)Y (t) = X+Y (t)

n+

n+


Corollario 6. Sia Xn n , Yn n e X ,Y si ha che n n
in distribuzione
Esempio 13. Sia n N(0, 2 ) con limn+ 2n = 0 e misura con n
allora:
(8.20)

n {0} = in distribuzione

Esempio 14. Le gaussiane sono un sottoinsieme chiuso di L2 (, F, P), sia:


(8.21)
H = X : Rd ; X Nd (, C)
mostriamo che H L2 , si ha che X H allora X = AY + con Y Nd (0, I),
si ha che:
E[|X|2 ] =E[|AY + |2 ] = E[(AY + )t (AY + )] =
(8.22)

=E[t AY] + E[t ] + E[Y t A2 Y] + E[Y t A] =


=E[Y t CY] + t = t + tr(C) < +

mostriamo ora che H chiuso in L2 , dunque sia (Xn )n1 H con Xn X


in L2 , allora si avr che:
(1) (E[Xn,i ])n1 converge per i = 1, . . . , d.

COMPLEMENTI DI PROBABILIT

61

(2) (E[Xn,i Xn,j ])n1 converge per i, j = 1, . . . , d.


infatti perch H L2 allora H L1 dunque:
E[Xn ] E[X]

(8.23)

perch E[|Xn X|] 0 per n + e E[Xn,i ] i per n +, inoltre:


|E[Xn,i Xn,j ] E[Xi ]E[Xj ]| E [|Xn,i Xn,j Xn,i Xj |] + E [|Xn,i Xj Xi Xj |] =
=E [|Xn,i | |Xn,j Xj |] + E [|Xj | |Xn,i Xi |]
||Xn,i ||2 ||Xn,j Xj ||2 + ||Xj ||2 ||Xn,i Xi ||2 0
dunque n e Cn C infine abbiamo che:
(8.24)

lim Xn = lim ei<,n > e 2 <Cn ,> = ei<,> e 2 <C,>

n+

n+

e quindi X Nd (, C), dunque H chiuso in L2 .


8.2. Tightness e convergenza in legge.
Teorema 36 (Metodo Diagonale). Siano {x1,n }n1 , . . . , {xm,n }n1 , . . . limitate,
allora esiste una sotto-successione di indici {nk }k1 crescente, tale che:
lim xr,nk r 1

(8.25)

k+

Dimostrazione. Esiste una sotto-successione di {x1,n } convergente e siano i


suoi indici {n(1, k)}k1 , esiste anche una sotto-successione di {x2,n(1,k) } convergente e siano i suoi indici {n(2, k)}k1 , iteriamo il procedimento e osserviamo che: {n(i, k)} {n(j, k)} i j, prendiamo dunque {nk }k1 =
{n(k, k)}k1 .

Teorema 37. Sia {Fn }n1 una successione di funzioni di distribuzione. Allora
esiste una sotto-successione {Fnk }k1 ed una funzione F con:
(1) F non decrescente.
(2) F continua a destra.
(3) F [0, 1].
tale che:
(8.26)

lim Fnk (x) = F(x) x di continuit per F

k+

Dimostrazione. Consideriamo un insieme numerabile e denso in R, C =


{ci }i1 e consideriamo le successioni {Fn (cm )}m1 m 1 e allora per il
teorema precedente esiste {nk }k1 tale che:
(8.27)

lim Fnk (c) = H(c) c C

k+

Sia ora:
(8.28)

F(x) = inf {H(c) : c > x}

62

FABIO DURASTANTE

H(x) non decrescente come limite di funzioni non decrescenti, dunque se


x < x 0 si ha che {H(c) : c > x} {H(c) : c > x 0 } e quindi si ha:


(8.29)
F(x) = inf {H(c) : c > x} inf H(c) : c > x 0 = F(x 0 )
dunque F non decrescente, inoltre F(X) continua a destre poich:
(8.30)

lim = lim+ inf {H(c) : c > x0 } = F(x0 )

xx+
0

xx0

ed anche F(x) [0, 1]. Siano infine r, s c tali che r < x < s se:
(8.31)

F(x) < H(r) < F(x) < H(s) < F(x) +

allora ho anche che Fnk (r) < Fnk (x) < Fnk (s) e dunque:
(8.32) F(x) < H(r) < lim inf Fnk (x) lim sup Fnk (x) < H(s) < F(x) +
k+

k+

e concludiamo facendo tendere 0.

Definizione 67. La successione {n }n1 Prob(Rd ) si dice tight (o trattenuta) se > 0 K compatto tale che:
(8.33)

inf n (K ) > 1

n1

Teorema 38. Sia {Fn }n1 una successione di funzioni di distribuzione. Condizione necessaria e sufficiente affinch il limite di ogni sotto-successione convergente
sia una funzione di distribuzione che la successione delle {n }n1 , associate alle
{Fn }n1 , sia tight.
Dimostrazione. Dimostriamo tutte e due le condizioni:
(): > 0 k > 0 tale che n ([k, k]) > 1 , allora, essendo il
limite di una qualsiasi sotto-successione di n , allora a, b R tali
che ({a}) = ({b}) = 0 per cui (a, b] [k, k] e allora:
(8.34)

((a, b]) > 1

dunque (R) = 1.
(): Per assurdo sia {n }n1 non tight. Allora > 0 tale che k nk
tale che: nk ([k, k]) 1 . Prendiamo una sotto-successione
convergente di {nk }k1 allora (a, b] R, ((a, b]) 1 dunque
(R) 1 .

Corollario 7. Sia {n }n1 tight. Se ogni sotto-successione convergente tende alla
stessa misura di probabilit allora n in distribuzione.
Dimostrazione. Per assurdo esista x R tale che ({x}) = 0 e per cui:
(8.35)

n ((, x]) ((, x])

COMPLEMENTI DI PROBABILIT

63


allora. lim infn+ n ((, x], lim supn+ n ((, x]) con 6=
n ((, x]) ed esiste {nk }k=1 tale che:
nk ((, x])

(8.36)


Osservazione 42. Si pu generalizzare quanto visto in dimensione arbitraria.
Teorema 39 (Levy). Sia {Fn }n1 una successione di funzioni di distribuzione e
sia:
(8.37)

g() = lim n ()
n+

con n () f.c. di n e g continua in zero, allora:


(8.38)

g = F

e Fn F e n in distribuzione.
Dimostrazione. Se mostriamo che {Fn }n1 tight possiamo prendere una
sotto-successione convergente, per cui limk+ nk () = g() e g() =
F () dunque tutte le sotto-successioni che convergono hanno lo stesso
limite F e si ha la tesi.
Verifichiamo ora che {n }n1 tight. Si ha, dalla continuit in 0, che se
|| < |1 g()| < 4 . Inoltre si ha:
Z
(8.39)
n () n () = 2 cos(x)dn (x)
R

che reale, allora:


|2 g() g()| < |1 g()| + |1 g()| <

(8.40)

e inoltre, poich n () g() si ha:


Z
1
(2 n () n ())d [0, ]
(8.41)
2
allora:

2
2

2
=
2

Z Z
(1 cos(x))dn (x)d =
R

Z
(1 cos(x))d

dn (x)
R



Z
Z
2
2
sin(x)
=
dn (x)2 (1 cos(x))d =
dn (x)
=
2 R
R
x
0



Z 
Z
sin(x)
1
= 2 1
2
dn (x)
1
x
|x|
R
|x|>2
Z

dn (x) = n ({|x| > 2}) n 1


|x|>2

64

FABIO DURASTANTE

e Kc = {|x| > 2} il complementare di un compatto ed tale che (Kc )


n 1.

Teorema 40 (Del Limite Centrale). Siano {Xn }n1 v.a. i.i.d. d-dimensionali, sia
m = E[Xi ] e C la loro matrice di covarianza, allora:
Sn =

(8.42)
con Sn =

Sn nm

Y Nd (0, C)
n

Pn

i=1 Xi .

Dimostrazione. Siano Yi = Xi m e i la loro funzione caratteristica, allora:


Sn

(8.43)

n
X
Y
i
=
n
i=1

h  in
e dunque Sn () = Y n
, sviluppando con il polinomio di Taylor si
ha che:
(8.44)

Y () = 1

1
< C, > +o(2 )
2

dunque:

n
1
1
1
(8.45) lim () = lim 1
< C, > +o( 2 )
= e 2 <C,>
n+
n+
2n
n
Sn

che dal Teorema di Levy (thm. 39) completa la dimostrazione.

8.3. Uniforme Integrabilit e Convergenza dei Momenti.


Proposizione 69. Siano Xn X in distribuzione e supnN E[|Xn |p ] con p > 1,
allora r < p si ha che:
(1) X Lr .
(2) E[|Xn |r ] E[|X|r ].
Dimostrazione. Sia:

(8.46)

fA (x) =

|x|r |x| < A


Ar |x| A

allora fA Cb (R)d limn+ E[fA (Xn )] = E[fA (X)], inoltre si ha che:


Z
Z
(8.47)
lim
fA (x)d(x) =
|x|r d(x)
A+ Rd

Rd

COMPLEMENTI DI PROBABILIT

65

per il Teorema di Convergenza Monotona (thm. 9). In pi si ha che n N :


Z
Z


r


|x|r fA (x)dn (x)
d (|x| fA (x)) dn (x) =
R
{|x|>A}
Z

|x|r dn (x) =
{|x|>A}
(8.48)
Z
|x|pr
|x|r pr dn (x)
=
|x|
{|x|>A}
Z
1
M
pr
|x|p dn (x) pr 0
A
A
Rd
per A +, dunque:
Z
|x|r d = lim E[fA (x)] = lim lim E[fA (Xn )] =
A+
A+ n+
d
R
(8.49)
= lim lim E[fA (Xn )] = lim E[|Xn |r ]
n+ A+

n+

quindi abbiamo mostrato che:


lim E[|Xn |r ] = E[|X|r ]

(8.50)

n+


Definizione 68. Sia {Xn }n1 successione di v.a., questa si dice uniformemente integrabile, u.i., se:
Z
(8.51)
lim sup
|Xn |dP = 0
+

|Xn |>

Esempio 15. Se Xn = X n con X L1 allora {Xn }n1 uniformemente


integrabile perch:
Z
(8.52)
lim sup
|Xn |dP = lim |X|1{|X|>} dP = 0
+

|Xn |>

per il teorema di convergenza dominata.


Esempio 16. Se {Xn }n 1 t.c. Xn Y L1 allora {Xn }n1 u.i.:
Z
Z
(8.53)
lim sup
|Xn |dP lim
|Y|dP = 0
+

{|Xn |>}

+ {|Y|>}

Esempio 17. Sia {Xn }n1 u.i. e R, allora {Xn } u.i. poich:
Z
Z
|Xn |dP = 0
(8.54)
lim sup
|Xn |dP = || lim sup
+

{|Xn |>}

{|Xn |> ||
}

66

FABIO DURASTANTE

Esempio 18. Sia {Xn }n1 ,{Yn }n1 u.i. reali, allora {Xn + Yn } u.i. poich:
Z
|Xn + Yn |dP
lim sup
+

(8.55)

" Z
lim sup 2
+

{|Xn |>
}
2

{|Xn +Yn |>}

|Xn |dP + 2

{|Yn |>
}
2

#
|Yn |dP = 0

Proposizione 70. La successioni {Xn }n1 u.i. se e solo se:


(1) supn E[|Xn |] M < +.R
(2) > 0 : P(E) < E |Xn |dP < n > 1.
Dimostrazione. Dimostriamo ambedue le implicazioni:
(): Si ha che:
E[|Xn |] =E[|Xn |1{|Xn |} ] + E[|Xn |1{|Xn |>} ]

(8.56)

+ E[|Xn |1{|Xn |>} ]


dunque:

(8.57)

sup E[|Xn |] + sup E[|Xn |1{|Xn |>} ] + = M


n

Si ha quindi che:
Z
Z
Z
|Xd |dP =
|Xn |dP +
|Xn |dP
E
E{|Xn |>}
E{|Xn |}
Z
(8.58)

|Xn |dP + P(E) < + =

2
{|Xn |>}
ponendo =
(): Si ha che:

2 .

: P({|Xn | > })

(8.59)
dunque:
(8.60)

E[|Xn |]
M

<

Z
> 0
{|Xn |>}

|Xn |dP <




Teorema 41. Se Xn X in probabilit sono equivalenti:


(1) {|Xn |r }n1 uniformemente integrabile.
(2) Xn X in Lr .
(3) E[|Xn |r ] E[|X|r ] < +.
Dimostrazione. Dimostriamo tutte le implicazioni:

COMPLEMENTI DI PROBABILIT

67

(1 2): Si ha che nk tale che Xnk X q.c., dunque:


E[|X|r ] lim inf E[|Xnk |r ] M

(8.61)

k+

dunque X Lr , consideriamo ora la successione {|Xn X|r } che u.i.


poich:
|Xn X|r Cr (|Xn |r + |X|r )

(8.62)
e:
(8.63)

E[|Xn X|r ] =E[|Xn X|r 1{|Xn X|} ] + E[|Xn X|r 1{|Xn X|>} ]
r + E[|Xn X|r 1{|Xn X|>} ] r

per n +, mentre r 0 per


X| > }) = 0.
(2 3): Proposizione 33.
(3 1): Sia:
r
|x|
raccordo continuo
(8.64)
fA (x) =

0
allora:
Z
(8.65)

{|x|r A}

0, poich limn+ P({|Xn

|x|r A
A < |x|r A + 1
|x|r > A + 1
Z

|x|r d(x)

fA d(x)
R

{|x|r A+1}

|x|r d(x)

e fA Cb (Rd ), dunque:
Z
lim inf
|x|r dn lim E[fA (Xn )]
n+ {|x|r A+1}
n+
Z
(8.66)

|x|r dn
{|x|r A}

e per ipotesi si ha:


lim E[|Xn |r ] = E[|X|r ] < +

(8.67)

n+

e dunque:
(8.68)

lim sup
n+

Z
|x| dn
r

{|x|r >A+1}

{|x|r >A+1}

|x|r d 0 A +


9. S PERANZA C ONDIZIONALE
Partiamo da alcuni esempi particolari.

68

FABIO DURASTANTE

9.1. Casi Particolari. Sia (X, Y) una v.a. congiuntamente discreta con densit pX,Y (x, y) con x Ex R e y Ey R. Supponiamo inoltre che
py (y) > 0 y Ey e X integrabile, allora ben definita:
X
xpX|Y (x, y) = hX (y)
(9.1)
E[X|Y = y] =
xEx

dunque hX (y) detta media condizionata allevento {Y = y}. Possiamo


definire quindi la media condizionata E[X|Y], si ha che:
X pX,Y (x, y)
X
x
xpX|Y (x, y) =
E[X|Y = y] =
=
pY (y)
xEx

(9.2)

1
=
pY (y)

xEx

x 1pX,Y (x, ) =

(x,)Ex {y}

1
=
E[X1{y} (y)]
pY (y)
dunque:
(9.3)

hX (y) =

1
E[X1{y} (y)]
pY (y)

definiamo allora:
(9.4)

hX (Y) = E[X|Y] =

hx (y)1{y} (y)

yEy

che una funzione misurabile della v.a. Y.


Proposizione 71. Osserviamo che valgono le seguente propriet:
(1) hX (y) (Y)misurabile.
(2) A (Y) si ha che Z = hX (Y) e E[Z1A ] = E[X1A ], cio essendo A =
{Y B}, B Ey E[Z1B (Y)] = E[X1B (Y)].
Dimostrazione. Dimostriamo in ordine i due:
(1) Per come abbiamo definito Z, si ha che questa necessariamente (Y)-misurabile, infatti costante sugli atomi della partizione
generata dalla (Y).
(2) Si ha che:
X
E[hX (Y)]1B (y)] =
hX (y)1B (y)P(Y = y) =
yEy

(9.5)

X
1
E[X1{y} (Y)]pY (y) =
E[X1{y} (Y)]
pY (y)
yB
yB

X
=E X
1{y} (Y) = E[X1B (Y)]

yB

COMPLEMENTI DI PROBABILIT

69


Proposizione 72. Le propriet della proposizione 71 caratterizza la hX (Y).
Dimostrazione. Sia Z con le propriet della proposizione (prop. 71). Allora Z essendo (Y)misurabile costante sugli atomi che generano (Y),
dunque della forma:
X
z y 1{y} (Y)
(9.6)
Z =
yEy

e per la seconda propriet, usando la posizione Z =


(9.7)

yEy zy 1{y} (Y):

{y} (Y)] =
zy P({Y = y}) =E[Z1{y} (Y)] = E[X1{y} (Y)] = E[Z1
=z{y} P({Y = y})

quindi z y = zy .

Osservazione 43. Osserviamo inoltre che vale:


(9.8)

E[hX (y)] = E[hX (Y)1Ey (Y)] = E[X1Ey (Y)] = E[X]

Definiamo una speranza condizionata in un caso pi generale:


Definizione 69. Sia X una v.a. con E[X] < + e G = ({Gi }iI ) con I al pi
numerabile e P(Gi ) > 0 i I. Allora definiamo la media condizionata:
(9.9)

E[X|G] =

1
E[X1Gi ] Gi
P(Gi )

Allora:
(9.10)

E[X|G] =

X
iI

1
E[X1Gi ]1Gi
P(Gi )

e sono soddisfatte le propriet della proposizione (prop. 71) che la caratterizzano.


9.2. Caso Generale. Sfruttiamo ora le informazioni che abbiamo ottenuto
sugli esempi particolari per costruire il caso generale:
Teorema 42. Sia (, F, P) uno spazio di probabilit, G F una algebra.
Allora esiste Z v.a. Gmisurabile e integrabile tale che:
(9.11)

E[Z1G ] = E[X1G ] G G

e tale Z unica q.c.


Che ci permette di definire la media condizionale come:
Definizione 70 (Media Condizionale). Definiamo media condizionale la:
E[X|G] = Z, data dal teorema.
Procediamo ora a dimostrare il teorema:

70

FABIO DURASTANTE

Dimostrazione. Definiamo su (, G) la misura:


Z
(9.12)
Q(G) = XdP
G

supponiamo X 0. Si ha che Q << P dunque per il teorema di RadonNicodym esiste Z Gmisurabile tale che:
Z
(9.13)
Q(G) = ZdP
G

e tale Z unica quasi certamente. Per una X generica si ripete il ragionamento per X+ e X .

Osservazione 44. Nel caso in cui G = (Y) allora scriviamo:
(9.14)

E[X|Y] = E[X|G]

e poich E[X|Y] (Y)-misurabile allora esiste X (Y) misurabile tale che:


(9.15)

X (Y) = E[X|Y]

Esempio 19. Siano (X, Y) congiuntamente assolutamente continue e sia data


la sua densit: fX,Y (x, y). Allora deve essere:
(9.16)

B B(R) E[X1B (Y)] = E[X (Y)1B (Y)]

con:

Z Z

(9.17) E[X1B (Y)] =

Z Z
x1B (y)fX,Y (x, y)dxdy =
B

R R

e quindi:
(9.18)

X (y)1B (y)fY (y)dy =

E[X (Y)1B (Y)] =

X (y) =

1
fY (y)

X (y)fY (y)dy
B

(9.19)

dunque:


xfX,Y (x, y)dx dy

Z
xfX,Y (x, y)dx =
R

xfX|Y (x|y)dx
R

Esempio 20. Siano X, Y


con X, Y Po() allora, essendo X + Y Po(2) si
ha che:
z
X
E[X|(X + Y) = z] =
xP(X = x|Z = z) =
x=0
z
X
P(X = x)P(Y = z x)
=
x
=
P(Z = z)
x=0
   x  zx
z
X
1
1
z
x+y
z
=
x
= =
x
2
2
2
2

(9.20)

x=0

dunque E[X|X + Y] =

X+Y
2 .

COMPLEMENTI DI PROBABILIT

71

Esempio 21. Siano (U, V) di legge congiunta:



2 u + v 1 u, v 0
(9.21)
pU,V (u, v) =
0 altrimenti
si ha che:

(9.22)

E[U|V = v] =

upU|V (u|v)du
R

dove:
(9.23)

pU,V (u, v)
pU|V (u|v) =
pV (v) =
pV (v)

quindi si ha che:
(9.24)

Z 1v
E[U|V = v] =
0

dunque: E[U|V] =

2(1 v) v (0, 1)
0
altrimenti

1v
u
du =
1v
2

1V
2 .

Esempio 22. Siano X, Y Be(p) e sia Z = 1{0} (X + Y) e G = (Z) allora:


E[X|G] =z0 1{Z=0} + z1 1{Z=1} =
(9.25)

=E[X|X + Y 6= 0]1{Z=0} + E[X|X + Y = 0]1{Z=1} =


=

1{0} (z)
p
E[X1Z=0 ] =
1 (z)
P(Z = 0)
1 (1 p)2 {0}

Possiamo dare, a questo punto, una seconda caratterizzazione della media condizionale:
Proposizione 73. Abbiamo che Y = E[X|G] se e solo se:
(1) Y G-misurabile.
(2) W v.a. G-misurabile limitata si ha:
(9.26)

E[WX] = E[WY]

Dimostrazione. Dimostriamo nelle due direzioni:


(): Basta porre W = 1G .
(): Sia X 0 allora si ha che:
(9.27)

E[WX] = E[WY] W (SF)+


per linearit. Se W 0 allora (Wn ) (SF)+ tale che Wn % W
dunque Wn X % WX e quindi:

(9.28)

E[WY] = lim E[Wn Y] = lim E[Wn X] = E[WX]


n

se W generica ci riconduciamo a W + e W , analogamente se fosse


la X ad essere generica.


72

FABIO DURASTANTE

9.3. Propriet. Enunciamo e dimostriamo alcune propriet:


Proposizione 74. Data G -algebra si ha che:
(1) Sia X = c q.c. E[X|G] = c q.c.
(2) E[E[X|G]] = E[X]
(3) Siano X, Y v.a. e siano , R allora:
(9.29)

E[X + Y|G] = E[X|G] + E[Y|G]

(4) Se X Y q.c. allora E[X|G] E[Y|G] q.c.


(5) Se Y Gmisurabile e limitata e X integrabile allora:
(9.30)

E[XY|G] = YE[X|G] q.c

in particolare: E[Y|G] = Y.
(6) Siano H G F algebre, allora:
(9.31)

E[E[X|G]|H] = E[E[X|H]|G] = E[X|H]] q.c.

(7) Se X integrabile e X G allora: E[X|G] = E[X] q.c.


(8) Sia (X, Y) integrabile con X G-misurabile e Y G, allora:
(9.32)

E[(X, Y)|G] = E[(x, Y)]|x=X

Dimostrazione. Dimostriamo in ordine:


(1) Segue dalla definizione di media condizionale.
(2) Basta prendere nella definizione G = , si ha che E[X1G ] = E[Y1G ].
(3) E[X|G] + E[Y|G] G-misurabile, perch combinazione lineare di
funzioni G-misurabili. Inoltre si ha che:
(9.33)

E[(E[X|G] + E[Y|G])1G ] =E[E[X|G]1G ] + E[E[Y|G]1G ] =


=E[X1G ] + E[Y1G ] = E[(X + Y)1G ]

(4) Sia G = { : E[X|G] E[Y|G] > 0}, allora G G, sia, per assurdo
P(G) > 0 allora si ha che:
(9.34)

0 E[(X Y)1G ] = E[E[X Y|G]1G ] = E[(E[X|G] E[Y|G])1G ] < 0

che un assurdo.
(5) Abbiamo che YE[X|G] G-misurabile come prodotto di v.a. G misurabili. Sia W una v.a. G-misurabile e limitata. Allora:
(9.35)

E[YE[X|G]W] = E[YWE[X|G]] = E[YWX]

poich YW limitata e G-misurabile. Infatti non serve che Y sia


limitata, basta che XY sia integrabile e si dimostra con i teoremi di
passaggio al limite.
(6) E[X|H] Hmisurabile, dunque Gmisurabile, dunque:
(9.36)

E[E[X|H]|G] = E[X|H]

COMPLEMENTI DI PROBABILIT

73

per la propriet precedente. Inoltre abbiamo che E[E[X|G]|H] Hmisurabile e che:


(9.37)

E[E[E[X|G]|H]1B ] = E[E[X|G]1H ] = E[X1H ] H H

perch si ha anche che H G.


(7) E[X] costante, dunque G-misurabile, inoltre:
(9.38)

E[E[X]1G ] = E[X]E[1G ] = E[X1G ]

(8) Omettiamo la dimostrazione.



Proposizione 75. Se Xn X q.c. allora E[Xn |G] E[X|G] q.c.
Dimostrazione. Cominciamo con losservare che E[Xn |G] crescente q.c. e
consideriamo la v.a. Y = limn E[Xn |G], allora si ha che:
Y G-misurabile poich limite di v.a. G-misurabili.
Sfruttando il teorema di convergenza monotona possiamo scrivere:
i
h
E[Y1G ] =E lim E[Xn |G]1G = lim E[E[Xn |G]1G ] =
n
n
i
h
(9.39)
= lim E[Xn 1G ] = E lim Xn 1G = E[X1G ]
n

e dunque Y = E[X|G].

Proposizione 76. Se Xn 0 allora:


(9.40)
E lim inf Xn |G lim inf E[Xn |G q.c.
n+

n+

Proposizione 77. Se Xn X q.c. e |Xn | Y integrabile e Xn ed X sono


integrabili:
(9.41)

lim E[Xn |G] = E[X|G] q.c.

n+

Proposizione 78. Sia convessa e continua, (X), X integrabili allora:


(9.42)

E[(X)|G] (E[X|G]) q.c.

Dimostrazione. Si ha che:
(9.43)

E[(X)|G] E[X + |G] = E[X|G] +

dunque passando al sup su e si ha che:


(9.44)

E[(X)|G] (E[X|G])


74

FABIO DURASTANTE

Possiamo applicare la proposizione precedente con (x) = |x|p per cui


abbiamo che:
(9.45)

E[|x|p |G] |E[X|G]|p q.c.

dunque:
(9.46)

E[|X|p ] = E[E[|X|p |G]] E [|E[X|G]|p ]

quindi se X Lp allora E[X|G] Lp . Inoltre abbiamo che se Xn X in Lp


allora E[Xn |G] E[X|G] poich:
(9.47)

E [|E[Xn |G] E[X|G]|p ] E[|Xn X|p ]

Osservazione 45. In L2 si ha che E[X|G] la proiezione di X sul sottospazio


della funzioni G-misurabili. Per dimostrarlo dobbiamo mostrare che:
(9.48)

E[|X E[X|G]|2 ] E[|X Z|2 ] Z G misurabile

si ha che:
E[|X Z|2 ] =E[|(X E[X|G]) + (E[X|G] Z)|2 ] =
(9.49)

=E[|X E[X|G]|2 ] + E[|E[X|G] Z|2 ]


E[|X E[X|G]|2 ]

perch:
E[(X E[X|G])(E[X|G] Z)] =E[E[(X E[X|G])(E[X|G] Z)]|G] =
=E[(E[X|G] Z)E[(X E[X|G])|G]] =
=E[(E[X|G] Z)(E[X|G] E[E[X|G]|G])] =
=E[(E[X|G] Z)(E[X|G] E[X|G])] = 0
10. M ARTINGALE
Definizione 71 (Filtrazione). Si dice filtrazione su (, F, P) una famiglia
crescente di -algebre (Ft )t con [0, +), Fs F s > t e Ft F
t .
Definizione 72 (Processo). Una famiglia (Xt )t famiglia di v.a. tale che X
F -misurabile t si dice processo F -adattato.
Osservazione 46. Dato un processo (Xt )t esiste sempre una filtrazione rispetto al quale il processo adattato, la pi piccola possibile detta filtrazione naturale, ed data da: (Ft = ({Xs , s t}))t .
Definizione 73 (Martingala). In (, F, P), data una filtrazione (Fn )nN ed
un processo (Xn )nN Fn -adattato. (Xn )nN si dice martingala (super-mg,
sub-mg) se e solo se:
(1) E[|Xn |] < n N.
(2) E[Xn+1 |Fn ] = (, )Xn q.c. n N.

COMPLEMENTI DI PROBABILIT

75

Osservazione 47. Un processo (Xn )nN Fn -adattato e integrabile una martingala se e solo se:
(10.1)

A Fn E[Xn+1 1A ] = E[Xn 1A ]

ovvero una sub-mg se vale con , o una super-mg se vale con .


Esempio 23. Sia X una v.a. integrabile, ovvero E[|X|] < + e (Fn )nN
una filtrazione. Definiamo allora: Xn = E[X|Fn ], allora (Xn )nN una
martingala.
Osservazione 48. E[Xn+1 |Fn ] = Xn E[Xn+1 Xn |Fn ] = 0.
Proposizione 79. Valgono le seguenti propriet:
(1) Se (Xn )n1 ,(Yn )n1 sono martingale allora (Xn + Yn )n1 una martingala.
(2) Se (Xn )n1 ,(Yn )n1 sono super-mg allora (Xn Yn )n1 una super-mg.
(3) Se (Xn )n1 ,(Yn )n1 sono sub-mg allora (Xn Yn )n1 una sug-mg.
(4) Se (Xn )n1 una sub-mg ed f convessa, continua e crescente tale che
(f(Xn ))n1 integrabile. Allora (f(Xn ))n1 una sub-mg.
(5) Se f concava, continua e crescente, tale che (Xn )n1 super-mg e la successione (f(Xn ))n1 integrabile. Allora (f(Xn ))n1 super-mg.
(6) Se (Xn )n1 una martingala allora (|Xn |)n1 una sub-mg.
(7) Se (Xn )n1 una martingala di quadrato integrabile allora (X2n )n1 una
sub-mg.

(8) Se (Xn )n1 una martingala e positiva allora ( Xn )n1 super-mg.


Dimostrazione. Dimostriamo la propriet (4) sfruttando la disuguaglianza
di Jensen:
(10.2)

E[f(Xn+1 )|Fn ] f (E[Xn+1 |Fn ]) f(Xn ) q.c.

dove lultima disuguaglianza dovuta alla propriet di crescenza e di submg.



Proposizione 80. Se (Xn )nN una martingala (sub-mg,super-mg) allora la
successione (E[Xn ])nN costante (crescente, decrescente).
Dimostrazione. Basta osservare che:
(10.3)

E[Xn ] = E[E[Xn+1 |Fn ]] = E[Xn+1 ]




Proposizione 81. Se (Xn )nN una sub-mg, o una super-mg, e (E[Xn ])nN
costante allora (Xn )nN una martingala.
Dimostrazione. Basta osservare che E[Xn+1 |Fn ] Xn 0 q.c. ed ha media
nulla, dunque: E[Xn+1 |Fn ] = Xn q.c.


76

FABIO DURASTANTE

Proposizione 82. Data (Xn )nN martingala (super-mg,sub-mg) allora:


E[Xn |Fm ] = (, )Xm q.c. m < n

(10.4)

Definizione 74 (Processo Predicibile). Sia (Xn )n1 un processo, questo si


dice predicibile se Xn Fn1 -misurabile n 1.
Proposizione
83. Sia (Mn )n1 una martingala e sia X0 = 0, definiamo allora
Pm
Xn =
j=1 Hj (Mj Mj1 ), dove (Hj )j1 un processo predicibile, allora se
(Xn )n1 integrabile allora una martingala a media nulla.
Dimostrazione. Xn integrabile per ipotesi ed Fn -adattato perch tutte le
v.a. che la compongono sono Fn -misurabili, inoltre:
E[Xn+1 Xn |Fn ] = E[Hn+1 (Mn+1 Mn )|Fn ] = Hn+1 E[Mn+1 Mn |Fn ] = 0
infine:
(10.5)

E[Xn ] =

m
X

E[Hj (Mj Mj1 )] =

j=1

m
X

E[Hj E[Mj Mj1 |Fj1 ]] = 0

j=1


Proposizione 84. Sia (Mn )n1 un processo adattato e integrabile, si ha che il processo (Mn )0nN una martingala se e solo
Pmse E[XN ] = 0 (Hn )n1 predicibile
per cui (Xn )n1 integrabile, dove Xn = j=1 Hj (Mj Mj1 ).
Dimostrazione. Mostriamo le due direzioni:
(): Segue dalla proposizione precedente (prop. 83).
(): Mostriamo che A Fn si ha che E[Mn+1 1A ] = E[Mn 1A ]. Fissato
un A Fn definiamo:

0
j 6= n + 1
(10.6)
Hj =
1A j = n + 1
allora Hj banalmente predicibile e Xn+1 = 1A (Mn+1 Mn ), dunque:
(10.7)

0 = E[Xn+1 ] = E[Mn+1 1A ] E[Mn 1A ]

Definizione 75 (Martingala Trasformata). La Xn =


dice martingala trasformata di Mn .

Pm

j=1 Hj (Mj


Mj1 ) si

10.1. Decomposizione di Doob.


Teorema 43. Sia (Xn )n1 una sub-mg. Allora esiste un processo (An )n1 tale
che:
(1) An crescente q.c., ovvero An An+1 q.c.
(2) A0 = 0 q.c.
(3) An integrabile e predicibile

COMPLEMENTI DI PROBABILIT

77

tale che Xn = Mn + An ed (Mn )n1 una martingala. Tale decomposizione


unica quasi certamente.
Dimostrazione. Definiamo il processo (An )n1 come:

A0 = 0
P
(10.8)
An+1 = An + E[Xn+1 Xn |Fn ] = nk=0 E[Xk+1 Xk |Fk ]
poich E[Xn+1 Xn |Fn ] 0 q.c. si ha che An crescente q.c. ed integrabile
perch somma di v.a. integrabili. Inoltre il processo An+1 cos definito
predicibile (Fn -misurabile). Sia ora Mn = Xn An allora abbiamo:
(10.9)

E[Mn+1 Mn |Fn ] =E[(Xn+1 Xn ) E[Xn+1 Xn |Fn ]|Fn ] =


=E[Xn+1 Xn |Fn ] E[Xn+1 Xn |Fn ] = 0

che dimostra la parte riguardante lesistenza. Per lunicit supponiamo ora


di avere unaltra decomposizione con le stesse propriet, allora:
(10.10)

Mn + An = Xn = Mn0 + An0

e si ha:
(10.11)

0
0
An0 = E[An+1
An0 |Fn ] = E[Xn+1 Xn |Fn+1 ]
An+1

dunque An0 ha la stessa definizione di An e quindi sono uguali q.c.

Teorema 44. Sia (Xn )n1 una super-mg. Allora esiste un processo (An )n1 tale
che:
(1) An crescente q.c., ovvero An An+1 q.c.
(2) A0 = 0 q.c.
(3) An integrabile e predicibile
tale che Xn = Mn An ed (Mn )n1 una martingala. Tale decomposizione
unica quasi certamente.
Dimostrazione. Segue dal teorema precedente (thm. 43) osservando che il
processo (Xn )n1 sub-mg e (Mn ) una martingala.

Definizione 76 (Compensatore). Il processo (An )n1 si dice compensatore
del processo (Xn )n1 .
Osservazione 49. Sia (Mn )n1 martingala di quadrato integrabile allora il
processo (M2n )n1 una sub-mg dunque per il teorema di Doob si decompone come M2n = Xn + An con Xn martingala e An compensatore, dunque
Xn = M2n An e una martingala, dunque ha media costante ed An cresce, allora esiste limn An = A quasi certamente. Abbiamo quindi che
supn E[M2n ] k < allora:
(10.12)

E[A] = lim E[An ] sup E[M2n ] k <


n

dunque A quasi certamente finito.

78

FABIO DURASTANTE

10.2. Tempi DArresto.


Definizione 77 (Tempo dArresto). Si dice tempo darresto una v.a. :
N {+} tale che n N {+} si ha { n} Fn , essendo {Fn }n0 una
filtrazione e F = (n0 Fn ).
Definizione 78 (Eventi Antecedenti). La -algebra:
F = {A F : A { n} Fn }

(10.13)

si dice -algebra degli eventi antecedenti .


Tale definizione ben posta, infatti si ha che:
(1) F e { n} = { n} Fn F .
(2) A F A F e A { n} Fn Ac F e Ac { n} =
{ n} (A { n})c Fn Ac F .
(3) {Am }m1 F Am F m 1 e Am { n} Fn m 1
m1 Am F e (m1 Am ) { n} = m1 (Am { n}) Fn
m1 Am F .
Osservazione 50. Se un tempo di arresto, allora:
{ > n} = { n}c Fn
{ n} = { n 1}c Fn1
dunque nelle definizioni di ed F si pu sostituire levento { n} con
levento { = n}, infatti:
(): { n} Fn { = n} = { n} { n 1}c Fn .
(): { = n} Fn { n} = ni=1 = i Fn .
Definizione 79. Un tempo darresto si dice limitato se N > 0 tale che
P({ N}) = 1. Un tempo darresto si dice finito se P({ < }) = 1.
Esempio 24. Sia (Xn )n1 un processo a valori in (E, E), sia A E, definiamo
allora:
A = inf {n N | Xn A}

(10.14)

A un tempo darresto e si dice tempo di ingresso in A. Infatti si ha che:


!
n1
\
(10.15)
{A = n} =
{Xi
/ A} {Xn A} Fn = (X1 , . . . , Xn )
i=1

Proposizione 85. Siano 1 ,2 tempi darresto. Allora, anche 1 + 2 ,1 2


e1 2 sono tempi darresto.
Dimostrazione.
(10.16)

{1 + 2 = n} =

n
[

({1 = k} {2 = n k}) Fn

k=0

(10.17)

{1 2 > n} = {1 > n} {2 > n} Fn

(10.18)

{1 2 n} = {1 n} {2 n} Fn

COMPLEMENTI DI PROBABILIT

79


Se un tempo darresto finito abbiamo che ( n)n1 un tempo darresto n 1 e limn+ P({ > n}) = 0 e inoltre { = +} = n0 { > n}
e { > n} & { = +}, dunque esiste il limite quasi certo della successione
{ n}n1 . Quindi:
lim n = un tempo darresto finito

(10.19)

n+

Proposizione 86. Se 1 , 2 sono tempi darresto e 1 2 q.c. allora F1 F2 .


Dimostrazione. Sia A F1 . Allora A F e A {1 n} Fn . Dunque:
A F e:
A {2 n} = (A {1 n}) {2 n{ Fn

(10.20)
cio A F1 .

Proposizione 87. Se 1 ,2 sono tempi darresto allora F1 2 = F1 F2


Dimostrazione. Mostriamo la doppia inclusione:
(): Si ha che 1 2 2 e 1 2 1 , dunque F1 2 F1 e
F1 2 F2 , ovvero F1 2 F1 F2 .
(): Sia A F1 F2 , allora A F , A {1 n} Fn e A {2
n} Fn . Dunque A F e:
(10.21)

A {1 2 n} =A {1 n} {2 n} =
= (A {1 n}) ({2 n}) Fn
quindi A F1 2 .


Proposizione 88. Siano 1 , 2 tempi darresto, allora {1 < 2 },{1 = 2 }


F1 2
Dimostrazione. Si ha che:
(10.22)

{1 < 2 } =

({1 < k} {2 = k}) F

k0

(10.23)

{1 < 2 } {1 = n} = {2 > n} {1 = n} Fn

(10.24)

{1 < 2 } {2 = n} = {1 < n} {2 = n} Fn

dunque {1 < 2 } F1 2 . Si ha inoltre che:


[
({1 = k} {2 = k}) F
(10.25)
{1 = 2 } =
k0

(10.26)

{1 = 2 } {1 = n} = {1 = n} {2 = n} Fn

(10.27)

{1 = 2 } {2 = n} = {2 = n} {1 = n} Fn

dunque {1 = 2 } F1 2 .

80

FABIO DURASTANTE

Osservazione 51. Sia (Xn )n0 un processo Fn -adattato, un tempo darresto


finito. Allora ha senso calcolare X , cio la v.a. X () = X() (). Si ha che:
X
(10.28)
X =
Xk 1=k
k0

e X F -misurabile, cio {X B} F B B(R), infatti:


{X B} F , cio X F , poich combinazione lineare di v.a.
F -misurabili.
{X B} { = n} = {Xn B} Fn .
10.3. Martingale arrestate.
Definizione 80. Sia (Xn )n1 una mg, sub-mg, super-mg. Si dice processo
arrestato al tempo darresto :
(10.29)

Xn := Xn

Proposizione 89. Se (Xn )n0 una martingala (sub-mg,super-mg) allora si ha


che (Xn )n1 una martingala (sub-mg,super-mg).
Dimostrazione. Riscriviamo:
Xn =Xn = Xn 1n + X 1<n =
(10.30)

=Xn 1n +

n1
X

Xk 1=k

k=0

che quindi Fn -misurabile come combinazione lineare di funzione Fn misurabili, cio {Xn } un processo Fn -adattato. Inoltre {Xn } integrabile
perch:
#
"
n
n1


X
X


E[|Xk |] < +
(10.31)
E[|Xn |] = E Xn 1n +
Xk 1=k


k=0

k=0

infine si ha:
E[Xn+1 Xn |Fn ] =E[(X X )1{n} |Fn ] + E[(Xn+1 Xn )1{>n} ] =
(10.32)
=1{>n} E[Xn+1 Xn |Fn ] = (, )0

Proposizione 90. Sia {Xn }n1 una super-mg. Allora {Xn }n1 una super-mg ed
il suo compensatore {An } dove {An }n1 il compensatore di {Xn }n1 .
Proposizione 91. Sia X una v.a. integrabile, {Fn }n0 una filtrazione e un
tempo darresto limitato e definiamo: Xn = E[X|Fn ], allora X = E[X|F ].
Dimostrazione. Abbiamo mostrato che X F -misurabile. Inoltre A F :
"
#
L
L
X
X
(10.33)
E[X 1A ] = E X 1A
1{=n} =
E[Xn 1A{=n} ] = E[X1A ]
n=0

n=0

COMPLEMENTI DI PROBABILIT

81

Teorema 45 (Teorema dArresto). Siano {Xn }n0 una mg (sub-mg,super-mg) e


1 , 2 tempi darresto limitati tali che 1 2 L. Allora:
E[X2 |F1 ] = (, )X1

(10.34)

Dimostrazione. Si ha che: X1 F1 misurabile. Inoltre A F1 :


"
#
L
L
X
X


E[X2 1A ] =E X2 L 1A
1{1 =k} =
E XL2 1A{1 =k} =
k=0

(10.35)
=

L
X

k=0



E Xk2 1A{1 =k} =

k=0

L
X



E X21 1A{1 =k} =

k=0

=E[X1 2 1A ] = E[X1 1A ]

11. C OMPORTAMENTO ASINTOTICO DI MARTINGALE
Proposizione 92. Siano (Fn )n1 filtrazione e (Xn )n1 una sub-mg. Allora
> 0 si ha:

 Z
(11.1)
P max Xk
XN dP
kN
{maxkN Xk }
da cui:



1
1
P max Xk E[X+
E[|XN |]
n]

kN

(11.2)

Dimostrazione. Siano: A = {maxkN Xk } e:


Ak = {X1 < , . . . , Xk1 < , Xk } Fk k = 1, . . . , N
F
allora (Ak )k=1,...,N sono disgiunti e tali che A = N
k=1 Ak . Si ha dunque che:
Z
Z
N
N
X
X
XN dP =
Xn dP =
E[XN 1Ak ]
(11.3)

k=1 Ak

(11.4)

N
X

k=1

E[Xk 1Ak ]

k=1

N
X

P(Ak ) = P(A)

k=1


Proposizione 93. Sia (Xn )n0 sub-mg positiva q.c., allora:




p


Xk
(11.5)
||Xn ||p p > 1
max
p1
kN
p

Dimostrazione. Moltiplichiamo la disuguaglianza della proposizione (prop.


92) per p2 e integrata in :
Z
Z
Z
(11.6)
p1 P(A)d
p2 Xn dPd
0

82

FABIO DURASTANTE

per cui:
(11.7)
Z

p1

p1

Z

Z Z maxkN Xk

p1

Z


1A dP d =

dP d =

P(A)d =


p1
d dP =
=

0
p

p 
Z 
1
1
=
max Xk dP = E max Xk
p kN
p
kN
e:

p2

Z maxkN Xk
Xn dP
p1 d =

"0
#
p1
1
=
E max Xk
XN
p1
kN

p 1 p1
1
1

E max Xk
E[|Xn |p ] p
p1
kN

Xn dPd =
A

(11.8)

dove abbiamo usato la disuguaglianza di Holder, dividendo per la quantit: E [(maxkN Xk )p ]


(11.9)

1
1 p

entrambi i membri otteniamo la:






max Xk p ||Xn ||p p > 1
kN
p1
p


Teorema 46 (Disuguaglianza di Doob). Sia (Mn )n1 una martingala tale che
supn1 E[|Mn |p ] (limitata in Lp ). Allora, posto:
(11.10)

M = sup |Mn |
n0

si ha che:
M Lp
||M ||p

p
sup ||Mn ||p p > 1.
p 1 n1

Dimostrazione. Si ha che |Mn | una sub-mg, dunque, per la disuguaglianza


della proposizione (prop. 93) si ha che:




sup |Mn | p ||Mn ||p
(11.11)


p1
n<N
p
e che:
(11.12)

lim sup |Mn | = M q.c.

N+ n<N

COMPLEMENTI DI PROBABILIT

83

dunque abbiamo che:



p


p


E[(M ) ] lim inf sup |Mn |
n+
p

(11.13)

n<N

e quindi:




p


||M ||p lim inf sup |Mn | lim inf
||MN ||p
N+
N+ p 1

(11.14)

n<N

p
p
inf sup
||MN ||p sup
||Mn ||p
k1 Nk p 1
n1 p 1


Teorema 47. Sia {xn }n1 R e siano a, b R tali che a < b e:


1 = inf{n|xn b}
2 = inf{n 1 |xn a}
..
.
2k1 = inf{n 2k2 |xn b}
2k = inf{n 2k1 |xn a}
..
.
sia ora DN (x, [a, b]) = max{n|2n < N}. Allora DN (x, [a, b]) non decrescente
in N dunque esiste: limN+ DN (x, [a, b]).
Inoltre, se lim infn+ xn < a e lim supn+ xn > b, si ha che:
(11.15)

lim DN (x, [a, b]) = +

n+

Infine, se (Xn )n1 una sub-mg, allora:


(11.16)

E[DN (X, [a, b])]

E[(Xn b)+ ]
ba

mentre, se (Xn )n1 una super-mg, allora:


(11.17)

E[DN (X, [a, b])]

E[(Xn a) ]
ba

11.1. Convergenza q.c. di Martingale.


Teorema 48. Sia (Xn )n1 una sub-mg e E[X+
n ] k < +. Allora Xn X
1
q.c. e X L .
Dimostrazione. Denotiamo X = lim infn+ Xn e X = lim supn+ Xn ,
supponiamo che: P({X < X }) > 0, allora:
[
(11.18)
{X < X } =
{X < a < b < X }
a,bQ a<b

84

FABIO DURASTANTE

Dunque a, b Q tale che:


P({X < a < b < X }) > 0

(11.19)
allora:
(11.20)

lim DN (X, [a, b]) = +

N+

ma:
(11.21)

lim DN (X, [a, b]) = D (X, [a, b])

N+

e:
E[D (X, [a, b])] = lim E[DN (X, [a, b])] k

(11.22)

N+

il che un assurdo.
Proviamo che X L1 , si ha che:
|Xn | = 2X+
n Xn

(11.23)
dunque:

+
E[|Xn |] =2E[X+
n ] E[Xn ] < 2E[Xn ] + E[X0 ]

(11.24)

2 sup E[X+
n ] + E[X0 ] M
n

per il Lemma di Fatou allora:


E[|X |] lim inf E[|Xn |] < +

(11.25)

n+


Teorema 49. Sia (Xn )n1 super-mg tale che supn E[X
n ] K allora Xn X
q.c. e X L1 .
11.2. Convergenza in Lp . Cominciamo dal caso p > 1.
Teorema 50. Sia (Mn )n1 mg, limitata in Lp allora Mn M quasi certamente ed in Lp .

p
Dimostrazione. (|Mn |)n sub-mg e E[M+
k dunque
n ] E[|Mn |] ||Mn ||p
per il teorema (thm 48) abbiamo che |Mn | M q.c.. Per dimostrare la
convergenza in Lp sfruttiamo il Lemma di Fatou, per cui abbiamo che:
E[|M |p ] lim inf E[|Mn |p ] k

(11.26)

n+

dunque M
(11.27)

Lp .

Inoltre abbiamo che:

|Mn M |p C(|Mn |p + |M |p ) C(sup |Mn |p + |M |p )


n

per la disuguaglianza di Doob (thm. 46) si ha che supn |Mn |p integrabile,


possiamo quindi applicare il teorema di convergenza dominata ed ottenere
la convergenza delle medie.


COMPLEMENTI DI PROBABILIT

85

Possiamo trattare a parte il caso p = 2 sfruttando le propriet dei compensatori:


Teorema 51. Sia (Mn )n1 mg, limitata in L2 allora Mn M quasi certamente ed in L2 .
Dimostrazione. Mostriamo che Mn di Cauchy in L2 , il che sufficiente a
dimostrare la convergenza:
(11.28)
E[|Mn+m Mn |2 ] =E[M2n+m ] 2E[E[Mn+m Mn |Fn ]] + E[M2n ] =
=E[M2n+m M2n ] = E[An+m An ]
sup E[An+m An ] = E[A] E[An ] 0 per n +
m

dove (An )n1 compensatore di (M2n ) che una sub-mg e A = limn An


che esiste, perch (An )n1 crescente e inoltre:
lim E[An ] = E[A] = E[ lim M2n Xn ] < +

(11.29)

n+


Indaghiamo ora la convergenza nel caso p = 1.
Teorema 52. Sia (Mn )n1 una martingala. Le seguenti condizioni sono equivalenti:
(1) (Mn )n1 uniformemente integrabile.
(2) Mn M quasi certamente ed in L1 .
(3) M L1 tale che Mn = E[M|Fn ].
Dimostrazione. Vediamo le implicazioni:
(1 2): Si ha che:
sup E[M+
n] M

(11.30)

dunque per il teorema di convergenza quasi certa (thm. 48) si ha


che Mn M q.c. ed in L1 . Inoltre Mn M in Lp ed essendo
uniformemente integrabile anche Mn M su L1 .
(2 3): Si ha che Mn M quasi certamente ed in L1 e si ha che:
E[Mn+m |Fn ] = Mn m 1

(11.31)
allora:
(11.32)

Mn = lim E[Mn+m |Fn ] = E[M|Fn ]


m

perch Mn+m M in L1 e dunque E[Mn+m |Fn ] E[M|Fn ] in L1


perch:
(11.33)

E [|E[Mn+m |Fn ] E[M|Fn ]|] E [E[|Mn+m M|Fn ]] =


=E[|Mn+m M|] 0 m

86

FABIO DURASTANTE

(3 1): Si ha che Mn = E[M|Fn ] con M L1 , possiamo avere quindi:


lim sup E[|Mn |1{|Mn |>} ] lim sup E[E[|M||Fn ]1{|Mn |>} ] =

= lim sup E[E[|M|1{|Mn |>} |Fn ]] =


+

= lim sup E[|M|1{|Mn |>} ] =


+ n
 

= lim sup E |M|1{|Mn |<} 1{|M|b} +
+ n


+E |M|1{|Mn |<} 1{|M|>b}


lim sup bP({|Mn | > }) + E[|M|1{|M|>b} ]
+ n


E[|M|]
lim b
+ E[|M|]1{|M|>b} = 0
+

dove giustifichiamo lultimo passaggio osservando che:


(11.34)

P({|Mn | > })

E[E[M|Fn ]]
E[|M|]
E[|Mn |]
=

Osservazione 52. Non lo dimostreremo, ma si ha inoltre che il limite della


martingala (Mn )n1 sar M = E[M|F ] che uguale ad M se e solo se M
F misurabile.
R IFERIMENTI BIBLIOGRAFICI
1. P. Billingsley, Probability and measure, Wiley Series in Probability and Statistics, Wiley,
2012.
2. D. Williams, Probability with martingales, Cambridge Mathematical Textbooks, Cambridge University Press, 1991.
URL: http://www.cirdan.it

S-ar putea să vă placă și