Sunteți pe pagina 1din 201

Curso intermedio de

PROBABILIDAD
Luis Rinc
on
Departamento de Matematicas
Facultad de Ciencias UNAM
Circuito Exterior de CU
04510 Mexico DF
Mayo 2005

El presente texto corresponde a la version electr


onica de mayo de 2005, si han
transcurrido m
as de tres meses desde entonces seguramente existir
a una version
corregida y aumentada disponible en http://www.matematicas.unam.mx/lars

Prefacio
El presente texto est
a dirigido a estudiantes de mitad de carrera de las
licenciaturas de matem
aticas, actuara y areas afines. Contiene el material
b
asico para un curso intermedio de probabilidad y tiene como origen las
notas de clase del curso semestral de Probabilidad II impartido por el autor
en la Facultad de Ciencias de la UNAM a lo largo de varios semestres.
El texto contiene una gran cantidad de ejercicios la mayora de los cuales
son de tipo mec
anico, algunos de ellos son muy sencillos y en otros se pide
reproducir lo realizado antes, de modo que el termino ejercicios me parece
justo y adecuado. La intenci
on es la de crear confianza y soltura por parte
del alumno en el manejo de los conceptos y notaci
on involucrados. El n
umero
de ejercicios excede lo que normalmente puede realizarse en un semestre y
el objetivo que siempre tuve en mente estos a
nos fue el tener un n
umero
suficiente de ellos para presentar algunos en clase, dejar otros para trabajo
en casa y asignar algunos otros para preguntas de examen, usando material
ligeramente distinto cada semestre para evitar repeticiones. Los ejercicios
se encuentran regularmente al final de cada secci
on y se han numerado de
manera consecutiva a lo largo del curso.
Al final del texto aparece una lista de referencias que me permito sugerir al
lector consultar para profundizar y a veces precisar en algunos temas. Algunos de estos textos no han sido referenciados explcitamente pero aparecen
en la lista por que en alg
un momento he obtenido inspiraci
on de ellos.
Me disculpo de antemano por cualquier error u omisi
on y agradezco sinceramente cualquier correcci
on o comentario en el correo electr
onico que aparece
abajo.
Luis Rinc
on
Mayo 2005
Ciudad Universitaria UNAM
lars@fciencias.unam.mx

Contenido
1. Espacios de probabilidad
1.1. Espacios de probabilidad . . . . .
1.2. -
algebras . . . . . . . . . . . . .
1.2.1. Conjuntos de Borel . . . .
1.2.2. Sucesiones de eventos . .
1.3. Medidas de probabilidad . . . . .
1.3.1. Propiedades elementales .
1.3.2. Continuidad . . . . . . . .
1.3.3. Independencia de eventos
1.3.4. Lema de Borel-Cantelli .

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

4
4
5
11
14
20
23
28
32
34

2. Variables aleatorias
2.1. Variables aleatorias . . . . . .
2.2. Funci
on de distribuci
on . . .
2.3. Tipos de variables aleatorias .
2.4. Integral de Riemann-Stieltjes
2.5. Caractersticas numericas . .
2.5.1. Esperanza . . . . . . .
2.5.2. Varianza . . . . . . . .
2.5.3. Momentos . . . . . . .
2.6. Distribuciones discretas . . .
2.7. Distribuciones continuas . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

36
36
44
50
53
55
55
59
61
63
70

3. Vectores aleatorios
3.1. Vectores aleatorios . . . . . . . . . . . . . . . . .
3.2. Distribuci
on conjunta . . . . . . . . . . . . . . .
3.3. Densidad conjunta . . . . . . . . . . . . . . . . .
3.4. Distribuci
on marginal . . . . . . . . . . . . . . .
3.5. Distribuci
on condicional . . . . . . . . . . . . . .
3.6. Independencia de variables aleatorias . . . . . . .
3.7. Esperanza condicional . . . . . . . . . . . . . . .
3.8. Varianza condicional . . . . . . . . . . . . . . . .
3.9. Esperanza de una funci
on de un vector aleatorio
3.10. Covarianza . . . . . . . . . . . . . . . . . . . . .
3.11. Coeficiente de correlaci
on . . . . . . . . . . . . .
3.12. Esperanza y varianza de un vector aleatorio . . .
3.13. Distribuciones multivariadas discretas . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

80
80
81
84
87
88
91
95
98
99
102
105
110
111

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

3.14. Distribuciones multivariadas continuas . . . . . . . . . . . . . 112


4. Transformaciones
4.1. Transformaci
on de una variable aleatoria . . .
4.2. Transformaci
on de un vector aleatorio . . . .
4.2.1. Distribuci
on de la suma (convoluci
on)
4.2.2. Distribuci
on de la resta . . . . . . . .
4.2.3. Distribuci
on del producto . . . . . . .
4.2.4. Distribuci
on del cociente . . . . . . . .
5. Distribuciones muestrales y estadsticas
5.1. Distribuciones muestrales . . . . . . . .
5.2. Estadsticas de orden . . . . . . . . . . .
5.2.1. Distribuciones individuales . . .
5.2.2. Distribuci
on conjunta . . . . . .

de
. .
. .
. .
. .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

114
114
116
118
122
124
126

orden
. . . .
. . . .
. . . .
. . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

130
131
140
141
145

.
.
.
.
.
.
.
.

150
. 150
. 151
. 152
. 153
. 154
. 154
. 156
. 160

.
.
.
.
.
.

.
.
.
.
.
.

6. Convergencia
6.1. Convergencia puntual . . . . . . . . . . . . . . . .
6.2. Convergencia casi segura . . . . . . . . . . . . . . .
6.3. Convergencia en probabilidad . . . . . . . . . . . .
6.4. Convergencia en media . . . . . . . . . . . . . . . .
6.5. Convergencia en media cuadr
atica . . . . . . . . .
6.6. Convergencia en distribuci
on . . . . . . . . . . . .
6.7. Relaciones generales entre los tipos de convergencia
6.8. Dos resultados importantes de convergencia . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

7. Funciones generadoras
162
7.1. Funci
on generadora de probabilidad . . . . . . . . . . . . . . 162
7.2. Funci
on generadora de momentos . . . . . . . . . . . . . . . . 166
7.3. Funci
on caracterstica . . . . . . . . . . . . . . . . . . . . . . 171
8. Teoremas lmite
178
8.1. Desigualdades de Markov y de Chebyshev . . . . . . . . . . . 178
8.2. Ley de los grandes n
umeros . . . . . . . . . . . . . . . . . . . 183
8.3. Teorema del lmite central . . . . . . . . . . . . . . . . . . . . 185
A. Distribuciones de probabilidad

188

B. Formulario

193

C. Tabla de la distribuci
on normal est
andar

196

Captulo 1

Espacios de probabilidad
La teora de la probabilidad es la parte de las matem
aticas que se encarga
del estudio de los fen
omenos o experimentos aleatorios. Se entiende por
experimento aleatorio todo aquel experimento tal que cuando se le repite
bajo las mismas condiciones iniciales, el resultado que se obtiene no siempre
es el mismo. A menudo y por muy diversas razones es necesario aceptar
que no es posible predecir el resultado de un experimento particular y en
consecuencia se considera aleatorio. Bajo estas circunstancias, la teora de
la probabilidad tiene el objetivo de modelar matem
aticamente cualquier
experimento aleatorio de interes.

1.1.

Espacios de probabilidad

El modelo matem
atico creado durante el primer tercio del siglo XX para estudiar los experimentos aleatorios es el as llamado espacio de probabilidad.
Este modelo consiste de una terna ordenada, denotada usualmente por
(, F, P ),
en donde es un conjunto arbitrario, F es una -
algebra de subconjuntos
de y P es una medida de probabilidad definida sobre F. Explicamos a
continuaci
on brevemente cada uno de estos elementos.
Espacio muestral. El conjunto es llamado espacio muestral o espacio muestra y tiene como objetivo agrupar a todos los posibles resultados del experimento aleatorio en cuesti
on. No es imprescindible darle esta interpretaci
on
al conjunto y matem
aticamente se le considera entonces un conjunto arbitrario.
-
algebras. Una clase o colecci
on no vaca F de subconjuntos de es una algebra si es cerrada bajo las operaciones de tomar complementos y uniones
numerables. A los elementos de una -
algebra se les llama eventos o conjuntos medibles. En particular, un evento es simple si consta de a lo m
as
4

un elemento de y es compuesto cuando consta de dos o m


as elementos
de .
Medidas de probabilidad. Una funci
on P definida sobre una -
algebra F y con
valores en [0, 1] es una medida de probabilidad si P () = 1 y es -aditiva,
es decir,

[
X
P(
An ) =
P (An ).
n=1

n=1

cuando A1 , A2 , . . . F son ajenos dos a dos. El n


umero P (A) representa
una forma de medir la posibilidadde observar la ocurrencia del evento A
al efectuar una vez el experimento aleatorio. Tenemos entonces formalmente
la siguiente definici
on.

Definici
on 1 Un espacio de probabilidad es una terna (, F, P ) en donde
es un conjunto arbitrario, F es una -
algebra de subconjuntos de y
P : F [0, 1] es una medida de probabilidad.

En este primer captulo se estudian con m


as detalle los conceptos de algebra y medida de probabilidad.

1.2.

-
algebras

En esta secci
on se estudia el concepto de -
algebra y se define la mnima
-
algebra generada por una colecci
on arbitraria. Recordemos nuevamente la
definici
on de esta estructura.

Definici
on 2 Una colecci
on F de subconjuntos de es una -
algebra si
cumple las siguientes condiciones.
1. F.
2. Si A F entonces Ac F.
3. Si A1 , A2 , . . . F entonces

n=1

An F.

A la pareja (, F) se le llama espacio medible y a los elementos de F se


les llama eventos o conjuntos medibles.

En palabras, una -
algebra es una colecci
on de subconjuntos de que es
no vaca y cerrada bajo las operaciones de tomar complemento y efectu5

ar uniones infinitas numerables. De esta forma al conjunto se le puede


asociar una colecci
on F de subconjuntos de s mismo. En general existen
varias -
algebras que pueden asociarse a un conjunto como se muestra a
continuaci
on.
Ejemplo 1 Sea un conjunto cualquiera. Los siguientes son ejemplos sencillos de -
algebras de subconjuntos de .
1. F1 = {, }.
2. F2 = {, A, Ac , }, en donde A .
3. F3 = 2 (conjunto potencia).
Es f
acil ver que las tres condiciones de la definici
on de -
algebra se cumplen
para cada caso en el ejemplo anterior. La -
algebra del inciso (1) es la algebra m
as peque
na que podemos asociar a un conjunto cualquiera , y
la -
algebra del inciso (3) es la m
as grande. En la Figura 1.1 puede observarse gr
aficamente una -
algebra como una colecci
on de subconjuntos de .
Veamos otro ejemplo.
Ejemplo 2 Sean A y B subconjuntos de tales que A B. Entonces la
colecci
on
F = {, A, B, Ac , B c , B A, (B A)c , }
es una -
algebra de subconjuntos de que contiene explcitamente a los
conjuntos A y B. Esto puede verificarse directamente con la ayuda de un
diagrama de Venn.

Figura 1.1: Una -algebra F = {A, B, C, D, E, . . .} es una coleccion no vaca de subconjuntos de que es cerrada bajo complementos y uniones numerables.
En la secci
on de ejercicios se pueden encontrar algunos otros ejemplos de
-
algebras. El uso de la letra F para denotar una -
algebra proviene del
nombre en ingles field que significa campo. En algunos textos se usa
6

tambien la letra A, proveniente de la palabra


algebra, para denotar una
-
algebra tambien llamada -campo. Observe el uso y significado de los
smbolos de contenci
on y pertenencia: A y A F.
Se demuestran a continuaci
on algunas otras propiedades que satisface cualquier
-
algebra.
Proposici
on 1 Sea F una -
algebra de subconjuntos de . Entonces
1. F.
2. Si A1 , A2 , . . . F entonces

i=1

Ai F.

3. Si A, B F entonces A B F.
4. Si A, B F entonces AB F.
Demostraci
on. (1) Como F y F es una colecci
on cerrada bajo complec = F. (2) Si A , A , . . . F entonces Ac , Ac , . . . F.
mentos entonces

1
2
1
2
S
c
Por lo tanto
n=1 An F. Tomando complementos y usando las leyes de
De Morgan se obtiene
!c

\
[
c
An F.
An =
n=1

n=1

(3) Como A B = A B c , de lo anterior se concluye que A B F. (4) Se


escribe AB = (A B) (B A). Esto demuestra que AB F cuando
A, B F.

La proposici
on anterior establece entonces que las -
algebras son estructuras
tambien cerradas bajo las operaciones de diferencia e intersecciones numerables. En la secci
on de ejercicios pueden encontrarse algunas otras definiciones de -
algebra equivalentes a la que hemos enunciado y que involucran
las operaciones de la proposici
on anterior. Una operaci
on de particular importancia es aquella en la que se intersectan dos -
algebras produciendo una
nueva -
algebra. Este es el contenido del siguiente resultado.
Proposici
on 2 La intersecci
on de dos -
algebras es una -
algebra.
Demostraci
on. Sean F1 y F2 dos -
algebras de subconjuntos de . Entonces
F1 F2 es aquella colecci
on de subconjuntos de cuyos elementos pertenecen
tanto a F1 como a F2 . Demostraremos que F1 F2 es una -
algebra. (1)
Como F1 y F2 son -
algebras entonces F1 y F2 . Por lo tanto
F1 F2 . (2) Sea A un elemento en F1 F2 . Entonces A F1 y
A F2 . Por lo tanto Ac F1 y Ac F2 , es decir, Ac F1 F2 . (3) Sea
A1 , A2 , . . . una sucesi
on de elementos en F1 F2 . Entonces A1 , A2 , . . . F1
7

y A1 , A2 , . . . F2 . Por lo tanto
S

n=1 An F1 F2 .

n=1 An

F1 y

n=1 An

F2 , es decir,


En general no es cierto que la uni


on de dos -
algebras produce una nueva
-
algebra. Vease por ejemplo el Ejercicio 13 en la p
agina 10. Por otro lado
se puede extender la validez de la proposici
on recien demostrada a intersecciones m
as generales como indica el siguiente resultado.
Proposici
on 3 La intersecci
on finita, infinita numerable o bien arbitraria
de -
algebras es nuevamente una -
algebra.
Demostraci
on. Sea T un conjunto arbitrario. Suponga que
T para cada t en T
se tiene una -
algebra Ft de subconjuntos de . Sea F = tT Ft . Siguiendo
los mismos pasos que en la demostraci
on anterior es f
acil probar que F es
una -
algebra. Observe que como T es un conjunto arbitrario, la -
algebra
F es efectivamente una intersecci
on arbitraria de -
algebras.

El resultado anterior garantiza que la siguiente definici
on tiene sentido.

Definici
on 3 Sea C una colecci
on no vaca de subconjuntos de . La a
lgebra generada por C, denotada por (C), es la colecci
on
\
(C) = {F : F es -
algebra y C F}.
Por la proposici
on anterior sabemos que (C) es una -
algebra pues es la
intersecci
on de todas aquellas -
algebras que contienen a C. Tambien se le
llama mnima -
algebra generada por C y el adjetivo mnima es claro
a partir del hecho de que (C) es la -
algebra m
as peque
na que contiene
a la colecci
on C. Es decir, si F es una -
algebra que contiene a C entonces
forzosamente (C) F. Observe que C (C) pues a la colecci
on C se le
han a
nadido posiblemente algunos otros subconjuntos para convertirla en la
-
algebra (C).
Ejemplo 3 Sean A, B con A B = . Defina la colecci
on C = {A, B}.
En general esta colecci
on no es una -
algebra pero podemos a
nadirle algunos
subconjuntos de para encontrar la -
algebra generada por C. Esto es
(C) = {, A, B, (A B)c , A B, Ac , B c , }.

No es difcil verificar que esta es la mnima -


algebra que contiene a la
colecci
on C.
Los siguientes dos resultados son proposiciones sencillas y naturales acerca de -
algebras generadas. Las demostraciones son cortas pero requieren
algunos momentos de pensamiento en una primera lectura.
8

Proposici
on 4 Sean C1 y C2 dos colecciones de subconjuntos de tales que
C1 C2 . Entonces (C1 ) (C2 ).
Demostraci
on. Claramente C1 C2 (C2 ). Entonces (C2 ) es una -
algebra que contiene a la colecci
on C1 . Por lo tanto (C1 ) (C2 ).

Proposici
on 5 Si F es una -
algebra entonces (F) = F.
Demostraci
on. Sabemos que F (F). Como F es una -
algebra que contiene a F entonces (F) F. Esto demuestra la igualdad.

En la siguiente secci
on se estudia un ejemplo importante de una -
algebra
de subconjuntos de los n
umeros reales: la -
algebra de Borel.

EJERCICIOS
1. Defina con precisi
on y de manera completa los siguientes conceptos:
-
algebra, espacio medible, evento, evento simple y evento compuesto.
2. Definici
on alternativa de -
algebra. Demuestre que F es una -
algebra
de subconjuntos de si y solo si
a) F.

b) A F Ac F.
c) A1 , A2 , . . . F

n=1

An F.

3. Definici
on alternativa de -
algebra. Demuestre que F es una -
algebra
de subconjuntos de si y solo si
a) F.

b) A, B F A B F.

\
c) A1 , A2 , . . . F
An F.
n=1

4. Sean A1 , A2 , . . . , An eventos de un espacio muestral . Demuestre que


el conjunto de elementos de que pertenecen a exactamente k de estos
eventos es un evento, 1 k n.
5. Sea F una -
algebra de subconjuntos de . Demuestre que la colecci
on
F c = {F c : F F}
es una -
algebra. Compruebe adem
as que F c = F.

6. Sea (, F, P ) un espacio de probabilidad. Defina la colecci


on
G = {F F : P (F ) = 0 o P (F ) = 1}.
Demuestre que G es una sub -
algebra de F.
7. Sea = {a, b, c, d} y sean A = {a, b} y B = {b, c}. Defina la colecci
on
C = {A, B}. Claramente C no es una -
algebra. Encuentre (C).
8. Sea F una -
algebra de subconjuntos de y sea A un elemento de F.
Demuestre que la siguiente colecci
on es una -
algebra de subconjuntos
de A,
FA = A F = {A F : F F}.
9. Sea un conjunto no numerable. Demuestre que la siguiente colecci
on
es una -
algebra,
F = {A : A o Ac es finito o numerable}.
10. Sea X : 1 2 una funci
on en donde (2 , F2 ) es un espacio medible.
Demuestre que la siguiente colecci
on es una -
algebra de subconjuntos
de 1 ,
X 1 F2 = {X 1 F : F F2 }.
11. Sean F1 y F2 dos -
algebras de subconjuntos de . Demuestre que
F1 F2 es una -
algebra de subconjuntos de .
12. Sea {Fn : n N} una sucesi
on de -
algebras
Tde subconjuntos de un
mismo espacio muestral . Demuestre que n=1 Fn es una -
algebra.
13. Sean F1 y F2 dos -
algebras de subconjuntos de . Demuestre que F1
F2 no necesariamente es una -
algebra. Sugerencia: Considere el espacio = {1, 2, 3} y F1 = {, {1}, {2, 3}, } y F2 = {, {1, 2}, {3}, }.
14. Sean F1 y F2 dos -
algebras de subconjuntos de tales que F1 F2 .
Demuestre que F1 F2 es una -
algebra.
15. Sea J un conjunto arbitrario de ndices. Suponga que para cada j en
J
algebra Fj de subconjuntos de . Demuestre que
T se tiene una -
F
es
una
-
a
lgebra.
jJ j
16. Sea F una -
algebra. Demuestre que (F) = F.

17. Sea C una colecci


on de subconjuntos de . Demuestre que ((C)) =
(C).
18. Sean C1 y C2 dos colecciones de subconjuntos de tales que C1 C2 .
Demuestre que (C1 ) (C2 ).
19. Sean A, B arbitrarios. Demuestre que la cardinalidad de {A, B}
es a lo sumo 16.

10

20. Sean A, B arbitrarios. Encuentre explcitamente todos los elementos de {A, B}. Por el ejercicio anterior, el total de elementos en
{A, B} en el caso m
as general es 16.
21. Sea {A1 , . . . , An } una partici
on finita de . Demuestre que la cardinalidad de {A1 , . . . , An } es 2n .
22. Sea {A, B, C} una partici
on de . Encuentre explcitamente los ocho
elementos de {A, B, C}.
23. Sea C una colecci
on de subconjuntos de . Diga falso o verdadero
justificando en cada caso: C (C) 2 .
24. Demuestre que 2 es una -
algebra de subconjuntos de y que no
existe una -
algebra de subconjuntos de que sea m
as grande.
25. Sea F una -
algebra de un espacio muestral finito. Demuestre que F
contiene un n
umero par de elementos.
26. Sea un conjunto, F una -
algebra de subconjuntos de y A un
evento. Determine cu
al de las dos expresiones siguientes es notacionalmente correcta. Explique su respuesta.
a)
b)
c)
d)

1.2.1.

F
A
F
AF

o
o

F.
A .
F.
A F.

Conjuntos de Borel

Considere la colecci
on de todos los intervalos abiertos (a, b) de R en donde
a b. A la mnima -
algebra generada por esta colecci
on se le llama algebra de Borel de R y se le denota por B(R).
Definici
on 4

B(R) = {(a, b) R : a b}

A los elementos de B(R) se les llama conjuntos de Borel , Borelianos


o conjuntos Borel medibles. De esta forma se puede asociar la -
algebra B(R) al conjunto de n
umeros reales y obtener as el espacio medible
(R, B(R)). Mediante algunos ejemplos se muestran a continuaci
on algunos
elementos de la -
algebra B(R).
Proposici
on 6 Para cualesquiera n
umeros reales a b, los subconjuntos
[a, b], (a, ), (, b), [a, b), (a, b], {a}
son todos elementos de B(R).
11

Demostraci
on. Primeramente observe que los intervalos cerrados [a, b] son
conjuntos Borelianos pues podemos escribirlos en terminos de una intersecci
on numerable de intervalos abiertos de la siguiente forma

[a, b] =

n=1

1
1
, b + ).
n
n

(a

Observe que cada elemento de la intersecci


on anterior es un conjunto Boreliano. Siendo B(R) una -
algebra, la intersecci
on infinita es un elemento
de B(R). De esta forma se concluye que cada intervalo cerrado [a, b] es un
elemento de B(R). Asi mismo tenemos que
(a, ) =
y

(, b) =

n=1

n=1

(a, a + n) B(R),
(b n, b) B(R).

Por lo tanto
[a, ) =
y

(, b] =

n=1

(a

1
, ) B(R),
n

(, b +

n=1

1
) B(R).
n

De forma an
aloga se puede hacer ver que los intervalos semiabiertos de la
forma [a, b) y (a, b] son conjuntos Borelianos. Los conjuntos que constan de
un solo n
umero tambien son conjuntos Borelianos pues
{a} =

n=1

(a

1
1
, a + ).
n
n


Complementos, intersecciones y uniones numerables de estos conjuntos son


todos ellos Borelianos. Observe que la -
algebra B(R) es muy amplia y
es natural preguntarse acerca de la existencia de alg
un subconjunto de R
que no sea un conjunto Boreliano. La respuesta es afirmativa aunque no la
demostraremos. Efectivamente, existe un subconjunto de R que no pertenece
a B(R).
Adem
as de la definici
on enunciada, existen otras formas equivalentes de
generar a los conjuntos Borelianos. Este es el contenido del siguiente resultado.
Proposici
on 7 Las siguientes -
algebras son todas identicas a B(R).
12

1. {[a, b] : a b}.
2. {(a, b] : a b}.
3. {[a, b) : a b}.
4. {(a, ) : a R}.
5. {(, b) : b R}.
Demostraci
on. Se prueba u
nicamente el inciso (1). El resto de los incisos
se demuestra usando el mismo procedimiento. Para demostrar que B(R) =
{[a, b] : a b} se verifican ambas contenciones. Claramente [a, b] B(R),
por lo tanto {[a, b] : a b} B(R). Entonces
{[a, b] : a b} (B(R)) = B(R).
Ahora se demuestra S
la contenci
on contraria. Sabemos que (a, b) {[a, b] :
1
1
a b} pues (a, b) =
[a
+
n=1
n , b n ]. Entonces
{(a, b) : a b} {[a, b] : a b}.

Por lo tanto
B(R) = {(a, b) : a b} {[a, b] : a b}.

De manera equivalente se puede definir a B(R) como la mnima -
algebra
generada por una colecci
on m
as grande, aquella de todos los subconjuntos
abiertos de R. En ambos casos la -
algebra generada es B(R). Es posible
considerar tambien la -
algebra de conjuntos de Borel restringidos a una
porci
on de los n
umeros reales como se indica a continuaci
on.
Definici
on 5 Sea A B(R). La -
algebra de Borel de A, denotada por
B(A), se define como sigue
B(A) = A B(R) = {A B : B B(R)}.
No es difcil comprobar que B(A) es efectivamente una -
algebra de subconjuntos de A. Observe que el nuevo conjunto total es A y no R. El concepto
de -
algebra de Borel de R puede extenderse a dimensiones mayores de la
siguiente forma. Considere la colecci
on C de todas los rect
angulos abiertos
2
de R , es decir,
C = {(a, b) (c, d) : a b, c d}.

Se definen los conjuntos de Borel de R2 como los elementos de la mnima


-
algebra generada por la colecci
on C, es decir, B(R2 ) = (C). De manera
equivalente se puede definir B(R2 ) = (B(R) B(R)). En forma an
aloga se
define B(Rn ) usando productos cartesianos de intervalos, o equivalentemente
B(Rn ) = (B(R) B(R)).
13

EJERCICIOS
27. Defina con precisi
on a la -
algebra de Borel de R y de Rn .
28. Demuestre que los conjuntos (a, b] y [a, b) con a b son Borel medibles.
29. Demuestre que N, Z y Q son elementos de B(R).
30. Demuestre que el conjunto de n
umeros irracionales es un conjunto de
Borel de R.
31. Demuestre que B(R) = {[a, b] : a b}.
32. Demuestre que B(R) = {(a, b] : a b}.
33. Demuestre que B(R) = {[a, b) : a b}.
34. Demuestre que B(R) = {(a, ) : a R}.
35. Demuestre que B(R) = {[a, ) : a R}.
36. Demuestre que B(R) = {(, b) : b R}.
37. Demuestre que B(R) = {(, b] : b R}.
38. Sea A B(R). Demuestre que B(A) es efectivamente una -
algebra de
subconjuntos de A.
39. Diga falso o verdadero. Justifique su respuesta.
1
, n1 ] : n N } = B(0, 1].
a) { ( n+1

b) { (0, n1 ] : n N } = B(0, 1].

1
, n1 ] : n N } = { (0, n1 ] : n N }.
c) { ( n+1

40. Demuestre que B(R2 ) = {[a, b] [c, d] : a b, c d}.


41. Demuestre que el producto cartesiano de dos -
algebras no es necesariamente -
algebra. Esto es, suponga que (1 , F1 ) y (2 , F2 ) son
dos espacios medibles. Mediante un ejemplo muestre que F1 F2 no
necesariamente es una -
algebra de subconjuntos del espacio producto 1 2 . Sin embargo se define la -
algebra producto de la forma
siguiente, F1 F2 = (F1 F2 ).

1.2.2.

Sucesiones de eventos

En esta secci
on se estudia el concepto de convergencia de una sucesi
on infinita de eventos. Para enunciar tal concepto necesitaremos antes la definiciones
de lmite superior y lmite inferior que se establecen a continuaci
on.

14

Definici
on 6 Para una sucesi
on de eventos {An : n N} se define el lmite
superior y el lmite inferior como sigue
1. lm sup An =
n

2. lm inf An =
n

[
\

Ak .

n=1 k=n

\
[

Ak .

n=1 k=n

Tanto el lmite superior como el lmite inferior son operaciones bien definidas,
es decir, el resultado siempre existe y es u
nico. En cada caso el conjunto
resultante es siempre un evento, es decir, un conjunto medible. Es sencillo
comprobar que
lm inf An lm sup An .
n

Tampoco es difcil verificar que un elemento pertenece al evento lm sup An


n

si y solo si pertenece a una infinidad1 de elementos de la sucesi


on. Por
otro lado un elemento pertenece al evento lm inf An si y solo si pertenece
n
a todos los elementos de la sucesi
on excepto un n
umero finito de ellos. Con
estos antecedentes podemos ahora establecer la definici
on de convergencia
de una sucesi
on infinita de eventos.

Definici
on 7 (Convergencia de eventos) Sea {An : n N} una sucesi
on de eventos. Si existe un evento A tal que
lm inf An = lm sup An = A
n

entonces se dice que la sucesi


on converge al evento A y se escribe
lm An = A.

Para calcular el posible lmite de una sucesi


on de eventos debemos entonces
calcular el lmite superior y el lmite inferior y cuando el resultado de ambas
operaciones coincida en el mismo evento entonces a tal resultado com
un se
le llama el lmite de la sucesi
on. Por supuesto que no todas las sucesiones de
eventos convergen. Mostramos a continuaci
on que en particular toda sucesi
on mon
otona es convergente. M
as adelante presentaremos algunos ejemplos
concretos de sucesiones de eventos y en la secci
on de ejercicios se encuentran
algunos otros.
1

En textos de habla inglesa a menudo se escribe lm sup An = (An i.o.), en donde i.o.
n

significa infinitely often.

15

Proposici
on 8 Sea {An : n N} una sucesi
on mon
otona de eventos.
1. Si A1 A2 entonces lm An =
n

2. Si A1 A2 entonces lm An =
n

An .

An .

n=1

n=1

Demostraci
on. (1) Como la sucesi
on es creciente,

Ak =

Ak .

k=1

k=n

Por lo tanto

[
\

lm sup An =
n

=
=

n=1 k=n

[
\

Ak
Ak

n=1 k=1

Ak .

k=1

Por otro lado

Ak = An . Entonces

k=n

lm inf An =
n

\
[

Ak

n=1 k=n

An .

n=1

(2) La demostraci
on es completamente an
aloga al inciso anterior. En este
caso como la sucesi
on de eventos es decreciente se tiene que

k=n

Ak =

Ak

k=1

Ak = An .

k=n

Ejemplo 4 Para cada n


umero natural n sea An = [1/n, 0] si n es impar
y An = [0, 1/n] si n es par. Entonces
lm sup An =
n

[
\

Ak =

n=1

n=1 k=n

16

[1/n, 1/n] = {0}.

lm inf An =
n

\
[

Ak =

n=1

n=1 k=n

{0} = {0}.

Por lo tanto lm An = {0}.


n

El siguiente resultado establece que a partir de una sucesi


on de eventos
puede construirse otra sucesi
on cuyos elementos son ajenos dos a dos y cuya
uni
on es la uni
on de la sucesi
on original. Este procedimiento de separaci
on
ser
a de utilidad m
as adelante.
Proposici
on 9 Sea {An : n N} una sucesi
on de eventos. Sea B1 = A1 y
para n 2 defina
n1
[
Ak .
Bn = An
k=1

Entonces {Bn : n N} es una sucesi


on de eventos con las siguientes
propiedades.
1. Bn An .
2. Bn Bm = si n 6= m.
3.

n=1

Bn =

An .

n=1

Demostraci
on. El inciso (1) es evidente a partir de la definici
on de Bn . Para
demostrar (2) suponga n < m, entonces
Bn Bm = (An
= (An
= .

n1
[

k=1
n1
\
k=1

Ak ) (Am
Ack ) (Am

m1
[

k=1
m1
\

Ak )

Ack )

k=1

Ahora se demuestra (3) considerando cada contenci


on por separado.
S
() Sea x en
ndice n tal que xS Bn An .
n=1 Bn . Entonces existe un
Por lo tanto x pertenece a An y entonces x pertenece a
n=1 An .
S
() Sea ahora x un elemento en n=1 An . Entonces existe un ndice n tal
/ An para
que x An . Sea n0 el primer ndice S
tal que x An0 y x
n0 1

1 n n0
1.
Entonces
x

A
.
Por
lo tanto x
A
=
B
n
n
n
0
0
n=1
S
B
.
pertenece a
n=1 n

17

EJERCICIOS
42. Sea {An : n N} una sucesi
on de eventos. Demuestre que
a) lm sup An es un evento.
n

b) lm inf An es un evento.
n

c) lm inf An lm sup An .
n

43. Demuestre que


a) lm sup An = { : An para una infinidad de valores de n}.
n

b) lm inf An = { : An para toda n excepto un n


umero finito de ellas}.
n

44. Suponga An Bn para cada n en N. Demuestre que


a) lm sup An lm sup Bn .
n

b) lm inf An lm inf Bn .
n

45. Demuestre que si A1 A2 entonces


lm An =

An .

n=1

46. Demuestre que si A1 A2 entonces


lm An =

An .

n=1

47. Sea {An : n N} una sucesi


on de eventos. Demuestre que
a) ( lm inf An )c = lm sup Acn .
n

b) ( lm sup An ) = lm inf Acn .


n

c) P ( lm inf An ) = 1 P ( lm sup Acn ).


n

d ) P ( lm sup An ) = 1 P ( lm inf Acn ).


n

48. Sea {An : n N} una sucesi


on de eventos. Demuestre que
a) lm An = A lm Acn = Ac .
n

b) lm An = A lm 1An = 1A .
n

49. Sea {an : n N} una sucesi


on de n
umeros no negativos convergente a
a 0. Sea An = [0, an ]. Calcule lm inf An y lm sup An .
n

50. Calcule el lmite superior e inferior para cada una de las siguientes
sucesiones de eventos. Determine en cada caso si la sucesi
on es convergente.
18

1
a) An = ( , 2 + (1)n ).
n
b) An = {(x, y) : x2 + y 2 (1 + n1 )n }.
n
c) An = {(x, y) : x2 + y 2 2 + sin( )}.
2
51. Demuestre que las siguientes sucesiones de eventos no son convergentes.
a) An = si n es impar y An = si n es par.
1
b) An = (0, 1 + ( )n ).
2
52. Suponga que lm An = A y lm Bn = B. Defina la sucesi
on
n

Cn =

An si n es impar,
Bn si n es par.

Calcule el lmite superior e inferior de Cn y determine si la sucesi


on es
convergente.
53. Calcule el lmite superior e inferior para cada una de las siguientes
sucesiones de eventos. Determine en cada caso si la sucesi
on es convergente.

A
si n es impar,
a) Sea A un evento. Defina An =
Ac si n es par.

A si n es impar,
b) Sean A y B dos eventos. Defina An =
B si n es par.
54. Suponga que lm An = A. Demuestre que para cualquier evento B,
n

a) lm (An B) = A B.
n

b) lm (An B) = A B.
n

c) lm (An B) = A B.
n

d ) lm (An B) = AB.
n

55. Suponga que lm An = A y lm Bn = B. Demuestre que


n

a) lm lm (An Bm ) = A B.
n m

b) lm lm (An Bm ) = A B.
n m

c) lm lm (An Bm ) = A B.
n m

d ) lm lm (An Bm ) = AB.
n m

56. Suponga que lm An = A y lm Bn = B. Diga falso o verdadero.


n
n
Demuestre en cada caso.
a) lm (An Bn ) = A B.
n

19

b) lm (An Bn ) = A B.
n

c) lm (An Bn ) = A B.
n

d ) lm (An Bn ) = AB.
n

1.3.

Medidas de probabilidad

En esta secci
on y en lo que resta del presente captulo se estudian algunas propiedades de las medidas de probabilidad. Empecemos por recordar
nuevamente la definici
on de este concepto.

Definici
on 8 Sea (, F) un espacio medible. Una medida de probabilidad
es una funci
on P : F [0, 1] que satisface (Kolmogorov, 1933)
1. P () = 1.
2. P (A) 0, para cualquier A F.
3. Si A1 , A2 , . . . F son ajenos dos a dos, esto es, An Am = para

X
[
P (An ).
An ) =
n 6= m, entonces P (
n=1

n=1

Entonces toda funci


on P definida sobre una -
algebra F, con valores en
el intervalo [0, 1] y que cumple los tres postulados anteriores se le llama
medida de probabilidad. La tercera propiedad se conoce con el nombre
de -aditividad. Se presentan a continuaci
on tres ejemplos de medidas de
probabilidad.
Ejemplo 5 Considere un experimento aleatorio con espacio muestral un
conjunto finito . Asocie al conjunto la -
algebra el conjunto potencia
2 . Para cualquier A defina
P (A) =

#A
.
#

Entonces P es una medida de probabilidad y es llamada probabilidad cl


asica.
De acuerdo a esta definici
on, para calcular la probabilidad de un evento es
necesario entonces conocer su cardinalidad. En esta forma de calcular probabilidades surgen muchos y muy variados problemas de conteo, algunos de
los cuales no son inmediatos de resolver.
Ejemplo 6 Considere un experimento aleatorio con espacio muestral el
conjunto de n
umeros naturales N. Asocie al conjunto N la -
algebra el con20

junto potencia 2N . Para cualquier A N defina


P (A) =

X 1
.
2n

nA

No es difcil verificar que P es efectivamente una medida de probabilidad.


Ejemplo 7 Considere el espacio medible (R, B(R)). Sea f : R R una
funci
on no negativa e integrable cuya integral sobre el intervalo (, ) es
uno. Para cualquier A en B(R) defina
Z
f (x) dx.
P (A) =
A

Las propiedades de la integral permiten demostrar que P es una medida de


probabilidad.
En la siguiente secci
on estudiaremos algunas propiedades generales que cumple
toda medida de probabilidad. Y a lo largo del texto estudiaremos varios
modelos particulares para calcular probabilidades.

Figura 1.2: Andrey Nikolaevich Kolmogorov (Rusia 19031987).

EJERCICIOS
57. Escriba de manera completa la definici
on de espacio de probabilidad,
definiendo claramente cada uno de sus componentes.
58. Determine completamente un espacio de probabilidad (, F, P ) para
el experimento aleatorio de
a) lanzar una moneda equilibrada.
b) lanzar un dado equilibrado.
21

c) escoger al azar un n
umero real dentro del intervalo unitario [0, 1].
d ) extraer dos bolas de una urna en donde hay dos bolas blancas y
dos negras.
e) lanzar una moneda honesta hasta obtener las dos caras.
59. Defina con precisi
on el concepto de medida de probabilidad.
60. Sea {xn : n N} una sucesi
on de n
umeros reales. SeaP
{an : n N}
otra sucesi
on de n
umeros reales no negativos tal que
n=1 an = 1.
Defina la funci
on P : B(R) [0, 1] de la siguiente forma
P (A) =

n=1

an 1(xn A) (n).

Demuestre que P es una medida de probabilidad.


61. Sean P y Q medidas de probabilidad definidas sobre una misma algebra. Demuestre que P + (1 )Q es una medida de probabilidad

para cada en [0, 1].


62. Diga falso o verdadero y demuestre en cada caso. Si P es una medida
de probabilidad entonces
a) 1 P es una medida de probabilidad.
1
b) (1 + P ) es una medida de probabilidad.
2
c) P 2 es una medida de probabilidad.
63. Considere el espacio medible (N, 2N ). Demuestre en cada caso que P
es una medida de probabilidad. Para cada A 2N defina
X 2
.
a) P (A) =
3n
nA

b) P (A) =

X 1
.
2n

nA

64. Sea = {1, 2, . . . , n} y considere el espacio medible (, 2 ). Investigue


en cada caso si P es una medida de probabilidad. Para cada A 2
defina
X
2k
a) P (A) =
.
n(n + 1)
kA

b) P (A) =

kA

1
(1 ).
k

65. Considere el espacio medible ((0, 1), B(0, 1)). Demuestre en cada caso
que P es una medida de probabilidad. Para cada A B(0, 1) defina
Z
2x dx.
a) P (A) =
A

22

b) P (A) =

3
x dx.
2

66. Probabilidad condicional. Sea (, F, P ) un espacio de probabilidad y


sea B un evento con probabilidad estrictamente positiva. Demuestre
que la probabilidad condicional definida para cada A en F como sigue
P (A|B) =

P (A B)
,
P (B)

es una medida de probabilidad. En consecuencia toda propiedad v


alida
para P ( ) es tambien v
alida para P ( |B).
67. Sea P una medida de probabilidad y sean P1 ( ) = P ( |B) y P2 ( ) =
P1 ( |C). Demuestre que
P2 (A) = P (A|B C).

1.3.1.

Propiedades elementales

A partir de los postulados enunciados en la secci


on anterior es posible demostrar una larga serie de propiedades que cumplen todas las medidas de
probabilidad. En esta secci
on se estudian algunas propiedades elementales
y m
as adelante se demuestran otras propiedades m
as avanzadas.

Proposici
on 10 Sea P una medida de probabilidad. Entonces
1. P (Ac ) = 1 P (A).
2. P () = 0.
3. Si A B entonces P (B A) = P (B) P (A).
4. Si A B entonces P (A) P (B).
5. 0 P (A) 1.
6. P (A B) = P (A) + P (B) P (A B).

Demostraci
on. Para la propiedad (1) expresamos a como la uni
on disjunta
c
A A . Aplicamos P y obtenemos la igualdad requerida. Tomando el caso
particular A igual a en la propiedad (1) obtenemos la propiedad (2).
Para demostrar (3) escribimos B = A (B A). Aplicando P obtenemos
P (B) P (A) = P (B A). Como la probabilidad de cualquier evento es un
n
umero no negativo de la anterior igualdad obtenemos tambien la propiedad
(4). La primera desigualdad de la propiedad (5) es el segundo axioma y la
segunda desigualdad es consecuencia de la propiedad (1) y el primer axioma.
Finalmente para demostrar (6) descomponemos el evento A B como la
23

siguiente uni
on de tres eventos disjuntos dos a dos, A B = (A B)
(A B) (B A) = (A A B) (A B) (B A B). Por lo tanto
P (A B) = P (A) P (A B) + P (A B) + P (B) P (A B).

Se estudian a continuaci
on algunas otras propiedades de las medidas de
probabilidad.
Proposici
on 11 (Desigualdades de Boole) Sea {An : n N} una sucesi
on de eventos. Entonces
1. P (

An )

An ) 1

n=1

2. P (

n=1

P (An ).

n=1

P (Acn ).

n=1

Demostraci
on. (1) Sean B1 = A1 y para n 2 defina
Bn = An

n1
[

Ak .

k=1

Entonces {Bn : nS N} es unaSsucesi


on de eventos disjuntos dos a dos tales

que Bn An y n=1 An = n=1 Bn . Esto es consecuencia de la Proposici


on 9 de la p
agina 17. Por lo tanto
P(

An ) = P (

Bn )

n=1

n=1

n=1

P (Bn )
P (An ).

n=1

El inciso (2) se sigue de (1) tomando complementos.


Proposici
on 12 Sea {An : n N} una sucesi
on de eventos.
1. Si P (An ) = 1 para toda n entonces P (

An ) = 1.

n=1

2. Si P (An ) = 1 para alguna n entonces P (

An ) = 1.

An ) = 0.

n=1

3. Si P (An ) = 0 para alguna n entonces P (

n=1

24

4. Si P (An ) = 0 para toda n entonces P (

An ) = 0.

n=1

Demostraci
on. (1) Por las leyes de De Morgan y la desigualdad de Boole,

P(

n=1

An ) = 1 P (
1
= 1.

(2) Como An

Acn )

n=1

P (Acn )

n=1

n=1 An ,

1 = P (An ) P (

An ).

n=1

(3) Como

n=1 An

An ,
P(

n=1

An ) P (An ) = 0.

(4) Por la desigualdad de Boole,


P(

n=1

An )

P (An ) = 0.

n=1


Las propiedades (1) y (4) de la proposici
on anterior pueden interpretarse
de la siguiente forma. Intersectar dos eventos produce en general un evento
m
as peque
no o por lo menos no mayor a los intersectandos. Sin embargo
la propiedad (1) establece que la intersecci
on, a
un infinita, de eventos con
probabilidad uno produce un evento con probabilidad todava uno. An
alogamente unir dos eventos produce en general un evento mayor, pero por la
propiedad (4), la uni
on, a
un infinita, de eventos con probabilidad cero tiene
probabilidad que se mantiene en cero.

EJERCICIOS
68. Demuestre que
a) P (Ac ) = 1 P (A).
b) 0 P (A) 1.

69. Demuestre que P () = 0


a) usando P () = 1.
25

b) sin usar P () = 1.
70. Demuestre que
a) P (A B) = P (A) P (A B).

b) P (A B) P (A)P (B) = P (Ac )P (B) P (Ac B).

71. Demuestre que si A B entonces


a) P (A) P (B).

b) P (B A) = P (B) P (A).

72. Demuestre que


a) m
ax{P (A), P (B)} P (A B).
b) P (A B) mn{P (A), P (B)}.

73. Demuestre que


P (A B) = P (A) + P (B) P (A B).
74. Demuestre que
P (A B C) = P (A) + P (B) + P (C)

P (A B) P (A C) P (B C)
+P (A B C).

75. Demuestre que


P(

n
[

n
X

Ai ) =

i=1

i=1

P (Ai )

i<j<k

X
i<j

P (Ai Aj )

P (Ai Aj Ak )

+ (1)n+1 P (A1 An )
76. Demuestre que
P(

n
\

Ai ) =

n
X
i=1

i=1

P (Ai )

i<j<k

X
i<j

P (Ai Aj )

P (Ai Aj Ak )

(1)n P (A1 An )
77. Demuestre que
P(

n
\

k=1

Ak ) 1

26

n
X
k=1

P (Ack ).

78. Demuestre que


0 P (A B) P (A) P (A B) P (A) + P (B) 2.
79. Diga falso o verdadero. Demuestre en cada caso.
a)
b)
c)
d)
e)
f)
g)
h)
i)
j)
k)
l)
m)
n)

P (B A) = P (B) P (A).
P (A B) = P (A B) + P (B A).
P (A) > 0 = P (A B) > 0.
P (A) > 0 = P (A B) > 0.
P (A) < 1 = P (A B) < 1.
P (A) < 1 = P (A B) < 1.
P (A) = 0 = P (A B) = 0.
P (A) = 0 = P (A B) = 0.
P (A B) = 0 = P (A) = 0.
P (A B) = 0 = P (A) = 0.
P (A) = 1 = P (A B) = 1.
P (A) = 1 = P (A B) = 1.
P (A B) = 1 = P (A) = 1.
P (A B) = 1 = P (A) = 1.

80. Diga falso o verdadero. Demuestre en cada caso.


a) P (A B) P (A)P (B).
b) P (A|B) < P (A).
c) P (A|B) > P (A) = P (B|A) > P (B).
81. Teorema de probabilidad total. Sea (, F, P ) un espacio de probabilidad y sea {A1 , A2 , . . .} una partici
on de tal que para cada n 1
el conjunto An es un evento con P (An ) > 0. Demuestre que para
cualquier evento B,
P (B) =

P (B|An )P (An ).

n=1

82. Se lanza una moneda tantas veces como indica un dado previamente
lanzado. Calcule la probabilidad de que
a) se obtengan ambas caras de la moneda igual n
umero de veces.
b) se obtenga una misma cara siempre.
83. Teorema de Bayes. Sea (, F, P ) un espacio de probabilidad y sea
{A1 , A2 , . . .} una partici
on de tal que para cada n 1, el conjunto
An es un elemento de F y P (An ) > 0. Demuestre que para cualquier
evento B tal que P (B) > 0 y cualquier m 1 fijo,
P (Am |B) =

P (B|Am )P (Am )
.

X
P (B|An )P (An )

n=1

27

84. Regla del producto. Demuestre que


P (A1 An ) = P (A1 )P (A2 |A1 )P (A3 |A1 A2 ) P (An |A1 An1 ).
85. Desigualdad de Bonferroni. Demuestre que
P(

n
[

i=1

Ai )

n
X
i=1

P (Ai )

X
i<j

P (Ai Aj ).

86. Desigualdad de Kounias. Demuestre que


P(

n
[

i=1

1.3.2.

n
n
X
X
P (Ai )
P (Ai Aj )}.
Ai ) mn{
j

i=1

i=1

i6=j

Continuidad

El siguiente resultado establece que las medidas de probabilidad son funciones continuas respecto de sucesiones no decrecientes de eventos.

Proposici
on 13 Sea {An : n N} una sucesi
on no decreciente de eventos,
esto es, A1 A2 . Entonces
P(

An ) = lm P (An ).
n

n=1

Demostraci
on. Como An An+1 tenemos que P (An ) P (An+1 ). Por lo
tanto la sucesi
on numerica {P (An ) : n N} es no decreciente y acotada
superiormente. Entonces el lmite de esta sucesi
on existe y el lado derecho
de la igualdad tiene sentido. Defina los eventos
B1 = A1 ,
Bn = An An1 para n 2.
La sucesi
on {Bn : n N} es una colecci
on de eventos disjuntos dos a dos y
tal que (Ver Proposici
on 9 en la p
agina 17)

An =

n=1

n=1

Por lo tanto
P(

n=1

An ) = P (

Bn )

n=1

28

Bn .

P (Bn )

n=1

= P (B1 ) +
= P (A1 ) +
= P (A1 ) +

n=2

n=2

n=2

P (Bn )
P (An An1 )
P (An ) P (An1 )

= P (A1 ) + lm

m
X

n=2

P (An ) P (An1 )

= P (A1 ) + lm P (Am ) P (A1 )


m

lm P (Am ).


Las medidas de probabilidad tambien son continuas respecto de sucesiones
no crecientes de eventos. Esta afirmaci
on es el contenido del siguiente resultado que se demuestra a partir de la proposici
on anterior.

Proposici
on 14 Sea {An : n N} una sucesi
on no creciente de eventos,
esto es, A1 A2 . Entonces

P(

An ) = lm P (An ).
n

n=1

Demostraci
on. Observe que si An An+1 entonces Acn Acn+1 . Por la
proposici
on anterior,
P(

Acn ) = lm P (Acn ).

n=1

Aplicando las leyes de De Morgan,


1 P(

n=1

An ) = lm (1 P (An )),
n

de donde se sigue f
acilmente el resultado.

Ahora se enuncia un resultado m


as fuerte. La siguiente proposici
on establece
que las medidas de probabilidad son funciones continuas. Esta propiedad es
muy u
til pues permite el c
alculo de probabilidades en procedimientos lmite,
y se encuentra siempre presente de manera implcita en toda la teora que
se desarrolla m
as adelante.
29

Proposici
on 15 (Continuidad de las medidas de probabilidad) Sea
{An : n N} una sucesi
on de eventos convergente al evento A. Entonces
lm P (An ) = P (A).

Demostraci
on. La prueba se basa en las siguientes dos desigualdades
a) lm sup P (An ) P (lm sup An ).
n

b) P (lm inf An ) lm inf P (An ).


n

Como la sucesi
on de eventos {An : n N} es convergente al evento A
entonces
lm sup An = lm inf An = A.
n

Se sigue entonces de las desigualdades (a) y (b) que


lm sup P (An ) P (lm sup An )
n

= P (A)
= P (lm inf An )
n

lm inf P (An ).
n

De donde se concluye el resultado. Nos concentraremos ahora en demostrar


las desigualdades (a) y (b).
S
(a) Como An
k=n Ak entonces
P (An ) P (

Ak ),

k=n

en donde { k=n Ak : n N} es una sucesi


on de eventos decreciente. Tomando el lmite superior se obtiene
lm sup P (An ) lm sup P (
n

lm P (

= P ( lm

= P(

Ak )

k=n

Ak )

k=n

Ak )

k=n

[
\

Ak )

n=1 k=n

= P (lm sup An ).
n

30

(b) Como

k=n Ak

An entonces
P(

k=n

Ak ) P (An ),

en donde { k=n Ak : n N} es una sucesi


on creciente de eventos. Tomando
el lmite inferior se obtiene
lm inf P (An ) lm inf P (
n

lm P (

= P ( lm

= P(

Ak )

k=n

Ak )

k=n

Ak )

k=n

\
[

Ak )

n=1 k=n

= P (lm inf An ).
n


Ejemplo 8 Se lanza un dado equilibrado una infinidad de veces. Sea el evento A = {2, 4, 6} y sea An el evento correspondiente a obtener el evento A
en cada uno de los primeros n lanzamientos del dado. Entonces claramente
An An+1 para cualquier n en N. Por lo tanto
lm An =

An .

n=1

Entonces
P(

An ) = P ( lm An )
n

n=1

lm P (An )

1
lm ( )n
n 2
= 0.
=

T
El evento
n=1 An se interpreta como aquel resultado en el que siempre se
obtiene un n
umero par en una sucesi
on infinita de lanzamientos. Hemos demostrado que la probabilidad de tal evento es cero. Observe que el argumento
presentado funciona de la misma forma cuando el evento A es cualquier subconjunto propio de . Por ejemplo, si A = {1, 2, 3, 4, 5} la probabilidad de
nunca obtener 6 es cero.

31

EJERCICIOS
87. Se lanza una moneda honesta una infinidad de veces. Demuestre que la
probabilidad de que eventualmente cada una de las dos caras aparezca
es uno. Sugerencia: proceda como en el ejemplo 8.

1.3.3.

Independencia de eventos

En esta secci
on se define el importante concepto de independencia de even
tos. Este es un concepto central en la teora de la probabilidad y uno de
sus rasgos distintivos. De manera natural la independencia aparecer
a con
frecuencia a lo largo del texto a partir de ahora y nos ayudar
a a simplificar
el c
alculo de probabilidades. La definici
on matem
atica es la siguiente.

Definici
on 9 Dos eventos A y B son independientes si
P (A B) = P (A)P (B).

Aceptar la hip
otesis de que dos eventos son independientes es una cuesti
on
de apreciaci
on por parte del observador. Puede interpretarse en el sentido
de que la ocurrencia de uno de los eventos no proporciona informaci
on que
modifique la probabilidad de ocurrencia del segundo evento. Contrario a alguna primera concepci
on intuitiva err
onea, el hecho de que dos eventos sean
independientes no implica que ellos sean ajenos. La proposici
on contraria
tampoco es v
alida, dos eventos ajenos no necesariamente son independientes. La definici
on de independencia puede extenderse a colecciones finitas
e incluso infinitas de eventos del siguiente modo.
Definici
on 10 Los eventos A1 , . . . , An son independientes si se cumplen
todas y cada una de las siguientes condiciones
P (Ai Aj ) = P (Ai )P (Aj ), i, j distintos.

(1.1)

P (Ai Aj Ak ) = P (Ai )P (Aj )P (Ak ), i, j, k distintos. (1.2)


..
.
P (A1 A2 An ) = P (A1 )P (A2 ) P (An ).
M
as generalmente, una colecci
on infinita de eventos es independiente si
cualquier subcolecci
on finita lo es.
Observe que seg
un la definici
on anterior, se necesitan verificar o suponer
varias condiciones para que n eventos sean independientes entre s. De hecho
el n
umero total de igualdades a demostrar es 2n . La independencia dos a
dos (1.1) no implica en general la independencia tres a tres (1.2), ni viceversa.
32

Tambien se tiene la noci


on de independencia entre dos colecciones de eventos.
La definici
on es la siguiente.
Definici
on 11 Dos sub--
algebras F1 y F2 son independientes si para cada
A en F1 y cada B en F2 se cumple
P (A B) = P (A)P (B).
EJERCICIOS
88. Demuestre que A y B son independientes si y solo si
a) A y B c lo son.
b) Ac y B lo son.
c) Ac y B c lo son.
89. Demuestre que A1 , . . . , An son independientes si y solo si Ac1 , . . . , Acn
lo son.
90. Sean A1 , A2 , A3 eventos. Mediante un contraejemplo demuestre que
a) independencia dos a dos no implica independencia tres a tres.
b) independencia tres a tres no implica independencia dos a dos.
91. Demuestre que un evento A es independiente consigo mismo si y solo
si P (A) = 0
o P (A) = 1.
92. Sea A un evento tal que P (A) = 0 o P (A) = 1. Demuestre que A es
independiente de cualquier otro evento B.
93. Mediante un contraejemplo demuestre que
a) A, B independientes =
6
A, B ajenos.

b) A, B ajenos =
6
A, B independientes.

94. Sean A1 , . . . , An independientes. Demuestre que


P(

n
[

k=1

Ak ) = 1

n
Y

k=1

[1 P (Ak )].

95. Sea A1 , A2 , . . . una sucesi


on infinita de eventos. Defina
Bn =

Ak

y Cn =

Ak .

k=n

k=n

Demuestre que si Bn y Cn son independientes para cada n entonces


lm sup An y lm inf An tambien son independientes. En particular,
n

cuando lm An = A entonces P (A) = 0 o P (A) = 1.


n

96. Sean A y B independientes. Demuestre que {A} y {B} son independientes.


33

1.3.4.

Lema de Borel-Cantelli

Concluimos este captulo con el enunciado y demostraci


on del famoso lema
de Borel-Cantelli. Nuestro objetivo es demostrar este resultado y con ello
poner en pr
actica algunas propiedades de las medidas de probabilidad vistas
antes. Aplicaremos este resultado para demostrar la ley fuerte de los grandes
n
umeros en el u
ltimo captulo.

Proposici
on 16 (Lema de Borel-Cantelli) Sea {An : n N} una sucesi
on de eventos. Sea A = lm sup An .
n

1. Si

n=1

P (An ) < entonces P (A) = 0.

2. Si A1 , A2 , . . . son independientes y

n=1

P (An ) = entonces P (A) = 1.

Demostraci
on. (1) Para cada n en N,
P (A) P (

k=n

Ak )

P (Ak ).

k=n

Como n=1 P (An ) < , el lado derecho tiende a cero cuando n tiende a
infinito. Esto implica que P (A) = 0.
(2) Es suficiente
umero natural n se cumple la
S demostrar que para todo n
igualdad P (
A
)
=
1,
pues
la
intersecci
on numerable de eventos con
k=n k
probabilidad uno tiene probabilidad uno. Para cada m > n,
1 P(

k=n

Ak ) 1 P (

m
[

Ak )

k=n

= P(

m
\

Ack )

k=n
m
Y

[1 P (Ak )]

k=n

exp(

m
X

P (Ak )).

k=n

Para obtener la u
ltima expresi
on se usaPla desigualdad 1 x ex , v
alida

para cualquier n
umero real x. Como
P
(A
)
=
,
el
lado
derecho
n
n=1
S
tiende a cero cuando m tiende a infinito. Por lo tanto P (
k=n Ak ) = 1 para
cualquier valor de n y entonces P (A) = 1.

34

EJERCICIOS
97. Enuncie con precisi
on el lema de Borel-Cantelli.

35

Captulo 2

Variables aleatorias
En este captulo se estudian los conceptos de variable aleatoria, funci
on de
distribuci
on, funci
on de densidad y esperanza. Se estudian tambien algunas
distribuciones de probabilidad de variables aleatorias discretas y continuas
particulares. A partir de ahora y en el resto del curso consideraremos como
elemento base un espacio de probabilidad (, F, P ).

2.1.

Variables aleatorias

Definici
on 12 Una variable aleatoria es una funci
on X : R tal que
para cualquier conjunto Boreliano B, se cumple que el conjunto X 1 B es
un elemento de F.

Esto es, una variable aleatoria (v.a.) es una funci


on de en R tal que la imagen inversa de cualquier conjunto Boreliano es un elemento de la -
algebra
del espacio de probabilidad. Esta condici
on se conoce como medibilidad
en teora de la medida. Decimos entonces que dicha funci
on es medible
respecto de las -
algebras F y B(R).
Se justifica a continuaci
on las razones tecnicas por las cuales se le pide a
una funci
on X : R que cumpla la condici
on de medibilidad. Recordemos que P es una medida de probabilidad definida sobre el espacio medible
(, F). Si X es una variable aleatoria entonces podemos trasladar la medida
de probabilidad P al espacio medible (R, B(R)) del siguiente modo. Si B es
un conjunto Boreliano definimos PX (B) = P (X 1 B), lo cual es consistente
pues el conjunto X 1 B es un elemento de F, dominio de definici
on de P . La
funci
on PX : B(R) [0, 1] resulta ser una medida de probabilidad y se le llama por tanto la medida de probabilidad inducida por la variable aleatoria
X. De este modo se construye el espacio de probabilidad (R, B(R), PX ).
36

Si B es un conjunto Boreliano, se usan los smbolos X 1 B y (X B)


para denotar el conjunto { : X() B}. Por ejemplo el conjunto
{ : X() [0, )} puede ser denotado por X 1 [0, ) o (X [0, )),
o simplemente por (X 0), incluyendo los parentesis. Veamos otro ejemplo.
Si (a, b) es un intervalo de la recta real, se puede usar el smbolo X 1 (a, b) o
(X (a, b)) o bien (a < X < b) para denotar el conjunto { : X()
(a, b)}. Para hacer la escritura m
as corta, a menudo se omite el argumento
de una v.a. X y se omite tambien el termino variable aleatoria para X
asumiendo, en la mayora de las veces, que lo es.
Para comprobar que una funci
on X : R es realmente una variable
aleatoria, la definici
on requiere verificar la condici
on X 1 B F para cualquier
conjunto Boreliano B. En muy pocos casos tal condici
on puede comprobarse de manera tan general. La siguiente proposici
on establece que no es
necesario demostrar la condici
on de medibilidad para cualquier conjunto
Boreliano B, sino que es suficiente tomar intervalos de la forma (, x] para
cada x en R. Este resultado, como uno puede imaginar, es de suma utilidad
para demostrar que una funci
on dada es variable aleatoria. Lo usaremos con
frecuencia en el resto del captulo.

Proposici
on 17 Una funci
on X : R es una variable aleatoria si y solo
si el conjunto X 1 (, x] es un elemento de F para cada x en R.

Demostraci
on.
() Si X es variable aleatoria entonces claramente se cumple que para
cualquier n
umero real x el conjunto X 1 (, x] es un elemento de F.
()Ahora suponga que para cada real x, el conjunto X 1 (, x] es un
elemento de F. Sean B y C las colecciones
B = {B B(R) : X 1 B F},
C = {(, x] : x R}.

Entonces claramente C B B(R). La primera contenci


on es por hip
otesis
y la segunda es por definici
on de la colecci
on B. Suponga por un momento
que B es una -
algebra de subconjuntos de R. Entonces B es una -
algebra
que contiene a C. Por lo tanto (C) = B(R) B. Esto implica que B =
B(R) y entonces X es variable aleatoria. Resta entonces hacer ver que B es
efectivamente una -
algebra.
(i) Primeramente tenemos que R B pues R B(R) y X 1 R = F.
(ii) Sea B B. Entonces B B(R) y X 1 B F. Entonces B c B(R) y
X 1 B c = (X 1 B)c F. Es decir, B c B.
(iii) Sea B1 , B2 , . . . una sucesi
on en B. Es decir, para cada n n
umero natu

[
[
X 1 Bn =
Bn B(R) y
ral, Bn B(R) y X 1 Bn F. Entonces
n=1

37

n=1

n=1

Bn F. Es decir,

n=1

Bn B.


Adem
as de la condici
on anterior para demostrar que una funci
on es variable aleatoria existen otras condiciones igualmente equivalentes y u
tiles. Por
1
ejemplo X es variable aleatoria si para cada x en R, X (, x) F, o
X 1 (x, ) F, o X 1 [x, ) F. Cualquiera de estas condiciones es necesaria y suficiente para que X sea variable aleatoria. Tambien la condici
on
1
X (a, b) F para cualquier intervalo (a, b) de R es equivalente para que
X sea variable aleatoria. La demostraci
on de todas estas aseveraciones es
completamente an
aloga al caso demostrado arriba y se pide desarrollar los
detalles en la secci
on de ejercicios.
Considere los espacios medibles (, F) y (R, B(R)). Si X es una funci
on de
en R entonces se denota por (X) a la mnima -
algebra de subconjuntos
de respecto de la cual X es variable aleatoria. Es decir,
(X) = {X 1 B : B B(R)}.
Es sencillo probar que tal colecci
on de im
agenes inversas es efectivamente
una -
algebra. Claramente X es variable aleatoria si y solo si (X) F.
A continuaci
on se demuestra que algunas operaciones b
asicas entre variables
aleatorias producen nuevas variables aleatorias. Suponga que (, F, P ) es un
espacio de probabilidad dado. Todas las variables aleatorias que se consideran a continuaci
on est
an definidas sobre este espacio de probabilidad.
Proposici
on 18 La funci
on constante X = c es una v.a.
Demostraci
on. Sea B un elemento cualquiera de B(R). Para la funci
on con1
1
stante X = c se tiene que X B = si c B, y X B = si c
/ B. En
ambos casos el conjunto X 1 B es un elemento de F, por lo tanto X = c es
v.a.

Proposici
on 19 Si X es v.a. y c es una constante entonces cX es v.a.
Demostraci
on. Comprobaremos que para cada n
umero real x, el conjunto
(cX)1 (, x] es un elemento de F. Tenemos tres casos. Si c > 0 entonces el
conjunto (cX x) = (X x/c) es un elemento de F pues X es v.a. Si c < 0
entonces nuevamente el conjunto (cX x) = (X x/c) es un elemento de
F pues X es v.a. Finalmente si c = 0 entonces claramente cX = 0 es v.a.
por la proposici
on anterior.

Proposici
on 20 Si X y Y son v.a.s entonces X + Y es v.a.
38

Demostraci
on. Probaremos que para cada n
umero real x, el conjunto (X +
Y )1 (x, ) = (X + Y > x) es un elemento de F. Para ello usaremos la
igualdad
[
(X + Y > x) =
(X > r) (Y > x r).
(2.1)
rQ

Es claro que de esta igualdad se concluye que el conjunto (X + Y > x) es un


elemento de F pues tanto X como Y son variables aleatorias y la operaci
on
de uni
on involucrada es numerable. Resta entonces demostrar (2.1).
() Sea en tal que X() + Y () > x. Entonces X() > x Y ().
Como los n
umeros racionales son un conjunto denso en R, tenemos
que existe un n
umero racional r tal que X() > r > x Y (). Por
lo tanto X() > r y Y () > x r. De aqui se desprende que es un
elemento del lado derecho.
S
() Sea ahora un elemento de rQ (X > r)(Y > xr). Entonces existe
un n
umero racional r0 tal que X() > r0 y Y () > x r0 . Sumando
obtenemos X() + Y () > x y por lo tanto es un elemento del lado
izquierdo.

Proposici
on 21 Si X y Y son v.a.s entonces XY es v.a.
Demostraci
on. Suponga primero el caso particular X = Y . Entonces necesitamos probar que para todo n
umero real x, el conjunto (X 2 x) es
un elemento de F. Pero esto es cierto pues (X 2 x) = si x < 0 y

(X 2 x) = ( x X x) si x 0. En ambos casos, (X 2 )1 (, x]
es un elemento de F. Para el caso general X 6= Y usamos la f
ormula de
interpolaci
on
(X + Y )2 (X Y )2
.
XY =
4
Por lo demostrado antes, XY es efectivamente una v.a.

Como consecuencia de la proposici
on anterior se cumple que si multiplicamos
X por si misma n veces entonces X n es variable aleatoria. Por lo tanto toda
funci
on polinomial de una variable aleatoria es tambien variable aleatoria.
Proposici
on 22 Sean X y Y v.a.s con Y 6= 0. Entonces X/Y es v.a.
Demostraci
on. Primeramente demostramos que 1/Y es v.a. Para cualquier
n
umero real y > 0 tenemos que
1
1
1
( y) = ( y, Y > 0) ( y, Y < 0)
Y
Y
Y
1
1
= (Y , Y > 0) (Y , Y < 0)
y
y
1
= (Y ) (Y < 0),
y
39

que es un elemento de F puesto que Y es v.a. Por otro lado, si y < 0 tenemos
que
(

1
1
1
y) = ( y, Y > 0) ( y, Y < 0)
Y
Y
Y
1
1
= (Y , Y > 0) (Y , Y < 0)
y
y
1
= (Y , Y < 0)
y
1
= ( Y < 0).
y

Nuevamente vemos que este conjunto es un elemento de F puesto que Y es


v.a. Finalmente cuando y = 0 obtenemos una vez mas un elemento de F
pues
(

1
1
1
0) = ( 0, Y > 0) ( 0, Y < 0)
Y
Y
Y
= (Y < 0)
= (Y < 0).

Esto demuestra que 1/Y es v.a. Como el producto de v.a.s es nuevamente


una v.a. concluimos entonces que X/Y es v.a.

Proposici
on 23 Si X y Y son v.a.s entonces m
ax{X, Y } y mn{X, Y } son
variables aleatorias.
Demostraci
on. Para cualquier n
umero real x,
(m
ax{X, Y } x) = (X x, Y x) = (X x) (Y x).
An
alogamente
(mn{X, Y } x) = (X x, Y x) = (X x) (Y x).
En ambos casos los dos conjuntos del lado derecho son elementos de F. Por
lo tanto el lado izquierdo tambien pertenece a F.

Como consecuencia de la proposici
on anterior se obtiene que tanto X + =

max{0, X} como X = min{0, X} son variables aleatorias.


Proposici
on 24 Si X es v.a. entonces |X| es v.a.
Demostraci
on. Si x 0 entonces |X|1 (, x] = { : x X()
x} F, y si x < 0 entonces |X|1 (, x] = F, de modo que |X| es
v.a. Alternativamente se puede escribir |X| = X + + X y por lo expuesto
anteriormente |X| es v.a.

Demostraremos a continuaci
on que el recproco de la proposici
on anterior
es falso. Esto es, si X : R es una funci
on tal que |X| es v.a. entonces
40

no necesariamente X es v.a. Considere por ejemplo el espacio muestral =


{1, 0, 1} junto con la -
algebra F = {, {0}, {1, 1}, }. Sea X : R
la funci
on identidad X() = w. Entonces |X| es v.a. pues para cualquier
conjunto Boreliano B,

si 0, 1 B,

{1,
1}
si 0
/ B y 1 B,
|X|1 B =
{0}
si 0 B y 1
/ B,

si 0, 1
/ B.
Es decir, |X|1 B es un elemento de F. Sin embargo X no es v.a. pues
X 1 {1} = {1} no es un elemento de F.

Proposici
on 25 Sea {Xn : n N} una sucesi
on de v.a.s. Entonces sup{Xn }
n

e nf {Xn }, cuando existen, son v.a.s


n

Demostraci
on. Este resultado se sigue directamente de las siguientes igualdades. Para cualquier x en R

(sup Xn x) =
n

n=1

(nf Xn x) =
n

n=1

(Xn x) F,
(Xn x) F.


Proposici
on 26 Sea {Xn : n N} una sucesi
on de v.a.s. Entonces lm sup Xn
n

y lm inf Xn , cuando existen, son v.a.s


n

Demostraci
on. Esto es consecuencia de la proposici
on anterior pues
1. lm sup Xn = nf (sup Xn ) es v.a.,
n

nk

2. lm inf Xn = sup(nf Xn ) es v.a.


n

nk


Proposici
on 27 Sea {Xn : n N} es una sucesi
on de v.a.s tales que
lm Xn () existe para cada . Entonces lm Xn es v.a.

Demostraci
on. Si lm sup Xn y lm inf Xn coinciden entonces lm Xn existe
n

y es el valor lmite com


un. Por lo anterior, lm Xn es v.a.
n

41

EJERCICIOS
98. Demuestre que la funci
on constante X() = c es una variable aleatoria.
99. Demuestre que la funci
on identidad X() = no es variable aleatoria
cuando = {1, 2, 3} y F = {, {1}, {2, 3}, }.
100. Sea = {1, , 0, 1} y F = {, {0}, {1, 1}, }. Considere la funci
on
identidad X() = . Demuestre que X 2 es variable aleatoria pero X
no lo es.
101. Demuestre que X es variable aleatoria si y solo si X 1 (, x) F
para cada x R.
102. Demuestre que X es variable aleatoria si y solo si X 1 [x, ) F para
cada x R.
103. Demuestre que X es variable aleatoria si y solo si X 1 (x, ) F para
cada x R.
104. Demuestre que X es variable aleatoria si y solo si X 1 (a, b) F para
cada (a, b) R.
105. Demuestre que si X es v.a. entonces |X| tambien lo es.
106. Mediante un contraejemplo demuestre que si |X| es v.a. entonces no
necesariamente X es v.a.
107. Sea (, F) un espacio medible tal que F = {, , A, Ac } con A .
Demuestre que toda funci
on medible X : R es constante en A y
en Ac . Por lo tanto toda funci
on medible respecto de esta -
algebra
toma a los sumo dos valores distintos.
108. Sea c una constante y X una v.a. Demuestre directamente que cX es
v.a.
109. Sea c una constante y X una v.a. Demuestre directamente que X + c
es v.a.
110. Sea c una constante y sea X una variable aleatoria. Demuestre directamente que tanto X c com X c son variables aleatorias.
111. Demuestre directamente que la suma y diferencia de dos variables
aleatorias es variable aleatoria.
112. Sea X una variable aleatoria. Demuestre que la parte entera de X,
denotada por X, es una variable aleatoria discreta.
113. Demuestre que el conjunto de v.a.s definidas sobre un espacio de probabilidad es un espacio vectorial con las operaciones usuales de suma y
producto por escalares.
114. Demuestre directamente que el producto y cociente (cuando exista) de
dos variables aleatorias es variable aleatoria.
42

115. Sean X y Y v.a.s. Demuestre que tanto X Y como X Y son variables


aleatorias.
116. Sea {Xn : n N} una sucesi
on de v.a.s. Demuestre que, si existen,
tanto sup{Xn } como nf {Xn } son variables aleatorias.
n

117. Demuestre que si X es variable aleatoria entonces tambien lo son X n


y 2X 3 5X.
118. Demuestre que X es variable aleatoria si y solo si tanto X + = m
ax{0, X}

como X = mn{0, X} lo son.


119. Sea A . Demuestre que la funci
on indicadora 1A : R es
variable aleatoria si y solo si el conjunto A es medible.
120. Sean A, B . Diga falso o verdadero. Demuestre en cada caso.
a) A, B medibles = 1A + 1B es v.a.
b) 1A + 1B es v.a. = A, B son medibles.
121. Sean A, B subconjuntos disjuntos de y sean a, b dos n
umeros reales
distintos. Demuestre que
a1A + b1B es v.a. A, B son medibles.
Una de estas implicaciones resulta falsa cuando se omite la condici
on
de que los n
umeros a y b son distintos. Cu
al de ellas es?
122. Sean A1 , . . . , An subconjuntos disjuntos de y a1 , . . . , an constantes
distintas. Demuestre que
n
X
i=1

ai 1Ai es v.a. Ai es medible para i = 1, . . . , n.

123. Sean A y B dos eventos, y sean 1A y 1B las correspondientes funciones


indicadoras. Directamente de la definici
on demuestre que las funciones
1A + 1B y 1A 1B son variables aleatorias.
124. Sean X y Y dos variables aleatorias. Demuestre que los conjuntos
(X = Y ), (X Y ), (X > Y ) y (X 6= Y ) son eventos. Sugerencia:
Proceda como en la f
ormula (2.1) de la p
agina 39.
125. Sea X una variable aleatoria y g : (R, B(R)) (R, B(R)) una funci
on
Borel medible. Demuestre que g(X) = g X : R es tambien una
variable aleatoria.
Sugerencia: Demuestre que la colecci
on B = {B B(R) : g 1 B
B(R)} coincide con B(R) usando los siguientes dos resultados: (1) Dada
una funci
on continua de R en R, la imagen inversa de un conjunto
abierto es nuevamente un conjunto abierto. (2) Todo conjunto abierto
de R distinto del vaco puede expresarse como una uni
on numerable
de intervalos abiertos.
43

126. Sea X una v.a. Demuestre que


a) Y = eX es v.a.
b) Y = sen X es v.a.
c) Y = cos X es v.a.
127. Sea X : R una funci
on. Proporcione un ejemplo en el que X 2 sea
variable aleatoria pero X no lo sea.
128. Sea X : R una funci
on. Proporcione un ejemplo en el que X 2 sea
variable aleatoria pero |X| no lo sea.
129. Sean X1 , . . . , Xn v.a.s. Demuestre que
n

X
= 1
a) X
Xi
n

es v.a.

i=1

b) S 2 =

1 X
2
(Xi X)
n1

es v.a.

i=1

130. Sea X una variable aleatoria y sean a < b dos constantes. Demuestre
que las siguientes funciones son variables aleatorias.

X si X < a,
a) Y =
a si X a.

a si X < a,
X si a X b,
b) Y =

b si X > b, .

X si |X| a,
c) Y =
0 si |X| > a.
131. Sean (1 , F1 ) y (2 , F2 ) dos espacios medibles y sea
X : (1 , F1 ) (2 , F2 )
una funci
on medible. Suponga que P : F1 [0, 1] es una medida de
probabilidad. Demuestre que
P X 1 : F2 [0, 1]
es tambien una medida de probabilidad. A la medida P X 1 se le
llama medida de probabilidad inducida por X.

2.2.

Funci
on de distribuci
on

Toda variable aleatoria tiene asociada una funci


on llamada funci
on de distribuci
on. En esta secci
on se define este importante concepto y se demuestran algunas de sus propiedades.
44

Definici
on 13 La funci
on de distribuci
on de X es la funci
on F (x) : R R
definida como sigue
F (x) = P (X x).

Cuando sea necesario especificar la variable aleatoria en cuesti


on se escribe
FX (x), pero en general se omite el subndice X cuando no haya posibilidad de confusi
on. El argumento de la funci
on es la letra min
uscula x que
puede tomar cualquier valor real. Por razones obvias a esta funci
on se le
conoce tambien con el nombre de funci
on de acumulaci
on de probabilidad
o funci
on de probabilidad acumulada. Observe que la funci
on de distribuci
on de una variable aleatoria est
a definida sobre la totalidad del conjunto
de n
umeros reales y toma valores en el intervalo [0, 1]. La funci
on de distribuci
on es importante pues, como se ilustrar
a m
as adelante, contiene ella
toda la informaci
on de la variable aleatoria y la correspondiente medida de
probabilidad. A continuaci
on se estudian algunas propiedades de la funci
on
de distribuci
on.
Proposici
on 28 Sea F (x) la funci
on de distribuci
on de una variable aleatoria. Entonces
1.
2.

lm F (x) = 1.

x+

lm F (x) = 0.

3. Si x1 x2 entonces F (x1 ) F (x2 ).


4. F (x) es continua por la derecha, es decir, F (x+) = F (x).1
Demostraci
on. (1) Sea {xn : n N} una sucesi
on cualquiera de n
umeros
reales creciente a infinito y sean los eventos An = (X xn ). Entonces
{An : n N} es una sucesi
on de eventos creciente cuyo lmite es . Por la
propiedad de continuidad
lm F (xn ) =

lm P (An )

= P ()
= 1.
Como R es un espacio metrico lo anterior implica que F (x) converge a uno
cuando x tiende a infinito.
(2) Sea {xn : n N} una sucesi
on cualquiera de n
umeros reales decreciente
a menos infinito y sean los eventos An = (X xn ). Entonces {An : n N}
1

La expresi
on F (x+) significa el lmite por la derecha de la funci
on F en el punto x.

45

es una sucesi
on de eventos decreciente al conjunto vaco. Por la propiedad
de continuidad
lm F (xn ) =

lm P (An )

= P ()
= 0.
Por lo tanto, F (x) converge a cero cuando x tiende a menos infinito.
(3) Para x1 x2 ,
F (x1 ) F (x1 ) + P (x1 < X x2 )

= P [(X x1 ) (x1 < X x2 )]

= P (X x2 )

= F (x2 ).

(4) Sea {xn : n N} una sucesi


on cualquiera de n
umeros reales no negativos
y decreciente a cero. Entonces
F (x + xn ) = F (x) + P (x < X x + xn ),
en donde An = (x < X x + xn ) es una sucesi
on de eventos decreciente al
conjunto vaco. Por lo tanto
lm F (x + xn ) = F (x).

Es decir
F (x+) = F (x).

El recproco de la proposici
on anterior es v
alido y justifica la importancia
de la funci
on de distribuci
on. Se enuncia a continuaci
on este interesante
resultado cuya demostraci
on omitiremos y puede encontrarse por ejemplo
en [8].

Proposici
on 29 Sea F (x) : R R una funci
on que satisface las cuatro
propiedades de la proposici
on anterior. Entonces existe un espacio de probabilidad y una variable aleatoria cuya funci
on de distribuci
on es F (x).

Como consecuencia tenemos la siguiente definici


on general.
Definici
on 14 Una funci
on F (x) : R R es llamada funci
on de distribuci
on si cumple con las cuatro propiedades anteriores.
Veamos algunas otras propiedades que establecen la forma de calcular probabilidades usando la funci
on de distribuci
on.
46

Proposici
on 30 Para cualquier n
umero x y para cualesquiera n
umeros
reales a b,
1. P (X < x) = F (x).2
2. P (X = x) = F (x) F (x).
3. P (X (a, b]) = F (b) F (a).
4. P (X [a, b]) = F (b) F (a).
5. P (X (a, b)) = F (b) F (a).
6. P (X [a, b)) = F (b) F (a).
Demostraci
on. (1) Sea {xn : n N} una sucesi
on cualquiera de n
umeros
reales no negativos y decreciente a cero. Sea An el evento (X a xn ).
Entonces {An : n N} es una sucesi
on de eventos decreciente al evento
(X < a). Por la propiedad de continuidad
P (X < a) =
=

lm P (An )

lm F (a xn )

= F (a).
Para (2) simplemente escribimos
P (X = x) = P (X x) P (X < x)
= F (x) F (x).

Las igualdades (3),(4),(5) y (6) se siguen directamente de (1) y (2).

Observe que como F(x) es una funci


on no decreciente y continua por la
derecha, la probabilidad P (X = x) = F (x) F (x) representa el tama
no
del salto o discontinuidad de la funci
on de distribuci
on en el punto x. En
consecuencia, cuando F (x) es una funci
on continua y para a < b,
F (b) F (a) = P (X (a, b])
= P (X [a, b])

= P (X (a, b))

= P (X [a, b)).
Es decir, incluir o excluir los extremos de un intervalo no afecta el c
alculo
de la probabilidad de dicho intervalo. Por lo tanto para cualquier n
umero x,
P (X = x) = 0. Finalizamos esta secci
on con un resultado interesante cuya
prueba es simple.
Proposici
on 31 Toda funci
on de distribuci
on tiene a lo sumo un n
umero
numerable de discontinuidades.
2

La expresi
on F (x) significa el lmite por la izquierda de la funci
on F en el punto x.

47

Demostraci
on. Sea D el conjunto de puntos de discontinuidad de una funci
on
de distribuci
on F (x). Para cada n
umero natural n defina los subconjuntos
Dn = {x D :

1
1
< F (x) F (x) }.
n+1
n

Cada conjunto Dn tiene a lo sumo n elementos. Como D =


concluye que D es numerable.

n=1 Dn

se


EJERCICIOS
132. Demuestre que las siguientes funciones son de distribuci
on.
a) F (x) = 1 ex para x > 0.

b) F (x) = 1 (1 + x)ex para x > 0.

si x < 1,
0
(x + 1)/2 si x [1, 1],
c) F (x) =

1
si x > 1.

133. Investigue si las siguientes funciones son de distribuci


on.
a) F (x) = x para x R.
2

b) F (x) = 1 ex para x > 0.

c) F (x) = e1/x para x > 0.


ex
para x R.
d ) F (x) =
1 + ex
ex
e) F (x) = x
para x R.
e + ex
134. Sean F (x) y G(x) dos funciones de distribuci
on. Determine si las siguientes funciones son de distribuci
on.
a) aF (x) + (1 a)G(x) con 0 a 1.
b) F (x) + G(x).
c) F (x)G(x).
135. Sea X con funci
on de distribuci
on
(
0
F (x) =
4
1 2
x

si x < 2,
si x 2.

Grafique y demuestre que F (x) es una funci


on de distribuci
on. Calcule
adem
as P (X 4), P (X > 1), P (4 < X < 6) y P (X = 2).
136. Sea X con funci
on de distribuci
on

0.2
0.5
F (x) =

0.9

1
48

si
si
si
si
si

x < 0,
0 x < 1,
1 x < 3,
3 x < 4,
x 4.

Grafique y demuestre que F (x) es una funci


on de distribuci
on. Calcule
adem
as P (X 1), P (X = 1), P (0 < X < 3), P (X = 4) y P (X 3).
137. Sea X con funci
on de distribuci
on F(x). Demuestre que
a) lm F (x) = 1.
x

b)

lm F (x) = 0.

c) x1 x2 = F (x1 ) F (x2 ).

d ) F (x+) = F (x).

138. Sea X con funci


on de distribuci
on F(x). Demuestre que
a) P (X < x) = F (x).
b) P (X = x) = F (x) F (x).
c) P (X > x) = 1 F (x).

139. Sea X con funci


on de distribuci
on F(x). Demuestre que para x y
a) P (x < X y) = F (y) F (x).

b) P (x < X < y) = F (y) F (x).


c) P (x X y) = F (y) F (x).

d ) P (x X < y) = F (y) F (x).


140. En la escuela rusa de probabilidad se define la funci
on de distribuci
on
de una variable aleatoria X como F (x) = P (X < x). Observe el signo
< en lugar de usado en nuestra definici
on. Demuestre que en
este caso la funci
on de distribuci
on es continua por la izquierda.
141. Sea F (x) una funci
on de distribuci
on continua. Demuestre que para
para cualquier entero n 1, las siguientes funciones tambien son de
distribuci
on.
a) G(x) = [F (x)]n .
b) G(x) = 1 [1 F (x)]n .
142. Sea X con funci
on de distribuci
on F (x). Diga falso o verdadero. Demuestre en cada caso.
a) F (x) = P (X < x) + P (X = x).
b) 1 F (x) = P (X x).

c) 1 P (X < x) P (X > x) = P (X = x).

143. Encuentre FY (y) en terminos de FX (x) cuando


a) Y = aX + b con a, b constantes.
b) Y = eX .
c) Y = eX .
d ) Y = X 2.
49

e) Y = X + = m
ax{0, X}.
f ) Y = X = mn{0, X}.

g) Y = |X|.

h) Y = X.

i ) Y = sen X.

144. Sea X con funci


on de distribuci
on FX (x) y sean a < b dos constantes.
Calcule y grafique la funci
on de distribuci
on de

X si X < a,
a) Y =
a si X a.

a si X < a,
X si a X b,
b) Y =

b si X > b.

X si |X| a,
c) Y =
0 si |X| > a.
145. Sean F (x) y G(x) dos funciones de distribuci
on continuas y estrictamente crecientes. Demuestre que
a) si F (x) G(x) entonces F 1 (y) G1 (y).

b) si X tiene funci
on de distribuci
on F (x) entonces Y = G1 (F (X))
tiene funci
on de distribuci
on G(x).
c) si F (x) G(x) entonces existen variables aleatorias X y Y cuyas
funciones de distribuci
on son F (x) y G(x) respectivamente, y son
tales que X Y . Sugerencia: Use el inciso anterior.

2.3.

Tipos de variables aleatorias

Las variables aleatorias se clasifican en al menos dos tipos: discretas y continuas. La definici
on es la siguiente. Sea X una variable aleatoria con funci
on
de distribuci
on F (x).

Definici
on 15 La variable aleatoria X se llama discreta si su correspondiente funci
on de distribuci
on F (x) es una funci
on constante por pedazos.
Sean x1 , x2 , . . . los puntos de discontinuidad de F (x). En cada uno de estos
puntos el tama
no de la discontinuidad es P (X = xi ) = F (xi ) F (xi ) > 0.
A la funci
on f (x) que indica estos incrementos se le llama funci
on de densidad de X y se define como sigue

P (X = x) si x = x1 , x2 , . . .
(2.2)
f (x) =
0
otro caso.

50

En este caso discreto la funci


on f (x) siempre existe y se le llama tambien
funci
on de masa de probabilidad o simplemente funci
on de probabilidad
de la variable aleatoria X. Cuando sea necesario especificarlo se escribe
fX (x) en lugar de f (x). Observe
on no negativa que
P que f (x) es una funci
procamente toda funci
on
suma uno en el sentido que
i f (xi ) = 1. Rec
de la forma (2.2) que cumpla estas dos propiedades se le llama funci
on de
densidad, sin que haya necesariamente una variable aleatoria de por medio.
Es posible reconstruir la funci
on de distribuci
on a partir de la funci
on de
densidad mediante la relaci
on
X
F (x) =
f (xi ).
xi x

Definici
on 16 La variable aleatoria X se llama continua si su correspondientes funci
on de distribuci
on F (x) es una funci
on continua. Cuando existe
una funci
on integrable f 0 tal que
Z x
F (x) =
f (u) du,
(2.3)

para cualquier valor de x, entonces se dice que X es absolutamente continua. En tal caso a la funci
on f (x) se le llama funci
on de densidad de
X.

No todas las variables aleatorias continuas tienen funci


on de densidad, y
a
un cuando esta exista puede no ser u
nica pues basta modificarla en un
punto para que sea ligeramente distinta y a pesar de ello seguir cumpliendo (2.3). Es claro que la funci
on de densidad de una variable aleatoria absolutamente continua es no negativa y su integral sobre toda la recta real es
uno. Recprocamente toda funci
on f (x) no negativa que integre uno en R se
llama funci
on de densidad. Si X es absolutamente continua con funci
on de
distribuci
on F (X) y funci
on de densidad continua f (x) entonces el teorema
fundamental del c
alculo establece que, a partir de (2.3), F (x) = f (x).
Una variable aleatoria que no es discreta ni continua se llama variable
aleatoria mixta, y un ejemplo de este tipo de variables se presenta a continuaci
on.
Ejemplo 9 (Variable aleatoria que no es discreta ni continua.) Sea X una
variable aleatoria con funci
on de distribuci
on

1 ex si x > 0,
F (x) =
0
si x 0.
Como F (x) es continua entonces X es una variable aleatoria continua. Sea
Y = X M con M > 0 constante. Observe que Y est
a acotada superiormente
51

por la constante M . La funci


on de distribuci
on de Y es

si y M,
1
x
1e
si 0 < y < M,
F (y) =

0
si x 0.

Esta funci
on no es constante por pedazos pues es creciente en (0, M ) y tampoco es continua pues tiene una discontinuidad en y = M . Por lo tanto Y
es una variable aleatoria que no es discreta ni continua.

EJERCICIOS
146. Encuentre la constante c que hace a f (x) una funci
on de densidad.
c
para x = 1, 2, . . .
x(x + 1)
b) f (x) = cex para x = 1, 2, . . .
c
c) f (x) =
para x = 1, 2, . . .
x!
d ) f (x) = cx2 para 0 < x < 1.
a) f (x) =

e) f (x) = cxe2x
f ) f (x) =

cx2

para x > 0.

para x > 1.

cex

para x R.
(1 + ex )2
h) f (x) = cx(1 x) para 0 < x < 1.
c
para 0 < x < 1.
i ) f (x) =
1 x2
c
j ) f (x) =
para x R.
1 + x2
g) f (x) =

147. Demuestre que las siguientes funciones son de densidad. Encuentre


la correspondiente funci
on de distribuci
on y demuestre que satisface
las propiedades de toda funci
on de distribuci
on. Grafique ambas funciones.
a) f (x) = 2x para x [0, 1].
3
b) f (x) = x2 para x [1, 1].
2
1
c) f (x) = 1 x para x [0, 2].
2
2
d ) f (x) = 2 x para x [0, m] con m > 0.
m
1
e) f (x) =
para x [0, 1/2].
(1 x)2
1
f ) f (x) = e|x| para x R.
2
148. Demuestre que las siguientes funciones son de distribuci
on. Encuentre
la correspondiente funci
on de densidad y compruebe que efectivamente
es una funci
on de densidad. Grafique ambas funciones.
52

a) F (x) =

0
1

0
x
b) F (x) =

si x < 0,
si x 0.

si x 0,
si 0 < x < 1,
si x 1.

ex
.
1 + ex
Z
1 x |u|
d ) F (x) =
e
du.
2
c) F (x) =

149. Sea f (x) una funci


on de densidad y sea c una constante. Demuestre
que f (x + c) es tambien una funci
on de densidad.
150. Diga falso o verdadero. Demuestre en cada caso.
a) Toda funci
on de densidad es acotada.
b) Toda funci
on de distribuci
on es acotada.
151. Sea X absolutamente continua y sea Y = aX + b con a 6= 0, b constantes. Demuestre que
fY (y) =

2.4.

1
fX ((y b)/a).
|a|

Integral de Riemann-Stieltjes

En esta secci
on se define la integral de Riemann-Stieltjes. Esta
es una integral de la forma
Z b
h(x) dF (x)
a

y constituye una generalizaci


on de la integral de Riemann. Las funciones
h(x) y F (x) deben cumplir ciertas propiedades para que la integral tenga
sentido y este bien definida. Al integrando h(x) se le pide inicialmente que
sea una funci
on acotada en el intervalo [a, b], aunque despues se relajar
a esta
condici
on. A la funci
on integradora F (x) se le pide que sea continua por la
derecha, mon
otona no decreciente y tal que F ()F () < M para alg
un
n
umero M > 0. Observe que F (x) debe cumplir propiedades casi identicas
a las de una funci
on de distribuci
on y de hecho la notaci
on es la misma.
Esto no es coincidencia pues usaremos las funciones de distribuci
on como
funciones integradoras.
Presentamos a continuaci
on la definici
on de la integral de Riemann- Stieltjes
bajo las condiciones arriba se
naladas. En [8] puede encontrarse una exposici
on m
as completa y rigurosa de esta integral. Nuestro objetivo en esta secci
on es simplemente presentar la definici
on y mencionar algunas propiedades.

53

Sea {a = x0 < x1 < < xn = b} una partici


on finita del intervalo [a, b] y
defina
i ) = sup{h(x) : xi1 x xi },
h(x

h(xi ) = nf{h(x) : xi1 x xi }.

Se define la suma superior e inferior de Riemann-Stieltjes como sigue


Sn =

n
X
i=1

Sn =

n
X
i=1

i )[F (xi ) F (xi1 )],


h(x
h(xi )[F (xi ) F (xi1 )].

Ahora se hace n tender a infinito de tal forma que la longitud m


ax{|xi
xi1 | : 1 i n} tienda a cero. Si sucede que
< lm S n = lm Sn < ,
n

entonces el valor com


un se denota por
Z b
h(x) dF (x),
a

y se le llama la integral de Riemann-Stieltjes de la funci


on h(x) respecto
de la funci
on F (x) sobre el intervalo [a, b]. Cuando la funci
on h(x) no es
acotada se define

si h(x) < N,
N
h(x) si |h(x)| N,
hN (x) =

N
si h(x) > N.
y entonces

h(x) dF (x) = lm

N a

hN (x) dF (x),

cuando este lmite existe. Se puede extender la definici


on de esta integral de
la siguiente forma
Z b
Z
h(x) dF (x),
h(x) dF (x) = lm

a,b a

cuando el lmite del lado derecho exista.


La integral de Riemann-Stieltjes tiene muchas propiedades semejantes a la
integral de Riemann. Enunciaremos a continuaci
on algunas de ellas. Primeramente es lineal tanto en el integrando como en el integrador, es decir, si
es constante entonces
Z b
Z b
Z b
(h1 (x) + h2 (x)) dF (x) =
h1 (x) dF (x) +
h2 (x) dF (x),
a
a
a
Z b
Z b
Z b
h(x) d(F1 (x) + F2 (x)) =
h(x) dF1 (x) +
h(x) dF2 (x).
a

54

Cuando h(x) tiene primera derivada continua se cumple la f


ormula
Z b
Z b
h(x) dF (x) = h(b)F (b) h(a)F (a)
F (x)h (x) dx.
a

De particular importancia en la teora de la probabilidad son los siguientes


dos casos particulares. Cuando F (x) es diferenciable entonces
Z b
Z b
h(x) dF (x) =
h(x)F (x) dx.
a

De modo que integrar respecto de una funci


on de distribuci
on absolutamente
continua se reduce a efectuar una integral de Riemann. El otro caso interesante sucede cuando F (x) es constante excepto en los puntos x1 , x2 , . . . en
donde tiene saltos positivos de tama
no p(x1 ), p(x2 ), . . . respectivamente y
h(x) es continua. En este caso y suponiendo convergencia
Z b

X
h(xi )p(xi ).
h(x) dF (x) =
a

i=1

Por lo tanto integrar respecto de la funci


on de distribuci
on de una variable
aleatoria discreta se reduce a efectuar una suma. Finalmente enunciamos
la propiedad que ilustra el hecho de que la integral de Riemann es un caso
particular de la integral de Riemann-Stieltjes. Cuando F (x) = x se cumple
Z b
Z b
h(x) dx.
h(x) dF (x) =
a

EJERCICIOS
152. Sea F (x) una funci
on de distribuci
on absolutamente continua. Demuestre que para cualesquiera n
umeros naturales n y m
Z
m
.
F n (x) dF m (x) =
n
+
m

2.5.

Caractersticas num
ericas

Se estudian a continuaci
on algunas caractersticas numericas asociadas a
variables aleatorias. Se definen los conceptos de esperanza, varianza y m
as
generalmente los momentos de una variable aleatoria utilizando la integral
de Riemann-Stieltjes.

2.5.1.

Esperanza

La esperanza de una variable aleatoria es un n


umero que representa el
promedio ponderado de los posible valores que toma la variable aleatoria
y se calcula como se indica a continuaci
on.
55

Definici
on 17 Sea X con funci
on de distribuci
on F (x) y sea g : R R
una funci
on Borel medible. La esperanza de g(X) denotada por E[g(X)] se
define como el n
umero
Z
E[g(X)] =
g(x) dF (x).

cuando esta integral sea absolutamente convergente.

En particular, cuando g(x) = x y suponiendo que la integral existe,


Z
E(X) =
x dF (x).

A la esperanza se le conoce tambien con el nombre de: media, valor


esperado, valor promedio o valor medio, y en general se usa la letra
griega (mu) para denotarla. Cuando X es discreta con funci
on de densidad
f (x) su esperanza, si existe, se calcula como sigue
X
E(X) =
xf (x).
x

Cuando X es absolutamente continua con funci


on de densidad f (x) entonces
su esperanza, si existe, es
Z
E(X) =
xf (x) dx.

La integral o suma arriba mencionados pueden no existir y en ese caso se


dice que la variable aleatoria no tiene esperanza finita. Vease el ejercicio 156
en la p
agina 57 para algunos ejemplos de esta situaci
on. Se muestran a
continuaci
on algunos ejemplos sencillos del c
alculo de la esperanza.
Ejemplo 10 Sea X discreta con valores en el conjunto {1, 2, . . .} y con
funci
on de densidad f (x) = P (X = x) = 1/2x . Entonces
E(X) =

X
x=1

X
x
xf (x) =
= 1.
2x
x=1

Ejemplo 11 Sea X continua con funci


on de densidad f (x) = 2x para 0 <
x < 1. Entonces
Z 1
Z
2
x 2x dx = .
xf (x) dx =
E(X) =
3
0

M
as generalmente,
n

E(X ) =

x f (x) dx =

56

xn 2x dx =

2
.
n+2

Establecemos a continuaci
on algunas propiedades de la esperanza.

Proposici
on 32 Sean X y Y con esperanza finita y sea c una constante.
Entonces
1. E(c) = c.
2. E(cX) = cE(X).
3. Si X 0 entonces E(X) 0.
4. Si X Y entonces E(X) E(Y ).
5. E(X + Y ) = E(X) + E(Y ).

Las cuatro primeras propiedades de la esperanza se siguen directamente de


la definici
on.

EJERCICIOS
153. Calcule la esperanza de X, si existe, cuando esta tiene funci
on de
densidad
a) f (x) =
b) f (x) =

1
5 para x
1 1
e x! para

= 2, 1, 0, 1, 2.
x = 0, 1, 2, . . ..

154. Calcule la esperanza de X, si existe, cuando esta tiene funci


on de
densidad
a) f (x) = |x| para 1 < x < 1.
b) f (x) = 21 e|x| para x R.

155. Sean X con esperanza finita y sea c una constante. Demuestre que
a) E(c) = c.
b) E(cX) = cE(X).
c) E(X + c) = E(X) + c.
d ) Si X 0 entonces E(X) 0.

e) Si X Y entonces E(X) E(Y ).

156. Demuestre que E(X) no existe cuando X tiene funci


on de densidad
1
para x = 1, 2, . . .
x(x + 1)
3
b) f (x) = 2 2 para x Z {0}.
x

a) f (x) =

57

1
para x > 1.
x2
1
d ) f (x) =
para x R.
(1 + x2 )
c) f (x) =

157. (La paradoja de San Petersburgo.) Se lanza una moneda equilibrada


repetidas veces hasta que una de las caras en particular aparece por
primera vez. Si n es el n
umero de lanzamientos realizados entonces un
n
jugador recibe 2 unidades monetarias. Cu
al debe ser el pago inicial
justo para ingresar a este juego?
158. Sea {A1 , A2 , . . .} una colecci
on de eventos que forman una partici
on de
tal que P (Ai ) > 0 para i 1. Sea X una variable aleatoria discreta
con esperanza finita. Para cualquier evento A con probabilidad positiva
defina
X
E(X|A) =
xP (X = x|A).
x

Demuestre que

E(X) =

E(X|Ai )P (Ai ).

i=1

159. Demuestre que


a) E(mn{X, Y }) mn{E(X), E(Y )}.

b) E(m
ax{X, Y }) m
ax{E(X), E(Y )}.

160. Sea X > 0 con esperanza finita. Demuestre que


 
1
1
E
.
E(X)
X
161. Sea X 0 discreta con valores x1 , . . . , xk . Demuestre que
E(X n+1 )
= m
ax xi ,
n E(X n )
1ik
p
ax xi .
b) lm n E(X n ) = m

a) lm

1ik

162. Sea X discreta con valores 0, 1, . . . y con esperanza finita. Demuestre


que

X
E(X) =
P (X n).
n=1

163. Sea X 0 con esperanza finita y sea p (0, 1). Suponga que se cumple
P (X k) pk para k = 0, 1, . . . Demuestre que
E(X)

58

1
.
1p

164. Sea X 0 con esperanza finita y para cada n


umero natural n defina
el evento An = (n 1 X < n). Demuestre que

n=1

(n 1)1An X <

n1An .

n=1

En consecuencia demuestre las desigualdades

n=1

P (X n) E(X) < 1 +

n=1

P (X n).

165. Sea X con funci


on de distribuci
on F (x) y con esperanza finita. Demuestre que
Z 0
Z
F (x)dx.
[1 F (x)]dx
E(X) =

166. Sea X con media y funci


on de distribuci
on continua F (x). Demuestre
que
Z
Z

F (x)dx =

[1 F (x)]dx.

167. Sea X con funci


on de distribuci
on F (x) y con esperanza finita. Demuestre que
a) lm x[1 F (x)] = 0.
x

b)

2.5.2.

lm xF (x) = 0.

Varianza

La varianza de una variable aleatoria es una medida del grado de dispersi


on
de los diferentes valores tomados por la variable aleatoria. Su definici
on es
la siguiente.

Definici
on 18 La varianza de X, denotada por Var(X), se define como el
n
umero no negativo


Var(X) = E (X E(X))2
cuando esta esperanza existe.

Cuando X es discreta con funci


on de densidad f (x) y esperanza finita , la
varianza de X, cuando existe, se calcula como sigue
X
Var(X) =
(x )2 f (x).
x

59

Cuando X es absolutamente continua con funci


on de densidad f (x) y esperanza finita entonces la varianza de X, cuando existe, es
Z
Var(X) =
(x )2 f (x) dx.

La varianza se denota regularmente por el smbolo 2 (sigma cuadrada).


Nuevamente la varianza puede no existir y en ese caso decimos que la variable aleatoria no tiene varianza finita. Observe que para calcular Var(X) se
necesita conocer primero E(X).

Proposici
on 33 Sean X y Y con varianza finita. Entonces
1. Var(X) 0.
2. Var(c) = 0.
3. Var(cX) = c2 Var(X).
4. Var(X + c) = Var(X).
5. Var(X) = E(X 2 ) E 2 (X).

La demostraci
on de estas propiedades es sencilla pues todas ellas se siguen
directamente de la definici
on y de la propiedad lineal de esperanza. Otras
propiedades de la varianza aparecen m
as adelante.

EJERCICIOS
168. Calcule la varianza de X, si existe, cuando esta tiene funci
on de densidad
a) f (x) = 1/5 para x = 2, 1, 0, 1, 2.
b) f (x) = e1 /x! para x = 0, 1, 2, . . .

169. Calcule la varianza de X, si existe, cuando esta tiene funci


on de densidad
a) f (x) = |x| para 1 < x < 1.
b) f (x) = 21 e|x| para x R.

170. Sean X y Y con varianza finita y sea c una constante. Demuestre que
a) Var(X) 0.
b) Var(c) = 0.

c) Var(cX) = c2 Var(X).
60

d ) Var(X + c) = Var(X).
e) Var(X) = E(X 2 ) E 2 (X).
171. Sea X con valores en [a, b]. Demuestre que
a) a E(X) b.

b) 0 Var(X) (b a)2 /4.

172. Sea X con varianza finita. Demuestre que la funci


on g(u) = E[(Xu)2 ]
se minimiza cuando u = E(X). En consecuencia para cualquier valor
de u,
Var(X) E[(X u)2 ].
173. Sea c una constante. Demuestre que
E(X c)2 = Var(X) + [E(X) c]2 .
174. Sea X con media y varianza 2 . Demuestre que
E|X | .
Sugerencia: Var(|X |) 0.
175. Diga falso o verdadero. Demuestre en cada caso.
a) Si X Y entonces Var(X) Var(Y ).
b) Var(X) E(X 2 ).

2.5.3.

Momentos

Los momentos de una variable aleatoria son n


umeros que representan alguna caracterstica de la distribuci
on de probabilidad asociada. Bajo ciertas
condiciones el conjunto de momentos determinan de manera u
nica a la distribuci
on de probabilidad.

Definici
on 19 Sea X una v.a. con esperanza y sea n un n
umero natural.
Cuando existe,
1. E(X n ) es el n-esimo momento de X.
2. E|X|n es el n-esimo momento absoluto de X.
3. E[(X )n ] es el n-esimo momento central de X.
4. E|X |n es el n-esimo momento central absoluto de X.

Observe que el primer momento de X es E(X) y el segundo momento central


es Var(X). Bajo ciertas condiciones los momentos de una variable aleatoria
61

determinan la distribuci
on de probabilidad de la misma. Por ejemplo, si X
es tal que E(X), E(X 2 ), . . . son todos finitos y si se cumple que la serie
n
X
t

n=0

n!

E(X n )

es absolutamente convergente para alg


un t > 0, entonces la sucesi
on de
momentos determina de manera u
nica a la distribuci
on de X. Las condiciones enunciadas para la determinaci
on de la distribuci
on de probabilidad
son suficientes pero no necesarias.

EJERCICIOS
176. Calcule el n-esimo momento de X, si exsite, cuando esta tiene funci
on
de densidad
a) f (x) = 1/5 para x = 2, 1, 0, 1, 2.
b) f (x) = e1 /x! para x = 0, 1, 2, . . .

177. Calcule el n-esimo momento de X, si existe, cuando esta tiene funci


on
de densidad
a) f (x) = |x| para 1 < x < 1.
b) f (x) = 21 e|x| para x R.

178. Sea X tal que E|X|n < para alg


un natural n. Demuestre que para
m = 1, . . . , n,
E|X|m E|X|n .
Esta desigualdad establece que los momentos absolutos anteriores a n
existen cuando el n-esimo existe.
179. Sea A un evento y sea 1A la funci
on indicadora de A. Demuestre que
a) E(1A ) = P (A).
b) E(1nA ) = P (A).
c) Var(1A ) = P (A)(1 P (A)).

d ) Var(1A ) 14 .

180. Sea X 0 con n-esimo momento finito. Demuestre que


Z
n
E(X ) = n
xn1 [1 F (x)] dx.
0

181. Sea X discreta con valores 0, 1, . . . y con segundo momento finito.


Demuestre que
2

E(X ) =

n=1

(2n 1)P (X n).

62

182. (Desigualdad de Cauchy-Schwarz.) Sean X y Y con segundo momento


finito. Demuestre que
E 2 (XY ) E(X 2 )E(Y 2 ).
Sugerencia: Observe que para cualquier valor real de t, E[(tX +Y )2 ]
0. Desarrolle el cuadrado y encuentre una ecuaci
on cuadr
atica en t,
que puede decir de su discriminante?
183. Use la desigualdad de Cauchy-Schwarz para demostrar que el espacio
L2 (, F, P ) consistente de todas las variables aleatorias X tales que
E|X|2 < , es un espacio vectorial.
184. Demuestre que si X es una variable aleatoria acotada, es decir, existe
k > 0 tal que P (|X| k) = 1, entonces todos los momentos de X
existen.

2.6.

Distribuciones discretas

En esta secci
on se estudian algunas distribuciones discretas de probabilidad
de uso com
un. Vease el apendice A al final del libro para algunas otras
distribuciones de probabilidad o para consultar algunas otras propiedades
de las distribuciones enunciadas en esta secci
on.
Distribuci
on uniforme discreta. Se dice que X tiene una distribuci
on
uniforme sobre el conjunto {x1 , . . . , xn } si la probabilidad de que X tome
cualquiera de estos valores es 1/n. Esta distribuci
on surge en espacios de
probabilidad equiprobables, esto es, en situaciones en donde se tienen n
resultados diferentes y todos ellos tienen la misma probabilidad de ocurrir. Los juegos de lotera justos son un ejemplo donde puede aplicarse esta
distribuci
on. Se escribe X unif{x1 , . . . , xn } y para x = x1 , . . . , xn
f (x) = P (X = x) =

1
.
n

La gr
afica de la funci
on de densidad unif{1, 2, 3, 4, 5, 6, 7} aparece en la
figura 2.1. Es f
acil ver que
n

E(X) =

1X
xi ,
n
i=1

Var(X) =

n
1X
(xi E(X))2 .
n
i=1

EJERCICIOS
185. Sea X con distribuci
on unif{1, . . . , n}. Demuestre que
63

fHxL

Figura 2.1: Funcion de densidad de la distribucion unif{1, 2, 3, 4, 5, 6, 7}.

n+1
.
2
(n + 1)(2n + 1)
b) E(X 2 ) =
.
6
n2 1
.
c) Var(X) =
12

a) E(X) =

186. Se escogen al azar y de manera independiente dos n


umeros a y b dentro del conjunto {1, . . . , n}. Demuestre que la probabilidad de que el
cociente a/b sea menor o igual a uno es (n + 1)/2n.

Distribuci
on Bernoulli. Un ensayo Bernoulli es un experimento aleatorio con u
nicamente dos posibles resultados, llamados genericamente exito
y fracaso, y con probabilidades respectivas p y 1 p. Se define la variable
aleatoria X como aquella funci
on que lleva el resultado exito al n
umero
1 y el resultado fracaso al n
umero 0. Entonces se dice que X tiene una
distribuci
on Bernoulli con par
ametro p (0, 1). Se escribe X Ber(p) y la
correspondientes funci
on de densidad es

1 p si x = 0,
p
si x = 1,
f (x) =

0
otro caso.
La gr
afica de la funci
on de densidad de la distribuci
on Ber(p) para p =0.7
aparece en la figura 2.2. Es sencillo verificar que
E(X) = p,
Var(X) = p(1 p).
EJERCICIOS
187. Compruebe que la funci
on de densidad de la distribuci
on Ber(p) efectivamente lo es. Obtenga adem
as la correspondiente funci
on de distribuci
on. Grafique ambas funciones.
64

fHxL

0.7

0.3

Figura 2.2: Funcion de densidad de la distribucion Ber(p) para p = 0,7.

188. Sea X con distribuci


on Ber(p). Demuestre que
a) E(X) = p.
b) E(X n ) = p para n 1.
c) Var(X) = p(1 p).

Distribuci
on binomial. Suponga que se realizan n ensayos independientes
Bernoulli en donde la probabilidad de exito en cada uno de ellos es p. Si
denotamos por E el resultado exito y por F el resultado fracaso entonces
el espacio muestral consiste de todas las posibles sucesiones de tama
no n
de caracteres E y F. Usando el principio multiplicativo, es f
acil ver que el
conjunto tiene 2n elementos. Si ahora se define la variable aleatoria X
como el n
umero de exitos en cada una de estas sucesiones entonces X toma
los valores 0, 1, . . . , n y se dice que X tiene una distribuci
on binomial con
par
ametros n y p. Se escribe X bin(n, p) y para x = 0, 1, . . . , n


n
px (1 p)nx .
f (x) = P (X = x) =
x
fHxL

fHxL

fHxL

0.3

0.3

0.3

0.2

0.2

0.2

0.1

0.1

0.1

(a)

9 10

(b)

9 10

9 10

(c)

Figura 2.3: Funcion de densidad de la distribucion bin(n, p) para n = 10 y (a) p = 0,3,


(b) p = 0,5, (c) p = 0,7.

En la figura 2.3 se muestra el comportamiento de la funci


on de densidad de
la distribuci
on bin(n, p) para n = 10 y varios valores del par
ametro p. Se
65

puede demostrar que


E(X) = np,
Var(X) = np(1 p).
EJERCICIOS
189. Use el teorema del binomio para comprobar que la funci
on de densidad
de la distribuci
on bin(n, p) efectivamente lo es.
190. Sea X con distribuci
on bin(n, p). Demuestre que
a)
b)
c)
d)
e)

E(X) = np.
E(X 2 ) = np(1 p + np).
Var(X) = np(1 p).
E(X np)3 = npq(q p).
E(X np)4 = 3n2 p2 q 2 + npq(1 6qp).

191. Sea X con distribuci


on bin(n, p). Demuestre que Y = n X tiene
distribuci
on bin(n, 1 p).
192. Sea X con distribuci
on bin(n, p). Demuestre que
nx
p

P (X = x).
1p x+1
b) P (X = x 1)P (X = x + 1) P 2 (X = x).

a) P (X = x + 1) =

193. Se lanza una moneda equilibrada 6 veces. Calcule la probabilidad de


que cada cara caiga exactamente 3 veces.
194. Se lanza una moneda equilibrada 2n veces. Calcule la probabilidad de
que ambas caras caigan el mismo n
umero de veces.

Distribuci
on geom
etrica. Suponga que se tiene una sucesi
on infinita de
ensayos independientes Bernoulli. Se define X como el n
umero de fracasos
antes de obtener el primer exito. Se dice entonces que X tiene una distribuci
on geometrica con par
ametro p. Se escribe X geo(p) y para x = 0, 1, . . .
f (x) = P (X = x) = p(1 p)x .

La gr
afica de la funci
on de densidad geo(p) aparece en la figura 2.4 para
p =0.4. Para la distribuci
on geo(p) se tiene que
E(X) =
Var(X) =

1p
,
p
1p
.
p2

En algunos textos se define tambien la distribuci


on geometrica como el
n
umero de ensayos (no el de fracasos) antes del primer exito. La distribuci
on
cambia ligeramente.
66

fHxL

0.4
0.3
0.2
0.1
1

9 10

Figura 2.4: Funcion de densidad de la distribucion geo(p) con p = 0,4.

EJERCICIOS
195. Compruebe que la funci
on de densidad de la distribuci
on geo(p) efectivamente lo es.
196. Sea X con distribuci
on geo(p). Demuestre que
1p
.
p
1p
b) Var(X) =
.
p2

a) E(X) =

197. Sea X con distribuci


on geo(p). Demuestre que P (X n) = (1 p)2 .
Ahora use este resultado y la f
ormula del ejercicio 162 en la p
agina 58
para demostrar que E(X) = (1 p)/p.
198. Sea X con distribuci
on geo(p). Demuestre que
P (X x + y | X x) = P (X y).
Distribuci
on Poisson. Se dice que X tiene una distribuci
on Poisson con
par
ametro > 0 y se escribe X Poisson() cuando para x = 0, 1, . . .
f (x) = P (X = x) =

x
e .
x!

En la figura 2.5 aparece la gr


afica de la funci
on de densidad de la distribuci
on
Poisson() para = 2. Puede demostrarse que
E(X) = ,
Var(X) = .

67

fHxL

0.3
0.2
0.1

Figura 2.5: Funcion de densidad de la distribucion Poisson() con = 2.

EJERCICIOS
199. Compruebe que la funci
on de densidad de la distribuci
on Poisson()
efectivamente lo es.
200. Sea X con distribuci
on Poisson(). Demuestre que
a) E(X) = .
b) E(X 2 ) = ( + 1).
c) Var(X) = .
d ) E(X 3 ) = E(X + 1)2 .
201. Sean X y Y independientes ambas con distribuci
on Poisson con par
ametros 1 y 2 respectivamente. Demuestre que X + Y tiene distribuci
on
Poisson(1 + 2 ).
202. Sea X con distribuci
on Poisson(). Demuestre que

P (X = x).
x+1
b) P (X = x 1)P (X = x + 1) P 2 (X = x).

a) P (X = x + 1) =

203. Sea X con distribuci


on Poisson(). Demuestre que
1
a) P (X {1, 3, 5, . . .}) = (1 e2 ).
2
1
b) P (X {0, 2, 4, . . .}) = (1 + e2 ).
2
204. Convergencia de la distribuci
on binomial a la Poisson. Para cada entero positivo n, sea Xn con distribuci
on bin(n, /n) con > 0. Demuestre que para k = 0, 1, . . .
lm P (Xn = k) = e

68

k
k!

Distribuci
on binomial negativa. Suponga una sucesi
on infinita de ensayos independientes Bernoulli en donde la probabilidad de exito en cada
ensayo es p. Sea X el n
umero de fracasos antes de obtener el r-esimo exito. Se dice entonces que X tiene una distribuci
on binomial negativa con
par
ametros r y p. Se escribe X bin beg(r, p) y para x = 0, 1 . . .


r+x1
pr (1 p)x .
f (x) = P (X = x) =
x
Es claro que esta distribuci
on es una generalizaci
on de la distribuci
on geometrica, la cual se obtiene cuando r = 1. Se puede demostrar que
E(X) =
Var(X) =

r(1 p)
p
r(1 p)
.
p2

EJERCICIOS
205. Compruebe que la funci
on de densidad de la distribuci
on bin neg(r, p)
efectivamente lo es.
206. Sea X con distribuci
on bin neg(r, p). Demuestre que
r(1 p)
.
p
r(1 p)
.
b) Var(X) =
p2

a) E(X) =

Distribuci
on hipergeom
etrica. Suponga que se tiene un conjunto de N
objetos de los cuales K son de una primera clase y N K son de una segunda
clase. Suponga que de este conjunto se toma una muestra de tama
no n, la
muestra es sin reemplazo y el orden de los objetos seleccionados no importa.
Se define X como el n
umero de objetos de la primera clase contenidos en
la muestra seleccionada. Entonces X puede tomar los valores 0, 1, 2, . . . , n,
suponiendo n K. Decimos que X tiene una distribuci
on hipergeometrica
con par
ametros N , K y n. Se escribe X hipergeo(N, K, n) y para x =
0, 1, . . . , n



N K
K
nx
x


.
f (x) = P (X = x) =
N
n
Es posible comprobar que

K
,
N
K N K N n
.
Var(X) = n
N N N 1
E(X) = n

69

EJERCICIOS
207. Compruebe que la funci
on de densidad de la distribuci
on hipergeo(N, K, n)
efectivamente lo es.
208. Sea X con distribuci
on hipergeo(N, K, n). Demuestre que cuando N, K
y N K tienden a infinito de tal forma que K/N p y (N K)/N
(1 p) entonces


n
px (1 p)nx .
P (X = x)
x

2.7.

Distribuciones continuas

Ahora se estudian algunas distribuciones de probabilidad de variables aleatorias continuas. Algunas otras distribuciones continuas ser
an estudiadas en
el Captulo 5 que trata sobre distribuciones de probabilidad que surgen en
la estadstica.
Distribuci
on uniforme continua. Se dice que X tiene distribuci
on uniforme en el intervalo (a, b) y se escribe X unif(a, b), cuando para x (a, b),
f (x) =

1
.
ba

En la figura 2.6 se muestra la gr


afica de la funci
on de densidad unif(a, b)
fHxL

Figura 2.6: Funcion de densidad unif(a, b) con a = 1 y b = 3.


con a = 1 y b = 3. Es f
acil verificar que
E(X) =
Var(X) =

70

a+b
,
2
(b a)2
.
12

EJERCICIOS
209. Compruebe que la funci
on de densidad de la distribuci
on unif(a, b)
efectivamente lo es. Calcule adem
as la correspondiente funci
on de distribuci
on. Grafique ambas funciones.
210. Sea X con distribuci
on unif(a, b). Demuestre que
a+b
.
2
bn+1 an+1
b) E(X n ) =
.
(n + 1)(b a)

a) E(X) =

c) Var(X) =

(b a)2
.
12

211. Sea X con distribuci


on unif(0, 1). Demuestre que E(X n ) = 1/(n + 1).
212. Sea X con distribuci
on unif(1, 1). Demuestre que

1
si n es par,
E(X n ) =
n+1
0
si n es impar.

213. Sea X con distribuci


on unif(0, 1). Obtenga la distribuci
on de
a) Y = 10X 5.

b) Y = 4X(1 X).

214. Sea X con distribuci


on unif(0, 1) y sea 0 < p < 1. Demuestre que la
variable aleatoria Y = 1 + ln X/ ln p tiene distribuci
on geo(p). La
expresi
on x denota la parte entera de x.
Distribuci
on exponencial. Se dice que X tiene una distribuci
on exponencial con par
ametro > 0 y se escribe X exp() cuando para x > 0,
f (x) = ex .
La gr
afica de la funci
on de densidad exponencial para = 3 aparece en la
figura 2.7. Es muy sencillo verificar que
E(X) =
Var(X) =

1
,

1
.
2

EJERCICIOS
215. Compruebe que la funci
on de densidad de la distribuci
on exp() efectivamente lo es.
71

fHxL
3
2
1

Figura 2.7: Funcion de densidad exp() con = 3.

216. Sea X con distribuci


on exp(). Demuestre que
a) F (x) = 1 ex para x > 0.
b) F (x + y) F (y) = F (x)[1 F (y)] para x, y > 0.
217. Sea X con distribuci
on exp(). Demuestre que
a) E(X) =

1
.

b) Var(X) =

1
.
2

218. Sea X con distribuci


on exp(). Demuestre que
P (X x + y | X x) = P (X y).
La distribuci
on exponencial es la u
nica distribuci
on continua que satisface esta propiedad llamada perdida de memoria.
219. Sea X una variable aleatoria con funci
on de distribuci
on F (x) continua, estrictamente creciente y tal que 0 < F (x) < 1. Demuestre que la
variable aleatoria Y = ln F (X) tiene distribuci
on exp() con = 1.
220. Se dice que X tiene distribuci
on exponencial bilateral (o doble) con
par
ametro > 0 si su funci
on de densidad es, para x en R,
1
f (x) = e|x| .
2
Demuestre que
a) E(X) = 0.
b) Var(X) =

2
.
2

Distribuci
on gama. Se dice que X tiene distribuci
on gama con par
ametros
> 0 y n > 0 si para x > 0,
f (x) =

(x)n1 ex .
(n)
72

En tal caso se escribe X gama(n, ). La gr


afica de la funci
on de densidad
fHxL
1

10

Figura 2.8: Funcion de densidad gama(, n) con = 3 y n = 5.


gama para = 3 y n = 5 aparece en la figura 2.8. El termino (n) es la
funci
on gama definida como sigue
Z
(n) =
tn1 et dt
0

para valores de n tal que la integral es convergente. Esta funci


on satisface
las siguientes propiedades
1. (n + 1) = n(n).
2. (n + 1) = n! para n entero positivo.
3. (2) = (1) = 1.

4. (1/2) = .
Observe que cuando n = 1 la distribuci
on gama(n, ) se reduce a la distribuci
on exp(). Resolviendo un par de integrales se puede demostrar que
E(X) =
Var(X) =

n
,

n
.
2

EJERCICIOS
221. Compruebe que la funci
on de densidad de la distribuci
on gama(n, )
efectivamente lo es.
222. Demuestre que la distribuci
on gama(n, ) con n = 1 se reduce a la
distribuci
on exp().

73

223. Sea X con distribuci


on gama(n, ). Demuestre que la funci
on de distribuci
on de X es, para x > 0,
F (x) = 1

n1
X
j=0

ex

(x)j
.
j!

224. Sea X con distribuci


on gama(n, ). Demuestre que
n
a) E(X) = .

(m + n)
b) E(X m ) = m
para m = 1, 2, . . ..
(n)
n
c) Var(X) = 2 .

225. Demuestre las siguientes propiedades de la funci


on gama.
a)
b)
c)
d)

(n + 1) = n(n).
(n + 1) = n! para n entero.
(2) = (1) = 1.

(1/2) = .
1 3 5 (2n 1)
e) (n + 1/2) =
para n entero.
2n

Distribuci
on beta. Se dice que X tiene distribuci
on beta con par
ametros
a > 0 y b > 0, y se escribe X beta(a, b) cuando para x (0, 1),
f (x) =

1
xa1 (1 x)b1 .
B(a, b)

En la figura 2.9 aparece la gr


afica de la funci
on de densidad beta(a, b) para
fHxL

0.5

Figura 2.9: Funcion de densidad beta(a, b). De derecha a izquierda a = 2 y b = 6, a = 4


y b = 4, a = 6 y b = 2. La linea horizontal corresponde a a = 1 y b = 1.
varios valores de los par
ametros a y b. El termino B(a, b) se conoce como la
funci
on beta y se define como sigue
Z 1
B(a, b) =
xa1 (1 x)b1 dx,
0

74

para a > 0 y b > 0. Esta funci


on satisface las siguientes propiedades.
1. B(a, b) = B(b, a).
2. B(a, b) =

(a)(b)
.
(a + b)

En este caso
E(X) =
Var(X) =

a
,
a+b
ab
.
(a + b + 1)(a + b)2

EJERCICIOS
226. Compruebe que la funci
on de densidad de la distribuci
on beta(a, b)
efectivamente lo es.
227. Sea X con distribuci
on beta(a, b). Demuestre que
a
.
a+b
B(a + n, b)
b) E(X n ) =
.
B(a, b)
ab
c) Var(X) =
.
(a + b + 1)(a + b)2

a) E(X) =

228. Sea X con distribuci


on beta(a, b). Demuestre que


E(X)(1 E(X))
1 .
a) a = E(X)
Var(X)


E(X)(1 E(X))
1 .
b) b = (1 E(X))
Var(X)
E(X)(1 E(X))
c) a + b =
1.
Var(X)
229. Demuestre las siguientes propiedades de la funci
on beta.
a) B(a, b) = B(b, a).
(a)(b)
b) B(a, b) =
.
(a + b)
1
c) B(a, 1) = .
a
1
d ) B(1, b) = .
b
a
e) B(a + 1, b) = B(a, b + 1).
b
a
B(a, b).
f ) B(a + 1, b) =
a+b
75

b
B(a, b).
a+b
h) B(1/2, 1/2) = .
g) B(a, b + 1) =

230. Sea X con distribuci


on beta(1/2, 1/2). En este caso se dice que X tiene
una distribuci
on arcoseno.
a) Calcule y grafique f (x).
b) Demuestre directamente que f (x) es una funci
on de densidad.
c) Calcule directamente que E(X) = 1/2 y Var(X) = 1/8.
231. Sea X con distribuci
on beta(a, b).

0
xa
F (x) =

Demuestre que para a > 0 y b = 1,


si x 0,
si 0 < x < 1,
si x 1.

232. Sea X con distribuci


on beta(a, b). Demuestre que para a = 1 y b > 0,

si x 0,
0
b
1 (1 x) si 0 < x < 1,
F (x) =

1
si x 1.

233. Demuestre que X tiene distribuci


on beta(a, b) si y solo si 1 X tiene
distribuci
on beta(b, a).
234. Demuestre que la distribuci
on beta(a, b) con a = b = 1 se reduce a la
distribuci
on unif(0, 1).

Distribuci
on normal. Esta es posiblemente la distribuci
on de probabilidad de mayor importancia. Se dice que X tiene una distribuci
on normal o
Gausiana si su funci
on de densidad es
f (x) =

1
2 2

e(x)

2 /2 2

en donde R y 2 > 0 son dos par


ametros. Se escribe X N(, 2 ).
La gr
afica de la funci
on de densidad normal aparece en la Figura 2.10 para
= 3 y 2 = 2. No es difcil probar que
E(X) = ,
Var(X) = 2 .
En particular se dice que X tiene una distribuci
on normal est
andar si
= 0 y 2 = 1. En este caso particular
1
2
f (x) =
ex /2 .
2
Es posible transformar una variable aleatoria normal no est
andar en una
est
andar mediante la siguiente operaci
on llamada estandarizaci
on.
76

fHxL

20

Figura 2.10: Funcion de densidad de la distribucion N(, 2 ) para = 3 y 2 = 2.

Proposici
on 34 Si X N(, 2 ) entonces Z =

X
N(0, 1).

Demostraci
on.
FZ (z) = P (Z z)
X
= P(
z)

= P (X + z)
= FX ( + z).

Por lo tanto
fZ (z) = fX ( + z)
1
2
ez /2 .
=
2

Es tambien f
acil de demostrar que el recproco del resultado anterior es
v
alido. Com
unmente se usa la letra Z para denotar una variable aleatoria
con distribuci
on N(0, 1). En particular se usa la notaci
on (z) = P (Z z).
EJERCICIOS
235. Demuestre que la funci
on de densidad de la distribuci
on N(, 2 )
a) es efectivamente una funci
on de densidad.
b) es simetrica respecto de x = .
c) alcanza su m
aximo en x = .
d ) tiene puntos de inflexi
on en x = .
236. Sea X con distribuci
on N(, 2 ). Demuestre que
a) E(X) = .
77

b) Var(X) = 2 .
237. Sea X con distribuci
on N(, 2 ). Demuestre que

0
si n es impar,
n
E|X | =
1 3 5 (n 1) n si n es par.
238. Demuestre que X tiene distribuci
on N(, 2 ) si y solo si Z = (X )/
tiene distribuci
on N(0, 1).
239. Sea X con distribuci
on N (0, 1). Demuestre que

0
si n es impar,
E(X n ) =
(2n)!
n
si n es par.
2 n!

240. Sea X con distribuci


on N(, 2 ). Demuestre que Y = aX + b, con
a 6= 0, tiene una distribuci
on normal. Encuentre los par
ametros correspondientes.

241. Sea X con distribuci


on N(, 2 ). Demuestre que Y = X tiene una
distribuci
on normal. Encuentre los par
ametros correspondientes.
242. Sea X con distribuci
on N(0, 1). Demuestre que X 2 tiene una distribu2
ci
on (1). Rec
procamente, ser
a cierto que si Y tiene distribuci
on

2
(1) entonces Y tiene distribuci
on N(0, 1)?
243. Sea X con distribuci
on N(0, 1). Encuentre la funci
on de densidad de
Y = |X|.
244. (El cociente de Mills.) Sea (x) la funci
on de densidad de la distribuci
on normal est
andar y sea (x) la correspondiente funci
on de distribuci
on. Demuestre que
a) (x) + x(x) = 0.
1
1
1 (x)
1
1
3
b)
3 <
< 3+ 5
x x
(x)
x x
x

para x > 0.

Distribuci
on log normal. Si X tiene distribuci
on N(, 2 ) entonces Y =
X
2
e tiene una distribuci
on log normal(, ) y su funci
on de densidad es,
para y (0, ),


(ln y )2
1
exp
f (y) =
.
2 2
y 2 2
La gr
afica de la funci
on de densidad de la distribuci
on lognormal (, 2 )
2
aparece en la figura 2.11 para = 3 y = 2. Se puede demostrar que
E(Y ) = exp( + 2 /2),
Var(Y ) = exp(2 + 2 2 ) exp(2 + 2 ).
Otras distribuciones continuas de interes se encuentran en el captulo sobre
distribuciones muestrales.
78

fHxL

20

10

15

20

Figura 2.11: Funcion de densidad de la distribucion log normal(, 2 ) con = 3 y


2 = 2.

EJERCICIOS
245. Demuestre que la funci
on de densidad de una distribuci
on log normal(, 2 )
efectivamente lo es.
246. Sea X con distribuci
on log normal(, 2 ). Demuestre que
a) E(X) = exp{ + 2 /2}.
b) Var(X) = exp{2 + 2 2 } exp{2 + 2 }.
c) E(ln X) = .

d ) Var(ln X) = 2 .

79

Captulo 3

Vectores aleatorios
En este captulo se extiende el concepto de variable aleatoria con valores
en R a variables aleatorias con valores en Rn y se estudian algunos conceptos relacionados. Recordemos que tenemos siempre como elemento base un
espacio de probabilidad (, F, P ).

3.1.

Vectores aleatorios

Definici
on 20 Un vector aleatorio es una funci
on X : Rn tal que para
cualquier conjunto B en B(Rn ), se cumple que X 1 B es un elemento de F.

Un vector aleatorio puede representarse en la forma X = (X1 , . . . , Xn ) en


donde cada Xi es una funci
on de en R. Demostraremos a continuaci
on
que la definici
on anterior es equivalente a definir un vector aleatorio como
un vector de variables aleatorias.

Proposici
on 35 Una funci
on X = (X1 , . . . , Xn ) : Rn es un vector
aleatorio si y solo si cada coordenada Xi : Rn es una variable aleatoria.

Demostraci
on. Sea (X1 , . . . , Xn ) un vector aleatorio. Entonces la imagen
inversa de cualquier conjunto de Borel de Rn es un elemento de la -
algebra
del espacio de probabilidad. En particular, la imagen inversa del conjunto
B pertenece a F para cualquier Boreliano B de R. Pero esta
imagen inversa es simplemente X11 B. Esto demuestra que X1 es variable
aleatoria y de manera an
aloga se procede con las otras coordenadas del
vector. Suponga ahora que cada coordenada de una funci
on (X1 , . . . , Xn ) :
80

Rn es una variable aleatoria. Considere la colecci


on B = {B B(Rn ) :
1
(X1 , . . . , Xn ) B F}. Como cada coordenada es una variable aleatoria,
los conjuntos de Borel de Rn de la forma B1 Bn , en donde cada Bi
es un Boreliano de R, es un elemento de la colecci
on B. Entonces
B(R) B(R) B B(Rn ).

Es f
acil demostrar que la colecci
on B es una -
algebra. Asi que
(B(R) B(R)) B B(Rn ).

Pero ambos extremos de esta ecuaci


on coinciden. De modo que B = B(Rn )
y por lo tanto la funci
on (X1 , . . . , Xn ) es un vector aleatorio.

Para simplificar la escritura donde sea posible se usan u
nicamente vectores
aleatorios bidimensionales, esto es, de la forma (X, Y ). En la mayora de los
casos las definiciones y resultados son f
acilmente extendidos a dimensiones
mayores.
Definici
on 21 Se dice que el vector (X, Y ) es discreto si cada coordenada
es una v.a. discreta y es continuo en caso de que cada coordenada lo sea.

3.2.

Distribuci
on conjunta

A menudo es necesario considerar probabilidades de eventos que involucran


a dos o mas variables aleatorias al mismo tiempo y de manera conjunta. El
concepto fundamental en este caso es el de funci
on de distribuci
on conjunta
que se define a continuaci
on.

Definici
on 22 La funci
on de distribuci
on de un vector (X, Y ), denotada
por F (x, y) : R2 [0, 1], se define como sigue
F (x, y) = P (X x, Y y).

En palabras, la funci
on F (x, y) es la probabilidad de que X sea menor o igual
a x y al mismo tiempo Y sea menor o igual que y, esto es la probabilidad del
evento (X x) (Y y). A la funci
on F (x, y) se le conoce tambien como
funci
on de distribuci
on bivariada de X y Y . Cuando sea necesario especificarlo se escribe FX,Y (x, y) en lugar de F (x, y) y debe ser claro la forma de
extender la definici
on para el caso de un vector aleatorio multidimensional.
Las funciones de distribuci
on conjuntas satisfacen propiedades semejantes
al caso unidimensional. Estudiaremos a continuaci
on algunas de ellas.
Proposici
on 36 La distribuci
on conjunta F (x, y) satisface las siguientes
propiedades.
81

1.
2.

lm F (x, y) = 1.

x,y

lm

x,y

F (x, y) = 0.

3. F (x, y) es no decreciente en cada variable.


4. F (x, y) es continua por la derecha en cada variable.
5. Si a < b y c < d entonces
F (b, d) F (a, d) F (b, c) + F (a, c) 0.
La demostraci
on de las propiedades (1)-(4) es completamente an
aloga al
caso unidimensional y por tanto la omitiremos. Respecto a la propiedad (5)
observe que
F (b, d) F (a, d) F (b, c) + F (a, c) = P (a < X b, c < Y d).
De modo que (5) se traduce simplemente en solicitar que la probabilidad de
que (X, Y ) tome valores en el cuadrado (a, b](c, d] sea no negativa. A diferencia del caso unidimensional, las propiedades (1) a (4) no son suficientes
para asegurar que una funci
on F (x, y) asigna probabilidad no negativa a
cualquier cuadrado (a, b] (c, d]. Vease por ejemplo el ejercicio 250 en la
p
agina 83 en donde tal condici
on falla. Por tanto en el caso de dimensi
on
dos y superiores es necesario pedir tal condici
on.
Definici
on 23 Una funci
on cualquiera F (x, y) : R2 [0, 1], no necesariamente definida en terminos de un vector aleatorio, es una funci
on de distribuci
on conjunta si cumple con las cinco propiedades enunciadas en la
proposici
on anterior.
Para tres dimensiones se dice que F (x1 , x2 , x3 ) : R3 [0, 1] es una funci
on
de distribuci
on si cumple las primeras cuatro propiedades anteriores y la
quinta se reemplaza por la siguiente condici
on. Para cualesquiera n
umeros
reales a1 < b1 , a2 < b2 y a3 < b3 ,
F (b1 , b2 , b3 ) F (a1 , b2 , b3 ) F (b1 , a2 , b3 ) F (b1 , b2 , a3 )

+F (a1 , a2 , b3 ) + F (a1 , b2 , a3 ) + F (b1 , a2 , a3 )


F (a1 , a2 , a3 ) 0.

Se puede demostrar que el lado izquierdo de esta desigualdad corresponde


a la probabilidad del evento (a1 < X1 b1 , a2 < X2 b2 , a3 < X3 b3 ) y
entonces el requisito es que naturalmente este n
umero sea no negativo.
M
as generalmente, una funci
on F (x1 , . . . , xn ) : Rn [0, 1] es una funci
on
de distribuci
on si cumple las primeras cuatro propiedades anteriores y adicionalmente para cualesquiera n
umeros reales a1 < b1 , a2 < b2 , . . ., an < bn ,
X
(1)#a F (x1 , . . . , xn ) 0,
xi {ai ,bi }

82

en donde #a es el n
umero de veces que alguna de las variables xi toma el
valor ai en la evaluaci
on de la funci
on F . Nuevamente la suma corresponde a
la probabilidad del evento (a1 < X1 b1 , . . . , an < Xn bn ), y la condici
on
establece simplemente que este n
umero sea no negativo.
Finalmente enunciamos un resultado que establece la importancia de la funci
on de distribuci
on y que es consecuencia del caso unidimensional.

Proposici
on 37 Sea F (x1 , . . . , xn ) : Rn R una funci
on que satisface las
cinco propiedades anteriores. Entonces existe un espacio de probabilidad y
una vector aleatorio cuya funci
on de distribuci
on es F (x1 , . . . , xn ).

EJERCICIOS
247. Grafique y demuestre que las siguientes funciones son de distribuci
on.
1 1
a) F (x, y) = (1 ex )( + tan1 y) para x 0.
2
b) F (x, y) = 1 ex ey + exy para x, y 0.
248. Investigue si las siguientes funciones son de distribuci
on.
a) F (x, y) = 1 exy para x, y 0.

b) F (x, y) = 1 exy para x, y 0.

249. Demuestre que la siguiente funci


on no es de distribuci
on.

0 si x + y < 0,
F (x, y) =
1 si x + y 0.
250. Demuestre que la siguiente funci
on no es de distribuci
on.

mn{1, m
ax{x, y}} si x, y > 0,
F (x, y) =
0
otro caso.
251. Sean F (x) y G(x) dos funciones de distribuci
on. Demuestre o proporcione un contraejemplo para las siguientes afirmaciones.
a) F (x)G(x) es una funci
on de distribuci
on univariada.
b) F (x)G(y) es una funci
on de distribuci
on bivariada.
252. Diga falso o verdadero. Justifique en cada caso.
a) P (X > x, Y > y) = 1 P (X x, Y y).
b) P (X x, Y y) P (X x).

c) P (X x) = P (X x, Y x) + P (X x, Y > x).
83

d ) P (X + Y x) P (X x).
e) P (XY < 0) P (X < 0).

253. Sean X y Y variables aleatorias con funci


on de distribuci
on conjunta
F (x, y). Demuestre que para cualesquiera n
umeros reales a < b y c < d,
P (a < X b, c < Y d) = F (b, d) + F (a, c) F (a, d) F (b, c).
254. Sean X1 , X2 y X3 variables aleatorias con funci
on de distribuci
on conjunta F (x1 , x2 , x3 ). Demuestre que para cualesquiera n
umeros reales
a1 < b1 , a2 < b2 y a3 < b3 , la probabilidad
P (a1 < X1 b1 , a2 < X2 b2 , a3 < X3 b3 )
es igual a
F (b1 , b2 , b3 ) F (a1 , b2 , b3 ) F (b1 , a2 , b3 ) F (b1 , b2 , a3 )
+F (a1 , a2 , b3 ) + F (a1 , b2 , a3 ) + F (b1 , a2 , a3 )
F (a1 , a2 , a3 ).
255. Sea (X, Y ) un vector con funci
on de distribuci
on conjunta FX,Y (x, y).
2
Demuestre que para todo (x, y) en R ,
p
FX (x) + FY (y) 1 FX,Y (x, y) FX (x)FY (y).

256. Considere el espacio = [0, 1] [0, 1] junto con (B[0, 1] B[0, 1]) y
P la medida de probabilidad uniforme sobre . Sea X : R2 el
vector aleatorio dado por
X(1 , 2 ) = (1 2 , 1 2 ).
Demuestre que X es efectivamente un vector aleatorio y encuentre su
funci
on de distribuci
on.
257. Sea X con funci
on de distribuci
on F (x). Demuestre que F (x) es continua en x = x0 si y solo si P (X = x0 ) = 0.

3.3.

Densidad conjunta

Como en el caso unidimensional, los vectores discretos o absolutamente continuos tienen asociada una funci
on de densidad la cual se define a continuaci
on.

Definici
on 24 La funci
on de densidad de un vector discreto (X, Y ) es la
funci
on f (x, y) : R2 R dada por
f (x, y) = P (X = x, Y = y).

84

Es evidente que la funci


on de densidad de un vector discreto es una funci
on
no negativa y tal que
XX
f (x, y) = 1.
x

Recprocamente, toda funci


on no negativa f (x, y) : R2 R que sea estrictamente positiva u
nicamente en un subconjunto discreto de R2 y que sume
uno, se llama funci
on de densidad conjunta.
Ejemplo 12 La funci
on
f (x, y) =


1 x+y
2

para x, y = 1, 2, . . .
otro caso.

es de densidad pues es no negativa y suma uno,

f (x, y) =

x,y=1

x,y=1

1
2x+y

=(

X
1 2
) = 1.
2x
x=1

La definici
on de funci
on de densidad de un vector continuo es la siguiente.

Definici
on 25 Sea (X, Y ) un vector continuo con funci
on de distribuci
on
F (x, y). Se dice que (X, Y ) es absolutamente continuo si existe una funci
on no negativa e integrable f (x, y) : R2 R tal que para todo (x, y) en R2
se cumple la igualdad
Z x Z y
F (x, y) =
f (u, v) dv du.

A la funci
on f (x, y) se le denota por fX,Y (x, y) y se le llama funci
on de
densidad conjunta de X y Y .

Es claro que la funci


on de densidad conjunta f (x, y) de un vector absolutamente continuo es no negativa y cumple la condici
on
Z Z
f (x, y) dx dy = 1.

Recprocamente, toda funci


on no negativa f : R2 R que integre uno se
llama funci
on de densidad. En particular, cuando f (x, y) es continua,
f (x, y) =

2
F (x, y).
yx

85

EJERCICIOS
258. Grafique y demuestre que las siguientes son funciones de densidad.
1
para 0 < x < a, 0 < y < b.
ab
b) f (x, y) = 4xy para 0 x, y 1.

a) f (x, y) =

c) f (x, y) = 6x2 y para 0 x, y 1.

d ) f (x, y) = 49 x2 y 2 para 1 x, y 1.
e) f (x, y) = exy para x, y > 0.
f ) f (x, y) = ex para 0 < y < x.
259. Calcule la constante c que hace a f una funci
on de densidad.
a) f (x) = cx para 0 x 1.

b) f (x, y) = cx para 0 < y < x < 1.


c) f (x, y) = c(x + y) para 0 x, y 1.

d ) f (x, y) = c(x2 + 21 xy) para 0 < x < 1, 0 < y < 2.


e) f (x, y, z) = c(x + y + z) para 0 x, y, z 1.

f ) f (x1 , . . . , xn ) = c(x1 + + xn ) para 0 x1 , . . . , xn 1.

260. Encuentre la funci


on de densidad del vector (X, Y ) cuya funci
on de
distribuci
on es
1 1
a) F (x, y) = (1 ex )( + tan1 y) para x 0.
2
b) F (x, y) = 1 ex ey + exy para x, y 0.
261. Encuentre la funci
on de distribuci
on del vector (X, Y ) cuya funci
on de
densidad es
1
para 0 < x < a, 0 < y < b.
ab
b) f (x, y) = exy para x, y > 0.

a) f (x, y) =

c) f (x, y) = ey para 0 < x < y.


d ) f (x, y) = 2exy para 0 < x < y.
262. Sean f (x) y g(x) dos funciones de densidad. Demuestre o proporcione
un contraejemplo para las siguientes afirmaciones.
a) f (x)g(x) es una funci
on de densidad univariada.
b) f (x)g(y) es una funci
on de densidad bivariada.
263. Sean X y Y independientes ambas con distribuci
on exp(). Encuentre
la funci
on de densidad y de distribuci
on de
a) W = m
ax{X, Y }.
b) W = mn{X, Y }.

86

3.4.

Distribuci
on marginal

Dada la funci
on de distribuci
on conjunta F (x, y) de un vector aleatorio
(X, Y ) es posible obtener la funci
on de distribuci
on de cada variable aleatoria
por separado mediante el siguiente procedimiento.

Definici
on 26 Sea (X, Y ) un vector con funci
on de distribuci
on F (x, y). A
la funci
on
F (x) = lm F (x, y)
y

se le conoce como la funci


on de distribuci
on marginal de X. An
alogamente
se define la funci
on de distribuci
on marginal de Y como
F (y) = lm F (x, y).
x

No es difcil verificar que las funciones de distribuci


on marginales son efectivamente funciones de distribuci
on univariadas. En el caso de que se tenga
una funci
on de densidad conjunta, se pueden obtener las funciones de densidad individuales como indica la siguiente definici
on.

Definici
on 27 Sea (X, Y ) un vector absolutamente continuo con funci
on
de densidad f (x, y). A la funci
on
Z
f (x) =
f (x, y) dy

se le conoce como la funci


on de densidad marginal de X. An
alogamente
se define la funci
on de densidad marginal de Y como
Z
f (y) =
f (x, y) dx.

Si (X, Y ) es un vector discreto la integral se reemplaza por una suma.

Tampoco es difcil comprobar que las funciones de densidad marginales son


efectivamente funciones de densidad univariadas. Las dos definiciones anteriores pueden extenderse de manera evidente cuando se tenga un vector
aleatorio de cualquier dimensi
on finita.

87

EJERCICIOS
264. Suponiendo el caso absolutamente continuo, demuestre que la funci
on
de densidad marginal,
Z
fX,Y (x, y)dy
x 7 fX (x) =

es efectivamente una funci


on de densidad.
265. Demuestre que la funci
on de distribuci
on marginal
x 7 FX (x) = lm FX,Y (x, y)
y

es efectivamente una funci


on de distribuci
on.
266. Encuentre las funciones de distribuci
on marginales del vector (X, Y )
cuya funci
on de distribuci
on conjunta es
a) F (x, y) = (1 ex )(1 ey ) para x, y > 0.
2

b) F (x, y) = (1 ex )(1 ey ) para x, y > 0.

267. Encuentre las funciones de densidad marginales del vector (X, Y ) cuya
funci
on de densidad conjunta es
1
para 0 < x < a, 0 < y < b.
ab
b) f (x, y) = 4xy para 0 < x, y < 1.

a) f (x, y) =

c) f (x, y) = 24x(1 x y) para x, y > 0 y x + y < 1.


1
d ) f (x, y) = (x + 2y) para 0 < x < 2 y 0 < y < 1.
4
2
e) f (x, y) = (4x + y) para 0 < x, y < 1.
5
1
f ) f (x, y) =
para 0 < y < x < 1.
x
268. Sea 0 < a < 1 y defina la funci
on
f (x, y) = ax (1 a)y para x, y = 1, 2, . . .
a) Demuestre que f (x, y) es una funci
on de densidad.
b) Calcule las funciones de densidad marginales.

3.5.

Distribuci
on condicional

La siguiente definici
on es una extensi
on del concepto elemental de probabilidad condicional de eventos.

88

Definici
on 28 Sea (X, Y ) un vector con funci
on de densidad fX,Y (x, y) y
sea y tal que fY (y) 6= 0. A la funci
on
x 7 fX|Y (x|y) =

fX,Y (x, y)
fY (y)

se le conoce como la funci


on de densidad condicional de X dado que Y
toma el valor y.

No es difcil comprobar que la funci


on x 7 fX|Y (x|y) es efectivamente una
funci
on de densidad, tanto en el caso discreto como en el continuo. Observe
que el valor y de Y permanece fijo y la funci
on es vista como una funci
on
de la variable real x. Se pueden definir tambien funciones de distribuci
on
condicionales de la siguiente forma.

Definici
on 29 Sea (X, Y ) un vector aleatorio absolutamente continuo con
funci
on de densidad fX,Y (x, y) y sea y tal que fY (y) 6= 0. A la funci
on
Z x
x 7 FX|Y (x|y) =
fX|Y (u|y) du

se le conoce como la funci


on de distribuci
on condicional de X dado que
Y toma el valor y. Cuando el vector aleatorio (X, Y ) es discreto la integral
se substituye por la suma correspondiente.

Nuevamente resulta que la funci


on x 7 FX|Y (x|y) es efectivamente una funci
on de distribuci
on. En el caso absolutamente continuo tenemos la relaci
on
fX|Y (x|y) =

F
(x|y).
x X|Y

EJERCICIOS
269. Demuestre que la funci
on de distribuci
on condicional
Z x
x 7 FX|Y (x|y) =
fX|Y (u|y) du

es efectivamente una funci


on de distribuci
on.
270. Demuestre que la funci
on de densidad condicional
x 7 fX|Y (x|y) =

fX,Y (x, y)
fY (y)

es efectivamente una funci


on de densidad.
89

271. Sea (X, Y ) un vector aleatorio absolutamente continuo. Demuestre la


f
ormula

F
(x|y).
fX|Y (x|y) =
x X|Y
272. (Perdida de memoria en la distribuci
on exponencial.) Sea X con distribuci
on exp() y sea t > 0 fijo. Demuestre que la distribuci
on condicional de X t dado que X t sigue siendo exp().
273. Calcule fX|Y (x|y) para las siguientes funciones de densidad conjunta.
1
para 0 < x < a, 0 < y < b.
ab
b) f (x, y) = 4xy para 0 < x, y < 1.

a) f (x, y) =

c) f (x, y) = 24x(1 x y) para x, y > 0 y x + y < 1.


1
d ) f (x, y) = (x + 2y) para 0 < x < 2 y 0 < y < 1.
4
2
e) f (x, y) = (4x + y) para 0 < x, y < 1.
5
1
f ) f (x, y) =
para 0 < y < x < 1.
x
274. Calcule FX|Y (x|y) para las siguientes funciones de distribuci
on conjunta.
1 1
a) F (x, y) = (1 ex )( + tan1 y) para x 0.
2
b) F (x, y) = 1 ex ey + exy para x, y 0.
275. Se hacen tres lanzamientos de una moneda equilibrada. Sea X la v.a.
que denota el n
umero de caras que se obtienen en los dos primeros
lanzamientos y sea Y la v.a. que denota el n
umero de cruces en los dos
u
ltimos lanzamientos. Calcule
a) fX,Y (x, y).
b) fX (x) y fY (y).
c) fY |X (y|x) para x = 0, 1, 2.
276. Sea (X, Y ) un vector con funci
on de densidad
fX,Y (x, y) =

x+y
8

para 0 x, y 2.

Compruebe que f (x, y) es una funci


on de densidad y calcule
a) P (Y > X).
b) P (X > 1 | Y < 1).
c) fX (x) y fY (y).

d ) fX|Y (x|y) y fY |X (y|x).

e) FX,Y (x, y), FX (x) y FY (y).


90

277. Sea (X, Y ) un vector con funci


on de densidad
fX,Y (x, y) = 8xy para 0 < x < y < 1.
Compruebe que f (x, y) es una funci
on de densidad y calcule
a) P (X + Y < 1).
b) P (Y < 1/2 | X < 1/2).
c) fX (x) y fY (y).

d ) fX|Y (x|y) y fY |X (y|x).


278. Sea (X, Y ) un vector con funci
on de densidad
fX,Y (x, y) = 4x(1 y) para 0 < x, y < 1.
Compruebe que f (x, y) es efectivamente una funci
on de densidad y
calcule
a) FX,Y (x, y), FX (x) y FY (y).
b) P (X > 1/2).
c) P (1/4 < Y < 3/4 | X < 1/2).

d ) fX (x) y fY (y).

e) fX|Y (x|y) y fY |X (y|x).

3.6.

Independencia de variables aleatorias

Podemos ahora definir el importante concepto de independencia de variables


aleatorias. Para ello usaremos la siempre existente funci
on de distribuci
on.

Definici
on 30 Se dice que X y Y son independientes si para cada (x, y) en
2
R se cumple la igualdad
FX,Y (x, y) = FX (x)FY (y).

Esta es una extensi


on de la definici
on de independencia de dos eventos A y B,
P (A B) = P (A)P (B). Cuando la funci
on de densidad conjunta fX,Y (x, y)
existe entonces la igualdad anterior es equivalente a la expresi
on
fX,Y (x, y) = fX (x)fY (y).
El concepto de independencia puede ser extendido claramente al caso de
varias variables aleatorias de la forma siguiente. Se dice que X1 , X2 , . . . , Xn
son independientes si para cualquier (x1 , x2 , . . . , xn ) en Rn se cumple
FX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ) = FX1 (x1 )FX2 (x2 ) FXn (xn ).
91

M
as a
un, una sucesi
on infinita de variables aleatorias es independiente si
cualquier subconjunto finito de ella lo es.
Ejemplo 13 Sea (X, Y ) un vector aleatorio con funci
on de densidad
f (x, y) = 4xy para 0 x, y 1.
La gr
afica de esta funci
on aparece en la Figura 3.1.

4
3
fHx,yL 2
1
0
0.25
0.5
x
0.75

1
0.75
0.5
y
0.25
10

Figura 3.1: Funcion de densidad del Ejemplo 13


La funci
on de densidad marginal de X se calcula como sigue. Para 0 x
1,
Z
fX (x) =
f (x, y)dy

4xydy

= 2x.
Por lo tanto
fX (x) = 2x para 0 x 1,
An
alogamente
fY (y) = 2y para 0 y 1.
En consecuencia X y Y son independientes pues para cada par (x, y) se
cumple
fX,Y (x, y) = fX (x)fY (y).
EJERCICIOS
279. Demuestre la variable aleatoria constante X = c es independiente de
cualquier otra variable aleatoria.
280. Sea X independiente de cualquier otra variable aleatoria. Demuestre
que X es constante.
92

281. Demuestre que los eventos A y B son independientes si y solo si las


variables aleatorias 1A y 1B lo son.
282. Determine si las siguientes son funciones de densidad de variables
aleatorias independientes.
1
para 0 < x < a, 0 < y < b.
ab
b) f (x, y) = 2x para 0 < x, y < 1.

a) f (x, y) =

c) f (x, y) = 2exy para 0 < x < y.


d ) f (x, y) = exy para x, y > 0.
3
e) f (x, y) = (x2 + y 2 ) para x, y [1, 1].
8
283. Determine si las siguientes son funciones de distribuci
on de variables
aleatorias independientes.
a) F (x, y) = (1 ex )(1 ey ) para x, y > 0.
2

b) F (x, y) = (1 ex )(1 ey ) para x, y > 0.

284. Demuestre que X y Y son independientes si y solo si para cualesquiera


n
umeros reales x y y,
P (X > x, Y > y) = P (X > x)P (Y > y).
285. Demuestre que X y Y son independientes si y solo si para cualesquiera
n
umeros reales a < b y c < d,
P (a < X b, c < Y d) = P (a < X b) P (c < Y d).
286. Sean X1 , . . . , Xn variables aleatorias independientes cada una con distribuci
on Ber(p). Calcule
P (X1 + + Xn = k) para k = 0, 1, . . . , n.
287. Sean X y Y independientes ambas con distribuci
on unif{1, . . . , n}.
Encuentre la distribuci
on de (U, V ) = (X + Y, X Y ). Determine si
U y V son independientes.
288. Sean X 0 y Y 0 independientes con valores enteros y con esperanza finita. Demuestre que
E(mn{X, Y }) =

n=1

P (X n)P (Y n).

289. Sean X y Y independientes ambas con distribuci


on unif{1, 1}. Sea
Z = XY . Demuestre que X, Y y Z son independientes dos a dos pero
no lo son en su conjunto.

93

290. Sean X y Y independientes con distribuci


on Poisson(1 ) y Poisson(2 )
respectivamente. Demuestre que la distribuci
on condicional de X dado
que X + Y = n es bin(n, 1 /(1 + 2 )).
291. Sean X y Y independientes con distribuci
on unif{0, 1, . . . , n} y unif{0, 1, . . . , m}
respectivamente. Encuentre la funci
on de densidad de Z = X + Y .
292. Sean X1 , . . . , Xn independientes con distribuci
on geo(p). Demuestre
que X1 + + Xn tiene distribuci
on bin neg(n, p).
293. Sean X y Y independientes. Encuentre la funci
on de distribuci
on de
W en terminos de FX (x) y FY (y) cuando
a) W = m
ax{X, Y }.
b) W = mn{X, Y }.

294. Sean X y Y independientes ambas con distribuci


on exp() y sea a una
constante. Calcule
a) P (m
ax{X, Y } aX).
b) P (mn{X, Y } aX).

295. Usando la siguiente tabla, construya


de un vector discreto (X, Y ) con la
independientes.
x\y 0
0

la funci
on de densidad f (x, y)
condici
on de que X y Y sean
1

Compruebe que la funci


on que propone es efectivamente una funci
on
de densidad y que la condici
on de independencia se cumple.
296. Sea (X, Y ) un vector discreto con distribuci
on de probabilidad uniforme en el conjunto
{1, . . . , n} {1, . . . , m},
con n y m enteros positivos. Demuestre que X y Y son independientes.
297. Sea (X, Y ) un vector aleatorio con funci
on de densidad
 x+y
1
f (x, y) = c
para x = 0, 1, 2 y y = 1, 2.
2
Encuentre el valor de la constante c y determine si X y Y son independientes. Calcule adem
as las probabilidades P (X = 1), P (X = 2 | Y =
2) y P (XY = 2).
298. Sean X y Y independientes con distribuci
on exponencial con par
ametros 1 y 2 respectivamente. Demuestre que
P (Y > X) =

94

1
.
1 + 2

299. Sean X y Y independientes con distribuci


on bin(n, p) y bin(m, p) respectivamente. Demuestre que X + Y tiene distribuci
on bin(n + m, p)
a) haciendo el c
alculo directamente.
b) razonando probabilsticamente en terminos de ensayos Bernoulli.
300. Sean X y Y independientes con distribuci
on Poisson con par
ametros
1 y 2 respectivamente. Demuestre que X + Y tiene distribuci
on
Poisson(1 + 2 ).
301. Sea (X, Y, Z) un vector aleatorio con funci
on de densidad
fX,Y,Z (x, y, z) = 8xyz para 0 x, y, z 1.
a) Compruebe que f (x, y, z) es una funci
on de densidad.
b) Calcule P (X < Y < Z) y P (X + Y + Z < 1).
c) Encuentre fX,Y (x, y), fX,Z (x, z) y fY,Z (y, z).
d ) Determine si X, Y y Z son independientes.
302. Sea (X, Y, Z) un vector aleatorio con funci
on de densidad
fX,Y,Z (x, y, z) = 24x para 0 < x < y < z < 1.
a) Compruebe que f (x, y, z) es una funci
on de densidad.
b) Calcule P (X + Y < 1) y P (Z X > 1/2).

c) Encuentre fX,Y (x, y), fX,Z (x, z) y fY,Z (y, z).

d ) Determine si X, Y y Z son independientes.


303. Sea X1 , X2 , . . . una sucesi
on de v.a.s independientes cada una con distribuci
on unif[0, 1]. Demuestre que para cualquier > 0,
lm P (m
ax{X1 , . . . , Xn } 1

) = e .
n

304. Sean X y Y independientes con distribuci


on Poisson(1 ) y Poisson(2 )
respectivamente. Demuestre que
E(X | X + Y = n) = n

3.7.

1
.
1 + 2

Esperanza condicional

En esta secci
on se define el importante concepto de esperanza condicional
de una variable aleatoria respecto de una -
algebra y se estudian algunas
de sus propiedades elementales.

95

Definici
on 31 Sea X una variable aleatoria con esperanza finita y sea
G una sub--
algebra de F. La esperanza condicional de X dado G es
una variable aleatoria denotada por E(X|G) que cumple las siguientes tres
propiedades:
1. Es G-medible.
2. Tiene esperanza finita.
3. Para cualquier evento G en G,
E[ E( X | G ) 1G ] = E[ X 1G ].

(3.1)

El punto importante a enfatizar es que la esperanza condicional, a pesar


de su nombre, no es un n
umero (aunque puede serlo) sino una variable
aleatoria. Puede demostrarse que esta variable aleatoria existe y es u
nica
casi seguramente, esto significa que si existe otra variable aleatoria con las
tres propiedades de la definici
on anterior entonces con probabilidad uno
coincide con E(X|G).
La esperanza condicional cumple las siguientes propiedades elementales.
a) E(E(X|G)) = E(X).
b) Si X es G-medible entonces E(X|G) = X. En particular, si c es una
constante E(c|G) = c.
c) E(aX + Y |G) = aE(X|G) + E(Y |G).
La primera propiedad se demuestra tomando el caso particular G = en la
igualdad (3.1), y establece que las variables aleatorias X y E(X|G) tienen
la misma esperanza. Para la segunda propiedad observe que si X es Gmedible entonces X mismo cumple con las tres propiedades de la definici
on
de E(X|G), por la unicidad se obtiene la igualdad casi segura. La tercera
propiedad es consecuencia de la linealidad de la esperanza, de (3.1) y de la
unicidad.
Cuando la -
algebra G es la mnima respecto de la cual una funci
on Y :
R es variable aleatoria, es decir G = (Y ), entonces la esperanza condicional
se escribe simplemente E(X|Y ) en lugar de E(X|(Y )). Si es tal que
Y () = y entonces la variable aleatoria E(X|Y ) evaluada en es
E(X|Y )() = E(X|Y = y)
Z
=
xdFX|Y (x|y).

No es difcil verificar los siguientes casos particulares que relacionan a la


esperanza condicional con los conceptos elementales de esperanza y proba96

bilidad condicional. Para cualquier variable aleatoria X con esperanza finita,


y eventos A y B,
a) E(X| {, } ) = E(X).
b) E(1A | {, } ) = P (A).
c) E(1A | {, B, B c , } ) = P (A|B)1B + P (A|B c )1B c .
La primera igualdad se sigue del hecho que E(X|G) es medible respecto de
G y de que cualquier funci
on medible respecto de G = {, } es constante.
La tercera condici
on en la definici
on de esperanza condicional implica que
esta constante debe ser E(X). La segunda igualdad es evidentemente un
caso particular de la primera. Para demostrar la tercera igualdad observe
que toda funci
on medible respecto de G = {, B, B c , } es constante tanto
en B como en B c . Adem
as,
E[ E( 1A | G ) 1B ] = E[ 1A 1B ] = P (A B).
Como la variable aleatoria E( 1A | G) es constante en B, el lado izquierdo
es igual a E( 1A | G)() P (B) para cualquier en B. De donde se obtiene
E( 1A | G)() = P (A|B) para en B. El an
alisis es an
alogo al considerar el
c
evento B y de esto se obtiene la f
ormula de la tercera propiedad.
Una introducci
on a la esperanza condicional ligeramente mas completa a la
presentada en esta secci
on, aunque tambien sencilla y breve, puede encontrarse en [17]. Un tratamiento m
as completo puede consultarse por ejemplo
en [11] o [21].

EJERCICIOS
305. Enuncie la definici
on de esperanza condicional de una variable respecto
de una -
algebra.
306. Sea X una variable aleatoria con esperanza finita y sea G = {, }.
Demuestre que E(X|G) = E(X).
307. Demuestre que si X es G-medible entonces E(X|G) = X.
308. Demuestre que si c es una constante entonces para cualquier sub-algebra G, E(c|G) = c.

309. Sea A un evento y sea G = {, }. Demuestre que E(1A |G) = P (A).


310. Sean A y B dos eventos. Demuestre que
E(1A |1B ) = P (A|B)1B + P (A|B c )1B c .

97

311. Sea (X, Y ) un vector con funci


on de densidad
fX,Y (x, y) = 3y para 0 < x < y < 1.
Compruebe que f (x, y) es efectivamente una funci
on de densidad y
calcule
a) P (X + Y < 1/2).
b) fX (x) y fY (y).
c) E(Y ) y E(Y |X = x).
312. Sea (X, Y ) un vector con distribuci
on uniforme en el conjunto
{1, . . . , 6} {1, . . . , 6}.
Calcule
a) P (X = Y ).
b) P (X + Y 6).
c) fX (x) y fY (y).

d ) E(X|X + Y = 6).
313. Sea (X, Y ) un vector con funci
on de densidad dada por la siguiente
tabla
x\y -1
0
1
1
.3 .05 .05
2
.05 .2 .05
3
.1
.1
.1
Calcule
a) P (X = 2), P (X + Y = 1) y P (Y X).
b) fX (x) y fY (y).

c) fY |X (y|x) para x = 1, 2, 3.

d ) E(Y |X = x) para x = 1, 2, 3.

3.8.

Varianza condicional

Definici
on 32 Sea X con segundo momento finito. La varianza condicional
de X dado Y se define como la variable aleatoria dada por
Var(X|Y ) = E[ (X E(X|Y ))2 | Y ].

La varianza condicional cumple las siguientes propiedades.


98

a) Var(X|Y ) = E(X 2 |Y ) E 2 (X|Y ).


b) Var(X) = E[Var(X|Y )] + Var[E(X|Y )].
La demostraci
on de estas f
ormulas es sencilla. La primera de ellas surge a
partir de la definici
on al desarrollar el cuadrado y utilizar las propiedades de
linealidad de la esperanza condicional. Para la segunda propiedad, tomando
esperanza en a) se obtiene
E[Var(X|Y )] = E(X 2 ) E[E 2 (X|Y )].

(3.2)

Por otro lado


Var[E(X|Y )] = E[E 2 (X|Y )] E 2 [E(X|Y )]
= E[E 2 (X|Y )] E 2 (X).

(3.3)

Sumando (3.2) y (3.3) se obtiene b).

EJERCICIOS
314. Demuestre nuevamente que
Var(X|Y ) = E(X 2 |Y ) E 2 (X|Y ).
315. Demuestre nuevamente que
Var(X) = E[Var(X|Y )] + Var[E(X|Y )].

3.9.

Esperanza de una funci


on de un vector aleatorio

Definici
on 33 Sea (X, Y ) un vector aleatorio y sea g : R2 R una funci
on
Borel medible. Entonces se define
Z
E[g(X, Y )] =
g(x, y)dFX,Y (x, y).
R2

Proposici
on 38 Sean X y Y independientes y sean g y h dos funciones
Borel medibles tales que g(X) y h(Y ) tienen esperanza finita. Entonces
E[g(X)h(Y )] = E[g(X)]E[h(Y )].

99

Demostraci
on.
E[g(X)h(Y )] =
=

ZR

R2

g(x)h(y)dFX,Y (x, y)
g(x)h(y)dFX (x)dFY (y)

= E[g(X)]E[h(Y )].

En particular cuando X y Y son independientes, E(XY ) = E(X)E(Y ). El
recproco de esta afirmaci
on es falso. Para ello vease el ejercicio 317.

EJERCICIOS
316. Demuestre que si X y Y son independientes entonces
E(XY ) = E(X)E(Y ).
317. Demuestre que
E(XY ) = E(X)E(Y ) =
6
X, Y independientes
considerando cualquiera de los siguientes ejemplos.

1/8 si (x, y) = (1, 1), (1, 1), (1, 1), (1, 1),
1/2 si (x, y) = (0, 0),
a) f (x, y) =

0
otro caso.
3
b) f (x, y) = (x2 + y 2 ) para x, y [1, 1].
8
c) X con distribuci
on uniforme en {1, 0, 1} y Y = 1(X6=0) .
318. Sean X y Y independentes. Diga falso o verdadero justificando en cada
caso.
a) Var(X + Y ) = Var(X) + Var(Y ).
b) Var(X Y ) = Var(X) Var(Y ).
c) Var(XY ) = Var(X)Var(Y ).

319. Sean X y Y independientes. Demuestre que


Var(XY ) = Var(X)Var(Y ) + E 2 (X)Var(Y ) + E 2 (Y )Var(X).
320. Sean X1 , . . . Xn independientes con la misma distribuci
on, y sea Sn =
X1 + + Xn . Suponiendo que las esperanzas indicadas existen, demuestre que E(X1 /Sn ) = 1/n. Concluya que para m n, E(Sm /Sn ) =
m/n.

100

321. Sea X1 , . . . , Xn variables aleatorias independientes con identica distribuci


on y con esperanza finita. Demuestre que
E(X1 | X1 + + Xn = k) =

k
.
n

322. Sea (X, Y ) un vector aleatorio discreto con funci


on de densidad dada
por la siguiente tabla
x\y
1
2
3

-1
.1
.06
.1

0
.05
.2
.05

1
.1
.04
.3

a) Grafique f (x, y) y compruebe que efectivamente se trata de una


funci
on de densidad conjunta.
b) Calcule y grafique las densidades marginales fX (x) y fY (y). Verifique que ambas son funciones de densidad.
c) Demuestre que X y Y no son independientes.
d ) Calcule E(XY ).
e) Calcule fX+Y (u).
323. Sea (X, Y ) un vector discreto con
siguiente tabla
x\y
2
1
2/18
2
3/18
3
1/18

funci
on de densidad dada por la
4
3/18
5/18
1/18

6
1/18
1/18
1/18

a) Grafique f (x, y) y compruebe que efectivamente es una funci


on
de densidad conjunta.
b) Calcule y grafique las densidades marginales fX (x) y fY (y). Verifique que ambas son efectivamente funciones de densidad.
c) Demuestre que X y Y no son independientes.
d ) Calcule E(XY ).
e) Calcule fX+Y (u).
324. Sea (X, Y ) un vector aleatorio con funci
on de densidad dada por

8xy si 0 < y < x < 1,
f (x, y) =
0
otro caso.
a) Grafique f (x, y).
b) Encuentre y grafique las densidades marginales fX (x) y fY (y).
Verifique que ambas son efectivamente funciones de densidad.
c) Demuestre que X y Y no son independientes.
d ) Calcule E(XY ).
101

3.10.

Covarianza

En esta secci
on se define y estudia la covarianza entre dos variables aleatorias. Una interpretaci
on de este n
umero, ligeramente modificado, ser
a dada
en la siguiente secci
on.

Definici
on 34 La covarianza de X y Y , denotada por Cov(X, Y ), es el
n
umero
Cov(X, Y ) = E [(X E(X))(Y E(Y ))] .

Para que la definici


on anterior tenga sentido se necesita suponer que las
esperanzas E(X), E(Y ) y E(XY ) sean finitas. Estudiamos a continuaci
on
algunas propiedades sencillas de la covarianza.

Proposici
on 39 La covarianza satisface las siguientes propiedades.
1. Cov(X, Y ) = E(XY ) E(X)E(Y ).
2. Cov(X, Y ) = Cov(Y, X).
3. Cov(X, X) = Var(X).
4. Cov(a, Y ) = 0, a constante.
5. Cov(aX, Y ) = aCov(X, Y ), a constante.
6. Cov(X1 + X2 , Y ) = Cov(X1 , Y ) + Cov(X2 , Y ).
7. X,Y independientes = Cov(X, Y ) = 0.
8. Cov(X, Y ) = 0 =
6
X,Y independientes.

Demostraci
on. Para probar (1) se usa la propiedad lineal de la esperanza,
Cov(X, Y ) = E [(X E(X))(Y E(Y ))]

= E [XY Y E(X) XE(Y ) + E(X)E(Y )]

= E(XY ) E(X)E(Y ).

Las propiedades (2), (3) y (4) se siguen directamente de la definici


on, lo
mismo que (5) y (6) al hacer uso de las propiedades de linealidad de la
esperanza. La proposici
on (7) se obtiene f
acilmente de (1) pues E(XY ) =
E(X)E(Y ) cuando X y Y son independientes. Finalmente damos un ejemplo

102

para (8). Sea (X, Y ) un vector aleatorio discreto con funci


on de densidad

1/8 si (x, y) {(1, 1), (1, 1), (1, 1), (1, 1)},
1/2 si (x, y) = (0, 0),
fX,Y (x, y) =

0
otro caso.
Entonces X y Y tienen identicas densidades marginales,

1/4 si y {1, 1},


1/4 si x {1, 1},
1/2 si y = 0,
1/2 si x = 0,
fY (y) =
fX (x) =

0
otro caso.
0
otro caso.
Puede entonces comprobarse que

Cov(X, Y ) = E(XY ) E(X)E(Y ) = 0.


Sin embargo X y Y no son independientes pues en particular
1
P (X = 0, Y = 0) = ,
2
mientras que

1
P (X = 0)P (Y = 0) = .
4


EJERCICIOS
325. Defina Cov(X, Y ) y mencione tres de sus propiedades.
326. Diga falso o verdadero. Demuestre en cada caso.
a) Cov(X, Y ) = 0, Cov(Y, Z) = 0 = Cov(X, Z) = 0.
b) Cov(X, Y ) > 0, Cov(Y, Z) > 0 = Cov(X, Z) > 0.
c) Cov(X, Y ) = a, Cov(Y, Z) = a = Cov(X, Z) = a.
327. Diga falso o verdadero. Demuestre en cada caso.
a) Cov(X, Y ) 0.

b) Cov(aX, bY ) = ab Cov(X, Y ) con a, b constantes.


c) Cov(X, aY + b) = a Cov(X, Y ) + b con a, b constantes.

328. Sea a un n
umero real cualquiera. Encuentre X y Y tales que
a) Cov(X, Y ) = a.
b) Cov(X, Y ) = a.
c) Cov(X, Y ) = 0.

329. Demuestre que


a) Cov(X, Y ) = E(XY ) E(X)E(Y ).
103

b)
c)
d)
e)
f)

Cov(X, Y ) = Cov(Y, X).


Cov(X, X) = Var(X).
Cov(X, X) = Var(X).
Cov(aX + b, Y ) = aCov(X, Y ).
Cov(X1 + X2 , Y ) = Cov(X1 , Y ) + Cov(X2 , Y ).

330. Demuestre que


a) X, Y independientes = Cov(X, Y ) = 0.
b) Cov(X, Y ) = 0 =
6
X, Y independientes.
331. Demuestre que
Var(X Y ) = Var(X) + Var(Y ) 2 Cov(X, Y ).
332. Demuestre que
a) Var(X1 + + Xn ) =
m
n
X
X
Yj ) =
Xi ,
b) Cov(
i=1

j=1

n
X

Var(Xk ) + 2

k=1
m
n X
X

Cov(Xj , Xk ).

j<k

Cov(Xi , Yj ).

i=1 j=1

333. Sea X1 , . . . , Xn independientes. Demuestre que


Var(X1 + + Xn ) =

n
X

Var(Xk ).

k=1

334. Sean X1 , . . . , Xn independientes con identica distribuci


on. Demuestre
que para k = 1, . . . , n

X)
= 0,
Cov(Xk X,

X
= 1
Xk .
en donde X
n
k=1

335. Calcule la covarianza de X y Y cuya distribuci


on conjunta es uniforme
en el conjunto {1, . . . , n} {1, . . . , n}.
336. Calcule la covarianza de X y Y cuya funci
on de densidad conjunta
est
a dada por la siguiente tabla.
x\y
-1
1

-1
1/12
3/12

0
2/12
2/12

1
3/12
1/12

337. Calcule la covarianza de X y Y cuya funci


on de densidad conjunta
est
a dada por la siguiente tabla, c es una constante.
x\y
-1
1

-1
2c
3c
104

0
c
c

1
2c
3c

338. Calcule la covarianza de X y Y cuya funci


on de densidad conjunta
est
a dada por la siguiente tabla.
x\y
2
4
6

1
.2
.05
.05

2
.05
.1
.1

3
.15
.15
.15

339. Calcule la covarianza de X y Y cuya funci


on de densidad conjunta
est
a dada por la siguiente tabla, c es una constante.
x\y
-1
0
1

-1
0
c
0.1

0
c
0.4
c

1
0.1
c
0

340. Calcule la covarianza de X y Y cuya funci


on de densidad conjunta es
1
para 0 < x < a, 0 < y < b.
ab
b) f (x, y) = 3x2 y para x [1, 1], y [0, 1].

a) f (x, y) =

c) f (x, y) = 21 ex para |y| < x.

d ) f (x, y) = exy para x, y > 0.

3.11.

Coeficiente de correlaci
on

El coeficiente de correlaci
on de dos variables aleatorias es un n
umero que
mide el grado de dependencia lineal que existe entre ellas.

Definici
on 35 El coeficiente de correlaci
on de X y Y , denotado por
(X, Y ), es el n
umero
Cov(X, Y )
(X, Y ) = p
,
Var(X) Var(Y )

en donde 0 < Var(X), Var(Y ) < .

La interpretaci
on dada al coeficiente de correlaci
on se justifica a partir de
los siguientes resultados.

105

Proposici
on 40 La coeficiente de correlaci
on satisface las siguientes
propiedades.
1. X,Y independientes = (X, Y ) = 0.
2. (X, Y ) = 0 =
6
X,Y independientes (excepto en el caso normal).
3. 1 (X, Y ) 1.
4. |(X, Y )| = 1 si y solo si existen constantes a y b tales que, con probabilidad uno, Y = aX + b con a > 0 si (X, Y ) = 1 y a < 0 si
(X, Y ) = 1.

Demostraci
on. (1) Si X y Y son independientes entonces Cov(X, Y ) = 0 y
por lo tanto (X, Y ) = 0. (2) Recuerde que la condici
on Cov(X, Y ) = 0 no
implica necesariamente que X y Y sean independientes. (3) Suponga primero
que X y Y son tales que E(X) = E(Y ) = 0, y Var(X) = Var(Y ) = 1. Para
cualquier valor de ,
0 Var(X + Y )


= E (X + Y )2 E 2 [X + Y ]
= 1 + 2E(XY ) + 2 .

El caso = 1 produce el resultado E(XY ) 1 mientras que para = 1


se obtiene E(XY ) 1. Es decir,
1 E(XY ) 1.
Ahora se aplica este resultado a las variables aleatorias
X X
X

Y Y
,
Y

que evidentemente son centradas y con varianza unitaria. Entonces





X X
Y Y
1 E
1.
X
Y
Esto es precisamente lo enunciado en (3) pues el termino de enmedio es
(X, Y ). Ahora se demuestra (4). Si X y Y son tales que Y = aX + b con
a 6= 0 y b constantes entonces
a
Cov(X, aX + b)
=
(X, Y ) = p
|a|
Var(x)Var(aX + b)

Por lo tanto (X, Y ) = 1 cuando a > 0 y (X, Y ) = 1 cuando a < 0.


Inversamente, suponga que X y Y son tales que |(X, Y )| = 1. Defina
U=

X X
X

y
106

V =

Y Y
.
Y

Entonces claramente E(U ) = E(V ) = 0 y Var(U ) = Var(V ) = 1. Por lo


tanto (U, V ) = E(U V ). Es f
acil ver tambien que |(U, V )| = |(X, Y )| = 1.
Si (U, V ) = 1 entonces
Var(U V ) = E[(U V )2 ] E 2 (U V )
= E[(U V )2 ]

= 2[1 E(U V )]

= 0.

Esto significa que con probabilidad uno, la v.a. U V es constante. Esto


es, para alguna constante c, con probabilidad uno, U V = c. Pero esta
constante c debe ser cero pues E(U V ) = 0. Por lo tanto,
X X
Y Y
=
,
X
Y
Y
(X X ). Esto establece una relaci
on
de donde se obtiene Y = Y + X
lineal directa entre X y Y . En cambio, si (U, V ) = 1 entonces

Var(U + V ) = E[(U + V )2 ] E 2 (U + V )
= E[(U + V )2 ]

= 2[1 + E(U V )]
= 0.
Esto significa nuevamente que con probabilidad uno, la v.a. U + V es constante. Esto es, para alguna constante c, con probabilidad uno, U + V = c.
Nuevamente la constante c es cero pues E(U + V ) = 0. Por lo tanto,
Y Y
X X
=
,
Y
Y
Y
(X X ). Esto establece una relaci
on
X
lineal, ahora inversa, entre X y Y . Uniendo los u
ltimos dos resultados se
obtiene que cuando |(X, Y )| = 1, con probabilidad uno,




Y
Y
Y = (X, Y )
X + Y (X, Y )X
.
X
X
|
|
{z
}
{z
}
de donde se obtiene Y = Y

Cuando (X, Y ) = 0 se dice que X y Y son no correlacionadas y cuando


|(X, Y )| = 1 se dice que X y Y est
an perfectamente correlacionadas
positiva o negativamente de acuerdo al signo de (X, Y ).
Proposici
on 41 Si (X, Y ) es un vector con distribuci
on normal bivariada
y (X, Y ) = 0 entonces X y Y son independientes.

107

Demostraci
on. La funci
on de densidad normal bivariada esta dada por la
siguiente expresi
on
f (x, y) =

1
p
2X Y 1 2
"



 
 #
x X
y Y
y Y 2
1
x X 2
}
2
+
exp{
2(1 2 )
X
X
Y
Y

2 = Var(X),
2
en donde X = E(X), X
Y = E(Y ), Y = Var(Y ), y
(1, 1). Se pueden calcular directamente las funciones de densidad
marginales y comprobar que

f (x) =
y

f (y) =

1
2
q
exp{(x X )2 /2X
}
2
2X

1
q
exp{(y Y )2 /2Y2 },
2
2Y

2 ) y Y tiene distribuci
es decir, X tiene distribuci
on N (X , X
on N (Y , Y2 ).
Despues de hacer algunos c
alculos sencillos se puede demostrar que (X, Y ) =
y comprobar finalmente que cuando = 0 se verifica la igualdad fX,Y (x, y) =
fX (x)fY (y).


En resumen tenemos la siguiente tabla.


Propiedades del coeficiente de correlaci
on
1.
2.
3.
4.

X,Y indep = (X, Y ) = 0


(X, Y ) = 0 =
6
X,Y indep (excepto caso normal)
(X, Y ) [1, 1]
|(X, Y )| = 1 Y = aX + b

EJERCICIOS
341. Escriba la definici
on y una interpretaci
on del coeficiente de correlaci
on.
Mencione adem
as tres de sus propiedades.
342. Diga falso o verdadero. Demuestre en cada caso.
a) (X, Y ) = 0, (Y, Z) = 0 = (X, Z) = 0.
b) (X, Y ) > 0, (Y, Z) > 0 = (X, Z) > 0.
c) (X, Y ) > 0, (Y, Z) > 0 = (X, Z) > 0.
d ) (X, Y ) = 1, (Y, Z) = 1 = (X, Z) = 1.
e) (X, Y ) = 1, (Y, Z) = 1 = (X, Z) = 1.
f ) (X, Y )(Y, Z) = 1 = (X, Z) = 1.

g) (X, Y ) = a, (Y, Z) = a = (X, Z) = a.


108

343. Diga falso verdadero. Demuestre en cada caso.


a) (X, Y ) = (Y, X).
b) (aX, Y ) = a (X, Y ), a constante.
c) (X + a, Y ) = (X, Y ), a constante.
d ) (aX + b, Y ) = a (X, Y ) + b; a, b constantes.
e) (X1 + X2 , Y ) = (X1 , Y ) + (X2 , Y ).
344. Sea a un n
umero en [1, 1]. Encuentre X y Y tales que (X, Y ) = a.
345. Demuestre que
a) X, Y independientes = (X, Y ) = 0.
b) (X, Y ) = 0 =
6
X, Y independientes.
346. Demuestre que
a) 1 (X, Y ) 1
b) (X, X) = 1.

c) (X, X) = 1.

d ) (X, aX + b) = 1 si a > 0.
e) (X, aX + b) = 1 si a < 0.
f ) (X, aX + b) = 0 si a = 0.

347. Calcule el coeficiente de correlaci


on de X y Y cuya funci
on de densidad
conjunta est
a dada por la siguiente tabla.
x\y
0
1

1
1/8
1/2

2
1/4
1/8

348. Calcule el coeficiente de correlaci


on de X y Y cuya funci
on de densidad
conjunta est
a dada por la siguiente tabla.
x\y
2
4
6

1
1/9
1/9
1/9

2
1/9
1/9
1/9

3
1/9
1/9
1/9

349. Calcule el coeficiente de correlaci


on de X y Y con distribuci
on conjunta
uniforme en el conjunto
a) {1, . . . , n} {1, . . . , n}.
b) [1, 1] [1, 1].

350. Sea X con distribuci


on bin(n, p) y sea Y = n X. Demuestre que
Cov(X, Y ) = np(1 p) y por lo tanto (X, Y ) = 1.
109

351. Calcule el coeficiente de correlaci


on de X y Y cuya funci
on de densidad
conjunta es
a) f (x, y) =
b) f (x, y) =
c) f (x, y) =

1
2 sin(x + y) para x, y
1 x
para |y| < x.
2e
xy
e
para x, y > 0.

[0, /2].

352. Sean X y Y independientes e identicamente distribuidas. Demuestre


que (X + Y, X Y ) = 0.

3.12.

Esperanza y varianza de un vector aleatorio

Sea X el vector aleatorio (X1 , . . . , Xn ). Se define la esperanza de X como


el vector (E(X1 ), . . . , E(Xn )), cuando cada coordenada existe. La varianza

de X se define como la matriz cuadrada E (X E(X))t (X E(X)) , en
donde t significa transpuesta del vector. Observe que (X E(X))t es un
vector columna de dimensi
on n 1, mientras que (X E(X)) es un vector
rengl
on de dimensi
on 1 n. De modo que el producto de estos dos vectores
en el orden indicado resulta en una matriz cuadrada de dimensi
on n n
cuyo elemento general es
E[(Xi E(Xi ))(Xj E(Xj ))] = Cov(Xi , Xj ).
Entonces

Var(X) =

Var(X1 )
Cov(X1 , X2 )
Cov(X1 , X2 )
Var(X2 )
..
..
.
.
Cov(X1 , Xn ) Cov(X2 , Xn )

Cov(X1 , Xn )
Cov(X2 , Xn )
..
..
.
.

Var(Xn )

nn

La matriz Var(X) se llama matriz de varianzas y covarianzas del vector


X. Es una matriz simetrica pues Cov(Xi , Xj ) = Cov(Xj , Xi ). Adem
as es
positiva definida, esto significa que para cualquier vector = (1 , . . . , n ) de
Rn se cumple la desigualdad
hVar(X), i =

n
X

i,j=1

Cov(Xi , Xj )j i 0,

en donde h, i denota el producto interior usual de Rn .


EJERCICIOS
353. Calcule la esperanza y varianza del vector aleatorio (X, Y ) cuya funci
on de densidad conjunta es
1
para 0 < x < a, 0 < y < b.
ab
b) f (x, y) = 4xy para x, y [0, 1].

a) f (x, y) =

110

3.13.

Distribuciones multivariadas discretas

Estudiamos a continuaci
on algunas distribuciones discretas de vectores aleatorios.
Distribuci
on multinomial. Suponga que se tiene un experimento aleatorio
con k posibles resultados distintos. Las probabilidades para cada uno de estos
resultados son respectivamente p1 , . . . , pk . Entonces p1 + + pk = 1. Ahora
suponga que se tienen n ensayos sucesivos independientes del experimento
anterior y defina las variables aleatorias discretas X1 , . . . , Xk como aquellas
que registran el n
umero de veces que se obtienen cada uno de los k posibles
resultados en los n ensayos. Entonces se dice que X1 , . . . , Xk tienen una
distribuci
on multinomial y su funci
on de densidad conjunta es


n
f (x1 , . . . , xn ) =
px1 1 pxnn
x1 , . . . , xn
para x1 , . . . , xn = 0, 1, . . . , n tales que x1 + + xk = n. Los par
ametros
de esta distribuci
on son entonces el n
umero de ensayos n, el n
umero de
resultados distintos k en cada ensayo y las probabilidades p1 , . . . , pk . El
factor que aparece en parentesis en la funci
on de densidad conjunta se conoce
como coeficiente multinomial y se define como sigue


n!
n
.
=
x1 , . . . , xn
x1 ! xn !
Se dice entonces que (X1 , . . . , Xk ) tiene distribuci
on multinomial(n, k, p1 , . . . , pk ).
Observe que cuando u
nicamente hay dos posibles resultados en cada ensayo
(es decir k = 2) la distribuci
on multinomial se reduce a la distribuci
on binomial.

EJERCICIOS
354. Demuestre que la funci
on de densidad de la distribuci
on multinomial
efectivamente lo es.
355. Sea X = (X1 , . . . , Xk ) con distribuci
on multinomial(n, k, p1 , . . . , pk ).
Demuestre que Xi tiene distribuci
on marginal bin(n, pi ), para i =
1, . . . , k.
356. Sea X = (X1 , . . . , Xk ) con distribuci
on multinomial(n, k, p1 , . . . , pk ).
Demuestre que E(X) = (np1 , . . . , npk ) y que

npi (1 pi ) si i = j,
[Var(X)]ij =
npi pj
si i 6= j.
Distribuci
on hipergeom
etrica multivariada. Suponga que se tienen N
objetos de los cuales N1 son de un primer tipo, N2 son de un segundo
111

tipo y asi sucesivamente con Nk objetos de tipo k. Entonces N1 + +


Nk = N . Suponga que de la totalidad de objetos se obtiene una muestra sin
reemplazo de tama
no n, y defina la variables X1 , . . . , Xk como aquellas que
representan el n
umero de objetos seleccionados de cada tipo. Se dice entonces
que X1 , . . . , Xk tienen una distribuci
on hipergeometrica multivariada y su
funci
on de densidad conjunta es




Nk
N1

xk
x1


f (x1 , . . . , xk ) =
N
n
en donde cada xi toma valores en el conjunto {0, 1, . . . , n} pero sujeto a
xi Ni y adem
as debe cumplirse que x1 + + xk = n. Se dice entonces que
(X1 , . . . , Xk ) tiene distribuci
on hipergeometrica multivariada (N, N1 , . . . , Nk , n).
Observe que cuando u
nicamente hay dos tipos de objetos (es decir k = 2) la
distribuci
on hipergeometrica multivariada se reduce a la distribuci
on hipergeometrica univariada. Vease la secci
on de ejercicios para la esperanza y
varianza de la distribuci
on hipergeometrica multivariada.

EJERCICIOS
357. Demuestre que la funci
on de densidad de la distribuci
on hipergeometrica multivariada efectivamente lo es.
358. Sea X = (X1 , . . . , Xk ) con distribuci
on hipergeometrica multivariada con par
ametros (N, N1 , . . . , Nk , n). Demuestre que Xi tiene distribuci
on hipergeometrica univariada con par
ametros (N, Ni , n), para
i = 1, . . . , k.
359. Sea X = (X1 , . . . , Xk ) con distribuci
on hipergeometrica multivariada
Nk
N1
con par
ametros (N, N1 , . . . , Nk , n). Demuestre que E(X) = (n , . . . , n )
N
N
y que

N N Ni N n

n i

si i = j,
N
N
N 1
[Var(X)]ij =
N N nN

n i j
si i 6= j.
N N N 1

3.14.

Distribuciones multivariadas continuas

Ahora estudiamos algunas distribuciones continuas de vectores aleatorios.


Distribuci
on normal multivariada. Se dice que las variables aleatorias
continuas X y Y tienen una distribuci
on normal bivariada si su funci
on de
densidad conjunta es
f (x, y) =

1
p
2X Y 1 2

112

1
exp{
2(1 2 )

"

x X
X

2

x X
X



y Y
Y

y Y
Y

para cualesquiera valores reales de x y y, y en donde 1 < < 1, X > 0,


Y > 0, y X , Y dos constantes reales sin restricci
on. Se escribe X
2 , , 2 , ). Puede demostrarse que X tiene una distribuci
N(X , X
on marginal
Y
Y
2 ) y Y tiene distribuci
N(X , X
on marginal N(Y , Y2 ). Adem
as el par
ametro
resulta ser el coeficiente de correlaci
on entre X y Y . Vease el ejercicio 362
en la p
agina 113 acerca de un ejemplo en el cual las densidades marginales
de un vector bivariado son normales pero la distribuci
on conjunta no lo es.
Cuando X = Y = 0 y X = Y = 1 la distribuci
on se llama normal
bivariada est
andar.

EJERCICIOS
360. Demuestre que la funci
on de densidad de la distribuci
on normal bivariada efectivamente lo es.
2 , , 2 , ).
361. Sea (X, Y ) un vector con distribuci
on normal bivariada N(X , X
Y
Y
Demuestre que X tiene distribuci
on marginal N(X , Y2 ) y Y tiene distribuci
on marginal N(Y , Y2 ). Vease el siguiente ejercicio para verificar
que el recproco de este resultado es falso.

362. Sea f (x, y) la funci


on de densidad normal bivariada est
andar con =
0. Defina

2f (x, y) si xy < 0,
g(x, y) =
0
si xy 0.
Demuestre que g(x, y) es una funci
on de densidad bivariada que no
tiene distribuci
on normal pero cuyas densidades marginales son normales.
2 , , 2 , ).
363. Sea (X, Y ) un vector con distribuci
on normal bivariada (X , X
Y
Y
Demuestre que E(X) = (X , Y ), (X, Y ) = y que


2
X
X Y
Var(X, Y ) =
.
X Y
Y2
2 , , 2 , ).
364. Sea (X, Y ) un vector con distribuci
on normal bivariada (X , X
Y
Y
Demuestre que la distribuci
on condicional de X dado que Y = y es
Y
normal con media Y + X
(x X ) y varianza Y2 (1 2 ), y que la
distribuci
on condicional de Y dado que X = x es normal con media
X
2 (1 2 )
X + Y (y Y ) y varianza X

113

2 #

Captulo 4

Transformaciones
Si X es una variable aleatoria con distribuci
on conocida y es una funci
on
tal que Y = (X) es otra variable aleatoria cu
al es la distribuci
on de Y ? En
este captulo se da respuesta a esta pregunta tanto en el caso unidimensional
como en el caso de vectores aleatorios. En particular, se encuentran f
ormulas
explcitas para la funci
on de densidad de la suma, resta, producto y cociente
de dos variables aleatorias absolutamente continuas.

4.1.

Transformaci
on de una variable aleatoria

Suponga que X es una variable aleatoria y es una funci


on tal que Y = (X)
es otra variable aleatoria. En esta secci
on se estudia un resultado que provee
de una f
ormula para la funci
on de densidad de Y en terminos de la funci
on
de densidad de X. Gr
aficamente

// R

//77 R

Y =(X)

Teorema 1 (Teorema de cambio de variable) Sea X una variable


aleatoria continua con valores dentro del intervalo (a, b) R y con funci
on
de densidad fX (x). Sea : (a, b) R una funci
on continua, estrictamente
creciente o decreciente y con inversa 1 diferenciable. Entonces la variable
aleatoria Y = (X) toma valores dentro del intervalo (a, b) y tiene funci
on
de densidad
fY (y) = fX (1 (y)) |

d 1
(y)| para y (a, b).
dy

114

Demostraci
on. Suponga primero el caso estrictamente creciente. Entonces
FY (y) = P (Y y)

= P ((X) y)

= P (X 1 (y))

= FX (1 (y)).
Derivando
fY (y) = fX (1 (y))

d 1
(y).
dy

Para estrictamente decreciente


FY (y) = P (Y y)

= P ((X) y)

= P (X 1 (y))

= 1 FX (1 (y)).
Entonces
1

fY (y) = fX (


d 1
(y)) (y) .
dy

En cualquiera caso se obtiene el resultado del teorema.

Ejemplo 14 (Distribuci
on log normal) Sea X con distribuci
on N(, 2 ) y
x
sea la funci
on estrictamente creciente y = (x) = e con inversa difer1
enciable (y) = ln y. Entonces la variable aleatoria Y = eX toma valores
en el intervalo (, ) = (0, ) y aplicando la proposici
on anterior su
funci
on de densidad es


(ln y )2
1
exp
fY (y) =
para y (0, ).
2 2
y 2 2
A la distribuci
on de Y se le conoce como la distribuci
on log normal(, 2 ).
Se puede demostrar que
2
)
2
Var(Y ) = exp(2 + 2 2 ) exp(2 + 2 ).
E(Y ) = exp( +

EJERCICIOS
365. Sea X con distribuci
on unif(0, 1) y sea > 0. Demuestre que la variable
aleatoria Y = (ln X)/ tiene distribuci
on exp().
366. Sea X con distribuci
on exp(). Encuentre la funci
on de densidad y de
distribuci
on de Y = 1 exp(X).
367. Encuentre la distribuci
on de Y = 1/X cuando X tiene distribuci
on
115

a) unif(0, 1).
b) exp().
368. Encuentre la distribuci
on de Y = X n para cada n en N cuando X
tiene distribuci
on
a) unif(0, 1).
b) exp().
369. Sea X con distribuci
on unif(1, 1). Encuentre la funci
on de densidad
de Y = X 2 .
370. Sea X absolutamente continua con funci
on de distribuci
on F (x). Demuestre que Y = F (X) tiene distribuci
on unif[0, 1].
371. Encuentre la funci
on de densidad de Y
de densidad

1/2
1/(2x2 )
fX (x) =

= 1/X cuando X tiene funci


on
si 0 < x 1,
si x > 1,
otro caso.

372. Sea X con distribuci


on unif(a, b). Encuentre la distribuci
on de la variable aleatoria Y = X/(b X).

4.2.

Transformaci
on de un vector aleatorio

Suponga ahora que (X, Y ) es un vector con funci


on de densidad conocida y
es una funci
on tal que (U, V ) = (X, Y ) es otro vector aleatorio. El problema
es encontrar la funci
on de densidad del nuevo vector (U, V ). Gr
aficamente

(X,Y )

// R2

//66 R2

(U,V )=(X,Y )

Teorema 2 (Teorema de cambio de variable) Sea (X, Y ) un vector


continuo con valores en I R2 y con funci
on de densidad fX,Y (x, y). Sea
2
(x, y) : I R una funci
on continua con inversa 1 (u, v) diferenciable.
Entonces el vector (U, V ) = (X, Y ) toma valores en (I) y tiene funci
on
de densidad
fU,V (u, v) = fX,Y (1 (u, v)) |J(u, v)| para (u, v) (I)
en donde


1
1

u
J(u, v) =
1
2

u
116

1
1
v1
2
v

(4.1)

Demostraci
on (intuitiva). Sea
(U, V ) = (X, Y ) = (1 (X, Y ), 2 (X, Y ))
con inversa
1
(X, Y ) = 1 (U, V ) = (1
1 (U, V ), 2 (U, V )).

Sea A el cuadrado de
area infinitesinal de esquinas con coordenadas (x, y), (x+
dx, y), (x, y +dy) y (x+dx, y +dy). Bajo la transformaci
on las coordenadas
de las esquinas del cuadrado A se transforman en las siguientes coordenadas
(x, y) 7 (1 (x, y), 2 (x, y)).

(x + dx, y) 7 (1 (x + dx, y), 2 (x + dx, y))

.
1 (x, y)dx, 2 (x, y) +
2 (x, y)dx.
= (1 (x, y) +
x
x
(x, y + dy) 7 (1 (x, y + dy), 2 (x, y + dy))

.
1 (x, y)dy, 2 (x, y) +
2 (x, y)dy.
= (1 (x, y) +
y
y
(x + dx, y + dy) 7 (1 (x + dx, y + dy), 2 (x + dx, y + dy))

.
= (1 (x, y) +
1 (x, y)dx +
1 (x, y)dy,
x
y

2 (x, y)dx +
2 (x, y)dy).
2 (x, y) +
x
y
Sea B el elemento de
area (A). Entonces P ((X, Y ) A) = P ((U, V ) B).
Por lo tanto

fX,Y (x, y) dxdy = fU,V (u, v) Area


de B.
En donde


1 2 2 1

dxdy
Area
de B =

x y
x y


1 1


x
y dxdy.
=
2
2



x
y

Adem
as |J(x, y)| =

1
. Por lo tanto
|J(u, v)|

fX,Y (x, y) dxdy = fU,V (u, v)

dxdy
.
|J(u, v)|

De esta ecuaci
on obtenemos
1
fU,V (u, v) = fX,Y (1
1 (u, v), 2 (u, v))|J(u, v)|.


117

Como ejemplo de aplicaci


on de la proposici
on anterior, en las secciones siguientes utilizaremos la f
ormula (4.1) para encontrar expresiones para la funci
on de densidad de la suma, diferencia, producto y cociente de dos variables
aleatorias. Las f
ormulas generales sobre transformaciones encontradas en estas dos primeras secciones se resumen en la siguiente tabla.
Transformaci
on de variables aleatorias
1. Y = (X)

2. (U, V ) = (X, Y )

fY (y) = fX (1 (y)) |
=

d 1
(y)|
dy

fU,V (u, v) = fX,Y (1 (u, v)) |J(u, v)|


1
1

u
en donde J(u, v) =
1
2

u

1
1
v1
2
v

EJERCICIOS
373. Sean X y Y independientes ambas con distribuci
on unif(0, 1). Encuentre la funci
on de densidad del vector
a) (X, X + Y ).
b) (X + Y, X Y ).
374. Sean X y Y independientes ambas con distribuci
on unif(1, 1). Encuentre la funci
on de densidad de
a) (X + Y, X Y ).
b) |Y X|.

c) (X Y, Y X).

375. Sea (X, Y ) un vector con distribuci


on uniforme en el crculo unitario
2 + y 2 1}. Encuentre la funci
{(x, y) : x
on de densidad del vector
(R, ) = ( X 2 + Y 2 , arctan(Y /X)).

4.2.1.

Distribuci
on de la suma (convoluci
on)

El siguiente resultado proporciona una f


ormula para la funci
on de densidad
de la suma de dos variables aleatorias absolutamente continuas.

118

Proposici
on 42 Sea (X, Y ) un vector continuo con funci
on de densidad
conjunta fX,Y (x, y). Entonces X + Y tiene funci
on de densidad
Z
fX+Y (u) =
fX,Y (u v, v) dv.
(4.2)

Demostraci
on. Sea : R2 R2 la transformaci
on
(x, y) = (1 (x, y), 2 (x, y))
= (x + y, y)
= (u, v)
con inversa
1
1 (u, v) = (1
1 (u, v), 2 (u, v))

= (u v, v)

= (x, y).

El Jacobiano de la transformaci
on inversa es



1
1

1
1



1
1

u
= 1.
v1 =
J(u, v) =
1

0 1
2
2


u
v
Por la f
ormula (4.1) la funci
on de densidad de (X + Y, Y ) es
fX+Y,Y (u, v) = fX,Y (u v, v).
Integrando respecto de v se obtiene (4.2).

Observe que haciendo el cambio de variable z(v) = u v en (4.2) se obtiene


la expresi
on equivalente
Z
fX+Y (u) =
fX,Y (z, u z) dz.
(4.3)

En particular, cuando X y Y son independientes la f


ormula (4.2) se reduce
a
Z
fX+Y (u) =
fX (u v)fY (v) dv.

Segunda demostraci
on. Se puede demostrar la proposici
on anterior mediante
el procedimiento usual de encontrar primero la funci
on de distribuci
on de
X+Y y despues derivar para encontrar la funci
on de densidad. Por definici
on
FX+Y (u) = P (X + Y u)
Z Z
fX,Y (x, y) dy dx
=
=

{x+yu}
Z ux

fX,Y (x, y) dy dx.

119

Derivando respecto de u se obtiene


Z
fX,Y (x, u x) dx,
fX+Y (u) =

que corresponde a la expresi


on (4.3) equivalente a (4.2).

Definici
on 36 La convoluci
on de dos funciones de densidad continuas f1 y
f2 , es una funci
on denotada por f1 f2 y definida como sigue
Z
(f1 f2 )(x) =
f1 (x y)f2 (y) dy.

En consecuencia, si X y Y son dos variables aleatorias continuas con correspondientes funciones de densidad f1 (x) y f2 (x) entonces la funci
on de
densidad de X + Y es la convoluci
on (f1 f2 )(x).
EJERCICIOS
376. Sea (X, Y ) un vector absolutamente continuo con funci
on de densidad
fX,Y (x, y). Demuestre que X + Y tiene funci
on de densidad
Z
fX,Y (u v, v) dv.
fX+Y (u) =

377. Encuentre la funci


on de densidad de X + Y para (X, Y ) un vector con
funci
on de densidad
1
para 0 < x < a, 0 < y < b.
ab
b) f (x, y) = exy para x, y > 0.

a) f (x, y) =

c) f (x, y) = ey para 0 < x < y.


d ) fX,Y (x, y) = 8xy para 0 < x < y < 1.
e) fX,Y (x, y) = 4x(1 y) para 0 < x, y < 1.
378. Encuentre la funci
on de densidad de X + Y cuando X y Y son independientes y ambas con distribuci
on
a) unif(0, 1).
b) exp().
379. Encuentre la funci
on de densidad de X + Y cuando X y Y son independientes y ambas con densidad
a) f (x) = 2x para 0 < x < 1.
b) f (x) = 6x(1 x) para 0 < x < 1.
120

c) f (x) = 12 (1 + x) para 1 < x < 1.


380. Sea (X, Y, Z) un vector absolutamente continuo con funci
on de densidad fX,Y,Z (x, y, z). Demuestre que X +Y +Z tiene funci
on de densidad
Z Z
fX+Y +Z (u) =
fX,Y,Z (u y z, y, z) dydz.

381. Sea (X1 , . . . , Xn ) un vector aleatorio absolutamente continuo con funci


on de densidad fX1 ,...,Xn (x1 , . . . , xn ). Demuestre que Y = X1 + +
Xn tiene funci
on de densidad
Z
Z
fY (u) =

fX1 ,...,Xn (u v2 vn , v2 , . . . , vn ) dv2 dvn .

382. Encuentre la funci


on de densidad de X + Y cuando X y Y tienen
distribuci
on conjunta uniforme en el cuadrado (1, 1) (1, 1).
383. Encuentre la funci
on de densidad de X +Y +Z cuando X, Y y Z tienen
distribuci
on conjunta uniforme en el cubo (1, 1) (1, 1) (1, 1).
384. Encuentre la funci
on de densidad de X1 + + Xn para (X1 , . . . , Xn )
un vector con distribuci
on uniforme en el hipercubo
(1, 1) (1, 1) .
{z
}
|
n

385. Sean X y Y independientes con distribuci


on N(1 , 12 ) y N(2 , 22 ) respectivamente. Demuestre que X +Y tiene distribuci
on N(1 +2 , 12 +
2
2 ).
386. Sean X1 , . . . , Xn independientes en donde Xi tiene distribuci
on N(i , i2 )
para i = 1, . . . , n. Sean c1 , . . . , cn constantes dadas no todas cero. Demuestre que
n
n
n
X
X
X
ci Xi N(
ci i ,
c2i i2 ).
i=1

i=1

i=1

387. Sean X1 , . . . , Xn independientes y con identica distribuci


on N(, 2 ).
Demuestre que
n
1X
Xi N(, 2 /n).
n
i=1

388. Sean X y Y independientes ambas con distribuci


on exp(). Demuestre
que X + Y tiene distribuci
on gama(, 2).
389. Sean X y Y independientes con distribuci
on gama(, n) y gama(, m)
respectivamente. Demuestre que X + Y tiene distribuci
on gama(, n +
m).

121

4.2.2.

Distribuci
on de la resta

Se encontrar
a ahora una f
ormula para la funci
on de densidad de la diferencia
de dos variables aleatorias.

Proposici
on 43 Sea (X, Y ) un vector absolutamente continuo con funci
on
de densidad fX,Y (x, y). Entonces X Y tiene funci
on de densidad
Z
fXY (u) =
fX,Y (u + v, v) dv.
(4.4)

Demostraci
on. Procedemos como en la secci
on anterior. Sea : R2 R2 la
transformaci
on
(x, y) = (1 (x, y), 2 (x, y))
= (x y, y)

= (u, v)
con inversa

1
1 (u, v) = (1
1 (u, v), 2 (u, v))

= (u + v, v)
= (x, y).
El Jacobiano de la transformaci
on inversa es



1
1

1
1



1
1

u
v1 =
= 1.
J(u, v) =
1

0 1
2
2


u
v
Por la f
ormula (4.1),

fXY,Y (u, v) = fX,Y (u + v, v).


Integrando respecto de v se obtiene (4.4).

Con el cambio de variable z(v) = u + v en (4.4) se obtiene la expresi


on
equivalente
Z
fXY (u) =
fX,Y (z, z u) dz.
(4.5)

Cuando X y Y son independientes la f


ormula (4.4) se reduce a
Z
fX (u + v)fY (v) dv.
fXY (u) =

Segunda demostraci
on. Nuevamente se puede demostrar la proposici
on anterior mediante el procedimiento usual de encontrar primero la funci
on de
122

distribuci
on y despues derivar para encontrar la funci
on de densidad. Por
definici
on
FXY (u) = P (X Y u)
Z Z
=
fX,Y (x, y) dy dx
{xyu}
Z Z
=
fX,Y (x, y) dy dx.

xu

Derivando respecto de u se obtiene (4.5) equivalente a (4.4).

Tercera demostraci
on. A partir de la f
ormula para la suma de dos variables aleatorias se puede construir una tercera demostraci
on de (4.4). Por
la f
ormula para la suma,
Z
fXY (u) = fX+(Y ) (u) =
fX,Y (u v, v) dv.

Haciendo el cambio de variable = v se obtiene


Z
fX,Y (u + , ) d
fXY (u) =

Z
=
fX,Y (u + , ) d.


EJERCICIOS
390. Sea (X, Y ) un vector absolutamente continuo con funci
on de densidad
fX,Y (x, y). Demuestre que X Y tiene funci
on de densidad
Z
fXY (u) =
fX,Y (u + v, v) dv.

391. Encuentre la funci


on de densidad de X Y para (X, Y ) un vector con
funci
on de densidad conjunta
1
para 0 < x < a, 0 < y < b.
ab
b) f (x, y) = exy para x, y > 0.

a) f (x, y) =

c) f (x, y) = ey para 0 < x < y.


d ) fX,Y (x, y) = 8xy para 0 < x < y < 1.
e) fX,Y (x, y) = 4x(1 y) para 0 < x, y < 1.
392. Encuentre la funci
on de densidad de X Y cuando X y Y son independientes y ambas con distribuci
on
a) unif(0, 1).
123

b) exp().
393. Encuentre la funci
on de densidad de X Y cuando X y Y son independientes y ambas con densidad
a) f (x) = 2x para 0 < x < 1.
b) f (x) = 6x(1 x) para 0 < x < 1.

c) f (x) = 12 (1 + x) para 1 < x < 1.

394. Sean X y Y independientes con distribuci


on unif(a 1/2, a + 1/2) en
donde a es un par
ametro de valor real. Demuestre que

1 |u| si 1 < u < 1,
fXY (u) =
0
otro caso.
395. Sean X y Y independientes con distribuci
on N(1 , 12 ) y N(2 , 22 ) respectivamente. Demuestre que X Y tiene distribuci
on N(1 2 , 12 +
22 ). Observe que las medias se restan y las varianzas se suman.

4.2.3.

Distribuci
on del producto

Ahora se encontrar
a una f
ormula para la funci
on de densidad del producto
de dos variables aleatorias absolutamente continuas.

Proposici
on 44 Sea (X, Y ) un vector continuo con funci
on de densidad
conjunta fX,Y (x, y). Entonces XY tiene funci
on de densidad

Z
1
(4.6)
fXY (u) =
fX,Y (u/v, v) dv.
v

Demostraci
on. Se usa nuevamente la f
ormula (4.1). Sea : R2 R2 la
transformaci
on
(x, y) = (1 (x, y), 2 (x, y))
= (xy, y)
= (u, v).
La inversa de esta transformaci
on es, para v 6= 0,
1
1 (u, v) = (1
1 (u, v), 2 (u, v))

= (u/v, v)
= (x, y).

124

El Jacobiano de la transformaci
on inversa es

1
1

1
1


1/v u/v 2
u
v
|J(u, v)| =
1 =
1
0
1
2
2


u
v

Por la f
ormula (4.1), para v 6= 0,


1
= .
v

1
fXY,Y (u, v) = fX,Y (u/v, v) | |.
v
Integrando respecto de v se obtiene (4.6).

Haciendo x(v) = u/v en (4.6) se obtiene la expresi


on equivalente
Z
1
fXY (u) =
fX,Y (x, u/x) | | dx.
x

(4.7)

Cuando X y Y son independientes la f


ormula (4.6) se reduce a
Z
1
fX (u/v)fY (v) | | dv.
fXY (u) =
v

Segunda demostraci
on. Usaremos el procedimiento usual de encontrar primero
la funci
on de distribuci
on de XY y despues derivar para encontrar la funci
on
de densidad. Por definici
on
FXY (u) = P (XY u)
Z Z
=
fX,Y (x, y) dy dx
=

{xyu}
Z

fX,Y (x, y) dydx +

u/x

Z u/x

fX,Y (x, y) dydx.

Derivando respecto de u,
Z 0
Z
fXY (u) =
fX,Y (x, u/x)(1/x) dydx +
fX,Y (x, u/x)(1/x) dydx.

0
Z
=
fX,Y (x, u/x)|1/x| dx,

que corresponde a (4.7) equivalente a (4.6).

EJERCICIOS
396. Sea (X, Y ) un vector absolutamente continuo con funci
on de densidad
fX,Y (x, y). Demuestre que XY tiene funci
on de densidad

Z
1
fXY (u) =
fX,Y (u/v, v) dv
v

125

397. Encuentre la funci


on de densidad de XY cuando X y Y son independientes ambas con distribuci
on
a) unif(0, 1).
b) exp().
c) N(0, 1).
398. Encuentre la funci
on de densidad de XY cuando X y Y tienen funci
on
de densidad conjunta
1
para 0 < x < a, 0 < y < b.
ab
b) f (x, y) = exy para x, y > 0.

a) f (x, y) =

c) f (x, y) = ey para 0 < x < y.


d ) fX,Y (x, y) = 8xy para 0 < x < y < 1.
e) fX,Y (x, y) = 4x(1 y) para 0 < x, y < 1.
399. Encuentre la funci
on de densidad de XY cuando X y Y son independientes y ambas con densidad
a) f (x) = 2x para 0 < x < 1.
b) f (x) = 6x(1 x) para 0 < x < 1.

c) f (x) = 21 (1 + x) para 1 < x < 1.

4.2.4.

Distribuci
on del cociente

Finalmente se encontrar
a una f
ormula para el cociente de dos variables
aleatorias absolutamente continuas.

Proposici
on 45 Sea (X, Y ) un vector continuo con funci
on de densidad
conjunta fX,Y (x, y) y tal que Y 6= 0. Entonces X/Y tiene funci
on de densidad
Z
fX/Y (u) =
fX,Y (uv, v) |v| dv.
(4.8)

Demostraci
on. Procederemos como en las secciones anteriores. Sea : R2
2
R la transformaci
on
(x, y) = (1 (x, y), 2 (x, y))
= (x/y, y)
= (u, v)

126

para y 6= 0 y con inversa


1
1 (u, v) = (1
1 (u, v), 2 (u, v))

= (uv, v)
= (x, y).
El Jacobiano de la transformaci
on inversa es



1
1
1
1


v u
u
v
|J(u, v)| =
1 =
0 1


1
2
2


u
v

Por la f
ormula (4.1)



= v.

fX/Y,Y (u, v) = fX,Y (uv, v) |v|.


De donde se obtiene (4.8).

Haciendo x(v) = uv en (4.8) se obtiene la expresi


on equivalente
Z
fX/Y (u) =
fX,Y (x, x/u) |x/u2 | dx.

(4.9)

Observe nuevamente que cuando X y Y son independientes el integrando en


la f
ormula (4.8) se escribe como el producto de las densidades marginales.
Segunda demostraci
on. Ahora usaremos el procedimiento usual de encontrar primero la funci
on de distribuci
on y despues derivar para encontrar la
funci
on de densidad.
FX/Y (u) = P (X/Y u)
Z Z
=
fX,Y (x, y) dy dx
=

{x/yu}
Z x/u

fX,Y (x, y) dydx +

fX,Y (x, y) dydx.

x/u

Derivando respecto de u,
Z
Z 0
2
fX,Y (x, x/u)(x/u2 ) dx
fX,Y (x, x/u)(x/u ) dx +
fX/Y (u) =
0
Z

2
fX,Y (x, x/u)|x/u | dx,
=

que corresponde a (4.9) equivalente a (4.8).

Tercera demostraci
on. A partir de la f
ormula para el producto de dos variables aleatorias se puede construir una tercera demostraci
on de (4.8) de la
forma siguiente.

Z
1
fX/Y (u) = fX(1/Y ) (u) =
fX,1/Y (u/v, v) dv.
v

127

Haciendo el cambio de variable x = 1/v se obtiene


Z
fX,1/Y (ux, 1/x)|x| dx
fX/Y (u) =

Z
=
fX,Y (ux, x)|x| dx.


EJERCICIOS
400. Sea (X, Y ) un vector absolutamente continuo con funci
on de densidad fX,Y (x, y) tal que Y 6= 0. Demuestre que X/Y tiene funci
on de
densidad
Z
fX/Y (u) =
fX,Y (uv, v) |v| dv

401. Encuentre la funci


on de densidad de X/Y para (X, Y ) un vector con
funci
on de densidad conjunta
1
para 0 < x < a, 0 < y < b.
ab
b) f (x, y) = exy para x, y > 0.

a) f (x, y) =

c) f (x, y) = ey para 0 < x < y.


d ) f (x, y) = 8xy para 0 < x < y < 1.
e) f (x, y) = 4x(1 y) para 0 < x, y < 1.
f ) f (x, y) = 2exy para 0 < x < y.

402. Encuentre la funci


on de densidad de X/Y cuando X y Y son independientes y ambas con distribuci
on
a) exp().
b) unif(0, 1).
403. Encuentre la funci
on de densidad de X/Y cuando X y Y son independientes y ambas con densidad
a) f (x) = 2x para 0 < x < 1.
b) f (x) = 6x(1 x) para 0 < x < 1.

c) f (x) = 12 (1 + x) para 1 < x < 1.

404. Sean X y Y independientes con distribuci


on exp(). Encuentre la funci
on de densidad de
a) X/(X + Y ).
b) Y /(X + Y ).
405. Sean X y Y independientes ambas con distribuci
on normal est
andar.
Demuestre que la variable aleatoria Y /X tiene distribuci
on Cauchy.
128

Las f
ormulas encontradas se resumen en la siguiente tabla.
F
ormulas para la suma, diferencia, producto y cociente de dos v.a.s
1. fX+Y (u) =

2. fXY (u) =

fX,Y (u v, v) dv
fX,Y (u + v, v) dv

3. fXY (u) =

4. fX/Y (u) =


1
fX,Y (u/v, v) dv
v

fX,Y (uv, v) |v| dv

129

Captulo 5

Distribuciones muestrales y
estadsticas de orden
Se estudian ahora algunas distribuciones de probabilidad que surgen en la
estadstica y otras
areas de aplicaci
on de la probabilidad.
Primeramente se define una muestra aleatoria como una colecci
on de variables aleatorias X1 , . . . , Xn que cumplen la condici
on de ser independientes y
de tener cada una de ellas la misma distribuci
on de probabilidad. Al n
umero
n se le llama tama
no de la muestra aleatoria. A menudo se escribe m.a. para
abreviar el termino muestra aleatoria y se usan las siglas v.a.i.i.d. para
denotar el termino variables aleatorias independientes e identicamente distribuidas. Por lo tanto una m.a. es una colecci
on de v.a.i.i.d.
Se define tambien una estadstica como una variable aleatoria de la forma
g(X1 , . . . , Xn ) en donde X1 , . . . , Xn es una m.a. y g es una funci
on de Rn en
R que es Borel medible. Por ejemplo la media muestral es una estadstica
y definida como sigue
denotada por X
n

X
= 1
Xi .
X
n
i=1

es una combinaci
Observe que X
on lineal de los elementos de la m.a. y por
lo tanto es una v.a. Otro ejemplo importante de estadstica es la varianza
muestral, denotada por S 2 y definida como sigue
n

S2 =

1 X
2.
(Xi X)
n1
i=1

Observe que en el denominador aparece el termino n 1. La media y la


varianza muestrales tienen la caracterstica de ser estimadores insesgados
para la media y la varianza respectivamente de una distribuci
on cualquiera.
En particular, cuando la muestra aleatoria proviene de una distribuci
on
normal resulta que la media y la varianza muestrales son variables aleatorias
130

independientes. Utilizaremos este interesante e inesperado resultado m


as
adelante y cuya demostraci
on puede encontrarse en [13].
Proposici
on 46 Sea X1 , . . . Xn una m.a. de la distribuci
on N(, 2 ). En2
y S son independientes.
tonces las estadsticas X
Este resultado no es v
alido para cualquier distribuci
on de probabilidad, por
ejemplo no es difcil verificar lo contrario para una muestra aleatoria de la
distribuci
on Ber(p).
En la siguiente esecci
on se estudian algunas distribuciones de probabilidad
estrechamente relacionadas con la media y la varianza muestral.

EJERCICIOS
406. Sea X1 , . . . , Xn una m.a. tomada de una distribuci
on con media y
2
varianza . Demuestre que
= .
a) E(X)
b) E(S 2 ) = 2 .

Estos resultados son de importancia en estadstica y muestran que X


2
2
y S son estimadores insesgados de los par
ametros y respectivamente.
407. Sea X1 , . . . , Xn una m.a. tomada de una distribuci
on con media y
2
varianza . Demuestre que
= 2 /n.
a) Var(X)
408. Sea X1 , . . . Xn una m.a. de la distribuci
on Ber(p). Demuestre que las
y S 2 no son independientes.
estadsticas X

5.1.

Distribuciones muestrales

Estudiamos a continuaci
on algunas distribuciones de probabilidad que surgen en la estadstica al considerar funciones de una muestra aleatoria.
Distribuci
on ji-cuadrada. Se dice que X tiene una distribuci
on ji-cuadrada
con n > 0 grados de libertad si su funci
on de densidad es, para x > 0,
1
f (x) =
(n/2)

 n/2
1
xn/21 ex/2 .
2

En este caso se escribe X 2 (n). En la figura 5.1 puede apreciarse el


comportamiento de la funci
on de densidad de esta distribuci
on para varios
131

valores del par


ametro n. Se puede demostrar que
E(X) = n
Var(X) = 2n.
fHxL

Figura 5.1: Funcion de densidad de la distribucion 2 (n) para n = 1, 2, 3, 4 de arriba


hacia abajo sobre el eje vertical.

Observe que la distribuci


on 2 (n) con n = 2 se reduce a la distribuci
on
exp() con = 1/2. La distribuci
on ji-cuadrada puede encontrarse como
indica el siguiente resultado.

Proposici
on 47 Si X N(0, 1) entonces X 2 2 (1).

Demostraci
on. Para x > 0,
FX 2 (x) = P (X 2 x)

= P ( x X x)

= FX ( x) FX ( x).
Derivando

1
1
fX 2 (x) = fX ( x) + fX ( x)
2 x
2 x

1
= fX ( x)
x
1
1
= ex/2
x
2
 1/2
1
1
=
x1/21 ex/2
(1/2) 2
correspondiente a la densidad 2 (1).

La suma de dos o mas variables aleatorias independientes con distribuci


on
ji-cuadrada es nuevamente una variable aleatoria ji-cuadrada y sus grados de
132

libertad son la suma de los grados de libertad de cada uno de los sumandos.
Este es el contenido de la siguiente proposici
on.

Proposici
on 48 Sean X1 , . . . , Xm independientes tales que Xi 2 (ni ),
para i = 1, . . . , m. Entonces
n
X
i=1

Xi 2 (n1 + + nm ).

Demostraci
on. Es suficiente demostrar el resultado para el caso de dos variables aleatorias. Sean X y Y independientes con distribuci
on ji-cuadrada con
grados de libertad n y m respectivamente. Este ligero cambio en la notaci
on
nos evitar
a el uso de subndices. Por la f
ormula (4.2), para u > 0,
Z u
fX+Y (u) =
fX (u v)fY (v) dv
0

 n/2
1
(u v)n/21 e(uv)/2
2
0
 m/2
1
1
v m/21 ev/2 dv
(m/2) 2
 (n+m)/2
1
1
eu/2
(n/2)(m/2) 2
Z u
(u v)n/21 v m/21 dv.

1
(n/2)

Haciendo el cambio de variable w(v) = v/u en la integral se obtiene


 (n+m)/2
1
1
fX+Y (u) =
eu/2 u(n+m)/21
(n/2)(m/2) 2
Z 1
(1 w)n/21 wm/21 dw.
0

La integral resultante es B(n/2, m/2). Entonces


 (n+m)/2
1
B(n/2, m/2)
eu/2 u(n+m)/21
fX+Y (u) =
(n/2)(m/2) 2
 (n+m)/2
1
1
=
eu/2 u(n+m)/21 .
((n + m)/2) 2
Esta u
ltima expresi
on es la funci
on de densidad de la distribuci
on 2 (n+m).

El resultado anterior puede demostrarse de una manera m
as simple y elegante usando la funci
on generadora de momentos o la funci
on caracterstica,
presentadas en el siguiente captulo.
133

Proposici
on 49 Sean X1 , . . . , Xn independientes con distribuci
on N(, 2 ).
Entonces
n
X
(Xi )2
2 (n).
2
i=1

Demostraci
on. Esto es una consecuencia sencilla de las dos proposiciones
anteriores. Como cada Xi tiene distribuci
on N(, 2 ) para i = 1, . . . , n,
entonces (Xi )/ tiene distribuci
on N(0, 1). Por lo tanto
(Xi )2
2 (1).
2

En consecuencia

n
X
(Xi )2

i=1

2 (n).


Enunciamos el siguiente resultado cuya demostraci


on se pide realizar en
el ejercicio 517 de la p
agina 170, una vez que contemos con la poderosa
herramienta de las funciones generadoras de momentos.

Proposici
on 50 Sean X y Y independientes tales que X tiene distribuci
on
2
2
(n) y X + Y tiene distribuci
on (m). Suponga m > n. Entonces Y tiene
distribuci
on 2 (m n).

Con ayuda de esta proposici


on se demuestra ahora el siguiente resultado de
particular importancia en estadstica.

Proposici
on 51 Sean X1 , . . . , Xn independientes con distribuci
on N(, 2 ).
Entonces
n1 2
S 2 (n 1).
2

Demostraci
on.
n
X
i=1

(Xi )

n
X
i=1

n
X
i=1

Diviendo entre 2
n
X
(Xi )2
i=1

+ (X
)]2
[(Xi X)
2 + n(X
)2 .
(Xi X)

n1 2
=
S +
2
134

2

X

.
/ n

El termino del lado izquierdo tiene distribuci


on 2 (n) mientras que el segundo sumando del lado derecho tiene distribuci
on 2 (1). Por la Proposici
on 50
2

y recordando que X y S son independientes, se concluye que el primer


sumando del lado derecho tiene distribuci
on 2 (n 1).

EJERCICIOS
409. Demuestre que la funci
on de densidad de la distribuci
on 2 (n) efectivamente lo es.
410. Demuestre que la distribuci
on 2 (n) con n = 2 se reduce a la distribuci
on exp() con = 1/2.
411. Demuestre que la distribuci
on gama(n/2, ) con = 1/2 se reduce a
2
la distribuci
on (n).
412. Sea X con distribuci
on 2 (n). Demuestre que
a) E(X) = n.
(m + n/2)
para m = 1, 2, . . .
(n/2)
c) Var(X) = 2n.

b) E(X m ) = 2m

413. Demuestre que si X N(0, 1) entonces X 2 2 (1).


414. Sean X1 , . . . , Xn independientes con distribuci
on N(, 2 ). Demuestre
que
)2
(X
2 (1).
2 /n
415. Demuestre que si X1 , . . . , Xm son independientes tales que Xi 2 (ni )
para i = 1, . . . , m entonces
m
X
i=1

Xi 2 (n1 + + nm ).

416. Sean X1 , . . . , Xn independientes con distribuci


on N(0, 1). Demuestre
que
n
X
Xi2 2 (n).
i=1

417. Sean X1 , . . . , Xn independientes tales que cada Xi tiene distribuci


on
N(i , i2 ) para i = 1, . . . , n. Demuestre que
n
X
(Xi i )2
i=1

i2

135

2 (n).

418. Sean X1 , . . . , Xn independientes con distribuci


on N(, 2 ). Demuestre
que
(n 1) 2
S 2 (n 1),
2
419. Sean X y
Y independientes ambas con distribuci
on normal est
andar.
Sean R = X 2 + Y 2 y = tan1 (Y /X). Demuestre que
a) R2 tiene distribuci
on 2 (n) con n = 2 grados de libertad.
b) tan tiene distribuci
on Cauchy.
c) R y son independientes.
Distribuci
on t. La variable aleatoria X tiene una distribuci
on t de Student
con n > 0 grados de libertad si su funci
on de densidad est
a dada por
((n + 1)/2)
f (x) =
(1 + x2 /n)(n+1)/2
n (n/2)

para < x < .

En este caso se escribe X t(n). Esta distribuci


on apareci
o por primera vez
en 1908 en un trabajo publicado por William Gosset bajo el el seud
onimo de
Student. En la figura 5.2 puede apreciarse el comportamiento de la funci
on
de densidad de la distribuci
on t(n) para varios valores del par
ametro n. Se
puede demostrar que
E(X) = 0,
y Var(X) =

n
n2

para n > 2.

fHxL

2
1

-2

-1

Figura 5.2: Funcion de densidad de la distribucion t(n) para n = 1, 2, 3, 4 de abajo hacia


arriba.

La primera igualdad establece entonces que la distribuci


on t(n) se encuentra
siempre centrada en cero para cualquier valor del par
ametro n. Se muestran
a continuaci
on algunas formas en las que surge esta distribuci
on.

136

Proposici
on 52 Sean X N(0, 1) y Y 2 (n) independientes. Entonces
X
p
t(n).
Y /n
Demostraci
on. Por independencia, la funci
on de densidad conjunta de X y
Y es, para y > 0,
1
1
2
fX,Y (x, y) = ex /2
(n/2)
2

 n/2
1
y n/21 ey/2 .
2

Se aplica la f
ormula (4.1) para la transformaci
on
p
(x, y) = (x, x/ y/n)
con inversa

1 (s, t) = (s, ns2 /t2 ).


El Jacobiano de la transformaci
on inversa es



x/s x/t

1
0



J(s, t) =
=
2sn/t2 2ns2 /t3
y/s y/t

Por lo tanto



= 2ns2 /t3 .

fS,T (s, t) = fX (s)fY (ns2 /t2 ) 2ns2 /t3


 n/2 n/21 n2
1
1
n
s
1 s2 /2
2
2

ens /2t 2ns2 /t3 .


= e
n2
(n/2) 2
t
2
Integrando respecto de s,
1
nn/2
fT (t) =
2 2n/21 (n/2)tn+1

s e

1
+ n2
2
2t

ds.

Ahora efectuamos el cambio


de variable r(s) = s2

emos dr = 2s 21 + 2tn2 ds, y entonces
fT (t) =

2
n s

1
2

nn/2
1


2 2n/21 (n/2)tn+1 2 1 + n2 (n+1)/2
2
2t
1
((n + 1)/2)

,
n (n/2) (1 + t2 /n)(n+1)/2

n
2t2


, de donde obten-

r(n1)/2 er dr

correspondiente a la funci
on de densidad de la distribuci
on t(n).

El siguiente resultado es de particular importancia en estadstica para efectuar estimaciones del par
ametro de una poblaci
on normal cuando la varianza
2 es desconocida.
137

Proposici
on 53 Sea X1 , . . . , Xn una m.a. de una distribuci
on N(, 2 ).
Entonces

X
t(n 1).
S/ n

Demostraci
on. Use la Proposici
on 52 aplicada a las variables aleatorias independientes

X

N (0, 1)
/ n
n1 2
y
S 2 (n 1).
2

EJERCICIOS
420. Demuestre que la funci
on de densidad de una distribuci
on t(n) efectivamente lo es.
421. Sea X con distribuci
on t(n). Demuestre que
a) E(X) = 0.
b) Var(X) =

n
n2

para n > 2.

422. Demuestre que la distribuci


on t(n+1) tiene momentos finitos de orden
menor o igual a n pero ning
un otro momento de orden superior.
423. Sean X N(0, 1) y Y 2 (n) independientes. Demuestre que
X
p
t(n).
Y /n

424. Sea X1 , . . . , Xn una m.a. de una poblaci


on N(, 2 ). Demuestre que

X
t(n 1).
S/ n
Distribuci
on F. La variable aleatoria X tiene una distribuci
on F de Snedecor
con par
ametros n > 0 y m > 0 si su funci
on de densidad es, para x > 0,
f (x) =

((n + m)/2)  n n/2 n/21 


n (n+m)/2
1+ x
.
x
(n/2) (m/2) m
m

138

fHxL

fHxL

(a)

(b)

Figura 5.3: Funcion de densidad de la distribucion F(n, m) para (a) n = 1, 10, 100 y
m = 5 de abajo hacia arriba sobre el eje vertical en x = 1, y (b) n = 5 y m = 1, 5, 50 de
abajo hacia arriba sobre el eje vertical en x = 1.

Se escribe X F(n, m). En la figura 5.3 se muestra el comportamiento de


la funci
on de densidad de la distribuci
on F(n, m) para varios valores de los
par
ametros n y m. Puede demostrarse que
E(X) =
Var(X) =

m
para m > 2,
m2
2m2 (m + n 2)
para m > 4.
n(m 2)2 (m 4)

Los siguientes resultados indican la forma de obtener la distribuci


on F .

Proposici
on 54 Sean X 2 (n) y Y 2 (m) independientes. Entonces
X/n
F(n, m).
Y /m

Demostraci
on. Aplique la f
ormula (4.8) para la funci
on de densidad del
cociente de dos variables aleatorias.


Proposici
on 55 Si X t(n) entonces X 2 F(1, n).

Demostraci
on. Aplique la f
ormula

1
1
fX 2 (x) = fX ( x) + fX ( x) .
2 x
2 x

139

EJERCICIOS
425. Demuestre que la funci
on de densidad de la distribuci
on F(n, m) efectivamente lo es.
426. Sea X con distribuci
on F(n, m). Demuestre que
m
para m > 2.
m2
2m2 (m + n 2)
para m > 4 .
b) Var(X) =
n(m 2)2 (m 4)

a) E(X) =

427. Sea X con distribuci


on F(n, m). Demuestre que Y = 1/X tiene distribuci
on F(m, n). Observe el cambio en el orden de los par
ametros.
Este resultado es u
til para obtener valores de F que no aparecen en
tablas.
428. Sea X con distribuci
on F(n, m). Demuestre que cuando m tiende a
infinito la funci
on de densidad de nX converge puntualmente a la
funci
on de densidad de la distribuci
on 2 (n).
429. Sean X 2 (n) y Y 2 (m) independientes. Demuestre que
X/n
F(n, m).
Y /m
430. Demuestre que si X t(n) entonces X 2 F(1, n).

5.2.

Estadsticas de orden

Dada una muestra aleatoria X1 , . . . , Xn , podemos evaluar cada una de estas


variables en un punto muestral cualquiera y obtener una colecci
on de
n
umeros reales X1 (), . . . , Xn (). Estos n
umeros pueden ser ordenados de
menor a mayor incluyendo repeticiones. Si X(i) () denota el i-esimo n
umero
ordenado, tenemos entonces la colecci
on no decreciente de n
umeros reales
X(1) () X(n) ().
Ahora hacemos variar el argumento y lo que se obtiene son las as llamadas
estadsticas de orden. Este proceso de ordenamiento resulta ser de importancia en algunas aplicaciones. Tenemos entonces la siguiente definici
on.

140

Definici
on 37 Sea X1 , . . . , Xn una muestra aleatoria. A las variables
aleatorias ordenadas
X(1) = mn{X1 , . . . , Xn }
..
.
X(n) = m
ax{X1 , . . . , Xn }
se les conoce con el nombre de estadsticas de orden A X(1) se le llama
primera estadstica de orden, a X(2) se le llama segunda estadstica de orden,
etc. A X(i) se le llama i-esima estadstica de orden, i = 1, . . . , n.

Nuestro objetivo en esta secci


on es encontrar algunas f
ormulas relacionadas
con las distribuciones de probabilidad de las estadsticas de orden cuando
se conoce la distribuci
on de cada variable de la muestra aleatoria.

5.2.1.

Distribuciones individuales

Comenzamos encontrando la distribuci


on de la primera y de la u
ltima estadstica de orden de manera individual.

Proposici
on 56 Sea X1 , . . . , Xn una m.a. de una distribuci
on continua con
funci
on de densidad f (x) y funci
on de distribuci
on F (x). Entonces
1. fX(1) (x) = nf (x) [1 F (x)]n1 .
2. fX(n) (x) = nf (x) [F (x)]n1 .

Demostraci
on. Para verificar (1) se calcula primero la funci
on de distribuci
on
FX(1) (x) = P (X(1) x)

= P (mn{X1 , . . . , Xn } x)

= 1 P (mn{X1 , . . . , Xn } > x)
= 1 P (X1 > x, . . . , Xn > x)
= 1 [P (X1 > x)]n

= 1 [1 F (x)]n .
Derivando

fX(1) (x) = nf (x) [1 F (x)]n1 .

Para demostrar (2) se procede de manera an


aloga,
FX(n) (x) = P (X(n) x)
141

= P (m
ax{X1 , . . . , Xn } x)

= P (X1 x, . . . , Xn x)
= [P (X1 x)]n

= [F (x)]n .
Por lo tanto

fX(n) (x) = nf (x) [F (x)]n1 .




Ahora presentamos el resultado general de la funci


on de densidad de la iesima estadstica de orden.

Proposici
on 57 Sea X1 , . . . , Xn una m.a. de una distribuci
on continua con
funci
on de densidad f (x) y funci
on de distribuci
on F (x). Entonces


n
fX(i) (x) =
i f (x)[F (x)]i1 [1 F (x)]ni .
i

Demostraci
on. Sea Yi la variable aleatoria dada por

1 si Xi x,
Yi = 1(,x] (Xi ) =
0 si Xi > x,
en donde Xi es el i-esimo elemento de la muestra aleatoria. Las variables
Y1 , . . . , Yn son independientes y cada una de ellas puede considerarse un
ensayo Bernoulli con probabilidad de exito, es decir tomar el valor 1, igual
a P (Xi x) = F (x). Entonces la suma Y1 + + Yn corresponde al n
umero
de v.a.s Xi que cumplen la condici
on Xi x y por lo tanto esta suma tiene
distribuci
on bin(n, p) con p = F (x). Entonces
FX(i) (x) = P (X(i) x)

= P (Y1 + + Yn i)

n 
X
n
=
[F (x)]j [1 F (x)]nj .
j
j=i

Derivando y despues simplificando,



n 
X
n
f (x)[F (x)]j1 [1 F (x)]nj1 [j nF (x)]
fX(i) (x) =
j
j=i

n 
X
n
f (x)[F (x)]j1 [1 F (x)]nj1 [j(1 F (x)) (n j)F (x)]
=
j
j=i


n
i f (x)[F (x)]i1 [1 F (x)]ni .
=
i
142


Observe que la f
ormula recien demostrada se reduce a las que aparecen en la
Proposici
on 56 cuando i = 1 e i = n. Ahora presentamos una demostraci
on
corta e intuitiva del mismo resultado.
Segunda demostraci
on. Sea h > 0 arbitrario y considere los siguientes tres
intervalos ajenos (, x], (x, x + h] y (x + h, ). La probabilidad de que
i 1 variables de la muestra tomen un valor en el intervalo (, x], una de
ellas en (x, x+h] y el resto ni en (x+h, ) es, de acuerdo a la distribuci
on
multinomial,
n!
[F (x)]i1 [F (x + h) F (x)][1 F (x + h)]ni .
(i 1)! 1! (n i)!
Haciendo h tender a cero se obtiene


n
fX(i) (x) =
i f (x)[F (x)]i1 [1 F (x)]ni .
i

Sea X1 , . . . , Xn una m.a. A la variable aleatoria R = X(n) X(1) se le conoce
como el rango de la muestra. El siguiente resultado provee de una f
ormula
para la funci
on de densidad de R.

Proposici
on 58 Sea X1 , . . . , Xn una m.a. tomada de una distribuci
on continua con funci
on de densidad f (x) y funci
on de distribuci
on F (x). Entonces
para r > 0,
Z
f (y)f (y r)[F (y) F (y r)]n2 dy.
fR (r) = n(n 1)

Demostraci
on. Se calcula primero la distribuci
on conjunta FX(1) ,X(n) (x, y).
Para x y,
FX(1) ,X(n) (x, y) = P (X(1) x, X(n) y)

= P (X(n) y) P (X(n) y, X(1) > x)

= [F (y)]n P (x < X1 y, . . . , x < Xn y)

= [F (y)]n [F (y) F (x)]n .


Por lo tanto,

2
[F (y) F (x)]n
xy
= n(n 1)f (y)f (x)[F (y) F (x)]n2 .

fX(n) ,X(1) (x, y) =

143

Ahora se usa la f
ormula (4.4) para la diferencia de dos variables aleatorias.
Para r > 0 y n 2,
Z
fX(n) X(1) (r) = n(n 1)
f (y)f (y r)[F (y) F (y r)]n2 dy.


EJERCICIOS
431. Sea X1 , . . . , Xn una m.a. tomada de una distribuci
on continua F (x)
con funci
on de densidad f (x). Demuestre nuevamente que
a) fX(1) (x) = nf (x) [1 F (x)]n1 .
b) fX(n) (x) = nf (x) [F (x)]n1 .

432. Demuestre que las funciones fX(1) (x) y fX(n) (x) del ejercicio anterior
son efectivamente funciones de densidad.
433. Sea X1 , . . . , Xn una m.a. de una distribuci
on continua F (x) con funci
on de densidad f (x). Demuestre nuevamente que


n
i f (x)[F (x)]i1 [1 F (x)]ni
fX(i) (x) =
i
y compruebe que esta es efectivamente una funci
on de densidad.
434. Compruebe que la f
ormula de la Proposici
on 57 se reduce a la f
ormulas
(1) y (2) de la Proposici
on 56 cuando i = 1 e i = n respectivamente.
435. Sea X1 , . . . , Xn una m.a. de una distribuci
on unif(0, 1). Demuestre
que la i-esima estadstica de orden tiene distribuci
on beta(i, n + 1 i).
Encuentre por lo tanto su esperanza y varianza.
436. Sea X1 , . . . , Xn una m.a. de una distribuci
on exp(). Encuentre la
funci
on de densidad de la i-esima estadstica de orden.
437. Sean X(1) , X(2) las estadsticas de orden de una m.a. de tama
no dos

de una distribuci
on N(, 2 ). Demuestre que E[X(1) ] = / .
438. Sean X(1) , X(2) las estadsticas de orden de una m.a. de tama
no dos
de una distribuci
on N(, 2 ). Calcule E[X(2) ].
439. Sea X1 , . . . , Xn una m.a. de una distribuci
on F (x). Sea x un n
umero
real cualquiera y para i = 1, . . . , n defina
Yi = 1(,x] (Xi ).
Demuestre que Y1 , . . . , Yn son independientes cada una de ellas con
distribuci
on Ber(n, p) con p = F (x). Este hecho fue utilizado en el
procedimiento para encontrar la funci
on de densidad de la i-esima
estadstica de orden en la Proposici
on 57.
144

440. Sean X1 y X2 absolutamente continuas e independientes y defina Y =


m
ax{X1 , X2 }. Demuestre que
a) FY (y) = FX1 (y)FX2 (y).
b) fY (y) = FX1 (y)fX2 (y) + fX1 (y)FX2 (y).
c) fY (y) = 2FX (y)fX (y) cuando X1 y X2 tienen la misma distribuci
on.
441. Use el ejercicio anterior para encontrar la funci
on de densidad de
Y = m
ax{X1 , X2 } cuando X1 y X2 son independientes cada una con
distribuci
on
a) unif(0, 1).
b) exp().
442. Sean X1 y X2 absolutamente continuas e independientes. Defina Y =
mn{X1 , X2 }. Demuestre que
a) FY (y) = 1 [1 FX1 (y)][1 FX2 (y)].

b) fY (y) = [1 FX1 (y)]fX2 (y) + fX1 (y)[1 FX2 (y)].

c) fY (y) = 2[1 FX (y)]f (y) cuando X1 y X2 tienen la misma distribuci


on.

443. Use el ejercicio anterior para encontrar la funci


on de densidad de
Y = mn{X1 , X2 } cuando X1 y X2 son independientes cada una con
distribuci
on
a) unif(0, 1).
b) exp().
444. Sea X1 , . . . , Xn una m.a. de una distribuci
on continua F (x) con funci
on de densidad f (x). Sea R = X(n) X(1) el rango de la muestra.
Demuestre que para r > 0 y n 2,
Z
fR (r) = n(n 1)
f (y)f (y r)[F (y) F (y r)]n2 dy.

445. Se escogen n puntos al azar del intervalo unitario (0, 1). Demuestre que
la funci
on de densidad de la distancia m
axima R entre cualesquiera
dos puntos es

n(n 1)rn2 (1 r) si 0 < r < 1,
fR (r) =
0
otro caso.

5.2.2.

Distribuci
on conjunta

Ahora presentamos dos resultados acerca de la distribuci


on conjunta de las
estadsticas de orden. El primer resultado es acerca de la distribuci
on conjunta de todas ellas y despues consideraremos la distribuci
on de cualesquiera
dos.
145

Proposici
on 59 Sea X1 , . . . , Xn una m.a. de una distribuci
on continua con
funci
on de densidad f (x). Para x1 < < xn ,
fX(1) ,...,X(n) (x1 , . . . , xn ) = n!f (x1 ) f (xn ).

Demostraci
on. Se considera la funci
on de distribuci
on conjunta de todas las
estadsticas de orden y despues se deriva n veces para encontrar la funci
on
de densidad. Para x1 < x2 < < xn ,
FX(1) ,...,X(n) (x1 , . . . , xn ) = P (X(1) x1 , X(2) x2 , . . . , X(n) xn ).
Como (X(2) x2 ) = (x1 < X(2) x2 ) (X(2) x1 ) se obtiene la expresi
on
FX(1) ,...,X(n) (x1 , . . . , xn ) = P (X(1) x1 , x1 < X(2) x2 , . . . , X(n) xn )
+ P X(1) x1 , X(2) x1 , . . . , X(n) xn ).

Observe que el segundo sumando no depende de x2 asi que al tomar la derivada respecto de esta variable, este termino desaparece. De manera an
aloga
procedemos con los eventos (X(3) x3 ) hasta (X(n) xn ). Al final se obtiene
fX(1) ,...,X(n) (x1 , . . . , xn )
=

n
P (X(1) x1 , x1 < X(2) x2 , . . . , xn1 < Xn xn ).
x1 xn

Como ahora los intervalos involucrados son disjuntos, la distribuci


on multinomial asegura que
P (X(1) x1 , x1 < X(2) x2 , . . . , xn1 < Xn xn )

= n! P (X1 x1 , x1 < X2 x2 , . . . , xn1 < Xn xn )

= n! F (x1 )[F (x2 ) F (x1 )] [F (xn ) F (xn1 )],

en donde la u
ltima igualdad se sigue de la independencia e identica distribuci
on de las variables de la muestra. Ahora solo resta derivar para encontrar
el resultado.

La siguiente es una prueba corta pero no formal del mismo resultado.
Segunda demostraci
on. Sea x1 < x2 < < xn y h > 0 suficientemente
peque
no tal que los intervalos (x1 , x1 + h], (x2 , x2 + h], . . . , (xn , xn + h] son
ajenos. La probabilidad de que las variables aleatorias tomen valores cada una de ellas en uno y solo uno de estos intervalos es, de acuerdo a la
distribuci
on multinomial,
n!
[F (x1 + h) F (x1 )] [F (xn + h) F (xn )].
1! 1!

Haciendo h tender a cero se obtiene

fX(1) ,...,X(n) (x1 , . . . , xn ) = n!f (x1 ) f (xn ).


146


Ahora nos interesa encontrar una f
ormula para la densidad conjunta de
cualesquiera dos estadsticas de orden.

Proposici
on 60 Sea X1 , . . . , Xn una m.a. de una distribuci
on continua con
funci
on de distribuci
on F (x) y funci
on de densidad f (x). Sea i < j. Para
x < y,


n
fX(i) ,X(j) (x, y) =
i(j i) f (x)f (y)
i, j i, n j
[F (x)]i1 [F (y) F (x)]ji1 [1 F (y)]nj .

Demostraci
on intuitiva. Para x < y considere los intervalos ajenos (, x],
(x, x + h], (x + h, y], (y, y + h] y (y + h, ) para h > 0 suficientemente
peque
na. La probabilidad de que i 1 variables de la muestra tomen un
valor en (, x], una de ellas en (x, x + h], j i + 1 variables en (x + h, y],
otra en (y, y + h] y el resto n j variables tomen un valor en (y + h, ) es,
de acuerdo a la distribuci
on multinomial,
n!
[F (x + h) F (x)][F (y) F (x + h)]ji1
(i 1)! 1! (j i 1)! 1! (n j)!
[F (x)]i1 [F (y + h) F (y)][1 F (y + h)]nj .

Haciendo h tender a cero se obtiene la f


ormula anunciada.

EJERCICIOS
446. Sea X1 , . . . , Xn una m.a. de una distribuci
on continua con funci
on de
densidad f (x). Demuestre nuevamente que para x1 < x2 < < xn ,
fX(1) ,...,X(n) (x1 , . . . , xn ) = n!f (x1 ) f (xn )
y compruebe que esta es efectivamente una funci
on de densidad.
447. A partir de la f
ormula para fX(1) ,...,X(n) (x1 , . . . , xn ) calcule la funci
on
de densidad marginal de X(1) encontrando nuevamente que
fX(1) (x) = nf (x)[1 F (x)]n1 .
448. A partir de la f
ormula para fX(1) ,...,X(n) (x1 , . . . , xn ) calcule la funci
on
de densidad marginal de X(n) encontrando nuevamente que
fX(n) (x) = nf (x)[F (x)]n1 .
147

449. A partir de la f
ormula para fX(1) ,...,X(n) (x1 , . . . , xn ) calcule la funci
on de
densidad marginal de X(i) para i = 1, . . . , n encontrando nuevamente
que


n
fX(i) (x) =
i f (x)[F (x)]i1 [1 F (x)]ni .
i
450. Sea X1 , . . . , Xn una m.a. de una distribuci
on continua con funci
on de
distribuci
on F (x) y funci
on de densidad f (x). Sea i < j. Demuestre
nuevamente que para x < y,


n
fX(i) ,X(j) (x, y) =
i(j i) f (x)f (y)
i, j i, n j
[F (x)]i1 [F (y) F (x)]ji1 [1 F (y)]nj

y compruebe que esta es una funci


on de densidad bivariada.
451. A partir de la f
ormula para fX(i) ,X(j) (x, y) calcule la funci
on de densidad marginal de X(i) encontrando nuevamente que
fX(i) (x) =

n
i

i f (x)[F (x)]i1 [1 F (x)]ni .

452. Sea X1 , . . . , Xn una m.a. de una distribuci


on unif(0, 1). Encuentre la
funci
on de densidad de
a) X(1) y X(2) conjuntamente.
b) R = X(n) X(1) .
453. Sea X1 , . . . , Xn una m.a. de una distribuci
on unif(0, 1). Encuentre la
funci
on de densidad de la mediana muestral
a) para n impar.
b) para n par.
454. Sea X1 , . . . , Xn una m.a. de una distribuci
on unif(0, 1). Encuentre la
funci
on de densidad del vector (X(1) , . . . , X(n) ).
455. Sea X1 , . . . , Xn una m.a. de una distribuci
on unif(0, 1). Calcule el coeficiente de correlaci
on entre X(i) y X(j) .
456. Sea X1 , . . . , Xn una m.a. de una distribuci
on continua F (x) con funci
on de densidad f (x). Demuestre directamente que para x < y,
fX(1) ,X(n) (x, y) = n(n 1)f (x)f (y)[F (y) F (x)]n2 .
457. Utilice el ejercicio anterior para obtener la densidad conjunta de X(1)
y X(n) para una m.a. de tama
no n de una distribuci
on
a) unif(0, 1).
b) exp().
148

458. Calcule la covarianza entre X(1) y X(n) para una m.a. de tama
no n de
una distribuci
on
a) unif(0, 1).
b) exp().

149

Captulo 6

Convergencia
En este captulo se presenta una introducci
on al tema de convergencia de
variables aleatorias. Se estudian distintas formas en que una sucesi
on de
variables aleatorias puede converger.

6.1.

Convergencia puntual

Sea X1 , X2 , . . . una sucesi


on infinita de variables aleatorias. Al evaluar cada
variable de la sucesi
on en alg
un de se obtiene la sucesi
on numerica
X1 (), X2 (), . . .. Suponga que esta sucesi
on converge a un cierto n
umero
real denotado por X(). Si lo anterior se cumple para todos y cada uno de
los elementos de entonces se dice que la sucesi
on de variables aleatorias
converge puntualmente y su lmite es la funci
on X : R definida
naturalmente por
X() = lm Xn ().
n

Hemos demostrado al inicio de nuestro curso que en esta situaci


on la funci
on lmite X es efectivamente una variable aleatoria. Formalmente tenemos
entonces la siguiente defininici
on.
Definici
on 38 La sucesi
on X1 , X2 , . . . converge puntualmente a X si para
cada en
X() = lm Xn ().
n

Por ejemplo, suponga el espacio medible ([0, 1], B[0, 1]) y defina la sucesi
on
de variables aleatorias Xn () = n . Entonces para [0, 1), Xn () 0.
Mientras que para = 1, Xn () = 1. De esta manera la sucesi
on converge
puntualmente a la variable aleatoria

0 si [0, 1),
X() =
1 si = 1.
150

La convergencia puntual resulta ser muy fuerte pues se pide la convergencia


de la sucesi
on evaluada en cada uno de los elementos de . Uno puede
ser menos estricto y pedir por ejemplo que la convergencia se efect
ue en
todo el espacio excepto en un subconjunto de probabilidad cero. Este
tipo de convergencia m
as relajada se llama convergencia casi segura y
se estudia en las siguientes secciones junto con otros tipos de convergencia
menos restrictivos.

6.2.

Convergencia casi segura

Definici
on 39 La sucesi
on X1 , X2 , . . . converge casi seguramente a X si
P { : lm Xn () = X()} = 1.
n

Por lo tanto, en la convergencia casi segura se permite que para algunos


valores de la sucesi
on numerica X1 (), X2 (), . . . pueda no converger, sin
embargo el subconjunto de en donde esto suceda debe tener probabilic.s.
dad cero. Para indicar la convergencia casi segura se escribe Xn X o
bien lm Xn = X c.s. A menudo se utiliza el termino convergencia casi
n
dondequiera o bien convergencia casi siempre para denotar este tipo de
convergencia. Observe que omitiendo el argumento , la condici
on para la
convergencia casi segura se escribe en la forma m
as corta
P ( lm Xn = X) = 1.
n

En donde se asume que el conjunto ( lm Xn = X) es medible de tal forma


n
que aplicar la probabilidad tiene sentido.
Veamos un ejemplo. Considere el espacio de probabilidad ([0, 1], B[0, 1], P )
con P la medida uniforme, es decir, P (a, b) = b a. Defina la sucesi
on de
variables aleatorias

1 si 0 1/n,
Xn () =
0 otro caso.
Entonces Xn converge casi seguramente a la variable aleatoria constante
cero. Para demostrar esto se necesita verificar que P (lmn Xn = 0) = 1.
Pero esta igualdad es evidente a partir del hecho de que
{ : lm Xn () = 0} = (0, 1]
n

cuya probabilidad es uno. El punto = 0 es el u


nico punto muestral para
c.s.
el cual Xn () no converge a cero. Esto demuestra que Xn 0.
151

EJERCICIOS
c.s.

459. Sean a y b constantes. Demuestre que si Xn X entonces


c.s.

a) aXn aX.
c.s.

b) Xn + b X + b.
c.s.

c.s.

460. Suponga que Xn X y Yn Y . Demuestre que


c.s.

a) Xn + Yn X + Y.
c.s.

b) Xn Yn XY.
c.s.

c) Xn /Yn X/Y si Y, Yn 6= 0.

461. Considere el espacio de probabilidad ([0, 1], B[0, 1], P ) con P la medida
de probabilidad uniforme. Demuestre que
c.s.

n1[0,1/n) 0.

6.3.

Convergencia en probabilidad

Definici
on 40 La sucesi
on X1 , X2 , . . . converge en probabilidad a X si para
cada > 0
lm P { : |Xn () X()| > } = 0.
n

Para denotar la convergencia en probabilidad se escribe Xn X, y omitiendo el argumento la condici


on se escribe
lm P (|Xn X| > ) = 0.

M
as adelante se demostrar
a que la convergencia en probabilidad es un tipo
de convergencia a
un m
as relajada que la convergencia casi segura.

EJERCICIOS
p

462. Sean a y b constantes. Demuestre que si Xn X entonces


p

a) aXn aX.
p

b) Xn + b X + b.
p

umeros
463. Suponga que Xn x y Yn y, en donde x y y son dos n
reales fijos. Demuestre que
p

a) Xn + Yn x + y.
152

b) Xn Yn xy.
p

c) Xn /Yn x/y si Yn , y 6= 0.

d ) Si g es continua en x entonces g(Xn ) g(x).


p

464. Demuestre que si Xn X y Yn Y entonces


p

Xn + Yn X + Y.
465. Sean X1 , X2 , . . . variables aleatorias independientes cada una con distribuci
on unif(a, b). Demuestre que cuando n tiende a infinito
p

a) mn{X1 , . . . , Xn } a.
p

b) m
ax{X1 , . . . , Xn } b.

6.4.

Convergencia en media

Definici
on 41 La sucesi
on X1 , X2 , . . . converge en media a X si
lm E|Xn X| = 0.

Observe que para este tipo de convergencia tanto los elementos de la sucesi
on
como el lmite mismo deben ser variables aleatorias con esperanza finita. A
este tipo de convergencia tambien se le llama convergencia en L1 y se le
L1

denota por Xn X o Xn X.
EJERCICIOS
m

466. Sean a y b constantes. Demuestre que si Xn X entonces


m

a) aXn aX.
m
b) Xn + b X + b.

467. Suponga que Xn X y Yn Y . Demuestre que


m

a) Xn + Yn X + Y .
Proporcione un contraejemplo para las siguientes afirmaciones
m

b) Xn Yn XY .
m
c) Xn /Yn X/Y si Y, Yn 6= 0.

468. Use la desigualdad de Cauchy-Schwarz para demostrar que si Xn


X entonces
lm E(Xn ) = E(X).
n

153

6.5.

Convergencia en media cuadr


atica

Definici
on 42 La sucesi
on X1 , X2 , . . . converge en media cuadr
atica a X
si
lm E|Xn X|2 = 0.
n

En la convergencia en media cuadr


atica se asume que tanto los elementos de
la sucesi
on como el lmite mismo son variables aleatorias con segundo momento finito. A este tipo de convergencia tambien se le llama convergencia
L2

m.c.

en L2 y se le denota por Xn X o Xn X.
EJERCICIOS
m.c.

469. Sean a y b constantes. Demuestre que si Xn X entonces


m.c.

a) aXn aX.
m.c.

b) Xn + b X + b.

m.c.

470. Use la desigualdad de Cauchy-Schwarz para demostrar que si Xn


m.c.
X y Yn Y entonces
m.c.

Xn + Yn X + Y.

6.6.

Convergencia en distribuci
on

Definici
on 43 La sucesi
on X1 , X2 , . . . converge en distribuci
on a X si
lm FXn (x) = FX (x)

para todo punto x en donde FX (x) es continua.

En este caso se escribe Xn X. A este tipo de convergencia se le conoce


tambien con el nombre de convergencia debil y ello se debe a que esta
forma de convergencia es la menos restrictiva de todas las mencionadas
anteriormente.
Por ejemplo considere la sucesi
on X1 , X2 , . . . en donde Xn tiene distribuci
on

154

N(0, 2 /n). Demostraremos que Xn 0. Como


Z x
1
2
2
eu /2( /n) du,
FXn (x) = p
2
2 /n
entonces

si x < 0,
0
1/2 si x = 0,
lm FXn (x) =
n

1
si x > 0.

Por otro lado, la variable aleatoria constante X = 0 tiene funci


on de distribuci
on

0 si x < 0,
FX (x) =
1 si x 0.
d

Tenemos entonces que Xn 0 pues lm FXn (x) = FX (x) para todo punto
n

x donde FX (x) es continua, esto es, para todo x en el conjunto R \ {0}.


Observe que no hay convergencia de las funciones FXn (x) en el punto de
discontinuidad x = 0.
En resumen tenemos la siguiente tabla con las definiciones de los distintos
tipos de convergencia mencionados.

Convergencia

Definici
on

Puntual

Xn () X() para cada en

Casi segura

P (Xn X) = 1

En media

E|Xn X| 0

En media cuadr
atica

E|Xn X|2 0.

En probabilidad

P (|Xn X| > } 0

En distribuci
on

FXn (x) FX (x) en puntos de continuidad x de FX

EJERCICIOS
471. Considere el espacio de probabilidad ([0, 1], B[0, 1], P ) en donde P es la
medida de probabilidad uniforme. Sea Xn = 1[0,1/2+1/n) y X = 1[1/2,1] .
d

Demuestre que Xn X.
472. Sea Xn con distribuci
on unif[1/2 1/n, 1/2 + 1/n]. Demuestre que
d 1
Xn .
2

155

473. Sea Xn con distribuci


on unif{0, 1, . . . , n}. Demuestre que
1
d
Xn unif[0, 1].
n
474. Sea c una constante. Demuestre que
p

Xn c

6.7.

Xn c.

Relaciones generales entre los tipos de convergencia

En esta secci
on se establecen las relaciones entre los distintos tipos de convergencia de variables aleatorias vistos en la secci
on anterior. En la figura 6.1
se ilustran de manera gr
afica estas relaciones. En esta gr
afica la contenci
on
se interpreta como implicaci
on, por ejemplo la convergencia casi segura implica la convergencia en probabilidad y esta a su vez implica la convergencia

en distribuci
on. Estos
y otros resultados se demuestran a continuaci
on.

Figura 6.1: Relacion entre los tipos de convergencia.

Proposici
on 61 Convergencia c.s. = convergencia en prob.

c.s.

Demostraci
on. Suponga Xn X. Sea > 0 y defina los eventos
An =

(|Xk X| > ).

k=n

Esta sucesi
on es decreciente y su lmite es entonces la intersecci
on de todos
los eventos. Como (|Xn X| > ) An entonces
P (|Xn X| > ) P (An ).
156

Por lo tanto
lm P (|Xn X| > )

lm P (An )

= P ( lm An )
n

= P(

An )

n=1

= P (|Xn X| > para cada n 1 )

= P ( lm Xn 6= X)
n

= 0.


El recproco de la proposici
on anterior es falso, es decir, la convergencia en
probabilidad no implica necesariamente la convergencia casi siempre. Para
ilustrar esta afirmaci
on se proporciona a continuaci
on un contraejemplo.
Convergencia en prob. =
6
Convergencia c.s. Considere el espacio ((0, 1), B(0, 1), P )
con P la medida de probabilidad uniforme. Defina los eventos
A1 = (0, 1/2), A2 = (1/2, 1),
A3 = (0, 1/3), A4 = (1/3, 2/3), A5 = (2/3, 1),
A6 = (0, 1/4), A7 = (1/4, 2/4), A8 = (2/4, 3/4), A9 = (3/4, 1),

Sea Xn = 1An . Entonces Xn 0 pues para cualquier tal que 0 < < 1
lm P (|Xn 0| > ) = lm P (An ) = 0.

Sin embargo la sucesi


on no converge casi seguramente pues
{w : lm Xn (w) existe } = .
n

Convergencia en m. =
6
Convergencia c.s. Considere la sucesi
on de variables
m
Xn como en el ejemplo anterior. Entonces Xn 0 pues E|Xn 0| = 1/n
0. Sin embargo esta sucesi
on no converge c.s. pues P (lm Xn = 0) = P () =
0.
Convergencia c.s. =
6
convergencia en m. Considere el espacio ((0, 1), B(0, 1), P )
con P la medida de probabilidad uniforme. Defina la suceci
on Xn = n1(0,1/n) .
Entonces Xn converge a 0 c.s. pues P (lm Xn = 0) = P () = 1. Sin embargo
no hay convergencia en media pues E|Xn 0| = 1.
Proposici
on 62 Convergencia en m.c. = convergencia en media.

157

Demostraci
on. La desigualdad de Jensen establece que para u convexa
u(E(X)) E(u(X)).
Tomando u(x) = x2 se obtiene
E 2 |Xn X| E|Xn X|2 ,
de donde se sigue el resultado. Alternativamente la u
ltima desigualdad es
consecuencia de la desigualdad de Cauchy-Schwarz.


Proposici
on 63 Convergencia en media = convergencia en prob.

Demostraci
on. Para cualquier > 0 sea An = (|Xn X| > ).
E|Xn X| = E(|Xn X| 1An ) + E(|Xn X| (1 1An ))
E(|Xn X| 1An )

P (|Xn X| > ).

Por hip
otesis el lado izquierdo tiende a cero cuando n tiende a infinito. Por
lo tanto
lm P (|Xn X| > ) = 0.
n

Proposici
on 64 Convergencia en prob. = convergencia en dist.

Demostraci
on. Sea x un punto de continuidad de FX (x). Para cualquier
>0
FXn (x) = P (Xn x)

= P (Xn x, |Xn X| ) + P (Xn x, |Xn X| > )


P (X x + ) + P (|Xn X| > ).

El segundo sumando del lado derecho tiende a cero cuando n tiende a infinito
p
pues por hip
otesis Xn X. Entonces para cualquier > 0,
lm sup FXn (x) FX (x + ).
n

Por la continuidad lateral,


lm sup FXn (x) FX (x).
n

158

Ahora se demuestra la desigualdad inversa. Para cualquier > 0


FX (x ) = P (X x )

= P (X x , |Xn X| ) + P (X x , |Xn X| > )


P (Xn x) + P (|Xn X| > ).

Nuevamente el segundo sumando tiende a cero cuando n tiende a infinito.


Entonces
FX (x ) lm inf FXn (x).
n

Por la continuidad en x,
FX (x) lm inf FXn (x).
n

En resumen
FX (x) lm inf FXn (x) lm sup FXn (x) FX (x).
n


El converso de la proposici
on anterior es falso, es decir, la convergencia en
distribuci
on no siempre implica la convergencia en probabilidad.
Convergencia en dist. =
6
convergencia en prob. Sea X con distribuci
on
N(0, 1) y sea

X
si n es par,
Xn =
X si n es impar.
Entonces claramente cada Xn tambien tiene distribuci
on N(0, 1) y por lo
d

tanto lm FXn (x) = FX (x), es decir, Xn X. Sin embargo la sucesi


on
n
no converge en probabilidad a X pues para valores impares de n,
P (|Xn X| > ) = P (2|X| > )

> 1/2 para peque


na.

Lo anterior demuestra que lm P (|Xn X| > ) 6= 0.


n

EJERCICIOS
475. Enuncie con precisi
on la definici
on de convergencia de variables aleatorias: casi segura, en media, en media cuadr
atica, en probabilidad, en
distribuci
on.
476. Establezca las relaciones existentes entre los siguientes tipos de convergencia de variables aleatorias: convergencia en distribuci
on, en probabilidad, convergencia casi segura, convergencia en media y convergencia en media cuadr
atica.

159

477. Demuestre que la convergencia casi siempre implica la convergencia en


probabilidad.
478. Demuestre que la convergencia en media cuadr
atica implica la convergencia en media.
479. Demuestre que la convergencia en media cuadr
atica implica la convergencia en probabilidad.
480. Demuestre que la convergencia en probabilidad implica la convergencia
en distribuci
on.
481. Sea A1 , A2 , . . . una sucesi
on de eventos tal que lm An = A. En
n
que sentido la sucesi
on de variables aleatorias 1An converge a 1A ?
d

482. Demuestre que si Xn X y Yn Y entonces no necesariamente


d

a) cXn cX, c constante.


d

b) Xn + Yn X + Y .
483. Sea Xn con distribuci
on N(n , n2 ) y X con distribuci
on N(, 2 ).
Suponga n y n2 2 , con n2 , 2 > 0. En que sentido Xn X?
d

484. Suponga Xn X en donde Xn y X son variables aleatorias absolutamente continuas. Bajo que condiciones fXn (x) fX (x)?

6.8.

Dos resultados importantes de convergencia

Sea X1 , X2 , . . . una sucesi


on de variables aleatorias con esperanza finita.
Suponga que Xn converge puntualmente a X. Es natural preguntarse si
la sucesi
on de n
umeros E(Xn ) converge a E(X). Tal convergencia numerica equivaldra a poder intercambiar las operaciones de lmite y esperanza.
En esta secci
on se enuncian sin demostraci
on dos resultados que establecen
condiciones bajo las cuales se cumple que E(Xn ) converge a E(X).
Teorema 3 (Teorema de convergencia mon
otona) Si Xn converge puntualmente a X y es tal que 0 X1 X2 entonces
lm E(Xn ) = E(X).

Por lo tanto la condici


on de que la sucesi
on de variables aleatorias sea
mon
otona no decreciente es suficiente para poder afirmar que E(Xn ) converge a E(X). El segundo resultado que se enuncia a continuaci
on establece
otro tipo de condici
on suficiente para obtener la misma conclusi
on.

160

Teorema 4 (Teorema de convergencia dominada) Si Xn converge puntualmente a X y existe Y con esperanza finita tal que |Xn | Y para toda
n, entonces
lm E(Xn ) = E(X).
n

Es decir, es suficiente que exista una variable aleatoria con esperanza finita
que sea cota superior de la sucesi
on para poder afirmar que E(Xn ) converge a
E(X). Estos dos resultados son de suma utilidad y su demostraci
on aparece
en textos avanzados de probabilidad [11], [16], [21]. Se utilizan en la u
ltima
parte de este curso para formalizar algunas demostraciones.

161

Captulo 7

Funciones generadoras
En este captulo se estudia la funci
on generadora de probabilidad, la funci
on
generadora de momentos y la funci
on caracterstica. Estas funciones son
transformaciones de las distribuciones de probabilidad y constituyen una
herramienta muy u
til en la teora moderna de la probabilidad.

7.1.

Funci
on generadora de probabilidad

Definici
on 44 La funci
on generadora de probabilidad de X es la funci
on
G(t) = E(tX )
definida para valores reales de t tal que la esperanza existe.

Cuando sea necesario especificarlo se escribe GX (t) en lugar de G(t) y se


usan las letras f.g.p. en lugar de funci
on generadora de probabilidad. Esta
funci
on se utiliza principalmente en el caso de variables aleatorias discretas, por comodidad supondremos que estas toman valores en el conjunto
{0, 1, . . .} que corresponde al caso de las variables aleatorias discretas estudiadas en este curso. Entonces
G(t) =

tk P (X = k).

k=0

Por lo tanto la f.g.p. es una serie de potencias en t con coeficientes dados


por la distribuci
on de probabilidad (por ende el nombre) y cuyo radio de
convergencia es por lo menos uno.
La existencia de la f.g.p. no est
a garantizada para toda distribuci
on de probabilidad. Sin embargo cuando existe, determina de manera u
nica a la dis162

tribuci
on en el siguiente sentido. Si X y Y tienen la misma distribuci
on de
probabilidad entonces claramente GX (t) = GY (t) para valores de t donde
esta esperanza exista. Inversamente, sean X y Y tales que GX (t) y GX (t)
existen y coinciden en alg
un intervalo no trivial alrededor del cero. Entonces
X y Y tienen la misma distribuci
on de probabilidad.

Esta
y otras propiedades generales de la f.g.p. se estudian a continuaci
on y
m
as adelante se ilustran estos resultados con un ejemplo.

Proposici
on 65
1. Sean X y Y variables aleatorias con valores en {0, 1, . . .} tales que
GX (t) y GY (t) existen y coinciden en alg
un intervalo no trivial alrededor de t = 0. Entonces X y Y tienen la misma distribuci
on de probabilidad.
2. Si GX (t) existe entonces


dn

G
(t)
= E[X(X 1) (X n + 1)].
X

dtn
t=1

3. Si X y Y son independientes y cuyas f.g.p. existen entonces


GX+Y (t) = GX (t)GY (t).

Demostraci
on. (1) Sean an = P (X = n) y bn = P (Y = n) para n 0. La
condici
on GX (t) y GX (t) se escribe

t an =

tn bn .

n=0

n=0

Para que estas dos series de potencias en t coincidan en alg


un intervalo no
trivial alrededor del cero, sus coeficientes deben forzosamente coincidir. Es
decir an = bn para n 0. (2) Como las series de potencia se pueden derivar
termino a termino conserv
andose el mismo radio de convergencia se tiene
que

G (t) =

d X k
t P (X = k)
dt
k=0

X
d k
=
t P (X = k)
dt
k=0

ktk1 P (X = k).

k=1

163

Al evaluar en t = 1 se obtiene
G (1) =

kP (X = k) = E(X).

k=1

De manera an
aloga se demuestra para las derivadas superiores. (3) Cuando
X y Y son independientes,
GX+Y (t) = E(tX+Y )
= E(tX tY )
= E(tX )E(tY )
= GX (t)GY (t).

Ejemplo 15 Sea X con distribuci
on Poisson(). Entonces la f.g.p. de X
es G(t) = e(1t) . En efecto,
G(t) =

tn e

n=0

= e

X
(t)n

n!

n=0
t

= e

(1t)

= e

n
n!

Observe que en este caso la f.g.p. se encuentra definida para cualquier valor
de t. Calculamos a continuaci
on la esperanza y varianza de la distribuci
on
Poisson() con ayuda de la f.g.p. Al derivar una vez se obtiene G (t) =
e(1t) y al evaluar en t = 1, E(X) = G (1) = . Derivando por segunda
vez, G (t) = 2 e(1t) , y en t = 1 se obtiene E(X(X 1)) = G (1) = 2 .
Por lo tanto Var(X) = E(X 2 ) E 2 (X) = 2 + 2 = .
Ahora se muestra el uso de la f.g.p. para determinar la distribuci
on de una
variable aleatoria. Suponga que X y Y son independientes con distribuci
on
Poisson(1 ) y Poisson(2 ) respectivamente. Entonces
MX+Y (t) = MX (t)MY (t)
= e1 (1t) e2 (1t)
= e(1 +2 )(1t) .
Esta expresi
on corresponde a la f.g.p. de la distribuci
on Poisson con par
ametro
1 + 2 . Se concluye entonces que X + Y se distribuye Poisson(1 + 2 ).
Las funciones generadoras de probabilidad para algunas otras distribuciones
discretas se encuentran en la secci
on de ejercicios y tambien en el primer
apendice al final del libro.
164

EJERCICIOS
485. Sea X con varianza finita y con f.g.p. G(t). Demuestre que
a) E(X) = G (1).
b) E(X 2 ) = G (1) + G (1).
c) Var(X) = G (1) + G (1) [G (1)]2 .
486. Sea X con f.g.p. GX (t) y sean a y b dos constantes. Demuestre que
GaX+b (t) = tb GX (ta ).
487. Sea X con distribuci
on Ber(p). Demuestre que
a) G(t) = 1 p + pt.

b) E(X) = p usando G(t).


c) Var(X) = p(1 p) usando G(t).

488. Sea X con distribuci


on bin(n, p). Demuestre que
a) G(t) = (1 p + pt)n .

b) E(X) = np usando G(t).


c) Var(X) = np(1 p) usando G(t).

489. Sean X1 , . . . , Xn independientes cada una con distribuci


on Ber(p). Use
la f.g.p. para demostrar que X1 + + Xn tiene distribuci
on bin(n, p).
490. Sean X y Y independientes con distribuci
on bin(n, p) y bin(m, p) respectivamente. Use la f.g.p. para demostrar que X + Y tiene distribuci
on bin(n + m, p).
491. Sea X con distribuci
on bin(N, p) en donde N es una v.a. con distribuci
on bin(m, r). Use la f.g.p. para demostrar que X tiene distribuci
on
bin(m, rp).
492. Sea X con distribuci
on geo(p). Demuestre que
a) G(t) = p/[1 t(1 p)].

b) E(X) = (1 p)/p usando G(t).

c) Var(X) = (1 p)/p2 usando G(t).

493. Sea X con distribuci


on Poisson(). Demuestre que
a) G(t) = e(1t) .
b) E(X) = usando G(t).
c) Var(X) = usando G(t).
494. Sean X y Y independientes con distribuci
on Poisson con par
ametros
1 y 2 respectivamente. Use la f.g.p. para demostrar nuevamente que
X + Y tiene distribuci
on Poisson(1 + 2 ).

165

495. Sea X con distribuci


on bin neg(r, p). Demuestre que
a) G(t) = [p/(1 t(1 p))]r .

b) E(X) = r(1 p)/p usando G(t).

c) Var(X) = r(1 p)/p2 usando G(t).

496. Sean X1 , . . . , Xn independientes tales que Xk tiene f.g.p. Gk (t) para


k = 1, . . . , n. Demuestre que
GX1 ++Xn (t) =

n
Y

Gk (t).

k=1

497. Demuestre que la condici


on GX+Y (t) = GX (t)GY (t) no implica que
X y Y son independientes.
498. Sea X1 , X2 , . . . una sucesi
on de v.a.i.i.d. con f.g.p. GX (t). Sea N otra
v.a. con valores en N, independiente de la sucesi
on y con f.g.p. GN (t).
Sea
Y = X1 + + X N .
Demuestre que
a) GY (t) = GN (GX (t)).
b) E(Y ) = E(N )E(X) usando GY (t).
c) Var(Y ) = E 2 (X)Var(N ) + E(N )Var(X) usando GY (t).

7.2.

Funci
on generadora de momentos

La funci
on generadora de momentos es otra funci
on que se puede asociar a
algunas distribuciones de probabilidad aunque su existencia no est
a garantizada para todas las distribuciones. Cuando existe, determina de manera
u
nica a la distribuci
on de probabilidad asociada y tiene propiedades semejantes a las de la f.g.p. estudiada en la secci
on anterior. La funci
on generadora de momentos se utiliza tanto para variables aleatorias discretas como
continuas.

Definici
on 45 La funci
on generadora de momentos de X es la funci
on
M (t) = E(etX )
definida para valores reales de t para los cuales esta esperanza existe.

Nuevamente, cuando sea necesario especificarlo se escribe MX (t) en lugar de


M (t) y se usan las letras f.g.m. en lugar de funci
on generadora de momentos. La parte importante de esta funci
on es su existencia en una vecindad
166

no trivial alrededor del cero. Observe que la f.g.m. y la f.g.p. est


an relacionadas, cuando existen, por la igualdad M (t) = G(et ). Se demuestran a
continuaci
on algunas propiedades b
asicas de la f.g.m. y despues se muestra
su utilidad mediante un ejemplo.

Proposici
on 66
1. Sea X tal que su f.g.m. M (t) existe. Entonces todos los momentos X
existen y


dn
M (t)
= E(X n ).
n
dt
t=0
2. Sean X y Y son independientes y cuyas f.g.m. existen. Entonces
MX+Y (t) = MX (t)MY (t).
3. Las variables X y Y tienen la misma distribuci
on si y solo si MX (t) =
MY (t) para cada t (, ) con > 0 .

Demostraci
on. (1) El teorema de convergencia dominada permite obtener la
derivada a traves de la esperanza de modo que
d
E(etX )
dt
d
= E( etX )
dt
= E(XetX ).

d
M (t) =
dt

Al evaluar en t = 0 se obtiene el primer momento. An


alogamente se prueba
para derivadas superiores. (2) Cuando X y Y son independientes se tiene
que
MX+Y (t) = E(et(X+Y ) )
= E(etX etY )

= E(etX )E(etY )
= MX (t)MY (t)
(3) Si X es tal que su funci
on generadora de momentos existe entonces todos
sus momentos existen y estos determinan de manera u
nica a la distribuci
on
de probabilidad.

Ejemplo 16 Sea X con distribuci
on gama(n, ). Entonces para t < ,
Z
(x)n1
M (t) =
etx
ex dx
(n)
0
Z
[( t)x]n1
n
n
( t)e(t)x dx
= ( t)
(n)
0
167

= n ( t)n .
Calculamos ahora la esperanza y varianza de X con ayuda de la f.g.m.
Derivando una vez, M (t) = n n( t)n1 , al evaluar en t = 0 se obtiene E(X) = n/. Derivando nuevamente, M (t) = n n(n + 1)( t)n2 ,
por lo tanto E(X 2 ) = M (0) = n(n + 1)/2 . Entonces Var(X) = n(n +
1)/2 n2 /2 = n/2 .
Suponga que X y Y son independientes cada una con distribuci
on gama(n, )
y gama(m, ) respectivamente. Entonces la f.g.m. de X + Y es
MX+Y (t) = MX (t)MY (t)
= n ( t)n m ( t)m

= n+m ( t)nm .

Esta
es nuevamente la expresi
on de la f.g.m. de la distribuci
on gama, ahora
con par
ametros n + m y . Se concluye entonces X + Y tiene distribuci
on
gama(n + m, ).
Como hemos mencionado antes, no todas las distribuciones de probabilidad
permiten calcular la funci
on generadora de momentos dentro de un intervalo
alrededor del cero, ni todos los c
alculos son tan sencillos como en el ejemplo
mostrado. Por ejemplo la f.g.m. de la distribuci
on Cauchy est
andar no existe
para valores de t distintos de cero como se pide demostrar en el ejercicio 522.
Finalizamos esta secci
on con el enunciado sin demostracion de un resultado
acerca de convergencia de funciones generadoras.

Proposici
on 67 Sea X1 , X2 , . . . una sucesi
on de variables aleatorias cuyas
funciones generadoras de momentos existen todas ellas en alg
un intervalo no
d
trivial alrededor del cero. Entonces Xn X si y solo si MXn (t) MX (t).

En la secci
on de ejercicios se pueden encontrar las funciones generadoras de
momentos de algunas otras distribuciones discretas y continuas, asi como en
el primer apendice al final del libro.

EJERCICIOS
499. Sea X con varianza finita y con f.g.m. M (t). Demuestre que
a) E(X) = M (0).
b) E(X 2 ) = M (0).
c) Var(X) = M (0) (M (0))2 .
168

500. Sean X y Y independientes e identicamente distribuidas con f.g.m.


M (t). Demuestre que MXY (t) = M (t)M (t).
501. Sea X con f.g.m. MX (t) y sean a y b dos constantes. Demuestre que
MaX+b (t) = etb MX (at).
502. Sea X con f.g.m. MX (t). Diga falso o verdadero. Demuestre en cada
caso.
a) MX (t) 0.

b) M2X (t) = MX (2t).

503. Sea X con distribuci


on Ber(p). Demuestre que
a) M (t) = 1 p + pet .

b) E(X) = p usando M (t).


c) E(X n ) = p usando M (t).

d ) Var(X) = p(1 p) usando M (t).


504. Sea X con distribuci
on bin(n, p). Demuestre que
a) M (t) = (1 p + pet )n .

b) E(X) = np usando M (t).


c) Var(X) = np(1 p) usando M (t).

505. Sean X1 , . . . , Xn independientes cada una con distribuci


on Ber(p). Use
la f.g.m. para demostrar que X1 + + Xn tiene distribuci
on bin(n, p).
506. Sean X y Y independientes con distribuci
on bin(n, p) y bin(m, p) respectivamente. Use la f.g.m. para demostrar que X + Y tiene distribuci
on bin(n + m, p)
507. Sea X con distribuci
on geo(p). Demuestre que
p
.
1 (1 p)et
b) E(X) = (1 p)/p usando M (t).

a) M (t) =

c) Var(X) = (1 p)/p2 usando M (t).

508. Sea X con distribuci


on Poisson(). Demuestre que
a) M (t) = exp[(et 1)].

b) M (t) = M (t) + et M (t).


c) E(X) = usando M (t).

d ) Var(X) = usando M (t).


e) E[(X )3 ] = usando M (t).
509. Sea X con distribuci
on unif(a, b). Demuestre que
a) M (t) =

ebt eat
.
(b a)t
169

b) E(X) = (a + b)/2 usando M (t).


c) Var(X) = (b a)2 /12 usando M (t).
510. Sea X con distribuci
on exp(). Demuestre que
a) M (t) = /( t) para t < .
b) E(X) = 1/ usando M (t).

c) Var(X) = 1/2 usando M (t).


511. Sea X con distribuci
on N(, 2 ). Demuestre que
a) M (t) = exp(t + 21 2 t2 ).
b) E(X) = usando M (t).
c) Var(X) = 2 usando M (t).
512. Sean X y Y variables aleatorias independientes con distribuci
on N(1 , 12 )
2
y N(2 , 2 ) respectivamente. Use la f.g.m. para demostrar que X + Y
tiene distribuci
on N(1 + 2 , 12 + 22 ).
513. Sea X con distribuci
on gama(n, ). Demuestre que
a) M (t) = [/( t)]n para t < .
b) E(X) = n/ usando M (t).

c) Var(X) = n/2 usando M (t).


514. Sean X y Y independientes ambas con distribuci
on exp(). Use la
f.g.m. para demostrar que X + Y tiene distribuci
on gama(2, ).
515. Sean X y Y independientes con distribuci
on gama(n, ) y gama(m, )
respectivamente. Use la f.g.m. para demostrar que X + Y tiene distribuci
on gama(n + m).
516. Sea X con distribuci
on 2 (n). Demuestre que
a) M (t) = [1/(1 2t)]n/2 para t < 1/2.
b) E(X) = n usando M (t).

c) Var(X) = 2n usando M (t).


517. Use la f.g.m. para demostrar que si X y Y son independientes tales
que X tiene distribuci
on 2 (n) y X + Y tiene distribuci
on 2 (m) con
m > n, entonces Y tiene distribuci
on 2 (m n). Este es el contenido
de la proposici
on 50 en la p
agina 134.
518. Sean X y Y independientes con distribuci
on 2 (n) y 2 (m) respectivamente. Use la f.g.m. para demostrar que X + Y tiene distribuci
on
2 (n + m).
519. Sea X con distribuci
on N(, 2 ). Use la f.g.m. para demostrar que
a) X tiene distribuci
on N(, 2 ).
170

b) aX + b tiene distribuci
on N(a + b, a2 2 ) con a 6= 0.
c) X 2 tiene distribuci
on 2 (1).

520. Sean X1 , . . . , Xn independientes tales que Xk tiene f.g.m. Mk (t) para


k = 1, . . . , n. Demuestre que
MX1 ++Xn (t) =

n
Y

Mk (t).

k=1

521. Demuestre que la condici


on MX+Y (t) = MX (t)MY (t) no implica que
X y Y son independientes. Considere la distribuci
on conjunta
1
f (x, y) = [1 + xy(x2 y 2 )] para
4

1 < x, y < 1.

522. Sea X con distribuci


on Cauchy est
andar. Demuestre que

1 si t = 0,
MX (t) =
si t 6= 0.

7.3.

Funci
on caracterstica

Finalmente se estudia en esta secci


on la funci
on caracterstica y se enun
cian algunas de sus propiedades. Esta
es una funci
on definida para cada
distribuci
on de probabilidad y a diferencia de las funciones generadoras de
probabilidad y de momentos estudiadas antes, siempre existe. Su definici
on
es la siguiente.

Definici
on 46 La funci
on caracterstica de X es la funci
on

(t) = E eitX

definida para cualquier n


umero real t, en donde i es la unidad de los n
umeros
imaginarios.

Observe que la funci


on caracterstica es una funci
on de los n
umeros reales
en los n
umeros complejos y puede escribirse de la forma siguiente
(t) = E(cos tX) + iE(sen tX).
Nuevamente se escribe X (t) cuando sea necesario especificar que se trata de la funci
on caracterstica de X. Se escribe simplemente f.c. en lugar
de funci
on caracterstica. Observe que la f.c., la f.g.m. y la f.g.p. est
an

171

relacionadas, cuando existen, por las igualdades (t) = M (it) = G(eit ). La


existencia de la f.c. se sigue del siguiente an
alisis

Z


itx

e dF (x)
|(t)| =
Z

|eitx | dF (x)

dF (x)
=

= 1.

De modo que (t) es un n


umero complejo de norma menor o igual a uno
para cualquier valor de t. Los momentos de la variable aleatoria pueden ser
generados con la f.c. a traves de la f
ormula (n) (0) = in E(X n ), en efecto,
por el teorema de convergencia dominada se puede derivar a traves de la
esperanza y entonces
d
(t) =
dt

d
E(eitX )
dt

d itX
= E
e
dt

= E(iXeitX ).

Evaluando en t = 0 se obtiene el resultado cuando n = 1. An


alogamente se
calculan las derivadas superiores.
Como en las funciones generadoras anteriores, cuando X y Y son independientes se cumple que X+Y (t) = X (t)Y (t) pues
X+Y (t) = E(eit(X+Y ) )
= E(eitX eitY )

= E(eitX )E(eitY )
= X (t)Y (t).
El siguiente resultado permite determinar la funci
on de distribuci
on de una
variable aleatoria cuando se conoce su funci
on de distribuci
on.

Proposici
on 68 (F
ormula de inversi
on de L`
evy) Sea X con funci
on
de distribuci
on F y funci
on caracterstica (t). Si x < y son puntos de
continuidad de F entonces
Z T itx
e
eity
1
(t) dt.
F (y) F (x) = lm
T 2 T
it

Con ayuda de este teorema de inversi


on probaremos que las funciones de
distribuci
on determinan de manera u
nica a las distribuciones de probabilidad.
172

Proposici
on 69 (Teorema de unicidad) Si X y Y son tales que
X (t) = Y (t) para todo t entonces X y Y tienen la misma distribuci
on.

Demostraci
on. Por el teorema de inversi
on de L`evy, la igualdad X (t) =
Y (t) implica que para cualesquiera dos puntos de continuidad x < y para
ambas distribuciones se tiene que
FX (y) FX (x) = FY (y) FX (x).
Al hacer x tender a , se obtiene que FX (y) = FY (y), para todos los
valores y puntos de continuidad de ambas funciones de distribuci
on. Como
las funciones de distribuci
on tienen a lo sumo un n
umero numerable de
discontinuidades, FX = FY .

En el caso absolutamente continuo se tiene la siguiente f
ormula.

Proposici
on 70 (F
ormula de inversi
on en el caso abs. continuo)
Sea X absolutamente continua con funci
on de densidad f (x) y funci
on
caracterstica (t). Entonces
Z
1
eitx (t) dt.
f (x) =
2

Demostraci
on. Para x < y dos puntos de continuidad de F , por el teorema
de inversi
on de L`evy,
Z T itx
e
eity
1
F (y) F (x) = lm
(t) dt
T 2 T
it
Z itx
e
eity
1
(t) dt
=
2
it

Z Z y
1
itx
=
e
dx (t) dt.
2 x

Z y Z
1
itx
=
e
(t) dt dx.
2
x
Por lo tanto el integrando debe ser la funci
on de densidad de X.

Observe que se puede utilizar la f


ormula de inversi
on anterior u
nicamente
cuando se conoce que la funci
on caracterstica proviene de una variable
aleatoria absolutamente continua.
Ahora se demuestra un resultado que ser
a de utilidad en la u
ltima parte
del curso. Establece que la convergencia en distribuci
on es equivalente a la
convergencia puntual de las correspondientes funciones caractersticas.
173

Proposici
on 71 (Teorema de Continuidad) Sean X, X1 , X2 , . . . varid

ables aleatorias. Entonces Xn X si y solo si Xn (t) X (t).

Demostraci
on.
d

() Suponga Xn X. Entonces por el teorema de convergencia dominada,


lm Xn (t) =

lm E(cos tXn ) + iE(sen tXn )

= E(cos tX) + iE(sen tX)


= X (t).
() Suponga Xn (t) X (t). Entonces para dos puntos de continuidad
x < y comunes a cada FXn y FX , el teorema de inversi
on de L`evy
establece que
Z

eitx eity
(t) dt.
it
T
Z T itx
i
e
eity h
1
lm Xn (t) dt.
= lm
n
T 2 T
it
Z T itx
ity
e
e
1
[Xn (t)] dt.
= lm lm
n T 2 T
it
= lm FXn (y) FXn (x).

1
FX (y) FX (x) = lm
T 2

Haciendo x tender a ,
FX (y) = lm FXn (y).
n


Finalmente se muestra con ejemplos la forma de encontrar la funci
on caracterstica para algunas distribuciones.
Ejemplo 17 Sea X con distribuci
on bin(n, p). Encontraremos la funci
on
caracterstica de X.


n
X
n
(t) =
px (1 p)nx
eitx
x
x=0

n 
X
n
(peit )x (1 p)nx
=
x
x=0

= (1 p + peit )n .

174

Ejemplo 18 Sea X con distribuci


on N(, 2 ). Entonces la funci
on caracterstica de X se calcula como sigue,
Z
1
2
2
(t) =
eitx
e(x) /2 dx
2
2
Z

1
2
2
2
2

e(x 2x(it )+ )/2 dx


=
2 2

Z
1
2 2
2
(2 +(it 2 )2 )/2 2

= e
e[x(it )] /2 dx
2

{z
}
| 2
N (it 2 , 2 )

2 2 /2

= eitt

EJERCICIOS
523. Defina con precisi
on la funci
on caracterstica y mencione tres de sus
propiedades.
524. Encuentre la f.c. de una v.a. con funci
on de densidad
a) f (x) =

1
para x = 1, 2, . . .
x!(e 1)

b) f (x) = 12 e|x| .

525. Demuestre que |(t)| 1.


526. Demuestre que aX+b (t) = eitb X (at), con a, b constantes.
527. Demuestre que si x 7 F (x) es simetrica entonces t 7 (t) es real.
528. Demuestre que si t 7 (t) es real entonces x 7 F (x) es simetrica.
529. Demuestre que la funci
on caracterstica es una funci
on uniformemente
continua.
530. Demuestre que la f.c. satisface (t) = (t), en donde z denota el
complejo conjugado de z.
531. Sean X y Y independientes y con identica distribuci
on. Demuestre que
XY (t) = |X (t)|2 .
532. Sea X con distribuci
on Ber(p). Demuestre que
a) (t) = (1 p + peit ).

b) E(X) = p usando (t).


c) Var(X) = p(1 p) usando (t).

d ) E(X n ) = p usando (t), n 1 entero.


533. Sea X con distribuci
on bin(n, p). Demuestre que
175

a) (t) = (1 p + peit )n .

b) E(X) = np usando (t).


c) Var(X) = np(1 p) usando (t).

534. Sea X con distribuci


on Poisson(). Demuestre que
it

a) (t) = e(1e ) .
b) E(X) = usando (t).
c) Var(X) = usando (t).
535. Sea X con distribuci
on geo(p). Demuestre que
a) (t) = p/(1 qeit ).

b) E(X) = (1 p)/p usando (t).

c) Var(X) = (1 p)/p2 usando (t).

536. Sea X tiene distribuci


on bin neg(r, p). Demuestre que
a) (t) = [p/(1 (1 p)eit )]r .

b) E(X) = r(1 p)/p usando (t).

c) Var(X) = r(1 p)/p2 usando (t).

537. Sea X con distribuci


on unif(a, a). Demuestre que
(t) = (sen at)/at.
538. Sea X con distribuci
on unif(a, b). Demuestre que
a) (t) = [eibt eiat ]/[it(b a)].

b) E(X) = (a + b)/2 usando (t).


c) Var(X) = (b a)2 /12 usando (t).

539. Sea X con distribuci


on N(, 2 ). Demuestre que
a) (t) = exp(it 2 t2 /2).
b) E(X) = usando (t).

c) Var(X) = 2 usando (t).


540. Sea X con distribuci
on exp(). Demuestre que
a) (t) = /( it).

b) E(X) = 1/ usando (t).


c) Var(X) = 1/2 usando (t).

541. Sea X con distribuci


on gama(n, ). Demuestre que
a) (t) = [/( it)]n .

b) E(X) = n/ usando (t).


c) Var(X) = n/2 usando (t).
176

542. Sean X y Y independientes ambas con distribuci


on exp(). Use la f.c.
para demostrar que X + Y tiene distribuci
on gama(2, ).
543. Sean X y Y independientes con distribuci
on gama(n, ) y gama(m, )
respectivamente. Use la f.c. para demostrar que X + Y tiene distribuci
on gama(n + m, ).
544. Demuestre que si X y Y son independientes entonces
X+Y (t) = X (t)Y (t).
545. Demuestre que la condici
on X+Y (t) = X (t)Y (t) no implica que
X y Y son independientes considerando por ejemplo la distribuci
on
conjunta
1
f (x, y) = [1 + xy(x2 y 2 )] para
4

1 < x, y < 1.

546. Sea X con funci


on de distribuci
on
F (x) =

ex
.
1 + ex

Demuestre que F (x) es efectivamente una funci


on de distribuci
on y
calcule (t). Con ayuda de esta encuentre E(X) y Var(X).
547. Sean X y Y independientes. Demuestre que
Z
Z
XY (t) =
Y (tx)dFX (x) =
X (ty)dFY (y).

548. Mediante el c
alculo de residuos se puede demostrar que la distribuci
on
Cauchy est
andar tiene funci
on caracterstica
Z
1
dx = e|t| .
(t) =
eitx
2)
(1
+
x

Suponiendo este resultado, encuentre el error en el siguiente argumento


para encontrar la f.g.m. de la distribuci
on Cauchy: Como (t) = e|t|
|it|
y M (t) = (it) entonces M (t) = e
= e|t| .
549. Sean X1 , . . . , Xn v.a.i.i.d. con distribuci
on Cauchy est
andar, es decir,
la funci
on caracterstica de cada una de estas variables es
(t) = e|t| .
Use este resultado para demostrar que la v.a. Sn = (X1 + + Xn )/n
tiene distribuci
on Cauchy est
andar para cualquier valor de n.

177

Captulo 8

Teoremas lmite
En este captulo estudiamos dos de los teoremas m
as importantes en probabilidad, la ley de los grandes n
umeros y el teorema del lmite central.

8.1.

Desigualdades de Markov y de Chebyshev

Proposici
on 72 (Desigualdad de Markov) Sea X 0 con esperanza
finita. Para cualquier > 0,
P (X > )

E(X)
.

(8.1)

Demostraci
on.
E(X) = E( X 1(X>) + X 1(X) )
E( X 1(X>) )
E( 1(X>) )
= P (X > ).


La desigualdad de Markov establece que la probabilidad de que X exceda
un valor est
a acotada superiormente por la media entre . Las siguientes
desigualdades equivalentes a la demostrada tambien se conocen como desigualdades de Markov. Para cualquier > 0,
E|X|
.

E|X|n
.
2. P (|X| > )
n

1. P (|X| > )

178

Figura 8.1: Andrei Andreyevich Markov (Rusia 18561922).

Proposici
on 73 (Desigualdad de Chebyshev) Sea X con media y
2
varianza < . Para cualquier > 0,
P (|X | > )

2
.
2

(8.2)

Demostraci
on.


2 = E (X )2


= E (X )2 1(|X|>) + (X )2 1(|X|)


E (X )2 1(|X|>)


E 2 1(|X|>)
= 2 P (|X | > ).


La desigualdad de Chebyshev dice que la probabilidad de que X difiera
de su media en mas de est
a acotada superiormente por la varianza entre
2
. A esta desigualdad tambien se le conoce con el nombre de desigualdad
de Chebyshev-Bienayme. Las siguientes desigualdades son versiones equivalentes de la desigualdad de Chebyshev. Para cualquier > 0,
1. P (|X | > ) 1/2 .
2. P (|X | ) 1 1/2 .
3. P (|X )| ) 1

2
.
2
179

Figura 8.2: Pafnuty Lvovich Chebyshev (Rusia 18211894).

Proposici
on 74 (Desigualdad de Chebyshev extendida) Sea X una
variable aleatoria y sea g 0 una funci
on no decreciente tal que g(X) tiene
esperanza finita. Para cualquier > 0,
P (X > )

E[g(X)]
.
g()

(8.3)

Demostraci
on.
E[g(X)] = E[ g(X) 1(X>) + g(X) 1(X) ]
E[ g(X) 1(X>) ]
E[ g() 1(X>) ]
= g()P (X > ).


A partir de la desigualdad de Chebyshev extendida y con una funci
on g
adecuada se pueden obtener tanto la desigualdad de Chebyshev como la
desigualdad de Markov. En la siguiente secci
on se usar
a la desigualdad de
Chebyshev para demostrar la ley debil de los grandes n
umeros.

180

En resumen tenemos la siguiente tabla.


Desigualdades de Markov y de Chebyshev
1. Markov: Para > 0
a) X 0 = P (X > ) E(X)/
b) P (|X| > ) E|X|/
c) P (|X| > ) E|X|n /n
2. Chebyshev: Para > 0
a) P (|X | > ) Var(X)/2
b) P (X > ) E[g(X)]/g() con g 0 no decreciente

EJERCICIOS
550. Enuncie y demuestre la desigualdad de Markov.
551. Demuestre la desigualdad de Markov siguiendo los siguientes pasos.
Suponga X 0.
a) Para > 0 defina
X =

si X > ,
0 si X .

b) Compruebe que X X.

c) Tome esperanzas de ambos lados y calcule E(X ).

552. Demuestre directamente las siguientes versiones de la desigualdad de


Markov. Para cualquier > 0,
E|X|
.

E|X|n
.
b) P (|X| > )
n

a) P (|X| > )

553. Demuestre que la convergencia en media implica la convergencia en


probabilidad usando la desigualdad de Markov aplicada a la variable
aleatoria no negativa |Xn X|.
554. Enuncie y demuestre la desigualdad de Chebyshev.
555. Use la desigualdad de Chebyshev para demostrar directamente que la
convergencia en media cuadr
atica implica la convergencia en probabilidad.
556. Demuestre la desigualdad de Chebyshev (8.2) usando la desigualdad
de Markov (8.1) aplicada a la v.a. no negativa |X |.

181

557. Use la desigualdad de Chebyshev para demostrar que si X es una


variable aleatoria tal que E(X) = a y E(X 2 ) = 0 entonces X es
constante casi seguramente, es decir, P (X = a) = 1.
558. Sea X con media y varianza 2 . Use la desigualdad de Chebyshev
para estimar la probabilidad de que X tome valores entre y
+ para > 0 constante.
559. Enuncie y demuestre la versi
on de Chebyshev extendida.
560. A partir de la desigualdad de Chebyshev extendida (8.3) demuestre la
desigualdad de Chebyshev (8.2) y la desigualdad de Markov (8.1).
561. Demuestre que P (|X| > )

E|X|
para > 0,

a) usando la desigualdad de Chebyshev extendida.


b) de manera directa.
562. Demuestre que P (|X| > )

E|X|n
para > 0 y n N,
n

a) usando la desigualdad de Chebyshev extendida.


b) de manera directa.
563. Demuestre que P (X > )

E(etX )
para > 0 y t > 0,
et

a) usando la desigualdad de Chebyshev extendida.


b) de manera directa.
564. Sea X con funci
on de densidad

1/18 si x = 1, 1,
16/18 si x = 0,
f (x) =

0
otro caso.

Demuestre que P (|X | > 3) y la estimaci


on dada por la desigualdad de Chebyshev para esta probabilidad coinciden. Este ejercicio demuestra que en general la cota superior dada por la desigualdad de
Chebyshev es
optima, es decir, no puede establecerse una cota superior m
as peque
na.

565. Considere la siguiente versi


on de la desigualdad de Chebyshev
P (|X | ) 1 1/2 .
Encuentre el mnimo valor de > 0 de tal modo que la probabilidad
de que una variable aleatoria tome valores entre y + sea
al menos 0.90.

182

8.2.

Ley de los grandes n


umeros

En esta secci
on se estudia uno de los teoremas m
as importantes de la teora
cl
asica de la probabilidad. Se conoce como la ley de los grandes n
umeros y
establece que, bajo ciertas condiciones, el promedio de variables aleatorias
converge a una constante cuando el n
umero de sumandos crece a infinito.
M
as precisamente el resultado es el siguiente.

Teorema 5 (Ley d
ebil de los grandes n
umeros) Sean X1 , X2 , . . . independientes tales que E(Xi ) = . Para cualquier > 0,
n

1X
lm P (|
Xi | ) = 0.
n
n
i=1

Demostraci
on. (Suponiendo segundo momento finito.) Sea Sn = (X1 + +
Xn )/n. Entonces E(Sn ) = y Var(Sn ) 2 /n asumiendo Var(Xi ) 2 <
. La desigualdad de Chebyshev aplicada a Sn establece que para cualquier
> 0 se cumple P (|Sn | ) 2 /n2 . Basta ahora tomar el lmite
cuando n tiende a infinito para obtener el resultado requerido.

La ley debil de los grandes n
umeros establece entonces que la variable aleatoria Sn = (X1 + + Xn )/n converge en probabilidad a la media com
un
. Observe que para la demostraci
on de este resultado no hemos supuesto
identica distribuci
on para las variables aleatorias involucradas, u
nicamente
que tengan la misma media, que sean independientes y aunque las varianzas
pueden ser diferentes, se ha necesitado que sean uniformemente acotadas.
Damos a continuaci
on un ejemplo sencillo de aplicaci
on de este resultado y
m
as adelante demostraremos una versi
on m
as fuerte de la ley de los grandes
n
umeros.
Ejemplo 19 (Definici
on de probabilidad frecuentista) Considere un
experimento aleatorio cualquiera y sea A un evento. Se repite sucesivamente
el experimento y se observa en cada ensayo la ocurrencia o no ocurrencia del
evento A. Sea Xk la variable que toma el valor uno si en el k-esimo ensayo
se observa A y cero en caso contrario. Entonces X1 , X2 , . . . son variables
aleatorias independientes con distribuci
on Ber(p) en donde p es la probabilidad desconocida del evento A. Entonces E(Xk ) = p y Var(Xk ) = p(1 p).
La ley debil de los grandes n
umeros asegura que la fracci
on de ensayos en los
que se observa el evento A converge, en probabilidad, a la constante desconocida p cuando el n
umero de ensayos crece a infinito. Esta es la definici
on
frecuentista de la probabilidad y hemos entonces corroborado su validez con
ayuda de la ley de los grandes n
umeros.
La siguiente versi
on de la ley de los grandes n
umeros asegura que bajo ciertas
183

condiciones la convergencia de (X1 + + Xn )/n a la media es m


as fuerte,
es casi segura.

Teorema 6 (Ley fuerte de los grandes n


umeros) Sean X1 , X2 , . . . independientes e identicamente distribuidas tales que E(Xi ) = . Entonces
n

1X
Xi = ) = 1.
n n

P ( lm

i=1

Demostraci
on. (Suponiendo cuarto momento finito.) Dada la identica distribuci
on cualquier elemento de la sucesi
on se denota simplemente por X.
Observe que E(X ) = 0. Entonces por independencia,
n
X
E[( (Xi ))4 ] = nE[(X )4 ] + 3n(n 1) 4
i=1

= an + bn2 ,

para ciertas
Pconstante a y b. Por la desigualdad4de Chebyshev (8.3) aplicada
a la v.a. | ni=1 (Xi )| y la funci
on g(x) = x se obtiene, para > 0,
P (|

n
X
i=1

(Xi )| n)

an + bn2
.
(n)4

Pn

P
Sea el evento An = (| n1 i=1 Xi | ). Entonces
n=1 P (An ) < . Por
el lema de Borel Cantelli la probabilidad de que ocurra una infinidad de
eventos An es cero, es decir, con probabilidad uno, solo un n
umero finito de
estos eventos ocurre. Por lo tanto con probabilidad uno, existe un n
umero
natural n a partir del cual ning
un evento An se verifica. Es decir,
n

1X
P ( lm |
Xi | < ) = 1.
n n
i=1

Como esta afirmaci


on vale para cualquier > 0, se cumple que
n

1X
Xi = ) = 1.
n n

P ( lm

i=1


EJERCICIOS
566. Enuncie la ley debil de los grandes n
umeros y use la desigualdad de
Chebyshev para demostrarla.

184

567. Use la ley debil de los grandes n


umeros para demostrar que si Xn tiene
distribuci
on bin(n, p) entonces cuando n ,
1
p
Xn p.
n
568. Enuncie la ley fuerte de los grandes n
umeros.
569. (Ley de los grandes n
umeros en media cuadr
atica.) Demuestre que
si X1 , X2 , . . . es una sucesi
on de v.a.s independientes con media y
varianza 2 entonces
n
1X
m.c.
Xi .
n
i=1

Observe que no se pide la hip


otesis de identica distribuci
on para las
variables aleatorias y que este resultado no es consecuencia de la ley
fuerte.

570. Sean X1 , . . . , Xn independientes con distribuci


on N(, 2 ). Para cualquier
valor de n,
X1 + + X n
N(, 2 /n).
n
Contradice esto la ley de los grandes n
umeros?
571. En el ejercicio 549 se pide usar la f.c. para demostrar que si X1 , . . . , Xn
son v.a.i.i.d. con distribuci
on Cauchy est
andar entonces el promedio
Sn = (X1 + + Xn )/n tiene distribuci
on Cauchy est
andar independientemente del valor de n. Contradice esto la ley de los grandes
n
umeros?

8.3.

Teorema del lmite central

Concluimos el curso con el celebre y famoso teorema del lmite central. Este
resultado es de amplio uso en estadstica y otras ramas de aplicaci
on de la
probabilidad.

Teorema 7 (Teorema del lmite central) Sean X1 , X2 . . . independientes e identicamente distribuidas tales que E(Xi ) = y Var(Xi ) = 2 < .
Para cualquier x en R,


(X1 + + Xn ) n

x = P (Z x),
lm P
n
n
en donde Z tiene distribuci
on N(0, 1).

185

Este resultado establece entonces que la variable aleatoria


(X1 + + Xn ) n

n
converge en distribuci
on a una variable aleatoria normal est
andar sin importar la distribuci
on original de las variables X. Observe que la suma
(X1 + + Xn ) tiene media n y varianza n 2 , de modo que la expresi
on de
arriba es una especie de estandarizaci
on de esta variable. Equivalentemente
este resultado puede enunciarse del siguiente modo
1
n (X1

+ + Xn ) d

N(0, 1).
/ n

A fin de dar una demostraci


on simple de este resultado supondremos adicionalmente que los elementos de la sucesi
on tienen momentos finitos de
cualquier orden. Esta demostraci
on hace uso de la funci
on caracterstica.
Demostraci
on.(Suponiendo todos los momentos finitos.) Observe que
[(X1 )/ + + (Xn )/]
(X1 + + Xn ) n

=
n
n
en donde cada sumando del numerador en el lado derecho es una variable con
media cero y varianza uno. Asi pues, sin perdida de generalidad supondremos
que cada Xi tiene media cero y varianza uno y consideraremos la suma
Zn =

X1 + + X n

.
n

Se desea probar que Zn N(0, 1). Para ello es suficiente demostrar que
2 /2

lm Zn (t) = et

Tenemos que por independencia e identica distribuci


on,
h
i

n
.
Zn (t) = E eit(X1 ++Xn )/ n = X t/ n

Por lo tanto,

ln Zn (t) = n ln X (t/ n)


itE(X) i2 t2 E(X 2 ) i3 t3 E(X 3 )

= n ln 1 +
+ .
+
+
2!n
n
3!n3/2
1
1
Usando la f
ormula ln(1 + x) = x x2 + x3 y factorizando potencias
2
3
de it se obtiene

ln Zn (t) = E(X 2 ) E 2 (X) i2 t2 /2


E(X 3 ) E(X)E(X 2 ) E 3 (X) i3 t3
+

+
+
n
3! n
2 n
3 n
186

El primer sumando es t2 /2 y todos los terminos a partir del segundo sumando se anulan cuando n tiende a infinito. Por lo tanto,
lm ln Zn (t) = t2 /2.

Como la funci
on logaritmo es una funci
on continua tenemos que


ln lm Zn (t) = t2 /2.
n

De donde se obtiene

2 /2

lm Zn (t) = et

.


EJERCICIOS
572. Enuncie con precisi
on el teorema del lmite central.
573. Use el teorema del lmite central para estimar la probabilidad de obtener mas de 520
aguilas en 1000 lanzamientos de una moneda honesta.
574. Sea {Xn : n = 1, 2, . . .} una sucesi
on de v.a.i.i.d. con distribuci
on
Poisson() con = 1. Use el teorema del lmite central para demostrar
que
n
1 X nk
1
lm n
= .
n e
k!
2
k=0

575. La probabilidad de ocurrencia de un evento en un ensayo es de 0.3.


Cu
al es la probabilidad de que la frecuencia relativa de este evento
en 100 ensayos se encuentre entre 0.2 y 0.5?

187

Ap
endice A

Distribuciones de
probabilidad
Se presenta a continuaci
on una lista con algunas distribuciones de probabilidad de uso com
un. Las letras y 2 denotan la esperanza y varianza
respectivamente. La funci
on generadora de probabilidad es G(t), la generadora de la momentos es M (t) y la funci
on caracterstica es (t).
DISTRIBUCIONES UNIVARIADAS DISCRETAS
Distribuci
on uniforme
X unif{x1 , . . . , xn } con n N.
f (x) = 1/nPpara x = x1 , . . . , xn .
E(X) = n1 nj=1 xj .
P
Var(X) = n1 nj=1 (xj )2 .
P
M (t) = n1 nj=1 exj t .
Distribuci
on Bernoulli
X Ber(p) con p (0, 1).
f (x) = px (1 p)1x para x = 0, 1.
E(X) = p.
Var(X) = p(1 p).
G(t) = 1 p + pt.
M (t) = (1 p) + pet .
Distribuci
on binomial
X bin(n, p) con n {1, 2, . . .} y p (0, 1).

188


n
f (x) =
px (1 p)nx para x = 0, 1, . . . , n.
x
E(X) = np.
Var(X) = np(1 p).
G(t) = (1 p + pt)n .
M (t) = [(1 p) + pet ]n .
Distribuci
on geom
etrica
X geo(p), con p (0, 1) y q = 1 p
f (x) = p(1 p)x para x = 0, 1, . . .
E(X) = q/p.
Var(X) = q/p2 .
G(t) = p/[1 t(1 p)].
M (t) = p/[1 (1 p)et ].
Distribuci
on Poisson
X Poisson() con > 0.
x
f (x) = e
para x = 0, 1, . . .
x!
E(X) = .
Var(X) = .
G(t) = e(1t) .
M (t) = exp[(et 1)].
Distribuci
on binomial negativa
X binneg(r, p) con
 p (0, 1) y r {1, 2, . . .}.
r+x1
f (x) =
pr (1 p)x para x = 0, 1, . . .
x
E(X) = r(1 p)/p.
Var(X) = r(1 p)/p2 .
G(t) = [p/(1 t(1 p))]r .
M (t) = [p/(1 qet )]r .
Distribuci
on hipergeom
etrica
X hipergeo(N,
 N,
 K, n {1, 2, . . .} y n K N .
  K, n) con

N
N K
K
para x = 0, 1, . . . , n.
/
f (x) =
n
nx
x
E(X) = nK/N .
N K N n
Var(X) = n K
N N N 1 .

DISTRIBUCIONES UNIVARIADAS CONTINUAS


189

Distribuci
on uniforme
X unif(a, b) con a < b.
f (x) = 1/(b a) para x (a, b).
F (x) = (x a)/(b a) para x (a, b).
E(X) = (a + b)/2.
Var(X) = (b a)2 /12.
M (t) = (ebt eat )/(bt at).
Distribuci
on exponencial
X exp() con > 0.
f (x) = ex para x > 0.
F (x) = 1 ex para x > 0.
E(X) = 1/.
Var(X) = 1/2 .
M (t) = /( t) para t < .
Distribuci
on gama
X gama(n, ) con > 0 y n > 0.
(x)n1 x
f (x) =
e
para x > 0.
(n)
P
j
F (x) = 1 ex n1
j=0 (x) /j! para x > 0.
E(X) = n/.
Var(X) = n/2 .
M (t) = [/( t)]n para t < .
Distribuci
on beta
X beta(a, b) con a > 0, b > 0.
f (x) = xa1 (1 x)b1 /B(a, b) para x (0, 1).
E(X) = a/(a + b).
Var(X) = ab/[(a + b + 1)(a + b)2 ].
Distribuci
on normal
X N(, 2 ) con R y 2 > 0.
1
2
2
f (x) =
e(x) /2 .
2
2
E(X) = .
Var(X) = 2 .
M (t) = exp(t + 2 t2 /2).
(t) = exp(it 2 t2 /2).
Cuando = 0 y 2 = 1 se obtiene la distribuci
on normal est
andar.

190

Distribuci
on ji-cuadrada
X 2 (n) con n > 0.
 n/2
1
1
f (x) =
xn/21 ex/2 para x > 0.
(n/2) 2
E(X) = n.
Var(X) = 2n.
M (t) = (1 2t)n/2 para t < 1/2.
Distribuci
on t
X t(n) con n > 0.
(n + 1/2)
x2
f (x) =
(1 + )n1/2 .
n
n (n/2)
E(X) = 0.
Var(X) = n/(n 2) para n > 2.
M (t) no existe para t 6= 0.
(t) = exp(|t|).
Distribuci
on log normal
X log normal(, 2 ) con R y 2 > 0.
1
f (x) =
exp[(ln x )2 /2 2 ] para x > 0.
x 2 2
E(X) = exp( + 2 /2).
E(X n ) = exp(n + n2 2 /2).
Var(X) = exp(2 + 2 2 ) exp(2 + 2 ).
Distribuci
on Pareto
X Pareto(a, b) con a, b > 0.
aba
f (x) =
para x > 0.
(a + x)a+1
F (x) = 1 [b/(b + x)]a para x > 0.
E(X) = b/(a 1) para a > 1.
Var(X) = ab2 /[(a 1)2 (a 2)] para a > 2.
Distribuci
on Weibull
X Weibull(r, ) con r, > 0.
r
f (x) = e(x) rr xr1 para x > 0.
r
F (x) = 1 e(x) para x > 0.
E(X) = (1 + 1/r)/.
Var(X) = [(1 + 2/r) 2 (1 + 1/r)]/2 .
Distribuci
on Cauchy
191

X Cauchy(a, b) con b > 0.


1
f (x) =
.
b[1 + ((x a)/b)2 ]
E(X) y Var(X) no existen.
Cuando a = 0 y b = 1 se obtiene la distribuci
on Cauchy est
andar. En este
caso,
1
.
f (x) =
(1 + x2 )
F (x) = 1/2 + (arctan x)/.

192

Ap
endice B

Formulario
El alfabeto griego

A alpha
B beta
gamma
delta
E , epsilon
Z zeta
H eta
, theta

I iota
K kappa
lambda
M mu
N nu
xi
O o omikron
pi

P , rho
, sigma
T tau
upsilon
, phi
X chi
psi
omega

1. -
algebra
a) F.

b) A F Ac F.

c) A1 , A2 , . . . F

n=1

An F.

2. Axiomas de la probabilidad
a) P () = 1.
b) P (A) 0, para A F.
c) A1 , A2 , . . . F ajenos dos a dos P (
3. Esperanza E(X) =

x dF (x)

a) E(c) = c
b) E(cX) = cE(X)
193

n=1

An ) =

n=1

P (An ).

c) E(X + Y ) = E(X) + E(Y )


d ) X 0 = E(X) 0.
e) X Y = E(X) E(Y ).
4. Varianza Var(X) = E(X )2 .

Es un n
umero no negativo que indica el grado de dispersi
on de la
variable aleatoria. Cumple
a)
b)
c)
d)

Var(cX) = c2 Var(X).
Var(X + c) = Var(X).
Var(X) = E(X 2 ) E 2 (X).
Var(X + Y ) 6= Var(X) + Var(Y ) (excepto caso independencia).

5. Covarianza Cov(X, Y ) = E [(X E(X))(Y E(Y ))].


a)
b)
c)
d)
e)
f)
g)
h)

Cov(X, Y ) = E(XY ) E(X)E(Y ).


Cov(X, Y ) = Cov(Y, X).
Cov(X, X) = Var(X).
Cov(a, Y ) = 0, a constante.
Cov(aX, Y ) = aCov(X, Y ), a constante.
Cov(X1 + X2 , Y ) = Cov(X1 , Y ) + Cov(X2 , Y ).
X, Y indep = Cov(X, Y ) = 0.
Cov(X, Y ) = 0 =
6
X, Y indep (excepto caso normal).

Cov(X, Y )
.
6. Coeficiente de correlaci
on (X, Y ) = p
Var(X) Var(Y )
Es un n
umero en [1, 1] que representa una medida del grado de dependencia lineal entre dos variables aleatorias. Cuando Y = aX + b
con a 6= 0 y b constantes se cumple |(X, Y )| = 1 y viceversa. Si X y Y
son independientes entonces (X, Y ) = 0, el recproco es falso excepto
en el caso normal.
7. Transformaciones
Si X es una variable aleatoria y es una funci
on estrictamente mon
otona
y con inversa diferenciable entonces la variable aleatoria Y = (X)
tiene funci
on de densidad
d
fY (y) = fX (1 (y)) | 1 (y)|.
dy
En el caso bidimensional, si (U, V ) = (X, Y ) con continua y con
inversa diferenciable entonces
fU,V (u, v) = fX,Y (1 (u, v)) |J(u, v)|,

1
1

1
1



u
v
en donde J(u, v) =
1 .
1
2
2


u
v
En particular se cumplen las siguiente f
ormulas
194

a) fX+Y (u) =

fX,Y (u v, v) dv

b) fXY (u) =
fX,Y (u + v, v) dv


Z
1
c) fXY (u) =
fX,Y (u/v, v) dv
v
Z

d ) fX/Y (u) =
fX,Y (uv, v) |v| dv

8. Funci
on generadora de probabilidad G(t) = E(tX ).
Se utiliza principalmente para distribuciones discretas. Cuando existe
determina de manera u
nica a la distribuci
on de probabilidad. Genera
los momentos factoriales a traves de la f
ormula
G(n) (1) = E[X(X 1) (X n + 1)],
cuando estos momentos existen. Cumple adem
as
a) X, Y indep GX+Y (t) = GX (t)GY (t), el recproco es falso.
9. Funci
on generadora de momentos M (t) = E(etX ).
Esta funci
on no existe para todas las distribuciones de probabilidad.
Cuando existe en alg
un intervalo no trivial alrededor de t = 0 determina de manera u
nica a la distribuci
on de probabilidad. Genera los
(n)
momentos a traves de la f
ormula M (0) = E(X n ). Adem
as cumple
a) X, Y indep MX+Y (t) = MX (t)MY (t), el recproco es falso.
d

b) Xn X si y solo si MXn (t) MX (t) para cada t en (, ),


> 0.
10. Funci
on caracterstica (t) = E(eitX ).
Es una funci
on que siempre existe y determina de manera u
nica a
la distribuci
on de probabilidad. Genera los momentos a traves de la
f
ormula (n) (0) = in E(X n ) cuando estos momentos existen. Adem
as
cumple
a) X, Y indep X+Y (t) = X (t)Y (t), el recproco es falso.
d

b) Xn X si y solo si Xn (t) X (t) para cada t en R.


Z T
1
1 eith itx
c) F (x + h) F (x) = lm
e
(t) dt (L`evy).
T 2 T
it
Z T
1
eitx (t) dt.
d ) f (x) = lm
T 2 T
n

1X
Xi
n

11. Ley de los grandes n


umeros

i=1

12. Teorema del lmite central

(X1 + + Xn ) n d

N(0, 1)
n

195

Ap
endice C

Tabla de la distribuci
on
normal est
andar
1
(x) =
2

2 /2

et

dt

0.00

0.01

0.02

0.03

0.04

0.05

0.06

0.07

0.08

0.09

0.0
0.1
0.2
0.3
0.4

0.5000
0.5398
0.5793
0.6179
0.6554

0.5040
0.5438
0.5832
0.6217
0.6591

0.5080
0.5478
0.5871
0.6255
0.6628

0.5120
0.5517
0.5910
0.6293
0.6664

0.5160
0.5557
0.5948
0.6331
0.6700

0.5199
0.5596
0.5987
0.6368
0.6736

0.5239
0.5636
0.6026
0.6406
0.6772

0.5279
0.5675
0.6064
0.6443
0.6808

0.5319
0.5714
0.6103
0.6480
0.6844

0.5359
0.5753
0.6141
0.6517
0.6879

0.5
0.6
0.7
0.8
0.9

0.6915
0.7257
0.7580
0.7881
0.8159

0.6950
0.7291
0.7611
0.7910
0.8186

0.6985
0.7324
0.7642
0.7939
0.8212

0.7019
0.7357
0.7673
0.7967
0.8238

0.7054
0.7389
0.7704
0.7995
0.8264

0.7088
0.7422
0.7734
0.8023
0.8289

0.7123
0.7454
0.7764
0.8051
0.8315

0.7157
0.7486
0.7794
0.8078
0.8340

0.7190
0.7517
0.7823
0.8106
0.8365

0.7224
0.7549
0.7852
0.8133
0.8399

1.0
1.1
1.2
1.3
1.4

0.8413
0.8643
0.8849
0.9032
0.9192

0.8438
0.8665
0.8869
0.9049
0.9207

0.8461
0.8686
0.8888
0.9066
0.9222

0.8485
0.8708
0.8907
0.9082
0.9236

0.8508
0.8729
0.8925
0.9099
0.9251

0.8531
0.8749
0.8944
0.9115
0.9265

0.8554
0.8770
0.8962
0.9131
0.9279

0.8577
0.8790
0.8980
0.9147
0.9292

0.8599
0.8810
0.8997
0.9162
0.9306

0.8621
0.8830
0.9015
0.9177
0.9319

1.5
1.6
1.7
1.8
1.9

0.9332
0.9452
0.9554
0.9641
0.9713

0.9345
0.9463
0.9564
0.9649
0.9719

0.9357
0.9474
0.9573
0.9656
0.9726

0.9370
0.9484
0.9582
0.9664
0.9732

0.9382
0.9495
0.9591
0.9671
0.9738

0.9394
0.9505
0.9599
0.9678
0.9744

0.9406
0.9515
0.9608
0.9686
0.9750

0.9418
0.9525
0.9616
0.9693
0.9756

0.9429
0.9535
0.9625
0.9699
0.9761

0.9441
0.9545
0.9633
0.9706
0.9767

2.0
2.1
2.2
2.3
2.4

0.9772
0.9821
0.9861
0.9893
0.9918

0.9778
0.9826
0.9864
0.9896
0.9920

0.9783
0.9830
0.9868
0.9898
0.9922

0.9788
0.9834
0.9871
0.9901
0.9925

0.9793
0.9838
0.9875
0.9904
0.9927

0.9798
0.9842
0.9878
0.9906
0.9929

0.9803
0.9846
0.9881
0.9909
0.9931

0.9808
0.9850
0.9884
0.9911
0.9932

0.9812
0.9854
0.9887
0.9913
0.9934

0.9817
0.9857
0.9890
0.9916
0.9936

2.5
2.6
2.7
2.8
2.9

0.9938
0.9953
0.9965
0.9974
0.9981

0.9940
0.9955
0.9966
0.9975
0.9982

0.9941
0.9956
0.9967
0.9976
0.9982

0.9943
0.9957
0.9968
0.9977
0.9983

0.9945
0.9959
0.9969
0.9977
0.9984

0.9946
0.9960
0.9970
0.9978
0.9984

0.9948
0.9961
0.9971
0.9979
0.9985

0.9949
0.9962
0.9972
0.9979
0.9985

0.9951
0.9963
0.9973
0.9980
0.9986

0.9952
0.9964
0.9974
0.9981
0.9986

3.0
3.1
3.2
3.3
3.4

0.9987
0.9990
0.9993
0.9995
0.9997

0.9987
0.9991
0.9993
0.9995
0.9997

0.9987
0.9991
0.9994
0.9995
0.9997

0.9988
0.9991
0.9994
0.9996
0.9997

0.9988
0.9992
0.9994
0.9996
0.9997

0.9989
0.9992
0.9994
0.9996
0.9997

0.9989
0.9992
0.9994
0.9996
0.9997

0.9989
0.9992
0.9995
0.9996
0.9997

0.9990
0.9993
0.9995
0.9996
0.9997

0.9990
0.9993
0.9995
0.9997
0.9998

196

Bibliografa
[1] Blake I.F. (1979) An introduction to applied probability. Wiley.
[2] Cohn D.L. (1980) Measure theory. Birkh
auser.
[3] Feller W. (1978) Introducci
on a la teora de las probabilidades y sus
aplicaciones. Vol. I y II. Limusa.
[4] Grimmett G.R., Stirzaker D.R. (1982) Probability and random processes. Clarendon Press.
[5] Grimmett G.R., Stirzaker D.R. (1986) Probability: an introduction. Oxford University Press.
[6] Grimmett G.R. , Stirzaker D.R. (2001) One thousand exercises in probability. Oxford University Press.
[7] Halmos P.R. (1960) Measure theory. Van Nostrand.
[8] Harris B. (1966) Theory of probability. AddisonWesley.
[9] Hoel P., Port S., Stone C. (1971) Probability theory. Houghton Mifflin
Co.
[10] Jacod D., Protter P. (2000) Probability essentials. SpringerVerlag.
[11] Karr A.F. (1993) Probability. SpringerVerlag.
[12] Laha R. G., Rohatgi V. K. (1979) Probability theory. John Wiley &
Sons.
[13] Miller I., Miller M. (1999) John E. Freunds mathematical statistics 6th ed. PrenticeHall.
[14] Mood A.M., Graybill F.A., Boes D.C. (1974) Introduction to the theory
of statistics. McGraw Hill.
[15] Parzen E. (1960) Modern probability theory and its applications. Wiley.
[16] Resnick S.I. (1999) A probability path. Birkh
auser.
[17] Rinc
on L. (2004) Que es la esperanza condicional? Miscel
anea
Matem
atica. No. 37, Agosto 2004, SMM.
197

[18] Romano J.P. , Siegel A.F. (1986) Counterexamples in probability and


statistics. Chapman & Hall.
[19] Rosenthal J.S. (2000) A first look at rigorous probability theory. World
Scientific.
[20] Ross S. (1976) A first course in probability. Prentice Hall.
[21] Williams D. (1991) Probability with martingales. Cambridge University
Press.
[22] Williams D. (2001) Weighing the odds: a course in probability ans statistics. Cambridge University Press.

198

Indice
-
algebra, 5
generada, 8
mnima generada, 8
-
algebra, 4
de Borel, 11

beta, 74, 190


binomial, 65, 188
binomial negativa, 68, 189
Cauchy, 191
exponencial, 71, 190
exponencial doble, 72
F de Snedecor, 138
gama, 72, 190
geometrica, 66, 189
hipergeometrica, 69, 189
hipergeometrica multivariada, 111
ji-cuadrada, 131, 191
log normal, 78, 115, 191
multinomial, 110
normal, 76, 190
normal bivariada, 112
Pareto, 191
Poisson, 67, 189
t de Student, 136, 191
uniforme continua, 70, 190
uniforme discreta, 63, 188
Weibull, 191

Borel-Cantelli, 34
Coeficiente de correlaci
on, 105
Conjunto
Borel medible, 11
Boreliano, 11
de Borel, 11
medible, 5
Continuidad de la prob, 29, 30
Convergencia
casi dondequiera, 151
casi segura, 151
casi siempre, 151
debil, 154
de eventos, 15
en distribuci
on, 154
en media, 153
en media cuadr
atica, 154
en probabilidad, 152
puntual, 150
puntual de v.a.s, 150
Convoluci
on, 120
Covarianza, 102
Desigualdad
de Bonferroni, 28
de Boole, 24
de Cauchy-Schwarz, 62
de Chebyshev, 179, 180
de Kounias, 28
de Markov, 178
Distribuci
on
arcoseno, 75
Bernoulli, 64, 188

Espacio
de probabilidad, 4, 5
medible, 5
muestral, 4
Esperanza
condicional, 96
de un vector, 99
de una funci
on de un vector, 99
de una v.a., 55
Estadsticas de orden, 141
Estadstica, 130
Evento, 4
Funci
on caracterstica, 171
f
ormula de inversi
on, 172, 173
teorema de continuidad, 174
teorema de unicidad, 173
199

Funci
on de densidad
condicional, 89
conjunta, 84
marginal, 87
Funci
on de distribuci
on, 44
condicional, 89
conjunta, 81
marginal, 87
Funci
on generadora
de momentos, 166
de probabilidad, 162

de un vector, 99
de una v.a., 59
muestral, 130
Vector aleatorio, 80
continuo, 81
discreto, 81

Independencia
de -
algebras, 33
de eventos, 32
de v.a.s, 91
Integral de Riemann-Stieltjes, 53
Lmite inferior, 15
Lmite superior, 15
Ley de los grandes n
umeros, 183
debil, 183
fuerte, 184
Matriz de varianzas, 99
Media, 56
muestral, 130
Medida de probabilidad, 5, 20
Momentos, 61
absolutos, 61
centrales, 61
centrales absolutos, 61
Muestra aleatoria, 130
Teorema
de cambio de variable, 114, 116
de convergencia dominada, 160
de convergencia mon
otona, 160
del lmite central, 185
Valor esperado, 56
Valor medio, 56
Valor promedio, 56
Variable aleatoria, 36
continua, 51
discreta, 50
mixta, 51
Varianza
condicional, 98
200

S-ar putea să vă placă și