Documente Academic
Documente Profesional
Documente Cultură
Introduccion a la Teora de
las Probabilidades
PUNO - PERU
2016
Introduccion a la Teora de las Probabilidades
Autores:
Luis Francisco Laurente Blanco
Richard Rene Poma Canazaca
Editado por:
Luis Francisco Laurente Blanco
e-mail: flaurenteblanco@gmail.com
Impreso:
MayVar Impresores
e-mail: mayvarimpresores@gmail.com
2. Analisis Combinatorio 14
2.1. Principio Fundamental de Conteo . . . . . . . . . . . . . . . . 14
2.2. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3. Permutaciones Circulares . . . . . . . . . . . . . . . . . . . . . 16
2.4. Combinaciones . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.5. Permutaciones con Repeticion (i.e. Objetos Indistinguibles) . . 19
2.6. Teorema Multinomial . . . . . . . . . . . . . . . . . . . . . . . 21
2.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3. Axiomas de Probabilidad 24
3.1. Espacio Muestral y Eventos . . . . . . . . . . . . . . . . . . . 24
3.2. Algebra de Eventos . . . . . . . . . . . . . . . . . . . . . . . . 25
3.3. Axiomas de Probabilidad . . . . . . . . . . . . . . . . . . . . . 25
3.4. Probabilidad Condicional . . . . . . . . . . . . . . . . . . . . . 28
3.4.1. Regla de Bayes . . . . . . . . . . . . . . . . . . . . . . 29
3.5. Independencia de Eventos . . . . . . . . . . . . . . . . . . . . 31
3.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5
INDICE GENERAL 6
6. Teoremas Lmite 88
6.1. Funciones Caractersticas . . . . . . . . . . . . . . . . . . . . . 88
6.1.1. La transformada de Laplace . . . . . . . . . . . . . . . 95
6.2. Ley de los Grandes Numeros . . . . . . . . . . . . . . . . . . . 100
6.2.1. Ley de los Grandes Numeros para Variables Aleatorias
Discretas . . . . . . . . . . . . . . . . . . . . . . . . . . 100
6.2.2. Ley de los Grandes Numeros para Variables Aleatorias
Contnuas . . . . . . . . . . . . . . . . . . . . . . . . . 105
Captulo 1
N = {1, 2, 3, . . .}.
Z = {. . . , 3, 2, 1, 0, 1, 2, 3, . . .}.
7
CAPITULO 1. OPERACIONES BASICAS DE CONJUNTOS 8
(e) {x}
(f) {x}
Solucion. (a) Verdadero (b) Verdadero (c) Falso debido que {x} es un
conjunto que consiste de un solo elemento x y as {x} no es un miembro de
este conjunto (d) Verdadero (e) Verdadero (f) Falso debido que {x} no tiene
como uno de sus elementos.
Luego, la coleccion de todos los subconjuntos de un conjunto A es de im-
portancia. Denotamos este conjunto por P(A) y llamamos el conjunto potencia
de A.
Ejemplo 1.1.7. Encuentre el conjunto potencia de A = {a, b, c}.
Solucion.
P(A) = {, {a}, {b}, {c}, {a, b}, {a, c}, {b, c}, {a, b, c}}.
1.2.1. Complemento
Si es un conjunto dado y tiene subconjuntos bajo consideracion, lla-
mamos a el conjunto universal. Sea un conjunto universal y A, B dos
subconjuntos de . El complemento absoluto de A es el conjunto
Ac = {x ; x
/ A}.
Ejemplo 1.2.1. Encuentre el complemento de A = {1, 2, 3} si = {1, 2, 3, 4, 5, 6}.
Solucion. De la definicion, Ac = {4, 5, 6}.
El complemento relativo de A con respecto a B es el conjunto
B A = {x ; x B y x
/ A }.
Ejemplo 1.2.2. Sea A = {1, 2, 3} y B = {{1, 2}, 3}. Encuentre A B.
Solucion. Los elementos de A que no estan en B son 1 y 2.Luego, AB =
{1, 2}.
La interseccion de A y B es el conjunto
A B = {x; x A y x B}.
Ejemplo
T 1.2.4. Para cada entero positivo n definimos An = {n}. Encuentre
n=1 An .
Solucion. Claramente,
T
n=1 An = .
Las Leyes de Morgan son validas para algun numero contable de conjun-
tos. De este modo !c
[ \
An = Acn
n=1 n=1
y !c
\
[
An = Acn .
n=1 n=1
Ejemplo
T 1.2.5. Encuentre conjuntos A1 , A2 , . . ., que son disjuntos en parejas
y n=1 An = .
Solucion. Para cada entero positivo n, sea An = {n}.
Teorema 1.2.3. (Principio de Inclusion-Exclusion). Suponga que A y B son
conjuntos finitos. Entonces
1. n(A B) = n(A) + n(B) n(A B)
2. Si A B = , entonces n(A B) = n(A) + n(B)
3. Si A B, entonces n(A) n(B).
Demostracion. Ver referencia.
Esta idea puede ser extendida para producto de algun numero de conjuntos.
Dado n conjuntos A1 , A2 , . . . , An el producto cartesiano de esos conjuntos es
el conjunto
A1 A2 An = {(a1 , a2 , . . . , an ); a1 A1 , a2 A2 , . . . , an An }.
1.3. Ejercicios
Ejercicio 1.3.1. Sea A y B dos conjuntos. Use el Diagrama de Venn para
mostrar que B = (A B) (Ac B) y A B = A (Ac B).
Ejercicio 1.3.2. Muestre que si A B entonces B = A (Ac B). De este
modo, B puede ser escrito como la union de dos subconjuntos disjuntos.
Ejercicio 1.3.3. En un universo U de 100, sea A y B subconjuntos de U tal
que n(A B) = 70 y n(A B c ) = 90. Determine n(A).
Ejercicio 1.3.4. Muestre que si A, B y C son subconjuntos de un universo
U , entonces
n(ABC) = n(A)+n(B)+n(C)n(AB)n(AC)n(BC)+n(ABC).
Analisis Combinatorio
14
CAPITULO 2. ANALISIS COMBINATORIO 15
2.2. Permutaciones
Considere el siguiente ejemplo: De cuantas maneras pueden 8 caballos
finalizar una carrera (asumiendo no existe empates)? Se puede observar este
problema como una decision de 8 pasos. El primer paso es la posibilidad de
un caballo finalice primero la carrera, el segundo paso es la posibilidad de un
caballo finalice segundo, . . . , el 8vo paso es la posibilidad de un caballo finalice
8vo en la carrera. Luego, por el Principio Fundamental de Conteo, all son
8 7 6 5 4 3 2 1 = 40, 320
maneras que finalizan 8 caballos una determinada carrera.
Este ejemplo exibe un ejemplo de arreglo ordenado, la que indica que el
arreglo de los objetos es importante. Tal arreglo ordenado es llamado permu-
tacion.
El producto 8 7 6 5 4 3 2 1 puede ser escrito en una notacion mas
corta llamada factorial, la cual se escribe 8 7 6 5 4 3 2 1 = 8! En general,
se define n factorial por
n! = n(n 1)(n 2) 3 2 1; n 1
donde n es el numero a calcular. Por convencion definimos
0! = 1.
Ahora consideraremos la permutacion de un conjunto de objetos. Suponga
que tenemos n elementos Cuantos arreglos ordenados de k elementos podemos
formar de esos n elementos? El numero de permutaciones es denotado por
P (n, k). El n indica el numero de diferentes elementos y k refiere al numero
de ellos que aparecen en cada arreglo. La expresion para P (n, k) esta dado en
el siguiente teorema.
Teorema 2.2.1. Para algun entero no negativo n y 0 k n se tiene
n!
P (n, k) =
(n k)!
CAPITULO 2. ANALISIS COMBINATORIO 16
Ejemplo 2.2.1. Cuantos codigos se pueden formar con 3 letras seguidas por
4 numeros (sin repeticiones)?
Solucion. La decision consiste de dos pasos, el primero es seleccionar
las letras y eso puede ser hecho de P (26, 3) maneras. El segundo paso es
seleccionar los numeros y puede hacerse de P (10, 4) maneras. Luego, por el
Principio Fundamental de Conteo all son P (26, 3) P (10, 4) = 78, 624, 000
codigos diferentes.
2.4. Combinaciones
En una permutacion el orden del conjunto de objetos o personas es tomada
dentro de la cuenta. No obstante, existe diversos problemas en la cual se desea
conocer el numero de formas en la cual k objetos pueden ser seleccionados
de n objetos distintos en orden arbitrario. Por ejemplo, cuando seleccionamos
2 personas para formar un grupo de un total de 10 personas, el orden de la
seleccion es irrelevante; explicado de otro modo, elegir a la persona 1 y persona
2 para formar un grupo es el mismo que elegir a la persona 2 y persona 1.
En efecto, la combinacion es definida como una seleccion posible de un
cierto numero de objetos tomados de un grupo sin importar el orden. Mas pre-
cisamente, el numero de k elementos (subconjunto) de un conjunto total de n
elementos es llamado el numero de combinaciones de n objetos tomando k a la
CAPITULO 2. ANALISIS COMBINATORIO 17
n
vez, esto es denotado por = C(n, k). La expresion para la combinacion
k
se expresa en el siguiente teorema.
n
Teorema 2.4.1. Si , para r n, denota el numero de formas en la
k
cual k objetos pueden ser seleccionados de un conjunto de n distintos objetos,
entonces
n n!
= C(n, k) = .
k (n k)!k!
Demostracion. Ver referencia.
n n
Luego, se define = 0 si k < 0 o k > 0. De este modo,
k k
representa el numero de diferentes grupos de tamano k que sera seleccionado
de un conjunto de n objetos cuando el orden de seleccion no es relevante.
Ejemplo 2.4.1. De un grupo de 5 mujeres y 7 hombres, Cuantos diferentes
grupos se puede ordenar tal que esta conformado por 2 mujeres y 3 hombres?
Si 2 hombres son elegidos y rechazan formar el grupo?
Solucion. All son P (5, 2)C(7, 3) = 350 posibles grupos de 2 mujeres
y 3 hombres. Ahora, si suponemos que 2 hombres son elegidos y rechazan
formar parte del grupo, los grupos que no incluyen los 2 hombres son C(7, 3)
C(2, 2)C(5, 1) = 30. Porque all son C(5, 2) = 10 maneras de elegir 2 mujeres,
luego sigue que son 30 10 = 300 posibles grupos.
El siguiente teorema discute alguna de las propiedades de combinaciones.
Teorema 2.4.2. Suponga que n y k son numeros con 0 k n. Entonces,
n n
1. = =1
0 n
n n
2. = =n
1 n1
n n
3. (Propiedad Simetrica). =
k nk
n+1 n n
4. (Identidad de Pascal). = + .
k k1 k
Demostracion. Ver referencia.
CAPITULO 2. ANALISIS COMBINATORIO 18
n n1
X n1 X n 1
(x + y)n = xi y ni + xi y ni
i1 i
i=1 i=0
n1
X n 1 n 1
= xn + + xi y ni + y n
i1 i
i=0
ni
X n
= xn + xi y ni + y n
i
i=1
n
X n
= xi y ni .
i
i=0
CAPITULO 2. ANALISIS COMBINATORIO 19
n1 + n2 + n3 + n4 = 21
donde n1 2, n2 3, n3 4 y n4 5?
Solucion. Reescribiendo la ecuacion como
o
m1 + m2 + m3 + m4 = 7
donde los mi son no negativos. Luego, el numero de soluciones es C(7 + 4
1, 7) = 120.
2.7. Ejercicios
Ejercicio 2.7.1. Una agencia de viaje ofrece paquetes en oferta a 12 ciudades
por aire, tren y bus De cuantas maneras se puede seleccionar un viaje?
9!
Ejercicio 2.7.2. Encuentre m y n tal que P (m, n) = 6! .
Ejercicio 2.7.3. De cuantas maneras se puede formar un codigo de 4 letras
usando las 27 letras del alfabeto
(a) si es permitido las repeticiones?
(b) si no es permitido las repeticiones?
Ejercicio 2.7.4. Un determinado club esta conformado por cinco miembros
De cuantas maneras pueden ser seleccionado un grupo conformado por un
presidente, secretario y tesorero?
Ejercicio 2.7.5. Cuatro profesores y cuatro estudiantes estan sentados en
una mesa circular. Encuentre el numero de formas que pueden sentarse de tal
modo que los profesores y alumnos esten alternados.
Ejercicio 2.7.6. Cuantas arreglos de la palabra MATEMATICAS es posible
encontrar?
Ejercicio 2.7.7. Suponga que un club formado por 20 miembros planea for-
mar 3 distintos comites con 6, 5 y 4 miembros, respectivamente De cuantas
maneras es posible realizarlo?
Ejercicio 2.7.8. Cuantas soluciones tiene la ecuacion x1 + x2 + x3 = 5 tal
que x1 , x2 , x3 son enteros no negativos?
CAPITULO 2. ANALISIS COMBINATORIO 23
Axiomas de Probabilidad
24
CAPITULO 3. AXIOMAS DE PROBABILIDAD 25
3. P (A B) = P (A) + P (B) P (A B)
Demostracion. Ver referencia.
Ejemplo 3.3.2. Luis leera dos libros durante sus vacaciones de fin de ano.
Con probabilidad 0.5, el gusta de la lectura del primer libro; con probabilidad
0.4, el gusta del segundo libro y con probabilidad de 0.3 el gusta de ambos
libros. Cual es la probabilidad que Luis no guste de ninguno de los libros?
Solucion. Sea Ai el evento que Luis gusta del libro i para i = 1, 2. Luego,
la probabilidad que Luis guste al menos uno de los libros es:
P (A1 A2 A3 ) = P ((A1 A2 ) A3 ),
A = A (B B c ) = (A B) (A B c ).
Teorema 3.4.2. Sea B1 , B2 , . . . una particion de tal que P (Bi ) > 0 para
todo i, y sea A algun evento. Entonces
X
P (A) = P (A|Bi )P (Bi ).
i
A = (A B1 ) (A B2 ) . . .
P (A|B) = P (A).
3.6. Ejercicios
Ejercicio 3.6.1. Considere el experimento aleatorio de lanzar un dado.
(a) Encuentre el espacio muestral de este experimento.
(b) Encuentre el evento de lanzar el dado un numero impar.
Ejercicio 3.6.2. Una moneda es lanzada repetidamente Cual es la probabi-
lidad que el segunda cara aparezca en el quinto lanzamiento?
Ejercicio 3.6.3. Si las probabilidades son 0.20, 0.15 y 0.03 que un estudiante
obtenga una nota aprobatoria en los cursos de estadstica, ingles y ambas
Cual es la probabilidad que el estudiante obtenga una nota aprobatoria en al
menos uno de esos cursos?
Ejercicio 3.6.4. Muestre que para algunos eventos A y B, P (AB) P (A)+
P (B) 1.
Ejercicio 3.6.5. Si los eventos A y B pertenecen al mismo espacio muestral
y si P (A) = 0.8 y P (B) = 0.9 Puede los eventos A y B ser mutuamente
excluyentes?
Ejercicio 3.6.6. Si P (A B) = 0.7 y P (A B c ) = 0.9. Determine P (A).
Ejercicio 3.6.7. Una encuesta indica que 60 % de la poblacion prefiere un
automovil, 30 % prefieren una casa y 20 % prefieren una utomovil y una casa.
Calcule la probabilidad que una persona elegida aleatoriamente prefiera un
automovil o una casa mas no ambos.
Captulo 4
X:R
34
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 35
3
P (X = 1) = (0.5)1 (1 0.5)2
1
3!
= (0.5)(0.5)2
(3 1)!1!
= 0.375
3
P (X = 2) = (0.5)2 (1 0.5)
2
= 0.375
3
P (X = 3) = (0.5)3 (1 0.5)0
3
= 0.125
P (X = k) = p(1 p)k1 ,
N
de seleccion igual a 1/ . De manera similar, la seleccion de x personas
n
m
que apoyen a A es un evento que puede ocurrir de maneras distintas
x
de n xrepresentantes que apoyen a B es un evento que puede
y la seleccion
N m
suceder de maneras. El numero total de maneras en que ambos
nx
m N m
eventos pueden ocurrir es . De esta forma la probabilidad
x nx
de seleccionar x representantes que apoyen al candidato A es
m N m
x nx
P (X = x) = .
N
n
Ejemplo 4.1.7. (Distribucion Binomial Negativa). Una variable aleatoria X
se dice que tiene un distribucion binomial negativa con parametros m R y
p (0, 1] si
x1
P (X = x) = pm (1 p)xm ,
m1
para x = m, m + 1, . . .
Sea un escenario binomial es que se considera una secuencia de ensayos
independientes, la probabilidad de exito en cada ensayo es constante e igual a
p. En lugar de fijar el numero de ensayos en x y observar el numero de exitos,
supongase que se continuan los ensayos hasta que han ocurrido exactamente
x exitos. En este caso, la variable aleatoria es el numero de ensayos necesa-
rios para observar m exitos. Esta situacion lleva a lo que se conoce como la
distribucion binomial negativa.
La determinacion de la funcion de probabilidad sigue el mismo tipo de
razonamiento empleado para obtener las funciones de probabilidad de las dis-
tribuciones binomial e hipergeometrica. Se desea determinar la probabilidad
de que en el x-esimo ensayo ocurra el m-esimo exito. Si se continuan los ensa-
yos independientes hasta que ocurra el m-esimo exito, entonces el resultado del
ultimo ensayo fue exito. Antes del ultimo ensayo haban ocurrido m 1 exitos
en x 1 ensayos. El numero de maneras
distintas
en las que pueden observarse
x1
m 1 exitos en x 1 ensayos es . Por lo tanto la probabilidad de
m1
tener m exitos en x ensayos con el ultimo siendo exito es
x1
P (X = x) = pm (1 p)xm ; x = m, m + 1, m + 2, . . .
m1
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 39
S
Lema 4.1.1. 1. Sea A1 A2 A3 . . ., y sea A = i=1 Ai . Entonces
P (A) = lm P (Ai ).
i
T
2. Sea B1 B2 B3 . . ., y sea B = i=1 Bi . Entonces
P (B) = lm P (Bi ).
i
P (X A, Y B) = P (X A)P (Y B)
Demostracion.
XX
P (X A, Y B) = P (X = a, Y = b)
aA bB
XX
= P (X = a)P (Y = b)
aA bB
X X
= P (X = a) P (Y = b)
aA bB
= P (X A)P (Y B)
P (X x, Y y) = P (X x)P (Y y).
P (X x, Y y) = P (X x)P (Y y)
X X
= P (X = x) P (Y = y)
xX yY
luego,
XX
P (X x, Y y) = P (X = x, Y = y)
xX yY
2
Ejemplo 4.3.4. Sea X = {1, 1, 2}P y Y2 = X , calculamos la esperanza de la
variable aleatoria Y como E(Y ) = x x P (X = x) = 1 ( 3 )+(1)2 ( 31 )+4( 13 ) =
2 1
2.
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 45
donde xi 0, i = 0, 1, 2, . . . y
P
i=0 P (X = xi ) = 1. Luego,
P (X > 0) = P (X = 1) + P (X = 2) + P (X = 3) + . . .
P (X > 1) = P (X = 2) + P (X = 3) + P (X = 4) + . . .
..
.
de este modo
X
P (X > n) = P (X > 0) + P (X > 1) + P (X > 2) + . . .
n=0
= P (X = 1) + P (X = 2) + P (X = 3) + P (X = 4) + . . .
+ P (X = 2) + P (X = 3) + P (X = 4) + P (X = 5) + . . .
+ P (X = 3) + P (X = 4) + P (X = 5) + P (X = 6) + . . .
= 1 P (X = 1) + 2 P (X = 2) + 3 P (X = 3) + 4 P (X = 4) . . .
X
X X
= xP (X = x) = xP (X = x) = xP (X = x)
x=1 x=0 x0
= E(X),
Si S + =
P P
j:xj 0 x j P (X = xj ) y S = j:xj <0 (xj )P (X = xj ) son sumas
de una variable aleatoria finita o infinita numero de partes no negativos, en
cualquiera de los casos, dichas sumas estan bien definidas y puede ocurrir lo
siguiente:
E(XY ) = E(X)E(Y ).
Demostracion. Ejercicio
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 47
2.
Demostracion. Ejercicio.
La desigualdad de Marcov para k = 2 y aplicando a |X E(X)| se tiene
Corolario 4.3.2. (Desigualdad de Chebyshev).
1
P (|X E(X)| a) V ar(X).
a2
Finalmente, mencionamos la famosa desigualdad de Cauchy-Schwarz.
Teorema 4.3.6. (Desigualdad de Cauchy-Schwarz). Para alguna variable alea-
toria X e Y para la cual E(XY ) es definida, entonces
p
E(XY ) E(X 2 )E(Y 2 )
Demostracion. Ejercicio.
pX (x1 , x2 , . . . , xd ) = P (X1 = x1 , X2 = x2 , . . . , Xd = xd ).
FX (x1 , x2 , . . . , xd ) = P (X1 x1 , X2 x2 , . . . , Xd xd ).
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 50
Demostracion. Ejercicio.
Ejemplo 4.4.3. Suponga que X e Y son independientes con funcion de pro-
babilidad conjunta
k l (+)
p(k, l) = e ,
k!l!
como se demostro en el ejemplo anterior, X e Y tienen una distribucion de
Poisson con parametros y respectivamente.
Luego, para calcular la distribucion de la suma X +Y , se utiliza el teorema
anterior y se tiene
z
X k zk (+)
P (X + Y = z) = e
k!(z k)!
k=0
z
e(+) X z
= k zk
z! k
k=0
( + )z
= e(+) .
z!
Esto significa que X +Y tiene una distribucion de Poisson, donde su parametro
es la suma de los parametros originales.
Finalizamos esta seccion con el siguiente lema para vectores.
Lema 4.4.1. Sea (X1 , X2 , . . . , Xd ) un vector aleatorio y g : Rd R. Entonces
X
E[g(X1 , . . . , Xd )] = g(x1 , . . . , xd )P (X1 = x1 , . . . , Xd = xd ),
x1 ,...,xd
donde P (X = x) > 0.
De la definicion se sigue que
p(X,Y ) (x, y)
pY |X (y|x) = .
pX (x)
Cuando se toma X = x, la funcion de probabilidad condicional para Y
es pY |X (y|x), la cual sera P
tratada como una funcion de y. La correspondiente
esperanza esta dada por y ypY |X (y|x). Note que esta esperanza condicional
es una funcion de x. Denotamos a esta funcion de x por E(Y |X = x).
Definicion 4.5.2. La esperanza condicional de Y dado X esta denotado por
E(Y |X = x) y definido como
X
E(Y |X = x) = ypY |X (y|x).
y
Demostracion.
X
E(Y ) = yP (Y = y)
y
X X
= y P (X = x, Y = y)
y x
X X
= y pY |X (y|x)pX (x)
y x
X X
= pX (x) ypY |X (y|x)
x y
X
= P (X = x)E(Y |X = x).
x
4.7. Ejercicios
Ejercicio 4.7.1. Muestre que las probabilidades de la distribucion binomial
negativa suma 1.
Ejercicio 4.7.2. Suponga que X tiene una funcion de distribucion F Cual es
la funcion de distribucion de la variable aleatoria Y definida por Y = aX + b?
Ejercicio 4.7.3. Muestre que X e Y son independientes s y solamente s para
todo x, y,
P (X x, Y y) = P (X x)P (Y y).
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 58
E(XY ) 6= E(X)E(Y ).
GX (t) = e(t1) .
Las variables aleatorias son cantidades aleatorias que son medibles en una
escala contnua. Entonces, se puede tomar valores sobre algun intervalo, con
respecto a las variables discretas que puede tomar unicamente secuencia de
valores, usualmente enteros. Tpicamente las variables aleatorias, por ejemplo,
el tiempo o distancia son contnuas y no discretas.
En el captulo anterior consideramos variables aleatorias discretas, que
es, variables aleatorias que toman valores posibles finitos o infinitos contables.
No obstante, tambien existen variables aleatorias donde el conjunto de todos
los posibles valores son no contables, por ejemplo, el tiempo o distancia son
contnuas y no discretas.
Sea X una variable aleatoria, entonces decimos que X es una variable
aleatoria contnua o absolutamente contnua si existe una funcion no negativa
f , definido para todo real x (, ), que tiene la propiedad que para algun
conjunto B de numeros reales,
Z
P (X B) = f (x)dx.
B
La funcion f es llamada la funcion de densidad de probabilidad de la variable
X.
En palabras, la ecuacion anterior indica que la probabilidad que X esta en
B puede ser obtenido integrando la funcion de densidad sobre el conjunto B.
Dado que X asume diversos valores, f satisface
Z
1 = P (X (, )) = f (x)dx.
Todas las probabilidades relacionadas a X pueden ser expresadas en terminos
de f . Consideremos B = [a, b], obtenemos
Z b
P (X B) = P (a X b) = f (x)dx.
a
59
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 60
Si consideramos a = b, se tiene
Z a
P (X = a) = P (a X a) = f (x)dx = 0.
a
En palabras, la ecuacion anterior indica que la probabilidad que una varia-
ble aleatoria contnua asume en algun punto fijo es cero. Luego, para alguna
variable aleatoria contnua,
Z a
P (X a) = P (X < a) = f (x)dx.
para todo a b .
3. Una variable aleatoria X se denomina una variable aleatoria discreta si
all es un conjunto contable C de R con P (X C) = 1.
Para entender mejor la definicion anterior, se tiene los siguientes comen-
tarios:
X() = ,
FX (x) = P (X x)
f (x) = e 2
,
2 2
para todo x R. Note que para = 0 y 2 = 1, esto reduce la densidad a
una variable aleatoria normal estandar.
Ejemplo 5.1.3. (Distribucion Exponencial ). La variable aleatoria X tiene una
distribucion exponencial con parametro > 0 si su densidad esta dado por
x
e si x 0,
f (x) =
0 si x < 0.
Note que Z
ex dx = ex |
0 = 1.
0
Las variables aleatorias exponenciales son usados frecuentemente para
modelar tiempos de llegada, tiempo de espera y tiempo de fracaso de equipos.
El esperanza de X puede ser calculado usando integracion por partes con
= x y dv = ex dx, luego
Z
E(X) = xex dx
0 Z
= [xex ]
0 + ex dx
0
x 1 x
= [xe ]0 + e
0
1
= .
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 65
Luego,
P (X > s + t, X > s)
P (X > s + t|X > s) =
P (X > s)
P (X > s + t)
=
P (X > s)
e(s+t)
=
es
= et = P (X > t).
Ejemplo 5.1.4. Sea X el tiempo (en horas) necesario para reparar un sistema
de computadoras. Asumimos que X tiene una distribucion exponencial con
parametro = 1/4. Encuentre
(a) la funcion de distribucion acumulada de X.
(b) P (X > 4).
(c) P (X > 10|X > 8).
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 66
= ( 1) ey y 2 dy
0
= ( 1)( 1).
(n) = (n 1)(n 1)
= (n 1)(n 2)(n 2)
.
= ..
= (n 1)(n 2) 3 2 (1) = (n 1)!
Luego, una variable aleatoria X tiene una distribucion Gamma con parametros
> 0 y > 0 si su densidad esta dado por
( x 1
e (x)
() si x 0,
f (x) =
0 si x < 0.
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 67
R
as que E(X
R n ) xfX (x)dx. Dado que Xn X cuando n R y
E(Xn ) xfX (x)dx, de este modo es razonable definir E(X) = xfX (x)dx.
La esperanza de una variable aleatoria puede tomar los valores .
Ejemplo 5.2.1. (Distribucion Exponencial ). Para una variable aleatoria X
con una distribucion exponencial con parametro se calcula la esperanza
como sigue Z
1
E(X) = xex dx = .
0
La esperanza de variables aleatorias comparten las propiedades de la dis-
creta.
Teorema 5.2.1. Cuando E(X) existe, se tiene E(aX + b) = aE(X) + b, para
todo a, b R.
Demostracion. Dado que definimos la esperanza va su densidad, necesitamos
calcular la densidad de Y = aX + b. Para esto, supondremos inicialmente que
a > 0 y escribimos,
yb
P (Y y) = P X
a
Z (yb)/a
= fX (x)dx
Z y
1 ub
= fX du,
a a
tomando la sustitucion u = ax
+ b. De este modo, la densidad de Y evaluada
1 ub
en u esta dado por a fX a . Esto implica que la esperanza de Y es igual a
Z
u ub
E(aX + b) = fX du
a a
Z
b
= + x fX (x)adx
a
Z Z
= bfX (x)dx + a xfX (x)dx
= b + aE(X),
P (Y y) = P (X y + )
Z y+
1 1 x 2
= e 2 ( ) dx
2Z
y
1 1 2
= e 2 v dv,
2
donde el ultimo paso sigue de la sustitucion v = (x )/. Esto muestra
que Y tiene una distribucion normal estandar, as que E(Y ) = 0. Dado que
X = Y + , del teorema anterior sigue E(X) = .
para todo ai bi , i = 1, . . . , d.
Como en el caso de variables aleatorias contnuas, se tiene que (X1 , . . . , Xd )
es un vector aleatorio contnuo, su probabilidad es de la forma
P ((X1 , . . . , Xd ) A)
R
esta bien definida e igual a A f (x)dx; esto sigue de la propiedad elemental de
la Integral de Riemman.
Definicion 5.3.2. Definimos la funcion de distribucion (conjunta) de X =
(X1 , . . . , Xd ) como
FX (x1 , . . . , xd ) = P (X1 x1 , . . . , Xd xd ).
donde 0 < x 1. De este modo, X tiene una distribucion uniforme (0, 1]. La
densidad de Y es igual a
Z 1
fY (y) = f (x, y)dx = log y,
x=y
P (X = x) = 0,
para todo x. en el contexto contnuo exiten varios caminos para definir inde-
pendencia, haremos alguna eleccion arbitraria de alguna de ellas.
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 73
la cual significa que g(X) es una variable contnua con fg(X) (y) = 12 fX ((y
3)/2).
Ejemplo 5.4.2. Sea X que tiene una distribucion normal estandar y sea
g(x) = x2 . Entonces, escribiendo (x) para la funcion de distribucion de X,
se tiene para 0 x y,
P (x g(X) y) = P ( x X y) + P ( y X x)
= ( y) ( x) + ( x) ( y)
= 2( y) 2( x),
y [
A2 := {y : g2 (y) x} = A2,i (x),
i
como uniones de intervalos disjuntos. Ademas, podemos escribir
XX
P (g1 (X1 ) x, g2 (X2 ) y) = P (X1 A1,i (x), X2 A2,j (y))
i j
XX
= P (X1 A1,i (x))P (X2 A2,j (y))
i j
X X
= P (X1 A1,i (x)) P (X2 A2,j (y))
i j
= P (g1 (X1 ) x)P (g2 (X2 ) y),
De este modo,
pX+Y (n) = pX (n) pY (n)
donde pX+Y (n) = pX (n) pY (n) se denomina convolution de pX y pY .
Ejemplo 5.5.1. Un dado es lanzado dos veces. Sea X e Y los resultados y sea
Z = X + Y la suma de esos resultados. Encuentre la funcion de probabilidad
de Z.
Solucion. Note que X e Y tienen la misma funcion de probabilidad
x, y 1 2 3 4 5 6
px 1/6 1/6 1/6 1/6 1/6 1/6
py 1/6 1/6 1/6 1/6 1/6 1/6
Luego, la funcion de probabilidad de Z es la convolution de pX y pY . De este
modo,
1
P (Z = 2) = pX (1)pY (1) =
36
2
P (Z = 3) = pX (1)pY (2) + pX (2)pY (1) =
36
3
P (Z = 4) = pX (1)pY (3) + pX (2)pY (2) + pX (3)pY (1) = .
36
Continuando de este modo encontramos P (Z = 5) = 4/36, P (Z = 6) =
5/36, P (Z = 7) = 6/36, P (Z = 8) = 5/36, P (Z = 9) = 4/36, P (Z = 10) =
3/36, P (Z = 11) = 2/36 y P (Z = 12) = 1/36.
Ejemplo 5.5.2. Sea X e Y dos variables aleatorias independientes de Poisson
con respectivos parametros 1 y 2 . Calcule la funcion de probabilidad de
X +Y.
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 78
pX+Y (n) = P (X + Y = n)
Xn
= P (X = k, Y = n k)
k=0
n
X
= P (X = k)P (Y = n k)
k=0
n
X k1 2 nk
= e1 e 2
k! (n k)!
k=0
n
(1 +2 )
X k1 nk
2
= e
k!(n k)!
k=0
(1 +2 ) Xn
e n!
= k1 nk
2
n! k!(n k)!
k=0
(1 +2 )
e
= (1 + 2 )n .
n!
Luego, X + Y es una variable aleatoria de Poisson con parametro 1 + 2 .
FX+Y (a) = P (X + Y a)
Z Z
= fX (x)fY (y)dxdy
x+ya
Z Z ay
= fX (x)fY (y)dxdy
Z Z ay
= fX (x)dxfY (y)dy
Z
= FX (a y)fY (y)dy.
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 80
De este modo,
a si 0 a 1,
fX+Y (a) = 2 a si 1 < a < 2,
0 si otro caso.
Si a 0, entonces
Z Z a
fX+Y (a) = 2
fX (a y)fY (y)dy = ea dy = a2 ea .
0
1 a2
fX+Y (a) = e 4 .
4
para algun y y A. Asimismo, para un y fijo, all existe otra funcion (x) la
cual, para todo A, satisface
X
(x)P (X = x) = P (Y y, X A),
xA
para todo A.
Ahora definimos la distribucion condicional.
Definicion 5.6.1. Sea X con densidad fX e Y una variable aleatoria. Una
distribucion condicional de Y dado X es una familia de funciones FY |X (|x)
con las propiedades
1. para cada x, FY |X (|x) es la funcion de distribucion de una variable alea-
toria,
2. para cada y, FY |X (y|) es regular, como una funcion de x,
3. FY |X (y|x) satisface, para todo a < b,
Z b
FY |X (y|x)fX (x)dx = P (Y y, a < X < b).
a
Luego,
Z Z
x xy xy xy
E(X|Y = y) = e dx = xe |0 e dx
0 y 0
h i
xy xy
= xe + ye = y.
0
Ejemplo 5.6.3. Sea Y una variable aleatoria con densidad fY dado por
1
y si y > 1,
fY (y) =
0 si otro caso.
donde > 1. Dado por Y = y, sea X una variable aleatoria variable aleatoria
con distribucion Uniforme en (0, y).
(a) Encuentre la distribucion marginal de X.
(b) Calcule E(Y |X = x) para cada x > 0.
Solucion. La funcion de densidad conjunta esta dado por
1
+1 si 0 < x < y, y > 1
fX,Y (x) = y
0 si otro caso.
(a) Observe que X solo toma valores positivos, de este modo fX (x) = 0, x 0.
Para 0 < x < 1, luego se tiene
Z Z
1
fX (x) = fX,Y (x, y)dy = fX,Y (x, y)dy = .
1
Para x 1 se tiene
1
Z Z
fX (x) = fX,Y (x, y)dy = fX,Y (x, y)dy = .
x x
(b) Para 0 < x < 1 se tiene
fX,Y (x, y)
fY |X (y|x) = = +1 , y > 1.
fX (x) y
De este modo,
Z Z
y dy
E(Y |X = x) = dy = = .
1 y +1 1 y 1
Si x 1, entonces
fX,Y (x, y) x
fY |X (y|x) = = +1 , y > x.
fX (x) y
Luego,
x
Z
x
E(Y |X = x) = y +1 dy = .
x y 1
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 86
siempre que la integral exista. Para el caso discreto, se tiene una suma en vez
de la integral, la esperanza condicional de g dado Y = y es
X
E(g(X)|Y = y) = g(x)pX|Y (x|y).
x
5.7. Ejercicios
Ejercicio 5.7.1. Sea X una variable aleatoria contnua con E(X) = 3/5 y
densidad f (x) = a + bx2 , para 0 < x < 1 y f (x) = 0 en otro caso. Calcule a y
b.
Ejercicio 5.7.2. Si X es una variable aleatoria exponencial con parametro
y c > 0. Muestre que cX tiene distribucion exponencial con parametro /c.
Ejercicio 5.7.3. Muestre que var(X) = E(X 2 ) (E(X))2 . Esta formula es
muy util para calculos.
Ejercicio 5.7.4. Usando el ejercicio anterior muestre que var(aX + b) =
a2 var(X).
Ejercicio 5.7.5. Encuentre la varianza de una variable aleatoria exponencial.
Ejercicio 5.7.6. Sea X e Y variables aleatorias con densidad conjunta f (x, y) =
exy , para x, y > 0 Son las variables X e Y independientes? Encuentre las
distribuciones marginales de X e Y y calcule su covarianza.
Ejercicio 5.7.7. Muestre que cuando X e Y son variables aleatorias indepen-
dientes y con densidad conjunta, entonces
f (x, y) = 2 ey ,
Teoremas Lmite
88
CAPITULO 6. TEOREMAS LIMITE 89
= (1 p) + eit p
CAPITULO 6. TEOREMAS LIMITE 90
Ejemplo 6.1.3. Sea X una variable aleatoria continua con distribucion nor-
mal estandar, calcule su funcion caracterstica.
Solucion.
Z x2 /2
itX itx e
X (t) = E(e ) = e dx
Z 2 Z
1 2 1 2
= eitx ex /2 dx = eitxx /2 dx
2 Z 2 Z
1 (2itxx2 )/2 1 1 2
= e dx = e 2 (x 2itx) dx
2 Z 2
Z
1 1 2 2 2 2 2 1 1 2 t2
= e 2 (x 2itx+i t i t ) dx = e 2 (xit) 2 dx
2 Z 2
1 t 2 1 2
= e 2 e 2 (xit) dx
2Z
t2 1 1 2
= e 2 e 2 y dy, y = x it
2
t2
= e 2
Rb Rb
2. a (f )(t)dt = a f (t)dt, para todo C
R R
b b
3. a f (t)dt a |f (t)|dt
2. Si a, b R, y Y = aX + b, entonces
Y (t) = eitb X (at)
Demostracion. 1. Por independencia de X y Y se tiene que E(XY ) =
E(X)E(Y ), luego
X+Y (t) = E(eit(X+Y ) ) = E(eitX eitY )
= E((cos tX + i sen tX)(cos tY + i sen tY ))
= E(cos tX cos tY sen tX sen tY )
+ iE(sen tX cos tY + cos tX sen tY )
= (E(cos tX) + iE(sen tX))(E(cos tY ) + iE(sen tY ))
= X (t)Y (t)
CAPITULO 6. TEOREMAS LIMITE 92
2. Podemos escribir
Sn (t) = (X (t))n .
2. X (t) = X (t);
3. X (t) es uniformemente continua.
Demostracion. 1. De |X (t)| = |E(eitX )| 1 y X (0) = E(ei(0)X ) = E(e0 ) =
1 se concluye la demostracion.
2. Se tiene que
3. Ver referencias.
d
Teorema 6.1.4. Sea X y Y variables aleatorias. Si X = Y , entonces X =
Y.
Este es el teorema de unicidad para funciones caractersticas.
Teorema 6.1.5. Sea X una variable aleatoria. Entonces
d
X (t) es real X = X
(i.e., si y solo si la distribucion de X es simetrica).
Demostracion. Del Teorema 1.2(2) (con a = 1 y b = 0) y Teorema 1.3(2)
diferenciando,
Z
d
fX+Y (a) = FX (a y)fY (y)dy
da
Z
d
= FX (a y)fY (y)dy
da
Z
= fX (a y)fY (y)dy
diferenciando,
Z
d
fX+Y (a) = FY (a x)fX (x)dx
da
Z
d
= FY (a x)fX (x)dx
da
Z
= fY (a x)fX (x)dx
concluyendo la demostracion.
CAPITULO 6. TEOREMAS LIMITE 95
f (t) F (s)
1
f (t) = 1, t 0 F (s) = s
,s > 0
1
f (t) = eat , t 0 F (s) = sa
,s > a
n!
f (t) = xn eat , x = 0, 1, . . . F (s) = (sa)n+1
,s > a
n!
f (t) = tn , t 0 F (s) = sn+1
,s 0
k
f (t) = sen(kt), t 0 F (s) = s2 +k2
s
f (t) = cos(kt), t 0 F (s) = s2 +k2
k
f (t) = senh(kt), t 0 F (s) = s2 +k2
, s > |k|
k
f (t) = cosh(kt), t 0 F (s) = s2 k2
, s > |k|
La transformada inversa
Fracciones continuas
La convolution si se cumple:
y la propiedades de Laplace,
es es
h(x) = X1 +X2 (s) =
2s(s + 1)
e s
es
=
2s(s + 1) 2s(s + 1)
1 1
= (1 e(x+1) )u(x + 1) (1 e(x1) )u(x 1)
2 2
Por lo tanto, h(x) representa la densidad de la variable aleatoria X =
X 1 + X2 .
luego,
X X
2 m(x) = 2 m(x)
|x| |x|
= 2 P (|X | )
de este modo,
V ar(X)
P (|X | )
2
CAPITULO 6. TEOREMAS LIMITE 101
V ar(Sn ) = V ar(X1 + X2 + . . . + Xn )
Xn
= V ar(Xj ) = n 2
j=1
y
2
Sn
V ar =
n n
asimismo,
Sn
E =
n
Por la desigualdad de Chebyshev, para algun > 0,
2
Sn
P 2
n n
cuando n para fijo,
Sn
P 0
n
equivalentemente, cuando n para fijo,
Sn
P < 1
n
Ejemplo 6.2.6. Sea X alguna variable aleatoria que toma los valores de
0, 1, 2, . . . , n y E(X) = V ar(X) = 1. Muestre que para algun entero posi-
tivo k se cumple
1
P (X k + 1) 2
k
Solucion. De la desigualdad de Chebyshev:
V ar(X)
P (|X E(X)| k)
k2
1
P (|X 1| k) 2
k
1
P (X k + 1) 2 .
k
Ejemplo 6.2.7. Asuma que X1 , X2 , . . . , Xn son variables aleatorias indepen-
dientes con posible distribucion diferente y sea Sn su suma. Sea mk = E(Xk ),
k2 = V ar(Xk ) y Mn = m1 + m2 + . . . + mn . Asuma que k2 < R para todo k.
Pruebe que, para algun > 0,
Sn Mn
P < 1
n n
cuando n .
Solucion. Similarmente,
Sn Mn
P 0
n n
cuando n .
De la desigualdad de Chebyshev,
Sn Mn
P V ar(Sn /n)
n n 2
Asimismo,
Sn 1
E = E(Sn )
n n
1
= E(X1 + . . . + Xn )
n
m1 + . . . + mn
=
n
Mn
=
n
CAPITULO 6. TEOREMAS LIMITE 105
y la varianza,
Sn 1
V ar = V ar(Sn )
n n2
1
= 2 V ar(X1 + . . . + Xn )
n
12 + . . . + n2
=
n2
0
Mn
=
n2
utilizando la desigualdad de Chebyshev y para algun > 0,
Sn Mn
P V ar(Sn /n)
n n 2
Mn0
Sn Mn
P
2 2
n n n
para fijo
Sn Mn
P 0
n n
cuando n .
Similarmente,
Sn Mn
P < 1
n n
cuando n .
Solucion.
(a) P (|X 10| 2) V ar(X)
4 = 8.33
V ar(X)
(b) P (|X 10| 5) 25 = 1.33
(c) P (|X 10| 9) V ar(X)
243 = 0.41
V ar(X)
(d) P (|X 10| 20) 1200 = 0.08
Ejemplo 6.2.10. Sea X una variable aleatoria continua con distribucion uni-
forme sobre el intervalo [0, 20].
(a) Encuentre la media y varianza de X.
(b) Calcule P (|X 10| 2), P (|X 10| 5), P (|X 10| 9), y P (|X 10|
20). Interprete.
Solucion. (a) Sea f (x) la funcion de densidad de la variable X, luego la
media de X sera:
Z 20
E(X) = xf (x)dx
Z0 20
1
= x dx
0 20 0
= 10
108