Documente Academic
Documente Profesional
Documente Cultură
SERIE DE PUBLICACION:
Introduccion a la Teora de
las Probabilidades
PUNO - PERU
2016
Introducci
on a la Teora de las Probabilidades
Autores:
Luis Francisco Laurente Blanco
Richard Rene Poma Ca nazaca
Editado por:
Luis Francisco Laurente Blanco
e-mail: flaurenteblanco@gmail.com
Hecho el Dep
osito Legal en la Biblioteca Nacional del Per
u N 2016-
07061
ISBN: 978-612-00-2277-1
Impreso:
MayVar Impresores
e-mail: mayvarimpresores@gmail.com
Primera edici
on: Junio de 2016
2. An alisis Combinatorio 14
2.1. Principio Fundamental de Conteo . . . . . . . . . . . . . . . . 14
2.2. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3. Permutaciones Circulares . . . . . . . . . . . . . . . . . . . . . 16
2.4. Combinaciones . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.5. Permutaciones con Repeticion (i.e. Objetos Indistinguibles) . . 19
2.6. Teorema Multinomial . . . . . . . . . . . . . . . . . . . . . . . 21
2.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3. Axiomas de Probabilidad 24
3.1. Espacio Muestral y Eventos . . . . . . . . . . . . . . . . . . . 24
3.2. Algebra de Eventos . . . . . . . . . . . . . . . . . . . . . . . . 25
3.3. Axiomas de Probabilidad . . . . . . . . . . . . . . . . . . . . . 25
3.4. Probabilidad Condicional . . . . . . . . . . . . . . . . . . . . . 28
3.4.1. Regla de Bayes . . . . . . . . . . . . . . . . . . . . . . 29
3.5. Independencia de Eventos . . . . . . . . . . . . . . . . . . . . 31
3.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5
INDICE GENERAL 6
6. Teoremas Lmite 88
6.1. Funciones Caractersticas . . . . . . . . . . . . . . . . . . . . . 88
6.1.1. La transformada de Laplace . . . . . . . . . . . . . . . 95
6.2. Ley de los Grandes N umeros . . . . . . . . . . . . . . . . . . . 100
6.2.1. Ley de los Grandes N umeros para Variables Aleatorias
Discretas . . . . . . . . . . . . . . . . . . . . . . . . . . 100
6.2.2. Ley de los Grandes N umeros para Variables Aleatorias
Contnuas . . . . . . . . . . . . . . . . . . . . . . . . . 105
Captulo 1
Operaciones B
asicas de Conjuntos
N = {1, 2, 3, . . .}.
Z = {. . . , 3, 2, 1, 0, 1, 2, 3, . . .}.
1.1. Definiciones B
asicas
Definimos un conjunto A como una coleccion de objetos bien definidos
(llamados elementos o miembros de A) tal que para alg un objeto dado x
alguno (pero no ambos) de los siguientes ocurre:
x pertenece a A y escribimos x A.
x no pertenece a A y escribimos x
/ A.
7
CAPITULO 1. OPERACIONES BASICAS
DE CONJUNTOS 8
(e) {x}
(f) {x}
Solucion. (a) Verdadero (b) Verdadero (c) Falso debido que {x} es un
conjunto que consiste de un solo elemento x y as {x} no es un miembro de
este conjunto (d) Verdadero (e) Verdadero (f) Falso debido que {x} no tiene
como uno de sus elementos.
Luego, la coleccion de todos los subconjuntos de un conjunto A es de im-
portancia. Denotamos este conjunto por P(A) y llamamos el conjunto potencia
de A.
Ejemplo 1.1.7. Encuentre el conjunto potencia de A = {a, b, c}.
Soluci
on.
P(A) = {, {a}, {b}, {c}, {a, b}, {a, c}, {b, c}, {a, b, c}}.
1.2. Operaci
on de Conjuntos
En esta seccion introduciremos varias operaciones sobre conjuntos y es-
tudiaremos las propiedades de esas operaciones.
1.2.1. Complemento
Si es un conjunto dado y tiene subconjuntos bajo consideracion, lla-
mamos a el conjunto universal. Sea un conjunto universal y A, B dos
subconjuntos de . El complemento absoluto de A es el conjunto
Ac = {x ; x
/ A}.
Ejemplo 1.2.1. Encuentre el complemento de A = {1, 2, 3} si = {1, 2, 3, 4, 5, 6}.
on. De la definicion, Ac = {4, 5, 6}.
Soluci
El complemento relativo de A con respecto a B es el conjunto
B A = {x ; x B y x
/ A }.
Ejemplo 1.2.2. Sea A = {1, 2, 3} y B = {{1, 2}, 3}. Encuentre A B.
Soluci
on. Los elementos de A que no estan en B son 1 y 2.Luego, AB =
{1, 2}.
1.2.2. Uni
on e Intersecci
on
Dado dos conjuntos A y B . La union de A y B es el conjunto
A B = {x; x A o x B}.
CAPITULO 1. OPERACIONES BASICAS
DE CONJUNTOS 11
La intersecci
on de A y B es el conjunto
A B = {x; x A y x B}.
Ejemplo
T 1.2.4. Para cada entero positivo n definimos An = {n}. Encuentre
n=1 An .
on. Claramente,
T
Soluci n=1 An = .
Ejemplo
T 1.2.5. Encuentre conjuntos A1 , A2 , . . ., que son disjuntos en parejas
y n=1 An = .
on. Para cada entero positivo n, sea An = {n}.
Soluci
Teorema 1.2.3. (Principio de Inclusion-Exclusion). Suponga que A y B son
conjuntos finitos. Entonces
1. n(A B) = n(A) + n(B) n(A B)
2. Si A B = , entonces n(A B) = n(A) + n(B)
3. Si A B, entonces n(A) n(B).
Demostraci
on. Ver referencia.
Esta idea puede ser extendida para producto de alg un numero de conjuntos.
Dado n conjuntos A1 , A2 , . . . , An el producto cartesiano de esos conjuntos es
el conjunto
A1 A2 An = {(a1 , a2 , . . . , an ); a1 A1 , a2 A2 , . . . , an An }.
1.3. Ejercicios
Ejercicio 1.3.1. Sea A y B dos conjuntos. Use el Diagrama de Venn para
mostrar que B = (A B) (Ac B) y A B = A (Ac B).
Ejercicio 1.3.2. Muestre que si A B entonces B = A (Ac B). De este
modo, B puede ser escrito como la union de dos subconjuntos disjuntos.
Ejercicio 1.3.3. En un universo U de 100, sea A y B subconjuntos de U tal
que n(A B) = 70 y n(A B c ) = 90. Determine n(A).
Ejercicio 1.3.4. Muestre que si A, B y C son subconjuntos de un universo
U , entonces
n(ABC) = n(A)+n(B)+n(C)n(AB)n(AC)n(BC)+n(ABC).
An
alisis Combinatorio
14
CAPITULO 2. ANALISIS
COMBINATORIO 15
2.2. Permutaciones
Considere el siguiente ejemplo: De cuantas maneras pueden 8 caballos
finalizar una carrera (asumiendo no existe empates)? Se puede observar este
problema como una decision de 8 pasos. El primer paso es la posibilidad de
un caballo finalice primero la carrera, el segundo paso es la posibilidad de un
caballo finalice segundo, . . . , el 8vo paso es la posibilidad de un caballo finalice
8vo en la carrera. Luego, por el Principio Fundamental de Conteo, all son
8 7 6 5 4 3 2 1 = 40, 320
maneras que finalizan 8 caballos una determinada carrera.
Este ejemplo exibe un ejemplo de arreglo ordenado, la que indica que el
arreglo de los objetos es importante. Tal arreglo ordenado es llamado permu-
taci
on.
El producto 8 7 6 5 4 3 2 1 puede ser escrito en una notacion mas
corta llamada factorial, la cual se escribe 8 7 6 5 4 3 2 1 = 8! En general,
se define n factorial por
n! = n(n 1)(n 2) 3 2 1; n 1
donde n es el n
umero a calcular. Por convencion definimos
0! = 1.
Ahora consideraremos la permutacion de un conjunto de objetos. Suponga
que tenemos n elementos Cuantos arreglos ordenados de k elementos podemos
formar de esos n elementos? El n umero de permutaciones es denotado por
P (n, k). El n indica el n
umero de diferentes elementos y k refiere al n umero
de ellos que aparecen en cada arreglo. La expresion para P (n, k) esta dado en
el siguiente teorema.
un entero no negativo n y 0 k n se tiene
Teorema 2.2.1. Para alg
n!
P (n, k) =
(n k)!
CAPITULO 2. ANALISIS
COMBINATORIO 16
Ejemplo 2.2.1. Cuantos codigos se pueden formar con 3 letras seguidas por
4 numeros (sin repeticiones)?
Soluci on. La decision consiste de dos pasos, el primero es seleccionar
las letras y eso puede ser hecho de P (26, 3) maneras. El segundo paso es
seleccionar los numeros y puede hacerse de P (10, 4) maneras. Luego, por el
Principio Fundamental de Conteo all son P (26, 3) P (10, 4) = 78, 624, 000
codigos diferentes.
2.4. Combinaciones
En una permutacion el orden del conjunto de objetos o personas es tomada
dentro de la cuenta. No obstante, existe diversos problemas en la cual se desea
conocer el n umero de formas en la cual k objetos pueden ser seleccionados
de n objetos distintos en orden arbitrario. Por ejemplo, cuando seleccionamos
2 personas para formar un grupo de un total de 10 personas, el orden de la
seleccion es irrelevante; explicado de otro modo, elegir a la persona 1 y persona
2 para formar un grupo es el mismo que elegir a la persona 2 y persona 1.
En efecto, la combinaci on es definida como una seleccion posible de un
cierto numero de objetos tomados de un grupo sin importar el orden. Mas pre-
cisamente, el n umero de k elementos (subconjunto) de un conjunto total de n
elementos es llamado el n umero de combinaciones de n objetos tomando k a la
CAPITULO 2. ANALISIS
COMBINATORIO 17
n
vez, esto es denotado por = C(n, k). La expresion para la combinacion
k
se expresa en el siguiente teorema.
n
Teorema 2.4.1. Si , para r n, denota el n umero de formas en la
k
cual k objetos pueden ser seleccionados de un conjunto de n distintos objetos,
entonces
n n!
= C(n, k) = .
k (n k)!k!
Demostracion. Ver referencia.
n n
Luego, se define = 0 si k < 0 o k > 0. De este modo,
k k
representa el n
umero de diferentes grupos de tama
no k que sera seleccionado
de un conjunto de n objetos cuando el orden de seleccion no es relevante.
Ejemplo 2.4.1. De un grupo de 5 mujeres y 7 hombres, Cuantos diferentes
grupos se puede ordenar tal que esta conformado por 2 mujeres y 3 hombres?
Si 2 hombres son elegidos y rechazan formar el grupo?
Solucion. All son P (5, 2)C(7, 3) = 350 posibles grupos de 2 mujeres
y 3 hombres. Ahora, si suponemos que 2 hombres son elegidos y rechazan
formar parte del grupo, los grupos que no incluyen los 2 hombres son C(7, 3)
C(2, 2)C(5, 1) = 30. Porque all son C(5, 2) = 10 maneras de elegir 2 mujeres,
luego sigue que son 30 10 = 300 posibles grupos.
El siguiente teorema discute alguna de las propiedades de combinaciones.
umeros con 0 k n. Entonces,
Teorema 2.4.2. Suponga que n y k son n
n n
1. = =1
0 n
n n
2. = =n
1 n1
n n
3. (Propiedad Simetrica). =
k nk
n+1 n n
4. (Identidad de Pascal). = + .
k k1 k
Demostraci
on. Ver referencia.
CAPITULO 2. ANALISIS
COMBINATORIO 18
n n1
X n1 X n 1
(x + y)n = xi y ni + xi y ni
i1 i
i=1 i=0
n1
X n 1 n 1
= xn + + xi y ni + y n
i1 i
i=0
ni
X n
= xn + xi y ni + y n
i
i=1
n
X n
= xi y ni .
i
i=0
CAPITULO 2. ANALISIS
COMBINATORIO 19
Demostraci
on. Ver referencia.
Ejemplo 2.5.3. Cuantas soluciones enteras existe en x1 + x2 + x3 = 11?
Soluci on. La manera mas natural de pensar en la solucion es de ordenar
11 objetos dentro de 3 cajas donde estas son indistinguibles. Sea xi el n
umero
de objetos en la caja i donde i = 1, 2, 3. Entonces, el n
umero de soluciones a
la ecuacion dada es
11 + 3 1
= 78.
11
Ejemplo 2.5.4. Cuantas soluciones enteras existen para la ecuacion
n1 + n2 + n3 + n4 = 21
donde n1 2, n2 3, n3 4 y n4 5?
Soluci
on. Reescribiendo la ecuacion como
o
m1 + m2 + m3 + m4 = 7
umero de soluciones es C(7 + 4
donde los mi son no negativos. Luego, el n
1, 7) = 120.
Demostraci
on. Ver referencia.
Ejemplo 2.6.1. Cuantas palabras de 6 letras pueden ser formadas con 3 As,
2 Bs y 1 C?
Soluci
on. All son
6 6!
= = 60.
3, 2, 1 3!2!1!
CAPITULO 2. ANALISIS
COMBINATORIO 22
2.7. Ejercicios
Ejercicio 2.7.1. Una agencia de viaje ofrece paquetes en oferta a 12 ciudades
por aire, tren y bus De cuantas maneras se puede seleccionar un viaje?
9!
Ejercicio 2.7.2. Encuentre m y n tal que P (m, n) = 6! .
Ejercicio 2.7.3. De cuantas maneras se puede formar un codigo de 4 letras
usando las 27 letras del alfabeto
(a) si es permitido las repeticiones?
(b) si no es permitido las repeticiones?
Ejercicio 2.7.4. Un determinado club esta conformado por cinco miembros
De cuantas maneras pueden ser seleccionado un grupo conformado por un
presidente, secretario y tesorero?
Ejercicio 2.7.5. Cuatro profesores y cuatro estudiantes estan sentados en
una mesa circular. Encuentre el n
umero de formas que pueden sentarse de tal
modo que los profesores y alumnos esten alternados.
Ejercicio 2.7.6. Cuantas arreglos de la palabra MATEMATICAS es posible
encontrar?
Ejercicio 2.7.7. Suponga que un club formado por 20 miembros planea for-
mar 3 distintos comites con 6, 5 y 4 miembros, respectivamente De cuantas
maneras es posible realizarlo?
Ejercicio 2.7.8. Cuantas soluciones tiene la ecuacion x1 + x2 + x3 = 5 tal
que x1 , x2 , x3 son enteros no negativos?
CAPITULO 2. ANALISIS
COMBINATORIO 23
Axiomas de Probabilidad
24
CAPITULO 3. AXIOMAS DE PROBABILIDAD 25
3. P (A B) = P (A) + P (B) P (A B)
Demostraci
on. Ver referencia.
Ejemplo 3.3.2. Luis leera dos libros durante sus vacaciones de fin de a no.
Con probabilidad 0.5, el gusta de la lectura del primer libro; con probabilidad
0.4, el gusta del segundo libro y con probabilidad de 0.3 el gusta de ambos
libros. Cual es la probabilidad que Luis no guste de ninguno de los libros?
Soluci on. Sea Ai el evento que Luis gusta del libro i para i = 1, 2. Luego,
la probabilidad que Luis guste al menos uno de los libros es:
P (A1 A2 A3 ) = P ((A1 A2 ) A3 ),
Demostraci
on. Ver referencia.
CAPITULO 3. AXIOMAS DE PROBABILIDAD 28
Demostraci
on. Ver referencia.
Ejemplo 3.4.2. Suponga que 5 cartas son seleccionadas de una baraja de
52 cartas. Calcule la probabilidad de que todas las cartas sean de la misma
familia osea un flush.
Soluci on. Se desea encontrar
A = A (B B c ) = (A B) (A B c ).
Teorema 3.4.2. Sea B1 , B2 , . . . una particion de tal que P (Bi ) > 0 para
todo i, y sea A algun evento. Entonces
X
P (A) = P (A|Bi )P (Bi ).
i
Demostraci
on. Escribiendo A como una union disjunta,
A = (A B1 ) (A B2 ) . . .
Demostraci
on. Ver referencia.
Ejemplo 3.4.3. Una fabrica realiza su produccion con tres maquinas. Las
maquinas I, II y III producen 50 %, 30 % y 20 % de la produccion, pero 4 %,
2 % y 4 % de su produccion son defectuosas, respectivamente.
(a) Cual es la probabilidad de un producto seleccionado aleatoriamente sea
defectuoso?
(b) Si un producto seleccionado aleatoriamente fuese defectuoso Cual es la
probabilidad que este producto haya sido producido por la maquina I?
Solucion. (a) Sea I, II y III los eventos que describe a los productos
seleccionados son producidos por la maquina I, II y III respectivamente. Sea
D el evento que la seleccion de un producto sea defectuosa. Entonces, P (I) =
0.5, P (II) = 0.3, P (III) = 0.2, P (D|I) = 0.04, P (D|II) = 0.02, P (D|III) =
0.04. Luego, por la Regla de Probabilidad Total se tiene
P (A|B) = P (A).
3.6. Ejercicios
Ejercicio 3.6.1. Considere el experimento aleatorio de lanzar un dado.
(a) Encuentre el espacio muestral de este experimento.
(b) Encuentre el evento de lanzar el dado un n
umero impar.
Ejercicio 3.6.2. Una moneda es lanzada repetidamente Cual es la probabi-
lidad que el segunda cara aparezca en el quinto lanzamiento?
Ejercicio 3.6.3. Si las probabilidades son 0.20, 0.15 y 0.03 que un estudiante
obtenga una nota aprobatoria en los cursos de estadstica, ingles y ambas
Cual es la probabilidad que el estudiante obtenga una nota aprobatoria en al
menos uno de esos cursos?
Ejercicio 3.6.4. Muestre que para algunos eventos A y B, P (AB) P (A)+
P (B) 1.
Ejercicio 3.6.5. Si los eventos A y B pertenecen al mismo espacio muestral
y si P (A) = 0.8 y P (B) = 0.9 Puede los eventos A y B ser mutuamente
excluyentes?
Ejercicio 3.6.6. Si P (A B) = 0.7 y P (A B c ) = 0.9. Determine P (A).
Ejercicio 3.6.7. Una encuesta indica que 60 % de la poblacion prefiere un
automovil, 30 % prefieren una casa y 20 % prefieren una utomovil y una casa.
Calcule la probabilidad que una persona elegida aleatoriamente prefiera un
automovil o una casa mas no ambos.
Captulo 4
X:R
34
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 35
3
P (X = 1) = (0.5)1 (1 0.5)2
1
3!
= (0.5)(0.5)2
(3 1)!1!
= 0.375
3
P (X = 2) = (0.5)2 (1 0.5)
2
= 0.375
3
P (X = 3) = (0.5)3 (1 0.5)0
3
= 0.125
P (X = k) = p(1 p)k1 ,
Soluci
on. Sea X el n
umero de lanzamientos hasta que ocurra el primer
1
11. Entonces, X es una variable aleatoria geometrica con parametro p = 18 .
Luego, 7
1 1
P (X = 8) = 1 = 0.0372.
18 18
Ejemplo 4.1.6. (Distribuci on Hipergeometrica). Una variable aleatoria X se
dice que tiene un distribuci
on hipergeometrica con parametros N, m y n si
m N m
x nx
P (X = x) =
N
n
para x = 0, 1, 2, . . .
Considere el siguiente ejemplo, sea N el n umero de representantes de un
determinado estado que asisten a una convencion poltica nacional y sea m
umero de los que apoyan al candidato A, mientras que el resto N m
el n
apoyan al candidato B. Suponga que una organizacion informativa selecciona
aleatoriamente n representantes y les pregunta sus razones para apoyar a los
candidatos. Si X es una variable aleatoria que sustituye el n umero de repre-
sentantes en la muestra que apoyan al candidato A Cual es la funcion de
probabilidad de X?
Esta situacion parece ser binomial porque entre N representantes de un
estado existen dos grupos distintos con probabilidad m/N y (N m)/N . Sin
embargo, considerese con mas detalle el proceso de seleccion para la muestra de
n representantes. Es razonable suponer que se selecciona un representante, se le
pregunta sus razones y no vuelve a ser seleccionado (muestreo sin reemplazo y
una condicion fundamental en la distribucion hipergeometrica). Es resultado
es que no existe independencia entre la seleccion de un representante y el
siguiente. Por ejemplo, supongase que el primer representante seleccionado
apoya al candidato A. Entonces quedan N 1 representantes de los cuales
m 1 apoya a A. Por lo tanto, la probabilidad condicional de que el siguiente
candidato apoye tambien a A es (m 1)/(N 1) y no m/N y la probabilidad
condicional de que el siguiente representante apoye a B es (N m)/(N 1) y
no (N m)/N .
Para determinar la probabilidad de seleccionar x representantes que apo-
yen a A y n x que apoyen a B, se procede de la siguiente forma: el n umero
de maneras distintas en que puedeseleccionarse una muestra de n represen-
N
tantes de un total de N es , y cada muestra tiene una probabilidad
n
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 38
N
de seleccion igual a 1/ . De manera similar, la seleccion de x personas
n
m
que apoyen a A es un evento que puede ocurrir de maneras distintas
x
n de n xrepresentantes que apoyen a B es un evento que puede
y la seleccio
N m
suceder de maneras. El n
umero total de maneras en que ambos
nx
m N m
eventos pueden ocurrir es . De esta forma la probabilidad
x nx
de seleccionar x representantes que apoyen al candidato A es
m N m
x nx
P (X = x) = .
N
n
Ejemplo 4.1.7. (Distribuci on Binomial Negativa). Una variable aleatoria X
se dice que tiene un distribucion binomial negativa con parametros m R y
p (0, 1] si
x1
P (X = x) = pm (1 p)xm ,
m1
para x = m, m + 1, . . .
Sea un escenario binomial es que se considera una secuencia de ensayos
independientes, la probabilidad de exito en cada ensayo es constante e igual a
p. En lugar de fijar el n
umero de ensayos en x y observar el n umero de exitos,
supongase que se contin uan los ensayos hasta que han ocurrido exactamente
x exitos. En este caso, la variable aleatoria es el numero de ensayos necesa-
rios para observar m exitos. Esta situacion lleva a lo que se conoce como la
distribucion binomial negativa.
La determinacion de la funcion de probabilidad sigue el mismo tipo de
razonamiento empleado para obtener las funciones de probabilidad de las dis-
tribuciones binomial e hipergeometrica. Se desea determinar la probabilidad
de que en el x-esimo ensayo ocurra el m-esimo exito. Si se continuan los ensa-
yos independientes hasta que ocurra el m-esimo exito, entonces el resultado del
u ltimo ensayo haban ocurrido m 1 exitos
ltimo ensayo fue exito. Antes del u
en x 1 ensayos. El numero de maneras
distintas
en las que pueden observarse
x1
m 1 exitos en x 1 ensayos es . Por lo tanto la probabilidad de
m1
tener m exitos en x ensayos con el ultimo siendo exito es
x1
P (X = x) = pm (1 p)xm ; x = m, m + 1, m + 2, . . .
m1
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 39
S
Lema 4.1.1. 1. Sea A1 A2 A3 . . ., y sea A = i=1 Ai . Entonces
P (A) = lm P (Ai ).
i
T
2. Sea B1 B2 B3 . . ., y sea B = i=1 Bi . Entonces
P (B) = lm P (Bi ).
i
Demostraci
on. Ver referencia
Teorema 4.1.1. Una funci on de distribucion F de una variable aleatoria X
tiene las siguientes propiedades:
1. lmx F (x) = 1;
2. lmx F (x) = 0;
3. F es no decreciente;
4. F es contnua por la derecha;
5. P (X > x) = 1 F (x);
6. P (x < X y) = F (y) F (x);
7. P (X = x) = F (x) lmyx F (y).
Demostraci
on. Ver referencia
Finalizaremos esta seccion con un resultado del efecto que tiene una fun-
cion de probabilidad de una variable aleatoria sobre su funcion de distribucion
y viceversa.
Teorema 4.1.2. Dos variables aleatorias tienen la misma funcion de proba-
bilidad si y solamente si, ellos tienen la misma funcion de distribucion.
Demostracion. Sea X, Y variables aleatorias en el mismo espacio muestral tal
que pX (x) = pY (y), para todo x, entonces:
X X
FX (x) = P (X x) = pX (x) = pY (y) = P (Y y) = FY (y)
x y
P (X A, Y B) = P (X A)P (Y B)
Demostraci
on.
XX
P (X A, Y B) = P (X = a, Y = b)
aA bB
XX
= P (X = a)P (Y = b)
aA bB
X X
= P (X = a) P (Y = b)
aA bB
= P (X A)P (Y B)
P (X x, Y y) = P (X x)P (Y y).
Soluci
on. Desarrollando se tiene
P (X x, Y y) = P (X x)P (Y y)
X X
= P (X = x) P (Y = y)
xX yY
luego,
XX
P (X x, Y y) = P (X = x, Y = y)
xX yY
Definici
on 4.3.1. La esperanza de una variable aleatoria X esta dado por:
X
E(X) = xP (X = x)
x
2
Ejemplo 4.3.4. Sea X = {1, 1, 2}P y Y2 = X , calculamos la esperanza de la
variable aleatoria Y como E(Y ) = x x P (X = x) = 1 ( 3 )+(1)2 ( 31 )+4( 13 ) =
2 1
2.
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 45
Soluci
on. Como los valores que toma X son no negativos, entonces
X
E(X) = xP (X = x)
x0
= x0 P (X = x0 ) + x1 P (X = x1 ) + x2 P (X = x2 ) + . . .
donde xi 0, i = 0, 1, 2, . . . y
P
i=0 P (X = xi ) = 1. Luego,
P (X > 0) = P (X = 1) + P (X = 2) + P (X = 3) + . . .
P (X > 1) = P (X = 2) + P (X = 3) + P (X = 4) + . . .
..
.
de este modo
X
P (X > n) = P (X > 0) + P (X > 1) + P (X > 2) + . . .
n=0
= P (X = 1) + P (X = 2) + P (X = 3) + P (X = 4) + . . .
+ P (X = 2) + P (X = 3) + P (X = 4) + P (X = 5) + . . .
+ P (X = 3) + P (X = 4) + P (X = 5) + P (X = 6) + . . .
= 1 P (X = 1) + 2 P (X = 2) + 3 P (X = 3) + 4 P (X = 4) . . .
X
X X
= xP (X = x) = xP (X = x) = xP (X = x)
x=1 x=0 x0
= E(X),
Si S + =
P P
j:xj 0 x j P (X = xj ) y S = j:xj <0 (xj )P (X = xj ) son sumas
de una variable aleatoria finita o infinita n
umero de partes no negativos, en
cualquiera de los casos, dichas sumas estan bien definidas y puede ocurrir lo
siguiente:
E(XY ) = E(X)E(Y ).
Demostraci
on. Ejercicio
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 47
La desviaci
on est
andar (X) de X esta definida como la raz cuadrada
de la varianza, p
(X) = var(X).
Lema 4.3.2. var(X) = E(X 2 ) (E(X))2
Demostraci
on. Escribimos E(X) = , luego:
var(X) = E(X 2 2X + 2 )
= E(X 2 ) 2E(X) + 2
= E(X 2 ) 22 + 2
= E(X 2 ) 2 .
Demostraci
on. 1. Sea E(X) = , entonces
2.
Demostraci
on. Ejercicio.
La desigualdad de Marcov para k = 2 y aplicando a |X E(X)| se tiene
Corolario 4.3.2. (Desigualdad de Chebyshev).
1
P (|X E(X)| a) V ar(X).
a2
Finalmente, mencionamos la famosa desigualdad de Cauchy-Schwarz.
Teorema 4.3.6. (Desigualdad de Cauchy-Schwarz). Para alguna variable alea-
toria X e Y para la cual E(XY ) es definida, entonces
p
E(XY ) E(X 2 )E(Y 2 )
Demostraci
on. Ejercicio.
pX (x1 , x2 , . . . , xd ) = P (X1 = x1 , X2 = x2 , . . . , Xd = xd ).
FX (x1 , x2 , . . . , xd ) = P (X1 x1 , X2 x2 , . . . , Xd xd ).
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 50
Demostraci
on. Ejercicio.
Ejemplo 4.4.3. Suponga que X e Y son independientes con funcion de pro-
babilidad conjunta
k l (+)
p(k, l) = e ,
k!l!
como se demostro en el ejemplo anterior, X e Y tienen una distribucion de
Poisson con parametros y respectivamente.
Luego, para calcular la distribucion de la suma X +Y , se utiliza el teorema
anterior y se tiene
z
X k zk (+)
P (X + Y = z) = e
k!(z k)!
k=0
z
e(+) X z
= k zk
z! k
k=0
( + )z
= e(+) .
z!
Esto significa que X +Y tiene una distribucion de Poisson, donde su parametro
es la suma de los parametros originales.
Finalizamos esta seccion con el siguiente lema para vectores.
Lema 4.4.1. Sea (X1 , X2 , . . . , Xd ) un vector aleatorio y g : Rd R. Entonces
X
E[g(X1 , . . . , Xd )] = g(x1 , . . . , xd )P (X1 = x1 , . . . , Xd = xd ),
x1 ,...,xd
4.5. Distribuci
on y Esperanza Condicional
Una de los mas importantes conceptos en teora de las probabilidades
es el condicionamiento. Asimismo, es necesario conocer una cierta variable
aleatoria cuando alguna informacion de otra variable aleatoria esta disponible.
La siguiente definicion engloba esta idea donde X e Y son variables aleatorias
en el mismo espacio muestral.
Definicion 4.5.1. La funcion de probabilidad condicional de Y dado X = x
esta dado como
pY |X (y|x) = P (Y = y|X = x),
donde P (X = x) > 0. La funcion de distribucion condicional de una variable
aleatoria Y dado X = x esta definido como
donde P (X = x) > 0.
De la definicion se sigue que
p(X,Y ) (x, y)
pY |X (y|x) = .
pX (x)
Cuando se toma X = x, la funcion de probabilidad condicional para Y
es pY |X (y|x), la cual sera P
tratada como una funcion de y. La correspondiente
esperanza esta dada por y ypY |X (y|x). Note que esta esperanza condicional
es una funcion de x. Denotamos a esta funcion de x por E(Y |X = x).
Definici
on 4.5.2. La esperanza condicional de Y dado X esta denotado por
E(Y |X = x) y definido como
X
E(Y |X = x) = ypY |X (y|x).
y
Demostraci
on.
X
E(Y ) = yP (Y = y)
y
X X
= y P (X = x, Y = y)
y x
X X
= y pY |X (y|x)pX (x)
y x
X X
= pX (x) ypY |X (y|x)
x y
X
= P (X = x)E(Y |X = x).
x
4.6. Funci
on Generadora
En esta seccion trabajaremos con un caso especial de variables aleatorias
que toman valores en N. Introduciremos un nuevo concepto, la funcion gene-
radora de una variable aleatoria. Al menos son dos razones para el estudio de
esta funcion.
En primera, las funciones generadoras son herramientas muy u tiles para
realizar calculos peque
nos que seran difciles y tediosos sin ellos. Esos calculos
se realizan con suma de variables aleatorias, esperanzas y varianzas.
En segundo lugar, son muy buenas herramientas para el concepto de fun-
ciones caractersticas las mismas son similares en naturaleza pero no restrin-
gidas a valores enteros de las variables aleatorias. En esta seccion, X, Y, . . .
son variables aleatorias que toman valores en N.
Definici
on 4.6.1. La funci
on generadora de X esta definida como
X
X
GX (t) = E(t ) = tn pX (n),
n=0
4.7. Ejercicios
Ejercicio 4.7.1. Muestre que las probabilidades de la distribucion binomial
negativa suma 1.
Ejercicio 4.7.2. Suponga que X tiene una funcion de distribucion F Cual es
la funcion de distribucion de la variable aleatoria Y definida por Y = aX + b?
Ejercicio 4.7.3. Muestre que X e Y son independientes s y solamente s para
todo x, y,
P (X x, Y y) = P (X x)P (Y y).
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 58
E(XY ) 6= E(X)E(Y ).
GX (t) = e(t1) .
Las variables aleatorias son cantidades aleatorias que son medibles en una
escala contnua. Entonces, se puede tomar valores sobre alg un intervalo, con
respecto a las variables discretas que puede tomar u nicamente secuencia de
valores, usualmente enteros. Tpicamente las variables aleatorias, por ejemplo,
el tiempo o distancia son contnuas y no discretas.
En el captulo anterior consideramos variables aleatorias discretas, que
es, variables aleatorias que toman valores posibles finitos o infinitos contables.
No obstante, tambien existen variables aleatorias donde el conjunto de todos
los posibles valores son no contables, por ejemplo, el tiempo o distancia son
contnuas y no discretas.
Sea X una variable aleatoria, entonces decimos que X es una variable
aleatoria contnua o absolutamente contnua si existe una funcion no negativa
f , definido para todo real x (, ), que tiene la propiedad que para alg un
conjunto B de n umeros reales,
Z
P (X B) = f (x)dx.
B
La funcion f es llamada la funcion de densidad de probabilidad de la variable
X.
En palabras, la ecuacion anterior indica que la probabilidad que X esta en
B puede ser obtenido integrando la funcion de densidad sobre el conjunto B.
Dado que X asume diversos valores, f satisface
Z
1 = P (X (, )) = f (x)dx.
Todas las probabilidades relacionadas a X pueden ser expresadas en terminos
de f . Consideremos B = [a, b], obtenemos
Z b
P (X B) = P (a X b) = f (x)dx.
a
59
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 60
Si consideramos a = b, se tiene
Z a
P (X = a) = P (a X a) = f (x)dx = 0.
a
En palabras, la ecuacion anterior indica que la probabilidad que una varia-
ble aleatoria contnua asume en alg
un punto fijo es cero. Luego, para alguna
variable aleatoria contnua,
Z a
P (X a) = P (X < a) = f (x)dx.
para todo a b .
3. Una variable aleatoria X se denomina una variable aleatoria discreta si
all es un conjunto contable C de R con P (X C) = 1.
Para entender mejor la definicion anterior, se tiene los siguientes comen-
tarios:
X() = ,
Definici
on 5.1.4. La funcion
FX (x) = P (X x)
se denomina la funci
on de distribucion de la variable aleatoria X.
El lema siguiente muestra la funcion de distribucion para una variable
aleatoria contnua.
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 62
f (x) = e 2
,
2 2
para todo x R. Note que para = 0 y 2 = 1, esto reduce la densidad a
una variable aleatoria normal estandar.
Ejemplo 5.1.3. (Distribuci on Exponencial ). La variable aleatoria X tiene una
distribuci
on exponencial con parametro > 0 si su densidad esta dado por
x
e si x 0,
f (x) =
0 si x < 0.
Note que Z
ex dx = ex |
0 = 1.
0
Las variables aleatorias exponenciales son usados frecuentemente para
modelar tiempos de llegada, tiempo de espera y tiempo de fracaso de equipos.
El esperanza de X puede ser calculado usando integracion por partes con
= x y dv = ex dx, luego
Z
E(X) = xex dx
0 Z
= [xex ]
0 + ex dx
0
x 1 x
= [xe ]0 + e
0
1
= .
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 65
Luego,
P (X > s + t, X > s)
P (X > s + t|X > s) =
P (X > s)
P (X > s + t)
=
P (X > s)
e(s+t)
=
es
= et = P (X > t).
Ejemplo 5.1.4. Sea X el tiempo (en horas) necesario para reparar un sistema
de computadoras. Asumimos que X tiene una distribucion exponencial con
parametro = 1/4. Encuentre
(a) la funcion de distribucion acumulada de X.
(b) P (X > 4).
(c) P (X > 10|X > 8).
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 66
Soluci
on. (a) Es facil ver que la funcion de distribucion acumulada es
x
1 e 4 si x 0,
F (x) =
0 si otro caso.
4
(b) P (X > 4) = 1 P (X 4) = 1 F (4) = 1 (1 e 4 ) = e1 0.368. (c)
Por la propiedad de perdida de memoria, se tiene
= ( 1) ey y 2 dy
0
= ( 1)( 1).
(n) = (n 1)(n 1)
= (n 1)(n 2)(n 2)
.
= ..
= (n 1)(n 2) 3 2 (1) = (n 1)!
Luego, una variable aleatoria X tiene una distribucion Gamma con parametros
> 0 y > 0 si su densidad esta dado por
( x 1
e (x)
() si x 0,
f (x) =
0 si x < 0.
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 67
R
as que E(X
R n ) xfX (x)dx. Dado que Xn X cuando n R y
E(Xn ) xfX (x)dx, de este modo es razonable definir E(X) = xfX (x)dx.
La esperanza de una variable aleatoria puede tomar los valores .
Ejemplo 5.2.1. (Distribucion Exponencial ). Para una variable aleatoria X
con una distribucion exponencial con parametro se calcula la esperanza
como sigue Z
1
E(X) = xex dx = .
0
La esperanza de variables aleatorias comparten las propiedades de la dis-
creta.
Teorema 5.2.1. Cuando E(X) existe, se tiene E(aX + b) = aE(X) + b, para
todo a, b R.
Demostraci on. Dado que definimos la esperanza va su densidad, necesitamos
calcular la densidad de Y = aX + b. Para esto, supondremos inicialmente que
a > 0 y escribimos,
yb
P (Y y) = P X
a
Z (yb)/a
= fX (x)dx
Z y
1 ub
= fX du,
a a
tomando la sustitucion u = ax
+ b. De este modo, la densidad de Y evaluada
1 ub
en u esta dado por a fX a . Esto implica que la esperanza de Y es igual a
Z
u ub
E(aX + b) = fX du
a a
Z
b
= + x fX (x)adx
a
Z Z
= bfX (x)dx + a xfX (x)dx
= b + aE(X),
P (Y y) = P (X y + )
Z y+
1 1 x 2
= e 2 ( ) dx
2Z
y
1 1 2
= e 2 v dv,
2
ltimo paso sigue de la sustitucion v = (x )/. Esto muestra
donde el u
que Y tiene una distribucion normal estandar, as que E(Y ) = 0. Dado que
X = Y + , del teorema anterior sigue E(X) = .
para todo ai bi , i = 1, . . . , d.
Como en el caso de variables aleatorias contnuas, se tiene que (X1 , . . . , Xd )
es un vector aleatorio contnuo, su probabilidad es de la forma
P ((X1 , . . . , Xd ) A)
R
esta bien definida e igual a A f (x)dx; esto sigue de la propiedad elemental de
la Integral de Riemman.
Definici on 5.3.2. Definimos la funcion de distribucion (conjunta) de X =
(X1 , . . . , Xd ) como
FX (x1 , . . . , xd ) = P (X1 x1 , . . . , Xd xd ).
donde 0 < x 1. De este modo, X tiene una distribucion uniforme (0, 1]. La
densidad de Y es igual a
Z 1
fY (y) = f (x, y)dx = log y,
x=y
P (X = x) = 0,
para todo x. en el contexto contnuo exiten varios caminos para definir inde-
pendencia, haremos alguna eleccion arbitraria de alguna de ellas.
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 73
Definici
on 5.3.3. Las variables aleatorias X e Y , definidas en el mismo es-
pacio muestral, se dicen independientes si para todo x e y,
P (X x, Y y) = P (X x)P (Y y).
Lema 5.3.1. Las variables aleatorias contnuas X e Y son independientes
si y s
olamente si ellos tienen una densidad conjunta f (x, y) la cual puede
ser escrita como un producto f (x, y) = g(x)h(y) de una funcion de x y una
funci
on de y (se dice que f factoriza).
Demostraci
on. Ejercicio.
Ejemplo 5.3.3. Suponga que X e Y tienen densidad conjunta f (x, y) = exy ,
para x, y > 0 y f (x, y) = 0 en otro caso. Entonces, f (x, y) factoriza como
f (x, y) = ex ey ,
concluimos que X e Y son independientes.
la cual significa que g(X) es una variable contnua con fg(X) (y) = 12 fX ((y
3)/2).
Ejemplo 5.4.2. Sea X que tiene una distribucion normal estandar y sea
g(x) = x2 . Entonces, escribiendo (x) para la funcion de distribucion de X,
se tiene para 0 x y,
P (x g(X) y) = P ( x X y) + P ( y X x)
= ( y) ( x) + ( x) ( y)
= 2( y) 2( x),
y [
A2 := {y : g2 (y) x} = A2,i (x),
i
como uniones de intervalos disjuntos. Ademas, podemos escribir
XX
P (g1 (X1 ) x, g2 (X2 ) y) = P (X1 A1,i (x), X2 A2,j (y))
i j
XX
= P (X1 A1,i (x))P (X2 A2,j (y))
i j
X X
= P (X1 A1,i (x)) P (X2 A2,j (y))
i j
= P (g1 (X1 ) x)P (g2 (X2 ) y),
De este modo,
pX+Y (n) = pX (n) pY (n)
donde pX+Y (n) = pX (n) pY (n) se denomina convolution de pX y pY .
Ejemplo 5.5.1. Un dado es lanzado dos veces. Sea X e Y los resultados y sea
Z = X + Y la suma de esos resultados. Encuentre la funcion de probabilidad
de Z.
Soluci
on. Note que X e Y tienen la misma funcion de probabilidad
x, y 1 2 3 4 5 6
px 1/6 1/6 1/6 1/6 1/6 1/6
py 1/6 1/6 1/6 1/6 1/6 1/6
Luego, la funcion de probabilidad de Z es la convolution de pX y pY . De este
modo,
1
P (Z = 2) = pX (1)pY (1) =
36
2
P (Z = 3) = pX (1)pY (2) + pX (2)pY (1) =
36
3
P (Z = 4) = pX (1)pY (3) + pX (2)pY (2) + pX (3)pY (1) = .
36
Continuando de este modo encontramos P (Z = 5) = 4/36, P (Z = 6) =
5/36, P (Z = 7) = 6/36, P (Z = 8) = 5/36, P (Z = 9) = 4/36, P (Z = 10) =
3/36, P (Z = 11) = 2/36 y P (Z = 12) = 1/36.
Ejemplo 5.5.2. Sea X e Y dos variables aleatorias independientes de Poisson
con respectivos parametros 1 y 2 . Calcule la funcion de probabilidad de
X +Y.
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 78
Soluci
on. Para cada entero positivo se tiene
n
[
{X + Y = n} = Ak
k=0
pX+Y (n) = P (X + Y = n)
Xn
= P (X = k, Y = n k)
k=0
n
X
= P (X = k)P (Y = n k)
k=0
n
X k1 2 nk
= e1 e 2
k! (n k)!
k=0
n
(1 +2 )
X k1 nk
2
= e
k!(n k)!
k=0
(1 +2 ) Xn
e n!
= k1 nk
2
n! k!(n k)!
k=0
(1 +2 )
e
= (1 + 2 )n .
n!
Luego, X + Y es una variable aleatoria de Poisson con parametro 1 + 2 .
FX+Y (a) = P (X + Y a)
Z Z
= fX (x)fY (y)dxdy
x+ya
Z Z ay
= fX (x)fY (y)dxdy
Z Z ay
= fX (x)dxfY (y)dy
Z
= FX (a y)fY (y)dy.
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 80
De este modo,
a si 0 a 1,
fX+Y (a) = 2 a si 1 < a < 2,
0 si otro caso.
Si a 0, entonces
Z Z a
fX+Y (a) = 2
fX (a y)fY (y)dy = ea dy = a2 ea .
0
1 a2
fX+Y (a) = e 4 .
4
5.6. Distribuci
on y Esperanza Condicional
Suponga que X e Y tiene una densidad conjunta. Como en el caso discreto,
no podemos hablar de la distribucion condicional de Y dado X como en el caso
contnuo, recordemos que P (X = x) = 0 para todo x. Luego, no podemos
definir
P (Y y|X = x)
como en el caso discreto. Esto significa que la teora desarrollada en el Captulo
4 no es u
til aqu. Pero claramente se tiene una nocion (de carias que existen) de
distribucion condicional para el caso contnuo para aproximar a este problema.
Podemos empezar definiendo P (Y y|X = x) como el lmite de P (Y
y|x X x + ) para 0. Bajo ciertas condiciones, esta aproximacion
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 82
para alg
un y y A. Asimismo, para un y fijo, all existe otra funcion (x) la
cual, para todo A, satisface
X
(x)P (X = x) = P (Y y, X A),
xA
para todo A.
Ahora definimos la distribucion condicional.
Definicion 5.6.1. Sea X con densidad fX e Y una variable aleatoria. Una
distribuci
on condicional de Y dado X es una familia de funciones FY |X (|x)
con las propiedades
1. para cada x, FY |X (|x) es la funcion de distribucion de una variable alea-
toria,
2. para cada y, FY |X (y|) es regular, como una funcion de x,
3. FY |X (y|x) satisface, para todo a < b,
Z b
FY |X (y|x)fX (x)dx = P (Y y, a < X < b).
a
Luego,
Z Z
x xy xy xy
E(X|Y = y) = e dx = xe |0 e dx
0 y 0
h i
xy xy
= xe + ye = y.
0
Ejemplo 5.6.3. Sea Y una variable aleatoria con densidad fY dado por
1
y si y > 1,
fY (y) =
0 si otro caso.
donde > 1. Dado por Y = y, sea X una variable aleatoria variable aleatoria
con distribucion Uniforme en (0, y).
(a) Encuentre la distribucion marginal de X.
(b) Calcule E(Y |X = x) para cada x > 0.
Solucion. La funcion de densidad conjunta esta dado por
1
+1 si 0 < x < y, y > 1
fX,Y (x) = y
0 si otro caso.
(a) Observe que X solo toma valores positivos, de este modo fX (x) = 0, x 0.
Para 0 < x < 1, luego se tiene
Z Z
1
fX (x) = fX,Y (x, y)dy = fX,Y (x, y)dy = .
1
Para x 1 se tiene
1
Z Z
fX (x) = fX,Y (x, y)dy = fX,Y (x, y)dy = .
x x
(b) Para 0 < x < 1 se tiene
fX,Y (x, y)
fY |X (y|x) = = +1 , y > 1.
fX (x) y
De este modo,
Z Z
y dy
E(Y |X = x) = dy = = .
1 y +1 1 y 1
Si x 1, entonces
fX,Y (x, y) x
fY |X (y|x) = = +1 , y > x.
fX (x) y
Luego,
x
Z
x
E(Y |X = x) = y +1 dy = .
x y 1
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 86
siempre que la integral exista. Para el caso discreto, se tiene una suma en vez
de la integral, la esperanza condicional de g dado Y = y es
X
E(g(X)|Y = y) = g(x)pX|Y (x|y).
x
5.7. Ejercicios
Ejercicio 5.7.1. Sea X una variable aleatoria contnua con E(X) = 3/5 y
densidad f (x) = a + bx2 , para 0 < x < 1 y f (x) = 0 en otro caso. Calcule a y
b.
Ejercicio 5.7.2. Si X es una variable aleatoria exponencial con parametro
y c > 0. Muestre que cX tiene distribucion exponencial con parametro /c.
Ejercicio 5.7.3. Muestre que var(X) = E(X 2 ) (E(X))2 . Esta formula es
muy u
til para calculos.
Ejercicio 5.7.4. Usando el ejercicio anterior muestre que var(aX + b) =
a2 var(X).
Ejercicio 5.7.5. Encuentre la varianza de una variable aleatoria exponencial.
Ejercicio 5.7.6. Sea X e Y variables aleatorias con densidad conjunta f (x, y) =
exy , para x, y > 0 Son las variables X e Y independientes? Encuentre las
distribuciones marginales de X e Y y calcule su covarianza.
Ejercicio 5.7.7. Muestre que cuando X e Y son variables aleatorias indepen-
dientes y con densidad conjunta, entonces
f (x, y) = 2 ey ,
Teoremas Lmite
88
CAPITULO 6. TEOREMAS LIMITE 89
Definici
on 6.1.1. Sea X una variable aleatoria. La funcion caracterstica de
X, denotada por X (t) : R C esta definida como
X (t) = E(cos tX) + iE(sen tX)
la cual denotaremos por E(eitX ).
As, si X es una variable aleatoria continua,
Z
X (t) = E(eitX ) = eitx fX (x)dx
si X es discreta, entonces
X
itX
X (t) = E(e )= eitx P (X = x)
x
R
La expresion E(eitX ) = eitx fX (x)dx es denominada la transformada de
Fourier de fX .
Para trabajar con funciones caractersticas, es necesario conocer las inte-
grales complejas. Algunas propiedades basicas de esas integrales estan dadas
en el siguiente teorema, donde f y g son variables complejas de valor real.
Ejemplo 6.1.1. Sea X una variable aleatoria con distribucion de Poisson con
parametro
e x
P (X = x) =
x!
calcule la funcion caracterstica de X.
Soluci on.
X
itX
X (t) = E(e ) = eitx P (X = x)
x=0
x
X
itx e
X eitx x
= e =e
x=0
x! x=0
x!
X (eit )x it
1)
= e = e(e .
x=0
x!
Ejemplo 6.1.2. Sea X una variable aleatoria discreta con P (X = 1) = p y
P (X = 0) = 1 p. Calcule su funcion caracterstica.
Solucion.
X (t) = E(eitX )
X
= eitx P (X = x)
x
= e P (X = 0) + eit(1) P (X = 1)
it(0)
= (1 p) + eit p
CAPITULO 6. TEOREMAS LIMITE 90
Ejemplo 6.1.3. Sea X una variable aleatoria continua con distribucion nor-
mal estandar, calcule su funcion caracterstica.
Solucion.
Z x2 /2
itX itx e
X (t) = E(e ) = e dx
Z 2 Z
1 2 1 2
= eitx ex /2 dx = eitxx /2 dx
2 Z 2 Z
1 (2itxx2 )/2 1 1 2
= e dx = e 2 (x 2itx) dx
2 Z 2
Z
1 1 2 2 2 2 2 1 1 2 t2
= e 2 (x 2itx+i t i t ) dx = e 2 (xit) 2 dx
2 Z 2
1 t 2 1 2
= e 2 e 2 (xit) dx
2Z
t2 1 1 2
= e 2 e 2 y dy, y = x it
2
t2
= e 2
Rb Rb
2. a (f )(t)dt = a f (t)dt, para todo C
R R
b b
3. a f (t)dt a |f (t)|dt
Demostraci
on. Ver referencia.
Como ya se menciono anteriormente, la esperanza matematica de X =
X1 + iX2 se define como E(X) = E(X1 ) + iE(X2 ) donde E(X1 ) y E(X2 ) son
finitos.
Algo muy necesario que usaremos son las variables aleatorias de valor
complejo. Si tomamos n = 2 y sean las variables de valor complejo X =
X1 + iX2 e Y = Y1 + iY2 . Si asumimos que Xi e Yj son independientes (i, j =
1, 2) y sus esperanzas son finitas, entonces E(XY ) = E(X)E(Y ), donde este
resultado es conocido cuando X e Y son variables aleatorias independientes
de valor real. Luego,
E(XY ) = E((X1 + iX2 )(Y1 + iY2 ))
= E(X1 Y1 X2 Y2 + i(X2 Y1 + X2 Y2 ))
= E(X1 )E(Y1 ) E(X1 )E(Y2 ) E(X2 )E(Y2 ) + iE(X2 )E(Y1 )
= E(X)E(Y )
la prueba para n variables aleatorias es mas trabajosa, pero la idea es exacta-
mente la misma.
De este modo, es posible mostrar la funcion caracterstica de la suma de
variables aleatorias independientes con el uso de la integracion n-dimensional.
Teorema 6.1.2. 1. Si X y Y son independientes, entonces
X+Y (t) = X (t)Y (t)
2. Si a, b R, y Y = aX + b, entonces
Y (t) = eitb X (at)
Demostraci
on. 1. Por independencia de X y Y se tiene que E(XY ) =
E(X)E(Y ), luego
X+Y (t) = E(eit(X+Y ) ) = E(eitX eitY )
= E((cos tX + i sen tX)(cos tY + i sen tY ))
= E(cos tX cos tY sen tX sen tY )
+ iE(sen tX cos tY + cos tX sen tY )
= (E(cos tX) + iE(sen tX))(E(cos tY ) + iE(sen tY ))
= X (t)Y (t)
CAPITULO 6. TEOREMAS LIMITE 92
2. Podemos escribir
Sn (t) = (X (t))n .
2. X (t) = X (t);
3. X (t) es uniformemente continua.
on. 1. De |X (t)| = |E(eitX )| 1 y X (0) = E(ei(0)X ) = E(e0 ) =
Demostraci
1 se concluye la demostracion.
2. Se tiene que
3. Ver referencias.
d
Teorema 6.1.4. Sea X y Y variables aleatorias. Si X = Y , entonces X =
Y.
Este es el teorema de unicidad para funciones caractersticas.
Teorema 6.1.5. Sea X una variable aleatoria. Entonces
d
X (t) es real X = X
(i.e., si y s
olo si la distribuci
on de X es simetrica).
on. Del Teorema 1.2(2) (con a = 1 y b = 0) y Teorema 1.3(2)
Demostraci
Demostraci
on. La funcion de distribucion acumulada de Z = X + Y es como
sigue:
FX+Y = P (X + Y a)
ZZ
= fX (x)fY (y)dxdy
x+ya
Z Z ay
= fX (x)fY (y)dxdy
Z Z ay
= fX (x)dx fY (y)dy
Z
= FX (a y)fY (y)dy
diferenciando,
Z
d
fX+Y (a) = FX (a y)fY (y)dy
da
Z
d
= FX (a y)fY (y)dy
da
Z
= fX (a y)fY (y)dy
diferenciando,
Z
d
fX+Y (a) = FY (a x)fX (x)dx
da
Z
d
= FY (a x)fX (x)dx
da
Z
= fY (a x)fX (x)dx
concluyendo la demostracion.
CAPITULO 6. TEOREMAS LIMITE 95
f (t) F (s)
1
f (t) = 1, t 0 F (s) = s
,s > 0
1
f (t) = eat , t 0 F (s) = sa
,s > a
n!
f (t) = xn eat , x = 0, 1, . . . F (s) = (sa)n+1
,s > a
n!
f (t) = tn , t 0 F (s) = sn+1
,s 0
k
f (t) = sen(kt), t 0 F (s) = s2 +k2
s
f (t) = cos(kt), t 0 F (s) = s2 +k2
k
f (t) = senh(kt), t 0 F (s) = s2 +k2
, s > |k|
k
f (t) = cosh(kt), t 0 F (s) = s2 k2
, s > |k|
La transformada inversa
Fracciones continuas
La convolution si se cumple:
y la propiedades de Laplace,
es es
h(x) = X1 +X2 (s) =
2s(s + 1)
e s
es
=
2s(s + 1) 2s(s + 1)
1 1
= (1 e(x+1) )u(x + 1) (1 e(x1) )u(x 1)
2 2
Por lo tanto, h(x) representa la densidad de la variable aleatoria X =
X 1 + X2 .
luego,
X X
2 m(x) = 2 m(x)
|x| |x|
= 2 P (|X | )
de este modo,
V ar(X)
P (|X | )
2
CAPITULO 6. TEOREMAS LIMITE 101
V ar(Sn ) = V ar(X1 + X2 + . . . + Xn )
Xn
= V ar(Xj ) = n 2
j=1
y
2
Sn
V ar =
n n
asimismo,
Sn
E =
n
Por la desigualdad de Chebyshev, para alg
un > 0,
2
Sn
P 2
n n
cuando n para fijo,
Sn
P 0
n
equivalentemente, cuando n para fijo,
Sn
P < 1
n
Ejemplo 6.2.6. Sea X alguna variable aleatoria que toma los valores de
0, 1, 2, . . . , n y E(X) = V ar(X) = 1. Muestre que para alg
un entero posi-
tivo k se cumple
1
P (X k + 1) 2
k
Soluci on. De la desigualdad de Chebyshev:
V ar(X)
P (|X E(X)| k)
k2
1
P (|X 1| k) 2
k
1
P (X k + 1) 2 .
k
Ejemplo 6.2.7. Asuma que X1 , X2 , . . . , Xn son variables aleatorias indepen-
dientes con posible distribucion diferente y sea Sn su suma. Sea mk = E(Xk ),
k2 = V ar(Xk ) y Mn = m1 + m2 + . . . + mn . Asuma que k2 < R para todo k.
Pruebe que, para algun > 0,
Sn Mn
P < 1
n n
cuando n .
Soluci
on. Similarmente,
Sn Mn
P 0
n n
cuando n .
De la desigualdad de Chebyshev,
Sn Mn
P V ar(Sn /n)
n n 2
Asimismo,
Sn 1
E = E(Sn )
n n
1
= E(X1 + . . . + Xn )
n
m1 + . . . + mn
=
n
Mn
=
n
CAPITULO 6. TEOREMAS LIMITE 105
y la varianza,
Sn 1
V ar = V ar(Sn )
n n2
1
= 2 V ar(X1 + . . . + Xn )
n
12 + . . . + n2
=
n2
0
Mn
=
n2
utilizando la desigualdad de Chebyshev y para alg
un > 0,
Sn Mn
P V ar(Sn /n)
n n 2
Mn0
Sn Mn
P
2 2
n n n
para fijo
Sn Mn
P 0
n n
cuando n .
Similarmente,
Sn Mn
P < 1
n n
cuando n .
Soluci
on.
(a) P (|X 10| 2) V ar(X)
4 = 8.33
V ar(X)
(b) P (|X 10| 5) 25 = 1.33
(c) P (|X 10| 9) V ar(X)
243 = 0.41
V ar(X)
(d) P (|X 10| 20) 1200 = 0.08
Ejemplo 6.2.10. Sea X una variable aleatoria continua con distribucion uni-
forme sobre el intervalo [0, 20].
(a) Encuentre la media y varianza de X.
(b) Calcule P (|X 10| 2), P (|X 10| 5), P (|X 10| 9), y P (|X 10|
20). Interprete.
Solucion. (a) Sea f (x) la funcion de densidad de la variable X, luego la
media de X sera:
Z 20
E(X) = xf (x)dx
Z0 20
1
= x dx
0 20 0
= 10
108