Sunteți pe pagina 1din 12

Unidad Profesional Interdisciplinaria en

Ingeniera y Tecnologas Avanzadas.


Instituto Polit
ecnico Nacional
Ingeniera Telematica

Curso de Probabilidad1
Notas sobre funciones de variables aleatorias y funciones
generadoras de momentos
Anteriormente ya se han introducido funciones que toman valores en las variables aleatorias
como lo son:
valores esperados
varianzas
covarianzas y correlaciones
En el presente tema se abordaran dos tipos de aplicaciones:
transformaciones de variables aleatorias y su funciones de probabilidad
funciones generadoras de momentos.
En la primera de las anteriores veremos la justificacion del metodo de la funcion inversa que
se utilizo en algunos algoritmos para la produccion de variables aleatorias. El segundo tema
tampoco es desconocido ya que las funciones generadoras de momento se pueden ver como
generalizaciones de promedios y varianzas.

Transformaciones de variables

? Teorema
Sea X una variable aleatoria discreta con distribucion de probabilidad f (x). Sea y = u(X)
una transformacion uno a uno entre los valores de X y Y de manera que la ecuacion
y = u(x)
pueda resolverse unnovocamente para x en terminos exclusivos de y, digamos
x = w(y).
1

http://sites.google.com/site/cbasicasupiita/

Entonces Y tiene la distribucion de probabilidad


g(y) = f [w(y)] .
4 Ejemplo

Sea X una variable aleatoria binomial con n = 5 y p = 3/4, su fmp es


 x  nx
1
3
,
f (x) = b(x; 5, 3/4) = C5,x
4
4

x = 0, 1, 2, 3, 4, 5.

Ahora sea Y = X 2 entonces lo primero que observamos es que los valores que puede tomar
Y son
y = 0, 1, 4, 9, 16, 25.
Dado que y = u(x) = x2 es uno a uno tenemos

y = y = w(y)
luego la fmp de Y es
 y  ny
3
1
g(y) = C5,y
,
4
4

y = 0, 1, 4, 9, 16, 25.

Lo cual es logico pues lo que se transforma es la variable aleatoria pero la probabilidad de


ocurrencia permanece, por ejemplo, la probabilidad de ocurrencia de X = 5 es P (X = 5) =


3 5
3 5
,
as

la
probabilidad
de
ocurrencia
de
Y
=
25
es
P
(Y
=
25)
=
.
4
4
Tambien se puede explicar en terminos de frecuencia relativa. La idea es la siguiente:
Sea Y = X 2 con X una v.a. como se definio en el ejemplo anterior, si se producen aleatorios en
esta distribuci
on tendramos una tabla como la siguiente:
X
1
2
1
1
4
..
.

Y
1
4
1
1
16
..
.

5
1

25
1

Lo que se observara es que la proporcion de 5 en la primera columna de la lista debera ser de


5
aproximadamente de 34 para una lista lo suficientemente grande. Ls proporcion de 25 en la
segunda columna de la lista deber
a ser la misma.

? Teorema
Sean X1 y X2 variables aleatorias discretas con distribucion de probabilidad conjunta f (x1 , x2 ).
Sea Y1 = u1 (X1 , X2 ) y Y2 = u2 (X1 , X2 ) una transformacion uno a uno entre los puntos
(x1 , x2 ) y (y1 , y2 ) de manera que las ecuaciones
y1 = u1 (x1 , x2 ),

y2 = u2 (x1 , x2 )
2

puedan resolverse unvocamente para x1 y x2 en terminos exclusivos de y1 y y2 , digamos


x1 = w1 (y1 , y2 ),

x2 = w2 (y1 , y2 )

Entonces Y1 , Y2 tienen la distribucion de probabilidad conjunta


g(y1 , y2 ) = f [w1 (y1 , y2 ), w2 (y1 , y2 )] .
4 Ejemplo Sean X1 y X2 una variables aleatorias de Poisson con parametros 1 y 2
respectivamente, entonces su fmp conjunta resulta
x1 e1 x2 2 e2

.
f (x1 , x2 ) = 1
x1 !
x2 !
Definimos la transformacion lineal
Y2 = X1 X2 .

Y1 = X1 + X2 ,
Podemos invertirla para obtener
x1 = w1 (y1 , y2 ) =

y1 + y2
,
2

x2 = w2 (y1 , y2 ) =

y1 y2
.
2

La fmp conjunta resulta


y1 +y2

y1 y2

2 e1 2 2 e2
g(y1 , y2 ) = 1 y1 +y2
(y1 y2 ) ,
( 2 )!
!
2
? Teorema
Sea X una variable aleatoria continua con distribucion de probabilidad f (x). Sea y = u(X)
una correspondencia uno a uno entre los valores de X y Y de manera que la ecuacion
y = u(x)
pueda resolverse unnocuamente para x en terminos exclusivos de y, digamos
x = w(y).
Entonces Y tiene la distribucion de probabilidad
g(y) = f [w(y)] |J|.
donde J = w0 (y) es el jacobiano de la transformacion.
La justificacion es simple, en terminos de la conservacion de la probabilidad; separaremos los
casos en que u es monotonamente creciente y decreciente.

w(b)

P (a < Y < b) = P (w(a) < X < w(b) =

f (x)dx
w(a)

haciendo el cambio de variable x = w(y) tenemos dx = w0 (x)dy as


Z
P (a < Y < b) =

f [w(x)] w0 (y)dy

por lo que identificamos al integrando de la expresion anterior como la densidad de probabilidad de Y :


g(y) = f [w(x)] w0 (y).
En el caso decreciente solo hay que tener cuidado con el signo del jacobiano (que es negativo
al ser u decreciente) que se compensa con el orden inverso en los lmites de integracion:
y = a xa = w(a),

4 4 Ejemplos

y = b xa = w(b)

Sea X una variable uniforme continua entre 0 y 1. Halle la PDF de Y

si

Y = X.
Soluci
on:f (x) = 1,

x [0, 1] luego

|J| = w0 (y) = [y 2 ]0 = 2y = g(y) = 2y

y in[0, 1].

Y = A + (B A)X.
Soluci
on:Tenemos que y = u(x) = A + (B A)x luego x = w(y) = (y A)(B A)
para y [A, B]
|J| = w0 (y) = [y 2 ]0 = 1/(B A),
as
g(y) =

1
,
BA

A y B.

Y = ln X
Soluci
on:y = u(x) = ln x luego x = w(y) = ex/ para y 0.
|J| = | ex/ /|
As
g(y) =

1 x/
e
,

y 0.

? Teorema
Sean X1 y X2 variables aleatorias continuas con distribucion de probabilidad conjunta f (x, y).
Sea y = u(X) una correspondencia uno a uno entre los valores de X y Y de manera que la
ecuacion
y = u(x)
pueda resolverse unvocamente para x en terminos exclusivos de y, digamos
x = w(y).
Entonces Y tiene la distribucion de probabilidad
g(y) = f [w(y)] |J|,
donde

"

x1
y1
x2
y1

|J| = det

4 Ejemplo

x1
y2
x2
y2

#
(1)

Considere la funcion de densidad de probabilidad conjunta


f (x, y) = 6x2 y,

x [0, 1], y [0, 1].

Ahora sea la transformacion


Y1 = X12 ,

Y2 = X1 X2 .

Halle la PDF conjunta de las nuevas variable, encuentre cul es su dominio.


? Teorema
Suponga que X es una v.a. continua con distribucion de probabilidad f (x). Definimos con
Y = u(X)
una transformacion entre los valores de X y Y que no es uno a uno. Si el intervalo sobre el
que se define X puede dividirse en k conjuntos mutuamente disjuntos, de manera que cada
una de las funciones inversas en cada conjunto
x1 = w1 (y), x2 = w2 (y), , xk = wk (y)
de y = u(x) defina una correspondencia uno a uno, entonces la distribucion de probabilidad
de Y es
k
X
g(y) =
f [wi (y)] |Ji |,
i=1

donde Ji = wi0 (y), i = 1, 2, . . . , k.


4 Ejemplo Muestre que Y = (X )2 / 2 tiene una distribucion chi cuadrada con 1
grado de libertad cuando X tiene una distribucion normal con media y varianza 2 .

? ?Ejercicios
1. Sea X una v.a. que tiene la siguiente funcion de probabilidad
1
f (x) = , x = 1, 2, 3.
3
Calcule la distribucion de probabilidad de la variable aleatoria Y = 2x 1.
2. Sea X una v.a. binomial con n = 3 y p = 2/5. Calcule la distribucion de probabilidad
de la v.a. Y = X 2 .

3. Basado en el problema 7.4 del Walpole pag 223. Sean X1 y X2 v.a. discretas con la
siguiente funcion de masa de probabilidad conjunta:
f (x1 , x2 ) =

x1 x2
, x1 = 1, 2; x2 = 1, 2, 3,
18

y f (x) = 0 en otro caso. Calcule la distribucion de probabilidad de la variable aleatoria


Y = X 1 X2 .

4. Basado en el problema 7.7 del Walpole pag 223.


La velocidad de una moleecula en un gas uniforme en equilibrio es una v.a. V con fdp:
2

f (v) = kv 2 ebv ,

v>0

donde k es una constante adecuada y b depende de la temperatura absoluta y de la


masa de la molecula. Calcule la distribucion de probabilidad de la energa cinetica de
la molecula W , donde W = mV 2 /2.

5. Basado en el problema 7.10 del Walpole pag 223.


Las variables aleatorias X y Y que representan los pesos de bombones y chicoleos, respectivamente, en cajas de una kilogramo de chocolates que contienen una combinacion
de bombones, chicoleos y envinados, tienen la siguiente fdp conjunta:
f (x, y) = 24xy,

x [0, 1], y [0, 1], x + y 1.

(a) Calcule la funcion de densidad de probabilidad de la variable aleatoria Z = X +Y .


(b) Utilice la fdp de Z para calcular la probabilidad de que, una determinada caja la
suma de los pesos de los bombones y los chiclosos sea de por lo menos la mitad
pero menor a 3/4.
(c) Sean X1 y X2 v.a. exponenciales con = 1 independientes entre s, definidas
para valores positivos. Demuestre que las v.a. Y1 y Y2 son independientes cuando
Y1 = X1 + X2 Y2 = X1 /(X1 + X2 ).

Funciones generadoras de momentos

4 Definici
on
dado por

El r-esimo momento alrededor del origen de la variable aleatoria X esta


0r = E [X r ] .

As, los valores esperados como la media y la varianza que habamos utilizado con anterioridad pueden expresarse como
= E [X] = 01 ,
4 Definici
on
por

V (X) = 02 2 .

La funcion generadora de momentos de la variable aleatoria X esta dada


 
MX (t) = E etX

La importancia de la funcion generadora de momentos es que, como su nombre lo indica, a


partir de ella es posible obtener cualquier momento:
? Teorema Sea X una variable aleatoria con funcion generadora de momentos MX (t).
Entonces
dr
MX (t)|t=0 = 0r .
dtt
La prueba se desprende directamente de la definicion.

? ?Ejercicios
1. Encuentre la funcion generadora de momentos de una variable aleatoria binomial.
Utilcela para encontrar la media y varianza.
2. Muestre que la funcion generadora de momentos de una variable aleatoria normal es


1 22
MX (t) = exp t + t .
2
3. Muestre que la funcion generadora de momentos de una v.a. ji-cuadrada con grados
de libertad es :
MX (t) = (1 2t)/2 .
10

? Teorema (De unicidad de la funcion generadora de momentos).


Sean X y Y dos variables aleatorias MX (t) y MY (t) respectivamente. Si
MX (t) = MY (t)
para todos los valores de t, entonces X y Y tienen la misma distribucion de probabilidad.
Propiedades
1. MX+a (t) = eat MX (t).
2. MaX (t) = MX (at).
? Teorema
Si X1 , X2 , . . . , Xn son variables aleatorias independientes con funciones generadores de momentos MX1 (t), MX2 (t), . . . , MXn (t), respectivamente, entonces la funcion generadora de momentos de la variable
Y = X1 + X2 + + Xn
es
MY (t) = MX1 (t)MX2 (t) MXn (t).

? Teorema
1. La combinacion lineal Y de n variables aleatorias normales independientes X1 , X2 , . . . Xn
Y = a1 X1 + a2 X2 + + an Xn
tiene una distribucion normal con media
Y = a1 1 + a2 2 + + an n
y varianza
Y2 = a21 12 + a22 22 + + a2n n2 .
11

2. Si X1 , X2 , . . . , Xn son variables aleatorias independientes con distribuciones ji-cuadrada


con 1 , 2 , . . . , n grados de libertad respectivamente, entonces la variable aleatoria
Y = X1 + X2 + + Xn
tiene una distribucion ji-cuadrada con = 1 + 2 + + n grados de libertad.
3. Si X1 , X2 , . . . , Xn son variables aleatorias independientes con distribuciones normales
identicas con media y varianza 2 , entonces la variable
Y =

2
n 
X
Xi
i=1

tiene una distribucion ji-cuadrada con = n grados de libertad.


4. Si X1 , X2 , . . . , Xn son variables aleatorias independientes con distribuciones normales
con medias i y varianzas i2 , entonces la variable
Y =

2
n 
X
X i i
i=1

tiene una distribucion ji-cuadrada con = n grados de libertad.


? ?Ejercicios
1. Encuentre cual es la distribucion de la norma de un vector gaussiano de n dimensiones.
2. Muestre que el r-eximo momento alrededor del origen de la distribucion gamma es
0r =

r ( + r)
.
()

3. Muestre que una v.a. de Poisson con paramero tiene una funcion generadora de
momentos
t
MX (t) = e(e 1) .
Use la funcion anterior para hallar la media y la varianza de la distribucion de Poisson.

12

S-ar putea să vă placă și