Sunteți pe pagina 1din 22

VECTORES ALEATORIOS

Introducci
on

En la vida real es muy frecuente enfrentarnos a problemas en los que nos interesa
analizar varias caractersticas simult
aneamente, como por ejemplo la velocidad
de transmision de un mensaje y la proporcion de errores. De esta forma seremos
capaces de estudiar no solo el comportamiento de cada variable por separado,
sino las relaciones que pudieran existir entre ellas. En consecuencia el objetivo
principal de este tema es elaborar un modelo matematico que permita analizar
experimentos aleatorios en los que cada resultado experimental A tiene asociados
p valores numericos. Estos modelos seran la base para la construccion de los
modelos inferenciales necesarios en este contexto para extrapolar los resultados
de una muestra a la poblacion.

Vectores aleatorios

El concepto de vector aleatorio nace como una generalizacion natural de la nocion


de variable aleatoria, al considerar simult
aneamente el comportamiento aleatorio
de varias caractersticas asociadas a un experimento.
Definici
on 2.1 (Vector aleatorio.) Dado un un espacio probabilstico (E, A, P )
y el espacio probabilizable (Rp , ) con -
algebra de Borel en Rp , se dice que una
aplicaci
on x = (x1 . . . , xp )t
x : E Rp
es un vector aleatorio si es medible, es decir x1 (B) A B , por tanto
cada una de sus componentes xi , i = 1, . . . p es una variable aleatoria.
Veamos algunos ejemplos sencillos de vectores aleatorios.
El vector (x1 , x2 ) representa la temperatura maxima que puede alcanzar una
resistencia y el tiempo que tarda en alcanzarla. (En el caso bidimensional es mas
frecuente utilizar la notacion (X,Y).)
1

VECTORES ALEATORIOS

Los componentes del vector (x1 , x2 , x3 , x4 , x5 , x6 )t representan, respectivamente, la edad, peso, estatura, sexo, colesterol y trigliceridos de una persona.
Definici
on 2.2 (Probabilidad inducida.) Dado un vector aleatorio x definido sobre (E, A, P ), se denomina probabilidad inducida por el vector a la aplicaci
on
p
Px : R definida por:
Px (B) = P [x1 (B)]

(Rp , , Px ) es el espacio probabilstico inducido por x.


La distribucion de probabilidad inducida por un vector aleatorio se puede
caracterizar mediante la funcion de distribucion.
Definici
on 2.3 (Funci
on de distribuci
on.) Dado el vector aleatorio x se denomina funci
on de distribuci
on asociada, a la funci
on F : Rp R definida
por:
F (a) = P [x1 a1 , . . . , xp ap ]
Las propiedades mas importantes de las funciones de distribucion son:
1. F (, a2 , . . . , ap ) = = F (, , ai , , ) = 0.
2. F (, . . . , ) = 1.
3. F es continua por la derecha respecto de cada variable.
4. F es no decreciente respecto a cada variable.
5. En el caso bidimensional dados hi > 0 se verifica que
\
P ((a1 < x1 a1 + h1 ) (a2 < x2 a2 + h2 )) =
= F (a1 + h1 , a2 + h2 ) F (a1 , a2 + h2 ) F (a1 + h1 , a2 ) + F (a1 , a2 ) 0
Mientras que en el caso p-dimensional se tendra la expresion:
p
X
F (a1 +h1 , . . . , ai1 +hi1 , ai , ai+1 +hi+1 , . . . , ap +hp )
F (a1 +h1 , . . . , ap +hp )
i=1

p
X

F (a1 +h1 , . . . , ai1 +hi1 , ai , ai+1 +hi+1 , . . . , aj1 +hj1 , aj , aj+1 +hj+1 , . . . , ap +hp )

i,j=1,i6=j

+ . . . , +(1)p F (a1 , . . . , ap ) 0
Los vectores aleatorios se pueden clasificar teniendo en cuenta el tipo de las
variables aleatorias que lo componen.

Vectores aleatorios discretos

La idea intuitiva asociada a un vector aleatorio discreto es que cada una de sus
componentes sean v. a. discretas.
Definici
on 3.1 (Vector aleatorio discreto) Sea x un vector aleatorio definido sobre (E, A, P ) y S = {a Rp /P (a) > 0}, se dice que x es discreto si se
cumple que:
1. S 6=
2. El cardinal de S es a lo sumo infinito numerable.
X
3.
P (a) = 1.
aS

4. P [x B] =

P
aBS

P (a).

Al conjunto S se le llama conjunto soporte del vector x.


En este caso la funcion de distribucion es discontinua y viene dada por la
expresion:
X
F (x) =
P (a)
aSx

con Sx = {a

Rp /a

x}.

Vectores aleatorios continuos

En los vectores aleatorios continuos cada componente es una v. a. de tipo


continuo y analogamente al caso unidimensional para caracterizar su distribucion
es conveniente emplear la funcion de densidad.
Definici
on 4.1 (Funci
on de densidad) Una funci
on f : Rp R se dice que
es funci
on de densidad si verifica las condiciones:
1. f (x) 0
x Rp
R
R
R
2. Rp f (x) dx = . . . f (x) dx = 1
Definici
on 4.2 (Vector aleatorio continuo) Un vector aleatorio x se dice que
es continuo si su funci
on de distribuci
on se puede expresar como:
Z x1
Z xp
F (x) =
...
f (y)dy x Rp

5 DISTRIBUCIONES MARGINALES

donde f es una funci


on de densidad en Rp .
El conjunto Sx = {a Rp /f (a) > 0} se denomina conjunto soporte de x.
Las propiedades mas importantes de los vectores continuos son:
1. La funcion de distribucion es continua.
2. En los puntos de continuidad de la funcion de densidad se cumple que:
p F (x)
f (x) =
x1 . . . xp
3. S = {a Rp /Px (a) > 0} = , es decir, P (a) = 0
R
4. P [x B] = B f (x)dx

a Rp

Distribuciones marginales

Las componentes de los vectores aleatorios son v. a. y resulta en muchos casos


de interes de estudiar el comportamiento de cada una de esas variables por separado o de grupos de las mismas. Para abordar este problemas se definen las
distribuciones marginales.
Definici
on 5.1 (Distribuciones marginales) Sea x un vector aleatorio con
funci
on de distribuci
on F(x), entonces cada una de sus componentes, xi son
variables aleatorias unidimensionales con las siguientes funciones de distribuci
on
marginal para la componente xi
Fi (xi ) = F (+, + , xi , +, + )
Tambien se puede hablar de distribuciones marginales de un subvector , as
si x = (x1 , x2 )se define la funci
on de distribuci
on marginal de x1 como F1 (x1 ) =
F (x1 , +, + )
Si el vector es continuo se tiene las funcion de densidad marginal de la compoR
nente xi , fi (xi ) = Rp1 f (a1 , . . . ai1 , xi , ai+1 , . . . an )da1 . . . dai1 dai+1 , . . . dan
Mientras que si x es discreto las expresiones para las distribucion de probabilidad marginal de la componente xi son:
X
Pi (xi ) =
P (y)
yS,yi =xi

Analogamente se tendran las distribuciones de los subvectores.

Distribuciones condicionadas

En muchos problemas reales puede interesa estudiar el comportamiento de una


variable teniendo cierta informacion complementaria sobre el experimento. Por
ejemplo sea (X, Y) un vector aleatorio cuyas componentes representan, respectivamente, las intensidades de las se
nales enviadas y recibidas a traves de un canal
de informacion. Un aspecto fundamental es este tipo de problemas es conocer
el comportamiento de la se
nal recibida Y condicionada a que se ha enviado una
se
nal (X=x), es decir, analizar la distribucion de (Y / X=x). Otro problema muy
interesante es el complementario del anterior, o sea, estudiar la se
nal que se envi
o
cuando se conoce la se
nal recibida (X/ Y=y).
Cuando el suceso que condiciona tiene una probabilidad estrictamente positiva el problema se reduce a utilizar la probabilidad condicionada para calcular
la distribucion de (x2 /x1 = a).
Fx2 /x1 =a (b) =

P (x1 = a, x2 b)
P (x1 = a)

En el caso que esta funcion sea absolutamente continua se puede considerar la


funcion de densidad condicionada de (x2 /x1 = a) que sera

p2 (Fx2 /x1 =a (x2 ))

fx2 /x1 =a (b) =

x2
b
en los puntos de continuidad de la funcion de distribucion
Sin embargo cuando el vector x1 es de tipo continuo, el suceso (x1 = a) tiene
siempre una probabilidad igual a cero, y no se puede emplear el metodo anterior.
En este caso se define la funcion de densidad condicionada.
Definici
on 6.1 (Funci
on de densidad condicionada) Dado el vector aleatorio ( x1 , x2 ) la funci
on de densidad de x2 condicionada a (x1 = a), se define
como una funci
on no negativa fx2 /x1 =a , que satisface:
Z
Fx2 /x1 =a (b) =

{tRp2 /tb}

fx2 /x1 =a (t) dt

x2 Rp2

El siguiente resultado nos permite calcular la funcion de densidad condicionada en el caso de trabajar con vectores aleatorios continuos.
Proposici
on 6.1 Dado un vector aleatorio ( x1 , x2 ) cuya funci
on de densidad
es f( x1 , x2 ) se verifica que en todo punto de continuidad de f en el que fx2 (b) >0,

MOMENTOS

la funci
on de densidad de (x1 /x2 = b) existe y vale:
fx1 /x2 =b (a) =

f (a, b)
fx2 (b)

Definici
on 6.2 (Independencia de vectores aleatorios) Dado el vector aleatorio x=(x1 , x2 ) se dice que x1 y x2 son independientes cuando se verifica que:
Fx (a, b) = Fx1 (a) Fx2 (b)

(a , b) Rp

Si trabajamos con la funcion de densidad esta condicion es equivalente a:


fx (a, b) = fx1 (a) fx2 (b)

(a , b) Rp

Cuando las variables son discretas la independencia equivales a:


(a , b) Rp

Px (a, b) = Px1 (a) Px2 (b)

Una propiedad muy interesante es que si x1 y x2 son independientes entonces


nuevas variables aleatorias g(x1 ) y h( x2 ), obtenidas como transformaciones de
las anteriores, tambien los son.
Tambien es interesante hacer notar que si dos vectores x1 y x2 son independientes no quiere decir que las componentes de x1 lo sean. Es decir en el
caso multidimensional pueden aparecer muchos tipos de independencia como la
independencia condicional
Definici
on 6.3 (Independencia condicional ) Dado el vector aleatorio x=(x1 , x2 , x3 )
se dice que x1 y x2 son condicionalmente independientes dado x3 cuando se verifica que x1 /x3 y x2 /x3 son independientes.

Momentos

En este apartado se da la definicion de momento para poder describir de manera


resumida el comportamiento de los vectores aleatorios.
Definici
on 7.1 (Momentos respecto al origen) Dado una vector aleatorio
p-dimensional continuo x se denomina momento respecto al origen de orden
(r1 , . . . , rp ), si existe, al valor dado por la expresi
on:
Z
r
r
ar1 ,...,rp (x) = E(xr11 . . . xpp ) =
xr11 . . . xpp f (x)dx
Rp

donde f(x) es la funci


on de densidad.
An
alogamente se definira para el caso discreto.

Los momentos respecto al origen mas importantes son los orden uno que
permiten definir el vector esperanza del vector aleatorio.
Definici
on 7.2 (Vector esperanza) Dado un vector aleatorio p-dimensional
x se denomina vector esperanza, E(x), al vector de componentes (1 , . . . , p )t
definidas por :
Z

i =

x fxi (x) dx

Es inmediato comprobar que:


i = E(xi ) = a0...,0,1i ,0,...,0 (x)
.
Cuando se trabaja con una funcion g(x) la esperanza de la nueva variable
aleatoria se puede calcular mediante la expresion:
Z
E[g(x)] =

g(x) f (x) dx
Rp

Entre las propiedades mas importantes del vector esperanza, si existe, se


encuentran:
1 Linealidad para transformaciones y=Ax+b, siendo A una matriz (n,p):
E[ y]=A E[x]+b.
R
R
2 E[g1 (x1 )] = Rp g1 (x1 ) f (x)dx = Rp1 g1 (x1 ) f1 (x1 )dx1 .
3 Linealidad E[a1 g1 (x) + a2 g2 (x)] = a1 E[g1 (x)] + a2 E[g2 (x)] , siendo ai R

Otros momentos muy importantes son los centrados respecto al vector de


medias. La expresiones que aparecen a continuaci
on se refieren al caso continuo,
ya que el caso discreto se desarrolla de manera analoga a la realizada hasta este
momento.
Definici
on 7.3 (Momentos centrados) Dado una vector aleatorio p-dimensional
continuo x se denomina momento centrado de orden (r1 , . . . , rp ), si existe, al valor dado por la expresi
on:
Z
mr1 ,...,rp (x) =
(x1 1 )r1 . . . (xp p )rp f (x)dx
Rp

donde f(x) es la funci


on de densidad.

MOMENTOS

Los momentos centrados de orden dos para una de las componentes ri = 2,


cero para el resto, rj = 0 si j 6= i), dan lugar a las varianzas de cada componente
xi , que se va a denotar por ii .
V ar(xi ) = ii = E(xi i )2 = m0...,0,2i ,0,...,0 (x)
El momento centrado de orden (0 . . . , 0, 1i , 0, . . . , 0, 1j , 0, . . . , 0) se denomina
covarianza entre la componentes xi , xj , y se va a denotar por ij , tiene una gran
importancia porque nos permite estudiar si las componentes estan relacionadas
linealmente.
Definici
on 7.4 (Matriz de Varianzas-Covarianzas) Dado un vector aleatorio x se define su matriz de varianzas-covarianzas, si existe, como:

11 . . . 1p

..
..
= E[(x ) (x )t ] = ...
.
.
p1 . . .

pp

Entre sus propiedades destacan:


Las matrices de varianzas-covarianzas son siempre matrices simetricas y
semidefinidas positivas
= E[x xt ] t
Var (at x)=at a
Var(Ax+b)= A At
Tambien se pueden definir matrices de varianzas-covarianzas entre dos vectores aleatorios definidos sobre el mismo espacio probabilstico,
Definici
on 7.5 Dado un vector aleatorio p-dimensional, x, y otro q-dimensional,
y, se define su matriz de varianzas-covarianzas, si existe, como:

x1 ,y1 . . .
x1 ,yq

..
..
..
Cov(x, y) = E[(x x ) (y y )t ] =

.
.
.
xp ,y1
Entre sus propiedades destacan:
=Cov(x,x)

...

xp ,yq

Cov(x,y)= (Cov(y,x))t
Cov(Ax,By)= A Cov(x,y) Bt
Cov(x1 +x2 ,y)= Cov(x1 ,y) + Cov(x2 ,y)
Si los vectores tienen la misma dimension
Var(x+y)=x+y = Var(x)+ Cov(x,y)+ Cov(y,x)+ Var(y)
Si x e y son dos vectores aleatorios independientes entonces Cov(x,y)= 0,
pero el recproco no tiene porque ser cierto.
Lema 7.1 (Desigualdad de Cauchy-Schwartz) Dado un vector aleatorio (X,
Y) en el que existen los momentos centrados de orden dos, se verifica que:
E 2 [X Y ] E(X 2 ) E(Y 2 )
adem
as la igualdad se alcanza si y solo si existen dos n
umeros reales y , con
al menos uno de ellos distinto de cero, tales que P [ X + Y = 0] = 1.
Definici
on 7.6 (Coeficiente de correlaci
on de Pearson) Dadas dos componentes xi , xj de un vector aleatorio x se denomina coeficiente de correlaci
on de
Pearson entre esas componentes , ij a la expresi
on:
ij
ij =
ii jj
Las propiedades mas importantes del Coeficiente de correlacion de Pearson
son:
1. 1 ij 1.
2. ij alcanza los extremos si y solo si xj es una funcion lineal de xi , o al reves.
3. Si ij =0, se dice que xi e xj son linealmente independientes, pero en general
la independencia lineal no implica la independencia estadstica.
4. Si xi e xj son independientes entonces son linealmente independientes.
Definici
on 7.7 (Matriz de correlaci
on de Pearson) Dado un vector aleatorio x se denomina matriz de correlaci
on entre sus componentes a:

10

1
..
R= .
p1

...
..
.
...

MOMENTOS

1p
..
.
1

Ejemplo 1.(Continuacion)
La correlacion de Pearson entre X e Y es:
=

Cov(X , Y )
1
=
X Y
11

por lo tanto tienen una relacion lineal muy peque


na.
Ejemplo.
Sea X una v. a. con distribucion U(-1, 1), y definimos la variable Y=X2 . Comprobar que X e Y son linealmente independientes pero no son independientes.
R1 1
E(X) = 1 x dx = 0.
2
R1
1
E(X.Y) = E(X. X2 ) = E(X3 ) = 1 x3 dx = 0.
2
Cov(X, Y) = E(X.Y) - E(X) E(Y) = 0 = 0
por lo tanto X e Y son linealmente independientes pero no independientes puesto
que Y = X2 .
Definici
on 7.8 (Funci
on generatriz de momentos) Dado un vector aleatorio x p-dimensional la funci
on generatriz de momentos,si existe, se define como:
Z
t
tt x
gx (t) = E(e ) =
et x f (x) dx
Rp

Entre las propiedades mas interesantes de la funcion generatriz de momentos


est
an las siguientes:
1. g(0)=1
2. g cuando existe caracteriza la distribucion.
3. Los vectores aleatorias x,y son independientes si y solo si la funcion generatriz de momentos conjunta es igual al producto de las funciones generatrices
de las marginales.
gx,y (t1 , t2 ) = gx (t1 ) gy (t2 ) (t1 , t2 ) entorno de 0 Rp+q
4. Si x,y son vectores aleatorios independientes entonces la funcion generatriz
de x+y verifica:
gx+y (t) = gx (t) gy (t)

11

Definici
on 7.9 (Funci
on caracterstica ) Dado un vector aleatorio x p-dimensional
la funci
on caracterstica se define como:
Z
t
t
x (t) = E(eit x ) =
eit x f (x) dx
Rp

Esta funcion existe siempre y caracteriza totalmente la distribucion del vector aleatorio x. Presenta unas propiedades analogas a la funcion generatriz de
momentos.
Relacionada con la funcion caracterstica tienen gran importancia el siguiente Teorema
Teorema 7.2 (Teorema de Cramer- Wald) La distribuci
on de un vector aleatorio p-dimansional x est
a completamente determinada por el conocimiento del
comportamiento de todas las variables unidimensionales que se puedan formar
como combinaci
on lineal de sus componentes.

Momentos Condicionados

Estos momentos juegan un papel importante en el manejo de las distribuciones multivariantes , sobre todo cuando se imponen condiciones a algunas de sus
componentes.
Definici
on 8.1 (Esperanza condicionada ) Dado un vector aleatorio x p-dimensional
del que se consideran la partici
on (x1 , x2 ) se define la esperanza del vector x1 condicionada por el valor x2 de la segunda componente como
Z
E[x1 /x2 ] =
x1 fx1 /x2 (x1 )dx1
Rp1

En general esta expresion sera una funcion del valor de x2 . Observese que se hace
un abuso de notacion cuando x1 tienen dimension mayor que 1, ya que en este caso
habra que tener un vector esperanza , cuyas componentes son las integrales de
las correspondientes componentes de x1 . Por otro lado si considero x2 un vector
aleatorio entonces la esperanza condicionada tambien sera un vector aleatorio.
Por tanto podra hablarse de su esperanza, que verifica el siguiente resultado, si
todas las esperanzas existen
E[x1 ] = E[E[x1 /x2 ]]

DE UN VECTOR ALEATORIO
9 FUNCION

12

La curva o superficie que a cada valor de x2 le hace corresponder E[x1 /x2 ]


se llama la curva o superficie general de regresion de x1 sobre x2 . En el caso de
que esta superficie sea lineal se tiene la regresion lineal.
Definici
on 8.2 (Varianza condicionada ) Dado un vector aleatorio x p-dimensional
del que se consideran la partici
on (x1 , x2 ) se define la varianza del vector x1 condicionada por el valor x2 como V [x1 /x2 ] = V1|2 como la matriz de varianzas
respecto a la distribuci
on condicionada (x1 /x2 )
En el caso bidimensional (x1 , x2 ) se verifica que
E(xi ) = E[E(xi /xj )]
V ar(xi ) = E[V ar(xi /xj )] + V ar[E(xi /xj )]

Funci
on de un vector aleatorio

En este apartado estudiaremos algunos metodos que nos permiten calcular la


distribucion de probabilidad de funciones de un vector aleatorio.
El metodo mas general consiste en obtener directamente la funcion de distribucion
del nuevo vector aleatorio. Dado y = g(x), entonces
Fy (y) = P (y y) = P [ x Rp / g(x) y]
Veamos algunos ejemplos sencillos en los que g es una funcion de R2 en R,
es decir Z es una variable aleatoria.
Ejemplo
Sea (X, Y)un vector aleatorio continuo cuya funcion de densidad vale:
(
1 si 0 < x < 1 ; 0 < y < 1
f (x , y) =
0 en el resto
Calcular la distribucion de la variable Z =
El conjunto soporte de Z es SZ = (0 , ).
P (Z z) = P (

Y
.
X

Y
z) = P (Y z X)
X

Cuando 0 < z < 1 la funcion de distribucion vale:


Z 1 Z zx
Z 1Z
F (z) =
f (x , y) dx dy =
0

zx

dx dy =

z
2

13

Cuando z > 1 la funcion de distribucion vale:


Z

1/z

zx

F (z) =

dx dy +
0

dx dy =

1/z

1
1
1
+ (1 ) = 1
2z
z
2z

Por lo tanto la funcion de distribucion es:

0
si z 0

z
si 0 < z 1
F (z) =
2

1 1
si z > 1
2z

Cuando la funcion g verifique ciertas condiciones de regularidad es posible


calcular directamente la funcion de densidad del vector aleatorio transformado.
Proposici
on 9.1 Dado un vector aleatorio continuo x con funci
on de densidad
f(x), sea z=g(x) una transformaci
on que verifica en el conjunto soporte Sx las
siguientes condiciones :
1. La funci
on g:Rp Rp es biyectiva,salvo un conjunto de Lebesgue de medida nula. es decir existen las transformaciones
zi = gi (x), i = 1, . . . p
xi = hi (z), i = 1, . . . p
2. Todas las transformaciones son continuas.
3. Existen y son continuas las derivadas parciales
x
,
z

z
x

(x)

J =
(z)
es distinto de cero en el recorrido de la transformaci
on.
Entonces se cumple que
(
fz (z) =

fx [h(z)] |J| si z Sz
0
en el resto

14

10

EJEMPLOS

Corolario 9.1 Si el conjunto soporte S se puede expresar como una uni


on finita
de conjuntos disjuntos Si i = 1 . . . n, en cada uno de los cuales la funci
on g
es biyectiva y verifica las condiciones del teorema anterior, con inversas: hSi y
Jacobianos: Ji entonces
n
X

fx [hSi (z)] |Ji | si z Sz


fz (z) =
i=1

0
en el resto
Las trasformaciones lineales y=Ax+b donde A es una matriz no singular,
es decir, det(A)6=0, son transformaciones biyectivas, su inversa es
x = A1 (y b)t
y el jacobiano de la transformacion inversa vale J=det(A1 ).
Aplicando el teorema anterior la funcion de densidad de y es:
fy (y) = fx [A1 (y-b)t ] |det(A1 )|

10

Ejemplos

Ejemplo 1.
Calcula el valor de c para que f(x, y) sea funcion de densidad.
(
c (x + y) si 0 < x < 1 ; 0 < y < 1
f (x, y) =
0
en el resto
1. La funcion f(x, y) 0.
Tomando c>0 se verifica la primera condicion.
R R
2. f (x , y) dx dy = 1.
Z

1Z 1

f (x , y) dx dy =

c (x + y)dx dy
0

Z
= c
0

1
( + y) dy = c
2

Por lo tanto el valor que buscamos es c=1.


Calcula la probabilidad de que P[ X 0,5 ; Y 0,75].
Z 0,5 Z 0,75
P [ X 0, 5 ; Y 0, 75] =
f (x , y) dy dx

15

0,5 Z 0,75

0,5

(x + y) dy dx =
0

(
0

3x
9
15
+ ) dx =
4
32
64

Calcula las distribuciones marginales de X e Y.


1. La marginal de la variable X es:

Z
1
R1
0 (x + y) dy = x + 2
f1 (x) =
f (x , y) dy =
0

2. La marginal de la variable Y es:

Z
1
R1
0 (x + y) dx = y + 2
f2 (y) =
f (x , y) dx =
0

si 0 < x < 1
en el resto

si 0 < y < 1
en el resto

Calcula las distribuciones condicionadas de (Y/X=x), (X/Y=y), E(Y/X=x)


y E(X/Y=y).
1
la funcion de densidad de (Y/X=x) sera:
2

2(x + y)
f (x, y)
si 0 < y < 1
=
fY /X (y/x) =
2x + 1

f1 (x)
0
en el resto

1. Como la marginal f1 (x) = x +

E(Y /X = x) =

y fY /X (y/x) dy =

y
0

3x + 2
2(x + y)
dy =
2x + 1
6x + 3

1
la funcion de densidad de (X/Y=y) sera:
2

2(x + y) si 0 < x < 1


f (x, y)
fX/Y (x/y) =
=
2y + 1

f2 (y)
0
en el resto

2. Como la marginal f2 (y) = y +

E(X/Y = y) =

y fX/Y (x/y) dx =

x
0

2(x + y)
3y + 2
dx =
2y + 1
6y + 3

Estudia la independencia de X e Y.
La densidad conjunta es:
(
(x + y) si 0 < x < 1 ; 0 < y < 1
f (x, y) =
0
en el resto

16

10

EJEMPLOS

y las densidades marginales son:

f1 (x) =

f2 (y) =

x+

y+

1
2
1
2

si 0 < x < 1
en el resto
si 0 < y < 1
en el resto

Entonces f (x , y) 6= f1 (x) f2 (y) y por lo tanto X e Y no son independientes.


Calcula el vector de medias y la matriz de varianzas covarianzas de (X,
Y).
1. En primer lugar vamos a obtener el vector de medias.
Z

E(X) =

x f1 (x) dx =

Z
E(Y ) =

y f2 (y) dy =

1
7
x (x + ) dx =
2
12

7
1
y (y + ) dy =
2
12

2. Para calcular la matriz de varianzas-covarianzas necesitamos obtener las


varianzas y la covarianza.
Z

E(X ) =

Z
2

x f1 (x) dx =

1
5
x2 (x + ) dx =
2
12

y la varianza de X es
V ar(X) = E(X 2 ) E 2 (X) =
Z

E(Y 2 ) =

Z
y 2 f2 (y) dx =

11
144

1
5
y 2 (y + ) dy =
2
12

y la varianza de Y es
V ar(Y ) = E(Y 2 ) E 2 (Y ) =

11
144

Para obtener la covarianza calculamos primero el momento de orden (1, 1)


Z

E(X Y ) =

1Z 1

x y f (x , y) dy dx =

x y (x + y) dy dx
0

17

x2
x
1
+ ) dx =
2
3
3

(
0

Cov(X , Y ) = E(X Y ) E(X) E(Y ) =

1
144

La matriz de varianzas-covarianzas es :
1
=
144

11 1
1 11

La correlacion de Pearson entre X e Y es:


=

Cov(X , Y )
1
=
X Y
11

por lo tanto tienen una relacion lineal muy peque


na.
Ejemplo 2.
Comprueba que f(x, y) es funcion de densidad.

3 si 0 < x 1 ; 0 < y < x


4
f (x, y) =
si 1 < x < 2 ; 0 < y < 2 x
3

0 en el resto
1. La primera condicion f(x, y)0 se comprueba de forma inmediata.
R R
2. f (x , y) dx dy = 1.
Z

1Z x

f (x , y) dx dy =

Z
=
0

2x
dx +
3

2
dy dx +
3

2 Z 2x

4
dy dx
3

4(2 x)
1
2
dx =
+
= 1
3
3
3

Calcula la probabilidad de que P[ X 1,5 ; Y 0,5].


Z

0,5 Z 1,5

P [ X 1, 5 ; Y 0, 5] =

f (x , y) dy dx

0,5 Z x

=
0

2
dy dx +
3
=

0,5

Z
0

0,5

2
dy dx +
3

Z
1

1
2
4
7
+
+
=
12
12
12
12

Calcula las distribuciones marginales de X e Y.

1,5 Z 0,5
0

4
dy dx
3

18

10

1. La marginal de la variable X es:


R
2x
x 2

dy =

Z
0 3
3
R 2x 4
4(2 x)
f1 (x) =
f (x , y) dy =

3 dy =
0

0
2. La marginal de la variable Y es:
( R
R 2y
1 2
dx + 1
3
y
f2 (y) =
0

4
3

dx = 2(1 y)

EJEMPLOS

si 0 < x 1
si 1 < x < 2
en el resto

si 0 < y < 1
en el resto

Calcular las distribuciones condicionadas de (X/Y=y) e (Y/X=x) .


1. Teniendo en cuenta la expresion de f2 (y), la densidad de (X/Y=y) es:

2/3
1

=
si 0 < x 1

2(1 y)
3(1 y)
f (x, y)
4/3
2
fX/Y (x/y) =
=
si 1 < x < 2

f2 (y)
2(1 y)
3(1 y)

0
en el resto
cuando el valor de y, que condiciona, pertenezca al intervalo (0, 1).
2. Para calcular la densidad de (Y/X=x)hemos de tener en cuenta que f1 (x),
cambia de expresion dependiendo del valor de x.
Para 0 < x 1 se tiene:

1
2/3
=
si 0 < y < 2 x
f (x, y)
2x/3
x
fY /X (y/x) =
f1 (x)
0
en el resto
Para 1 < x < 2 se tiene:

f (x, y)

1
4/3
=
4(2 x)/3
2x
fY /X (y/x) =
f1 (x)
0

si 0 < y < 2 x
en el resto

Calcula el vector de medias y la matriz de varianzas covarianzas de (X,


Y).
1. El vector de medias de (X, Y) es
Z

E(X) =

x f1 (x) dx =
Z

2x
x
dx +
3
Z

E(Y ) =

y f2 (y) dy =

x
1

4(2 x)
10
dx =
3
9

y 2 (1 y) dy =
0

1
3

19

2.

Z
E(X 2 ) =

Z
x2 f1 (x) dx =

2x
dx +
3

x2

x2

4(2 x)
25
dx =
3
18

La varianza de X es
V ar(X) = E(X 2 ) [E(X)]2 =
Z
E(Y 2 ) =

Z
y 2 f2 (y) dy =

25
162

y 2 2 (1 y) dy =

1
6

La varianza de Y es
V ar(Y ) = E(Y 2 ) [E(Y )]2 =
El momento de orden (1, 1)
Z Z
Z
E(X Y ) =
x y f (x , y) dy dx =

1Z x

Cov(X , Y ) = E(X Y ) E(X) E(Y ) =

1
18

2
x y dy dx +
3

2 Z 2x

xy
1

13
10 1
1

=
36
9
3
108

La matriz de varianzas-covarianzas es :

25
162
1
108

1
108
1
18

Ejemplo 3.
Sea (X, Y) un vector aleatorio discreto con la siguiente distribucion de probabilidad
X\Y
1
2

0
0

1
8

3
8

2
8

1
8
1
8

Calcular las distribuciones marginales de X e Y.


1. La v. a. marginal X toma los valores 1, 2 y sus probabilidades son:
P1 (X = 1) =

3
X

P (1 , y) = 0 +

y=0

P (1 X = 2) =

3
X
y=0

P (2 , y) =

3
2
1
3
+ + =
8
8
8
4

1
1
1
+ 0 +0 + =
8
8
4

4
13
dy dx =
3
36

20

10

EJEMPLOS

2. La v. a. marginal Y toma los valores 0,1,2, 3 con probabilidades:


P2 (Y = 0) =

2
X

P (x , 0) = 0 +

x=1

P2 (Y = 1) =

2
X

P (x , 1) =

3
3
+0 =
8
8

P (x , 2) =

2
2
+0 =
8
8

P (x , 3) =

1
2
1
+
=
8
8
8

x=1

P2 (Y = 2) =

2
X
x=1

P2 (Y = 3) =

2
X

1
1
=
8
8

x=1

Ejemplo 4.
Sea (X, Y) un vector aleatorio continuo cuya funcion de densidad vale:
(
2 si 0 < x y < 1
f (x , y) =
0 en el resto
Calcular las distribuciones marginales de X e Y.
1. La v. a. marginal X tiene como conjunto soporte SX =(0, 1) y su funcion
de densidad es:
( R
Z
1
si 0 < x < 1
x 2 dy = 2 2x
f1 (x) =
f (x , y) dy =
0
en el resto

2. La v. a. marginal Y tiene el mismo conjunto soporte SY =(0, 1) y su funcion


de densidad es:
( R
Z
y
si 0 < y < 1
0 2 dx = 2y
f2 (y) =
f (x , y) dx =
0
en
el resto

Calcular las distribuciones condicionadas de (Y/X=x) y (X/Y=y).


1. La funcion de densidad de (Y/X=x) sera:
fY /X (y/x) =

f (x, y)
2
1
=
=
f (x)
2y
y

si 0 < x y < 1

2. La funcion de densidad de (X/Y=y) sera:


fX/Y (x/y) =

f (x, y)
2
1
=
=
f (y)
2 2x
1x

si 0 < x y < 1

21

Ejemplo 5.
Sea (X, Y) un vector aleatorio cuya funcion de densidad es:
(
1 si 0 < x < 1 ; 0 < y < 1
f (x , y) =
0 en el resto
Estudia si la independencia de X e Y.
Calcularemos en primer lugar las distribuciones marginales de X e Y.
(
1 si 0 < x < 1
0 en el resto

f1 (x) =
(
f2 (y) =

1 si 0 < y < 1
0 en el resto

Como f (x , y) = f1 (x)f2 (y) (x , y) R2 entonces X e Y son independientes.


Ejemplo 6.
Sea (X, Y) un vector aleatorio continuo cuya funcion de densidad vale:
(
2x si 0 < x < 1 ; 0 < y < 1
f (x , y) =
0 en el resto
Calcular la distribucion de la variable (U, V)=(X+Y, X-Y).
Las funciones g y h estan definidas de la siguiente formas:
u = g1 (x, y) = x + y

v = g2 (x, y) = x y

u+v
uv
y = h2 (u, v) =
2
2
El conjunto soporte de (U, V) se calcula teniendo en cuenta el soporte de (X, Y)
y la transformacion realizada.
Como u=x+y, es evidente que 0 < u < 2; por otra parte tenemos
x = h1 (u, v) =

u+v
< 1 0 < u + v < 2 u < v < 2 u
2
uv
0 < y < 1 0 <
< 1 2 < u + v < 0 u 2 < v < 2 u
2
es decir,
0 < u < 2 ; M ax(u 2 , u) < v < min(u , 2 u)
0 < x < 1 0 <

22

10

EJEMPLOS

Si u (0, 1] = Max(u-2, -u)=-u ; min(u, 2-u)=u.


Si u (1, 2) = Max(u-2, -u)=u-2 ; min(u, 2-u)=2-u.
Por lo tanto
SU V = {(u , v) R2 / 0 < u < 1 u < v < u 1 < u < 2 u 2 < v < 2 u}
d(x , y)
1
=
d(u , v)
2
y la funcion de densidad de (U, V) se calcula a partir de la expresion
El jacobiano de la transformacion inversa vale J =

f (u , v) = f [

u+v uv
,
] |J|
2
2

es decir,

u+v

2
u+v
f (u , v) =

si 0 < u 1 ; u < v < u


si 1 < u < 2 ; u 2 < v < 2 u
en el resto

El vector aleatorio (U, V) del ejemplo anterior con U=X+Y, V=X-Y, es un


caso particular de las transformaciones del tipo
U = a11 X + a12 Y ;

V = a21 X + a22 Y

que se pueden representar en forma matricial como


(U , V )t = A (X , Y )t
.

S-ar putea să vă placă și