Documente Academic
Documente Profesional
Documente Cultură
Introducci
on
En la vida real es muy frecuente enfrentarnos a problemas en los que nos interesa
analizar varias caractersticas simult
aneamente, como por ejemplo la velocidad
de transmision de un mensaje y la proporcion de errores. De esta forma seremos
capaces de estudiar no solo el comportamiento de cada variable por separado,
sino las relaciones que pudieran existir entre ellas. En consecuencia el objetivo
principal de este tema es elaborar un modelo matematico que permita analizar
experimentos aleatorios en los que cada resultado experimental A tiene asociados
p valores numericos. Estos modelos seran la base para la construccion de los
modelos inferenciales necesarios en este contexto para extrapolar los resultados
de una muestra a la poblacion.
Vectores aleatorios
VECTORES ALEATORIOS
Los componentes del vector (x1 , x2 , x3 , x4 , x5 , x6 )t representan, respectivamente, la edad, peso, estatura, sexo, colesterol y trigliceridos de una persona.
Definici
on 2.2 (Probabilidad inducida.) Dado un vector aleatorio x definido sobre (E, A, P ), se denomina probabilidad inducida por el vector a la aplicaci
on
p
Px : R definida por:
Px (B) = P [x1 (B)]
p
X
F (a1 +h1 , . . . , ai1 +hi1 , ai , ai+1 +hi+1 , . . . , aj1 +hj1 , aj , aj+1 +hj+1 , . . . , ap +hp )
i,j=1,i6=j
+ . . . , +(1)p F (a1 , . . . , ap ) 0
Los vectores aleatorios se pueden clasificar teniendo en cuenta el tipo de las
variables aleatorias que lo componen.
La idea intuitiva asociada a un vector aleatorio discreto es que cada una de sus
componentes sean v. a. discretas.
Definici
on 3.1 (Vector aleatorio discreto) Sea x un vector aleatorio definido sobre (E, A, P ) y S = {a Rp /P (a) > 0}, se dice que x es discreto si se
cumple que:
1. S 6=
2. El cardinal de S es a lo sumo infinito numerable.
X
3.
P (a) = 1.
aS
4. P [x B] =
P
aBS
P (a).
con Sx = {a
Rp /a
x}.
5 DISTRIBUCIONES MARGINALES
a Rp
Distribuciones marginales
Distribuciones condicionadas
P (x1 = a, x2 b)
P (x1 = a)
x2
b
en los puntos de continuidad de la funcion de distribucion
Sin embargo cuando el vector x1 es de tipo continuo, el suceso (x1 = a) tiene
siempre una probabilidad igual a cero, y no se puede emplear el metodo anterior.
En este caso se define la funcion de densidad condicionada.
Definici
on 6.1 (Funci
on de densidad condicionada) Dado el vector aleatorio ( x1 , x2 ) la funci
on de densidad de x2 condicionada a (x1 = a), se define
como una funci
on no negativa fx2 /x1 =a , que satisface:
Z
Fx2 /x1 =a (b) =
{tRp2 /tb}
x2 Rp2
El siguiente resultado nos permite calcular la funcion de densidad condicionada en el caso de trabajar con vectores aleatorios continuos.
Proposici
on 6.1 Dado un vector aleatorio ( x1 , x2 ) cuya funci
on de densidad
es f( x1 , x2 ) se verifica que en todo punto de continuidad de f en el que fx2 (b) >0,
MOMENTOS
la funci
on de densidad de (x1 /x2 = b) existe y vale:
fx1 /x2 =b (a) =
f (a, b)
fx2 (b)
Definici
on 6.2 (Independencia de vectores aleatorios) Dado el vector aleatorio x=(x1 , x2 ) se dice que x1 y x2 son independientes cuando se verifica que:
Fx (a, b) = Fx1 (a) Fx2 (b)
(a , b) Rp
(a , b) Rp
Momentos
Los momentos respecto al origen mas importantes son los orden uno que
permiten definir el vector esperanza del vector aleatorio.
Definici
on 7.2 (Vector esperanza) Dado un vector aleatorio p-dimensional
x se denomina vector esperanza, E(x), al vector de componentes (1 , . . . , p )t
definidas por :
Z
i =
x fxi (x) dx
g(x) f (x) dx
Rp
MOMENTOS
11 . . . 1p
..
..
= E[(x ) (x )t ] = ...
.
.
p1 . . .
pp
x1 ,y1 . . .
x1 ,yq
..
..
..
Cov(x, y) = E[(x x ) (y y )t ] =
.
.
.
xp ,y1
Entre sus propiedades destacan:
=Cov(x,x)
...
xp ,yq
Cov(x,y)= (Cov(y,x))t
Cov(Ax,By)= A Cov(x,y) Bt
Cov(x1 +x2 ,y)= Cov(x1 ,y) + Cov(x2 ,y)
Si los vectores tienen la misma dimension
Var(x+y)=x+y = Var(x)+ Cov(x,y)+ Cov(y,x)+ Var(y)
Si x e y son dos vectores aleatorios independientes entonces Cov(x,y)= 0,
pero el recproco no tiene porque ser cierto.
Lema 7.1 (Desigualdad de Cauchy-Schwartz) Dado un vector aleatorio (X,
Y) en el que existen los momentos centrados de orden dos, se verifica que:
E 2 [X Y ] E(X 2 ) E(Y 2 )
adem
as la igualdad se alcanza si y solo si existen dos n
umeros reales y , con
al menos uno de ellos distinto de cero, tales que P [ X + Y = 0] = 1.
Definici
on 7.6 (Coeficiente de correlaci
on de Pearson) Dadas dos componentes xi , xj de un vector aleatorio x se denomina coeficiente de correlaci
on de
Pearson entre esas componentes , ij a la expresi
on:
ij
ij =
ii jj
Las propiedades mas importantes del Coeficiente de correlacion de Pearson
son:
1. 1 ij 1.
2. ij alcanza los extremos si y solo si xj es una funcion lineal de xi , o al reves.
3. Si ij =0, se dice que xi e xj son linealmente independientes, pero en general
la independencia lineal no implica la independencia estadstica.
4. Si xi e xj son independientes entonces son linealmente independientes.
Definici
on 7.7 (Matriz de correlaci
on de Pearson) Dado un vector aleatorio x se denomina matriz de correlaci
on entre sus componentes a:
10
1
..
R= .
p1
...
..
.
...
MOMENTOS
1p
..
.
1
Ejemplo 1.(Continuacion)
La correlacion de Pearson entre X e Y es:
=
Cov(X , Y )
1
=
X Y
11
11
Definici
on 7.9 (Funci
on caracterstica ) Dado un vector aleatorio x p-dimensional
la funci
on caracterstica se define como:
Z
t
t
x (t) = E(eit x ) =
eit x f (x) dx
Rp
Esta funcion existe siempre y caracteriza totalmente la distribucion del vector aleatorio x. Presenta unas propiedades analogas a la funcion generatriz de
momentos.
Relacionada con la funcion caracterstica tienen gran importancia el siguiente Teorema
Teorema 7.2 (Teorema de Cramer- Wald) La distribuci
on de un vector aleatorio p-dimansional x est
a completamente determinada por el conocimiento del
comportamiento de todas las variables unidimensionales que se puedan formar
como combinaci
on lineal de sus componentes.
Momentos Condicionados
Estos momentos juegan un papel importante en el manejo de las distribuciones multivariantes , sobre todo cuando se imponen condiciones a algunas de sus
componentes.
Definici
on 8.1 (Esperanza condicionada ) Dado un vector aleatorio x p-dimensional
del que se consideran la partici
on (x1 , x2 ) se define la esperanza del vector x1 condicionada por el valor x2 de la segunda componente como
Z
E[x1 /x2 ] =
x1 fx1 /x2 (x1 )dx1
Rp1
En general esta expresion sera una funcion del valor de x2 . Observese que se hace
un abuso de notacion cuando x1 tienen dimension mayor que 1, ya que en este caso
habra que tener un vector esperanza , cuyas componentes son las integrales de
las correspondientes componentes de x1 . Por otro lado si considero x2 un vector
aleatorio entonces la esperanza condicionada tambien sera un vector aleatorio.
Por tanto podra hablarse de su esperanza, que verifica el siguiente resultado, si
todas las esperanzas existen
E[x1 ] = E[E[x1 /x2 ]]
DE UN VECTOR ALEATORIO
9 FUNCION
12
Funci
on de un vector aleatorio
Y
.
X
Y
z) = P (Y z X)
X
zx
dx dy =
z
2
13
1/z
zx
F (z) =
dx dy +
0
dx dy =
1/z
1
1
1
+ (1 ) = 1
2z
z
2z
0
si z 0
z
si 0 < z 1
F (z) =
2
1 1
si z > 1
2z
z
x
(x)
J =
(z)
es distinto de cero en el recorrido de la transformaci
on.
Entonces se cumple que
(
fz (z) =
fx [h(z)] |J| si z Sz
0
en el resto
14
10
EJEMPLOS
0
en el resto
Las trasformaciones lineales y=Ax+b donde A es una matriz no singular,
es decir, det(A)6=0, son transformaciones biyectivas, su inversa es
x = A1 (y b)t
y el jacobiano de la transformacion inversa vale J=det(A1 ).
Aplicando el teorema anterior la funcion de densidad de y es:
fy (y) = fx [A1 (y-b)t ] |det(A1 )|
10
Ejemplos
Ejemplo 1.
Calcula el valor de c para que f(x, y) sea funcion de densidad.
(
c (x + y) si 0 < x < 1 ; 0 < y < 1
f (x, y) =
0
en el resto
1. La funcion f(x, y) 0.
Tomando c>0 se verifica la primera condicion.
R R
2. f (x , y) dx dy = 1.
Z
1Z 1
f (x , y) dx dy =
c (x + y)dx dy
0
Z
= c
0
1
( + y) dy = c
2
15
0,5 Z 0,75
0,5
(x + y) dy dx =
0
(
0
3x
9
15
+ ) dx =
4
32
64
Z
1
R1
0 (x + y) dy = x + 2
f1 (x) =
f (x , y) dy =
0
Z
1
R1
0 (x + y) dx = y + 2
f2 (y) =
f (x , y) dx =
0
si 0 < x < 1
en el resto
si 0 < y < 1
en el resto
2(x + y)
f (x, y)
si 0 < y < 1
=
fY /X (y/x) =
2x + 1
f1 (x)
0
en el resto
E(Y /X = x) =
y fY /X (y/x) dy =
y
0
3x + 2
2(x + y)
dy =
2x + 1
6x + 3
1
la funcion de densidad de (X/Y=y) sera:
2
f2 (y)
0
en el resto
E(X/Y = y) =
y fX/Y (x/y) dx =
x
0
2(x + y)
3y + 2
dx =
2y + 1
6y + 3
Estudia la independencia de X e Y.
La densidad conjunta es:
(
(x + y) si 0 < x < 1 ; 0 < y < 1
f (x, y) =
0
en el resto
16
10
EJEMPLOS
f1 (x) =
f2 (y) =
x+
y+
1
2
1
2
si 0 < x < 1
en el resto
si 0 < y < 1
en el resto
E(X) =
x f1 (x) dx =
Z
E(Y ) =
y f2 (y) dy =
1
7
x (x + ) dx =
2
12
7
1
y (y + ) dy =
2
12
E(X ) =
Z
2
x f1 (x) dx =
1
5
x2 (x + ) dx =
2
12
y la varianza de X es
V ar(X) = E(X 2 ) E 2 (X) =
Z
E(Y 2 ) =
Z
y 2 f2 (y) dx =
11
144
1
5
y 2 (y + ) dy =
2
12
y la varianza de Y es
V ar(Y ) = E(Y 2 ) E 2 (Y ) =
11
144
E(X Y ) =
1Z 1
x y f (x , y) dy dx =
x y (x + y) dy dx
0
17
x2
x
1
+ ) dx =
2
3
3
(
0
1
144
La matriz de varianzas-covarianzas es :
1
=
144
11 1
1 11
Cov(X , Y )
1
=
X Y
11
0 en el resto
1. La primera condicion f(x, y)0 se comprueba de forma inmediata.
R R
2. f (x , y) dx dy = 1.
Z
1Z x
f (x , y) dx dy =
Z
=
0
2x
dx +
3
2
dy dx +
3
2 Z 2x
4
dy dx
3
4(2 x)
1
2
dx =
+
= 1
3
3
3
0,5 Z 1,5
P [ X 1, 5 ; Y 0, 5] =
f (x , y) dy dx
0,5 Z x
=
0
2
dy dx +
3
=
0,5
Z
0
0,5
2
dy dx +
3
Z
1
1
2
4
7
+
+
=
12
12
12
12
1,5 Z 0,5
0
4
dy dx
3
18
10
dy =
Z
0 3
3
R 2x 4
4(2 x)
f1 (x) =
f (x , y) dy =
3 dy =
0
0
2. La marginal de la variable Y es:
( R
R 2y
1 2
dx + 1
3
y
f2 (y) =
0
4
3
dx = 2(1 y)
EJEMPLOS
si 0 < x 1
si 1 < x < 2
en el resto
si 0 < y < 1
en el resto
2/3
1
=
si 0 < x 1
2(1 y)
3(1 y)
f (x, y)
4/3
2
fX/Y (x/y) =
=
si 1 < x < 2
f2 (y)
2(1 y)
3(1 y)
0
en el resto
cuando el valor de y, que condiciona, pertenezca al intervalo (0, 1).
2. Para calcular la densidad de (Y/X=x)hemos de tener en cuenta que f1 (x),
cambia de expresion dependiendo del valor de x.
Para 0 < x 1 se tiene:
1
2/3
=
si 0 < y < 2 x
f (x, y)
2x/3
x
fY /X (y/x) =
f1 (x)
0
en el resto
Para 1 < x < 2 se tiene:
f (x, y)
1
4/3
=
4(2 x)/3
2x
fY /X (y/x) =
f1 (x)
0
si 0 < y < 2 x
en el resto
E(X) =
x f1 (x) dx =
Z
2x
x
dx +
3
Z
E(Y ) =
y f2 (y) dy =
x
1
4(2 x)
10
dx =
3
9
y 2 (1 y) dy =
0
1
3
19
2.
Z
E(X 2 ) =
Z
x2 f1 (x) dx =
2x
dx +
3
x2
x2
4(2 x)
25
dx =
3
18
La varianza de X es
V ar(X) = E(X 2 ) [E(X)]2 =
Z
E(Y 2 ) =
Z
y 2 f2 (y) dy =
25
162
y 2 2 (1 y) dy =
1
6
La varianza de Y es
V ar(Y ) = E(Y 2 ) [E(Y )]2 =
El momento de orden (1, 1)
Z Z
Z
E(X Y ) =
x y f (x , y) dy dx =
1Z x
1
18
2
x y dy dx +
3
2 Z 2x
xy
1
13
10 1
1
=
36
9
3
108
La matriz de varianzas-covarianzas es :
25
162
1
108
1
108
1
18
Ejemplo 3.
Sea (X, Y) un vector aleatorio discreto con la siguiente distribucion de probabilidad
X\Y
1
2
0
0
1
8
3
8
2
8
1
8
1
8
3
X
P (1 , y) = 0 +
y=0
P (1 X = 2) =
3
X
y=0
P (2 , y) =
3
2
1
3
+ + =
8
8
8
4
1
1
1
+ 0 +0 + =
8
8
4
4
13
dy dx =
3
36
20
10
EJEMPLOS
2
X
P (x , 0) = 0 +
x=1
P2 (Y = 1) =
2
X
P (x , 1) =
3
3
+0 =
8
8
P (x , 2) =
2
2
+0 =
8
8
P (x , 3) =
1
2
1
+
=
8
8
8
x=1
P2 (Y = 2) =
2
X
x=1
P2 (Y = 3) =
2
X
1
1
=
8
8
x=1
Ejemplo 4.
Sea (X, Y) un vector aleatorio continuo cuya funcion de densidad vale:
(
2 si 0 < x y < 1
f (x , y) =
0 en el resto
Calcular las distribuciones marginales de X e Y.
1. La v. a. marginal X tiene como conjunto soporte SX =(0, 1) y su funcion
de densidad es:
( R
Z
1
si 0 < x < 1
x 2 dy = 2 2x
f1 (x) =
f (x , y) dy =
0
en el resto
f (x, y)
2
1
=
=
f (x)
2y
y
si 0 < x y < 1
f (x, y)
2
1
=
=
f (y)
2 2x
1x
si 0 < x y < 1
21
Ejemplo 5.
Sea (X, Y) un vector aleatorio cuya funcion de densidad es:
(
1 si 0 < x < 1 ; 0 < y < 1
f (x , y) =
0 en el resto
Estudia si la independencia de X e Y.
Calcularemos en primer lugar las distribuciones marginales de X e Y.
(
1 si 0 < x < 1
0 en el resto
f1 (x) =
(
f2 (y) =
1 si 0 < y < 1
0 en el resto
v = g2 (x, y) = x y
u+v
uv
y = h2 (u, v) =
2
2
El conjunto soporte de (U, V) se calcula teniendo en cuenta el soporte de (X, Y)
y la transformacion realizada.
Como u=x+y, es evidente que 0 < u < 2; por otra parte tenemos
x = h1 (u, v) =
u+v
< 1 0 < u + v < 2 u < v < 2 u
2
uv
0 < y < 1 0 <
< 1 2 < u + v < 0 u 2 < v < 2 u
2
es decir,
0 < u < 2 ; M ax(u 2 , u) < v < min(u , 2 u)
0 < x < 1 0 <
22
10
EJEMPLOS
f (u , v) = f [
u+v uv
,
] |J|
2
2
es decir,
u+v
2
u+v
f (u , v) =
V = a21 X + a22 Y