Sunteți pe pagina 1din 16

ndice

1. Variables aleatorias bidimensionales

2. Funcin de probabilidad conjunta


2.1. Actividades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3
4

3. Funcin de densidad conjunta

4. Funcin de distribucin acumulada

5. Distribuciones marginales

6. Distribuciones condicionales

7. Variables aleatorias independientes


7.1. Actividades propuestas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7
8

8. Funciones de dos o ms variables aleatorias

9. Esperanza matemtica y variancia para la suma de variables aleatorias

10

10.Algunos resultados importantes


10.1.Propiedad reproductiva de la distribucin de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.2.Propiedad reproductiva de la distribucin normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.3.La distribucin chi-cuadrado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

11
11
12
12

11.Teorema del lmite central


13
11.1.Problema de aplicacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
11.2.Propuesta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
12.Covariancia y coeciente de correlacin
14
12.1.Propuesta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

Acerca de esta unidad


En el estudio de las variables aleatorias hemos considerado hasta ahora, slo el caso unidimensional. En estas
condiciones, el resultado de un experimento se registra mediante un nico nmero x.
En muchas situaciones interesa observar dos o ms variables aleatorias simultneamente. Por ejemplo, podra
seleccionarse de un proceso de produccin, una lmina de acero y observarse dos caractersticas: la resistencia
al corte y los dimetros de los puntos de soldadura. Entonces, tanto la resistencia al corte como los dimetros
de las soldaduras son las variables aleatorias de inters. En este caso el resultado de cada experiencia se registra
a travs de un par ordenado de nmeros reales (x, y).
A lo largo de esta unidad nos proponemos estudiar la distribucin conjunta de dos o ms variables aleatorias, y
a partir de estas distribuciones conjuntas,
obtener las distribuciones marginales de cada variable, como as tambin las distribuciones condicionales,
proporcionar algunos resultados que permitan trabajar con problemas de la ingeniera, que involucran
situaciones en las que una variable aleatoria es funcin de dos o ms variables aleatorias.
A los nes de favorecer el logro de estos objetivos usted encontrar distintos tipos de ayuda grca. En particular, para un reconocimiento rpido de las diferentes propuestas de esta unidad, hemos adoptado las siguientes
seales:

Introduce los comentarios y los contenidos que el profesor a cargo del curso ha elaborado especialmente.
Introduce la lectura de los libros para la consulta de los contenidos de la asignatura.
Presenta las preguntas, ejercitaciones o actividades para realizar.
Es una parada de alerta. Introduce alguna recomendacin, observacin o sugerencia para el aprendizaje.

1. Variables aleatorias bidimensionales


En lo que sigue introducimos las deniciones y conceptos para describir el comportamiento simultneo de dos
o ms variables aleatorias. Sea S un espacio muestral asociado a una experiencia aleatoria; X e Y dos variables
aleatorias denidas sobre S . Al par (X , Y ) lo llamaremos variable aleatoria o vector aleatorio bidimensional.

R X Y

(X , Y )
(x, y)

Siendo x = X (s) R X el rango o recorrido de X , y = Y (s) R Y el rango o recorrido de Y .


Entonces
R X Y = (x, y) : x R X , y R Y

es el rango o recorrido del vector (X , Y ).

Veamos algunos ejemplos.


1. Se observa el nmero de repuestos que se demandan en un da en cierta ferretera y el nmero de repuestos en existencia en dicho da. Si X representa la variable aleatoria demanda diaria e Y la variable
aleatoria nmero de repuestos en existencia, y se conoce que R X = {0, 1, 2, 3} y R Y = {1, 2, 3}, entonces el
rango o recorrido del vector es:
R X Y = {(0, 1), (0, 2), (0, 3), (1, 1), (1, 2), (1, 3), (2, 1), (2, 2), (2, 3), (3, 1), (3, 2), (3, 3)} .

2. Consideremos nuevamente el caso en que se observa el dimetro


de una soldadura y la resistencia al corte de una lmina de acero. Si X representa el dimetro expresado en mm e Y la resistencia expresada en kg, y se conoce que 0 X 6 mm , mientras que
0 Y 900 kg, entonces el rango o recorrido para el vector (X , Y )
es
R X Y = (x, y) : 0 x 6, 0 y 900 .

El anlisis de estos ejemplos nos permite identicar:


En relacin al ejemplo 1 diremos que el vector (X , Y ) es un vector aleatorio bidimensional discreto. En
este caso el vector asume solamente un nmero nito de pares ordenados. (Podra tratarse tambin de
un vector que asuma un nmero innito numerable de pares ordenados).
2

En relacin al ejemplo 2 diremos que (X , Y ) es un vector aleatorio bidimensional continuo. El vector aleatorio (x, y) asume en este caso, cualquier par ordenado de valores (X , Y ) de un rectngulo. (Podra ser otra
regin del plano.)

2. Funcin de probabilidad conjunta


Para describir la distribucin de probabilidad conjunta de (X , Y ) procedemos de un modo anlogo al caso unidimensional.
Denimos:
Sea (X , Y ) un vector aleatorio bidimensional discreto y R X Y su rango o recorrido.
Entonces, la funcin
p:

R X Y
(x, y)

R
p(x, y)

se denomina funcin de probabilidad conjunta del vector (X , Y ) cuando satisface


las siguientes condiciones:
1. p(x, y) 0.
2.
(x,y)R X Y

p(x, y) = 1,

3. Si (x, y) A R X Y , entonces

(x,y)A

p(x, y) = P ((X , Y ) A) .

sta se lee: probabilidad de que el valor asuma valores en A.


En relacin con esto, consideramos conveniente observar que:
p(x, y) = P X = x, Y = y ,
x, y, p(x, y) con (x, y) R X Y se denomina distribucin de probabilidad conjunta del vector (X , Y ).
La distribucin de probabilidad conjunta de un vector aleatorio bidimensional discreto (X , Y ), suele presentarse
mediante una tabla.
Si retomamos el ejemplo ya visto, la siguiente tabla corresponde a la distribucin de probabilidad conjunta del
vector (X , Y ), donde X es la variable aleatoria nmero de repuestos que se demandan en cierta ferretera, e Y es
la variable aleatoria nmero de repuestos en existencia por da, en dicha ferretera.
X
0

0.05
0.03
0.02

1
2
3

1
0.05
0.10
0.05

0.05
0.15
0.30

0.05
0.05
0.10

La distribucin de probabilidad conjunta del vector (X , Y ) se visualiza en la siguiente grca.


p(x, y)

1
1

Si consideramos el suceso A: en un da no se satisface la demanda, entonces:


A = {(2, 1), (3, 1), (3, 2)} , y
P ((X , Y ) A) = p(2, 1) + p(3, 1) + p(3, 2) = 0.05 + 0.05 + 0.05 = 0.15.

2.1. Actividades
1. Verique que

(x,y)R X Y

p(x, y) = 1.

2. Calcule la probabilidad de que un da se pierda de vender dos repuestos (demanda insatisfecha).

3. Funcin de densidad conjunta


Sea (X , Y ) un vector aleatorio bidimensional y R X Y su recorrido. Diremos que la
funcin
R2
(x, y)

f :

R
f (x, y)

es la funcin de densidad conjunta del vector (X , Y ) cuando satisface las siguientes


condiciones
1. f (x, y) 0.
2.

R2

f (x, y) d x d y = 1,

3. Si (x, y) A R X Y , entonces

f (x, y) d x d y = P ((X , Y ) A) .

Asimismo (x, y, f (x, y)), (x, y) R X Y se denomina distribucin de probabilidad


conjunta del vector (X , Y ).
Veamos un ejemplo.
Supongamos que la funcin de densidad de probabilidad conjunta para el vector (X , Y ) , - donde X es el dimetro de la soldadura e Y la resistencia al corte -, viene dada de la forma que se expresa a continuacin:
f (x, y) =

1
5400

si 0 x < 6, 0 y < 900.

caso contrario.

La grca correspondiente es:


f (x, y)

1
5400

x (mm)
90
0

y (kg)

Entonces resulta:
P (1 X 3; 400 Y 500) =

3
1

500
400

dy
200
1
dx =
=
0.037.
5400
5400 27

Interpretemos una vez ms el signicado de una probabilidad.


El resultado hallado en el ejemplo anterior nos indica que: si observamos el dimetro de una soldadura y la resistencia al corte en cada lmina de acero de una muestra de tamao n, con n convenientemente grande, alrededor
del 3,7 % de las lminas presentan el dimetro entre 1 y 3 mm y la resistencia al corte entre 400 y 500 kg.

4. Funcin de distribucin acumulada


Al estudiar variables aleatorias unidimensionales encontramos que la funcin de distribucin acumulada F ,
juega un papel importante. En el caso bidimensional tambin podemos denir una funcin de distribucin
acumulada como se indica a continuacin:
Para el caso discreto:
F (u, v) = P (X u, Y v) =
Para el caso continuo:
F (u, v) = P (X u, Y v) =

p(x, y).
xu yv

f (x, y) d y d x.

Los conceptos introducidos para un vector aleatorio bidimensional se extienden de manera natural al caso ndimensional.

5. Distribuciones marginales
Dada p(x, y) = P X = x, Y = y la funcin de probabilidad conjunta del vector (X , Y ), se puede calcular con
facilidad:
p X (x) = P (X = x) x R x ,
p Y (y) = P Y = y

y R y .

En otras palabras, conocida la probabilidad conjunta del vector (X,Y) puede determinarse la funcin de probabilidad de X e Y respectivamente.
Si consideramos de nuevo la tabla de la distribucin conjunta del vector (X , Y ), donde X es el nmero de repuestos que se demandan diariamente en una ferretera e Y es el nmero de repuestos en existencia por da resulta,
por ejemplo, que:
p X (0) = P (X = 0) = P (X = 0, Y = 1) + P (X = 0, Y = 2) + P (X = 0, Y = 3) = p(0, 1) + p(0, 2) + p(0, 3) =
p(0, y).
yR Y

p Y (1) = P (Y = 1) = P (X = 0, Y = 1) + P (X = 1, Y = 1) + P (X = 2, Y = 1) + P (X = 3, Y = 1) = p(0, 1) + p(1, 1) +


p(2, 1) + p(3, 1) =
p(x, 1).
xR X

En general:
p Y (x) = P (X = x) =

yR Y

p X (y) = P (Y = y) =

xR X

Las distribuciones x, p X (x) con x R] X e


de X e Y respectivamente.
En forma anloga:

p(x, y),
p(x, y).

y, p Y (y) con y R]Y , se denominan distribuciones marginales

Dada f (x, y), la funcin densidad de probabilidad conjunta del vector (X , Y ), se puede determinar :
+

f X (x) =

f Y (y) =

f (x, y) d y,
f (x, y) d x.

Las funciones f X (x) y f Y (y) se denominan densidades marginales de X e Y respectivamente. Asimismo, x, f X (x) con x R] X e y, f Y (y) con y R]Y , son las distribuciones marginales de X e Y respectivamente.
Volvamos a nuestro ejemplo. Si consideramos la funcin densidad conjunta del vector (X , Y ) donde X es el
dimetro de la soldadura e Y la resistencia al corte, se obtiene que:
f X (x) =

1
dy =
5400

900
0

dy
900
1
=
= ,
5400 5400 6

para 0 x < 6.

Luego:
f X (x) =

1
6

0 x < 6,

caso contrario,

es la funcin de densidad de la variable aleatoria continua X o funcin marginal X .


Con el propsito de aanzar estos conceptos, en el espacio que sigue le proponemos como ejercicio que determine f Y (y).

A partir de lo visto surge en forma natural la siguiente pregunta:


Puede determinarse la funcin de probabilidad conjunta o la funcin de densidad conjunta de un vector (X , Y )
a partir de las distribuciones marginales?
Antes de dar respuesta a esta pregunta abordaremos brevemente el siguiente tema.

6. Distribuciones condicionales
En la Unidad II , hemos denido la probabilidad condicional de que ocurra un evento, cuando se sabe que ha
ocurrido otro evento.
El concepto de la probabilidad condicional para eventos se puede extender al concepto de distribucin condicional de una variable aleatoria X , dado que una segunda variable aleatoria Y ha asumido un valor especco,
por ejemplo, y.
Supongamos que:
X e Y son variables aleatorias discretas con distribucin de probabilidad conjunta conocida,
A es el evento X = x, en tanto
B es el evento Y = y.
Entonces
P ( A/B ) =
o sea que
P ( X =x/Y =y ) =
El cociente

P (A B )
,
P (B )

P (X = x, Y = y p(x, y)
=
.
P (Y = y)
p Y (y)
p(x, y)
p Y (y)

se conoce como la funcin de probabilidad condicional para X , dado que Y = y.


6

Este cociente es apropiado para evaluar cualquier declaracin de probabilidad en relacin a X , cuando se ha
observado que la variable Y asumi un valor y.
Continuamos con otras deniciones importantes.
A continuacin nos ocupamos tanto de las funciones de probabilidad condicional, - para el caso discreto -, como
de las funciones de densidad condicional, - para el caso continuo -.
Sea (X , Y ) un vector aleatorio con funcin de probabilidad conjunta p(x, y). La funcin de probabilidad condicional para Y , dado que X = x, se dene como:
p ( y/x ) =

p(x, y)
,
p X (x)

para p X (x) > 0.

p (x/y ) =

p(x, y)
,
p Y (y)

para p Y (y) > 0.

En forma anloga:

Otra denicin
Sea (X , Y ) un vector aleatorio con funcin de densidad conjunta f (x, y). La funcin
de densidad condicional para Y , dado que X = x, se dene como:
f ( y/x ) =

f (x, y)
,
f X (x)

para f X (x) > 0.

f (x/y ) =

f (x, y)
,
f Y (y)

para f Y (y) > 0.

En forma anloga:

Veamos algunos ejemplos de aplicacin.


Consideramos la distribucin conjunta del vector (X , Y ), donde X es la demanda de un repuesto e Y es la existencia del repuesto, entonces:
p(3, 2) = P ( X =3/Y =2) =

P (X = 3, Y = 2 p(3, 2) 0.05
=
=
= 0.15.
P (Y = 2)
p Y (2) 0.33

Esto signica: cuando hay dos repuestos en existencia alrededor del 15 % de los das no se satisface la demanda.
Si f (x, y) es la funcin densidad conjunta del vector (X , Y ) donde X e Y son respectivamente las variables aleatorias peso y altura de una persona, entonces:
80
60

f (x/1.70) d x =

80
60

f (x, 1.70)
d x,
f Y (1.70)

es la probabilidad de que el peso de una persona que mide 1.70 m se encuentre entre 60 y 80 kg. (P (60X 80/Y =1.70))

7. Variables aleatorias independientes


Recordemos de la Unidad II que las condiciones
1. P ( A/B ) = P (A),
2. P (B/A ) = P (B ),
3. P (A B ) = P (A)P (B ),
7

son equivalentes y caracterizan la independencia de los sucesos A y B .


En forma anloga puede suceder que la densidad condicional (o la funcin de probabilidad) para Y sea igual a
la densidad marginal (o funcin de probabilidad) para Y , sin importar el valor dado de X ; es decir:
f ( y/x ) = f Y (y), en el caso continuo y
p ( y/x ) = p Y (y), en el caso discreto.
Esta situacin motiva las siguientes deniciones de variables aleatorias independientes.
Para las variables aleatorias discretas decimos:
Dos variables aleatorias discretas X e Y son independientes si se verica cualquiera
de las siguientes condiciones equivalentes:
1. p(x, y) = p X (x) p Y (y),

(x, y).

2. p (x/y ) = p X (x),

(x, y) con p Y (y) > 0.

3. p ( y/x ) = p Y (y),

(x, y) con p X (x) > 0.

Del mismo modo, para las continuas decimos:


Dos variables aleatorias continuas X e Y son independientes si se verica cualquiera
de las siguientes condiciones equivalentes:
1. f (x, y) = f X (x) f Y (y),

(x, y).

2. f (x/y ) = f X (x),

(x, y) con f Y (y) > 0.

3. f ( y/x ) = f Y (y),

(x, y) con f X (x) > 0.

7.1. Actividades propuestas


1. En relacin a la distribucin conjunta del vector (X , Y ) donde X es la variable aleatoria nmero de repuestos que se demandan diariamente en cierta ferretera e Y es la variable aleatoria nmero de repuestos en
existencia, le pedimos que determine:
a) las distribuciones marginales de X e Y .

b) la probabilidad de que, habiendo un repuesto en existencia, no se satisfaga la demanda.

c) si X e Y son o no son variables aleatorias independientes.

2. Sean
g (v) =

e v
0

v 0,

caso contrario,

y h(i ) =

3e 3i
0

i 0,

caso contrario,

las densidades marginales de las variables aleatorias independientes V (voltaje) e I (corriente), respectivamente, cul es la funcin densidad conjunta del vector (V, I )?

8. Funciones de dos o ms variables aleatorias


Con frecuencia se presentan problemas en los cuales aparece una variable aleatoria en funcin de dos o ms
variables aleatorias. Veamos algunos ejemplos:
1. Cuatro resistores estn conectados en serie como se muestra en la gura. Si la resistencia del resistor i es
una variable aleatoria que notamos con R i , entonces la resistencia del ensamble es R = R 1 + R 2 + R 3 + R 4 .

R1

R3

R2

R4

2. Dos partes deben ensamblarse como se muestra en la gura. El espacio libre puede expresarse como
Y = X 1 X 2 (combinacin lineal de X 1 y X 2 con escalares 1 y 1). Un espacio libre negativo signica
interferencia.

X1

X2

3. Un sistema est formado por n componentes que funcionan independientemente. Si el tiempo transcurrido hasta la falla de la componente i es una variable aleatoria Ti , entonces el tiempo transcurrido hasta
la falla del sistema es una variable aleatoria T donde:
a) T = m x {T1 , T2 , . . . , .Tn } si las componentes estn conectadas en paralelo
a

b) T = mn {T1 , T2 , . . . , Tn } si las componentes estn conectadas en serie

Existen diferentes mtodos para encontrar la distribucin de probabilidad de una variable aleatoria, que es funcin de otras variables aleatorias. Nos limitaremos a enunciar algunos resultados tiles que nos permitirn resolver numerosos problemas de la ingeniera y abordar algunos temas de la inferencia estadstica, tales como la
estimacin puntual y por intervalos de conanza de ciertos parmetros.
En lo que sigue obtendremos la distribucin de la variable aleatoria T del ejemplo 3a, bajo el supuesto de que
las variables aleatorias T1 , T2 , . . . , Tn son independientes e idnticamente distribuidas; es decir, tienen la misma
curva de densidad, que notaremos f Ti (t ).
Si las componentes del sistema provienen de un mismo proceso de produccin es razonable suponer que las
variables aleatorias Ti estn idnticamente distribuidas.
F T (t ) = P (T t ) = P (T1 t , T2 t , . . . , Tn t ) = P (T1 t ) P (T2 t ) P (Tn t ) =

t
0

f Ti (x) d x

Derivando miembro a miembro se obtiene la funcin densidad de la variable aleatoria T :


f T (t ) = n

t
0

n1

f Ti (x) d x

f Ti (t ).

Para el ejemplo 3b conviene plantear:


P (T > t ) = P (T1 > t , T2 > t , , Tn > t ) .

9. Esperanza matemtica y variancia para la suma de variables aleatorias


Una variable aleatoria de inters es la que aparece cuando se considera una combinacin lineal de n variables
aleatorias X 1 , X 2 , . . . , X n , es decir:
Z = H (X 1 , X 2 , . . . , X n ) = a 1 X 1 + + a n X n .
Nos interesa estudiar en primer trmino la esperanza matemtica y la variancia de Z = H (X 1 , X 2 , . . . , X n ) =
a 1 X 1 + + a n X n bajo diferentes hiptesis.
Comencemos por analizar un ejemplo simple.
Sean X : nmero de piezas producidas por una mquina por la maana; Y : nmero de piezas producidas por la
misma mquina por la tarde.
La siguiente tabla corresponde a la distribucin de probabilidad conjunta del vector (X , Y )
X
1
Y

1
2

0.05
0.05

0.10
0.35

0.15
0.30

La variable aleatoria Z = X + Y es el nmero total de piezas producidas por la mquina en un da.


A partir de la distribucin conjunta del vector (X , Y ) se puede determinar la distribucin de probabilidad de la
variable Z = X + Y .
En efecto, R z = {2, 3, 4, 5} y
P (Z = 2) = P (X = 1, Y = 1) = 0.05.
P (Z = 3) = P (X = 1, Y = 2) + P (X = 2, Y = 1) = 0.15.
Del mismo modo usted puede completar las lneas de puntos

P (Z = 4) =

= 0.50.

P (Z = 5) =

= 0.30.

10

Conocida la distribucin de probabilidad de la variable aleatoria Z podemos calcular E (Z )


E (Z ) = 2P (Z = 2) + 3P (Z = 3) + 4P (Z = 4) + 5P (Z = 5) = 4.05.
Como actividad le proponemos calcular E (X ) y E (Y ) y vericar que:
E (Z ) = E (X + Y ) = E (X ) + E (Y )
Este resultado es un caso particular de la siguiente propiedad:
n

E
i =1

ai X i =

a i E (X i ) ,

(1)

i =1

cualesquiera sean las variables aleatorias X 1 , X 2 , . . . , X n y los escalares a 1 , a 2 , . . . , a n .


Le proponemos asimismo como actividcad calcular V (X ), V (Y ), V (Z ) donde Z = X +Y y vericar que V (X +Y ) =
V (X ) + V (Y ).
Si recordamos que V (X ) = E (X E (X ))2 , y aplicamos la propiedad (1), despus de desarrollar el cuadrado
obtenemos:
V (X ) = E X 2 (E (X ))2 .

(2)

La relacin (2) nos facilitar el clculo de la variancia para la suma de dos variables.
=

E (X + Y )2 (E (X + Y ))2 =

V (X + Y )

E X 2 (E (X ))2 + E Y 2 E Y 2 + 2 (E (X Y ) E (X )E (Y )) =

E X 2 + 2E (X Y ) + E Y 2 (E (X ))2 2E (X )E (Y ) (E (Y ))2 =

V (X ) + V (Y ) + 2 (E (X Y ) E (X )E (Y )) .

Si X e Y son variables aleatorias independientes, entonces (se prueba fcilmente):


E (X Y ) = E (X )E (Y ).
En este caso es: V (X + Y ) = V (X ) + V (Y ). Este resultado es un caso particular de la siguiente propiedad:
Si X 1 , X 2 , . . . , X n son n variables aleatorias independientes y a 1 , a 2 , . . . a n , n escalares, entonces:
n

V
i =1

ai X i =

i =1

2
a i V (X i ) .

Es importante detenerse a observar: si X 1 y X 2 son variables aleatorias independientes entonces:


1. V (X 1 + X 2 ) = V (X 1 X 2 ) = V (X 1) + V (X 2).
2. (X 1 + X 2 ) = (X 1 X 2 ) = V (X 1 ) + V (X 2 ) = (X 1 ) + (X 2 ) .

10. Algunos resultados importantes


10.1. Propiedad reproductiva de la distribucin de Poisson
Si X 1 , X 2 , . . . , X n son n variables aleatorias independientes y cada X i tiene una distribucin de Poisson con parmetros i , entonces la variable aleatoria :
n

X=

Xi ,
i =1

tambin tiene distribucin de Poisson de parmetro =


11

n
i =1 i .

Veamos un ejemplo.
Si la demanda diaria de repuesto en una ferretera es una X con distribucin de Poisson de parmetro . entonces la demanda semanal (6 das) es una variable aleatoria D, siendo D = 6=1 X i , con distribucin de Poisson,
i
de parmetro 6. (se supone independencia entre las demandas diarias).
Es conveniente detenerse y observar la siguiente desigualdad:
6

D=

i =1

X i = 6X i .

Por qu es as?

10.2. Propiedad reproductiva de la distribucin normal


Si X 1 , X 2 , . . . , X n son n variables aleatorias independientes y cada X i tiene una distribucin normal con E (X i ) = i y V (X i ) = 2 , entonces: Y = c 1 X 1 + c 2 X 2 + + c n X n ,
i
es una variable aleatoria normal, con: E (Y ) = c 1 1 + c 2 2 + + c n n y V (Y ) =
2
2
c 1 2 + c22 2 + + c n 2 .
n
1
2
Veamos un ejemplo.
La envoltura de plstico para un disco magntico est formada por dos hojas. Si el espesor de una hoja es una
variable aleatoria, siendo:
X N x = 1, 5 mm , 2 = 0, 01 mm2 ,
x
entonces el espesor de las dos hojas es una variable aleatoria Y , resultando:
Y = X 1 + X 2 N Y = 3 mm , 2 = 0, 02 mm2 .
Y
(X i simboliza la variable aleatoria espesor de la hoja i ). Hemos supuesto adems que las variables aleatorias X 1
y X 2 son independientes.

10.3. La distribucin chi-cuadrado


Si X 1 , X 2 , . . . , X k son k variables aleatorias independientes donde cada una tiene una distribucin N (0, 1), entonces
2
2
2
T = X1 + X2 + + Xk =

i =1

X i2

tiene una distribucin que llamaremos chi-cuadrado con k grados de libertad y notaremos T 2 .
k
Esta distribucin se aplicar para estimar la variancia de una variable aleatoria con distribucin normal.
Observemos la grca correspondiente para distintos valores de k.

12

11. Teorema del lmite central


Si X 1 , X 2 , . . . X n son n variables aleatorias independientes cualesquiera, con E (X i ) =
i y V (X i ) = 2 , entonces, bajo ciertas condiciones que son vlidas en la mayor pari
te de las aplicaciones, la variable aleatoria X = X 1 + X 2 + + X n , con n convenientemente grande, tiene una distribucin aproximadamente normal con parmetros
E (X ) = n=1 i y V (X ) = n=1 2 .
i
i
i
Es importante realizar las siguientes observaciones:
Por lo general se considera que n es convenientemente grande cuando es mayor que 30.
En muchos problemas, la variable aleatoria que se considera puede ser representada como la suma de n
variables aleatorias independientes, y por lo tanto, su distribucin puede aproximarse por la distribucin
normal. Por ejemplo: El consumo diario de electricidad en una ciudad es igual a la suma de un nmero
considerable de consumos individuales.
Las condiciones generales citadas anteriormente pueden resumirse como sigue:
Los trminos individuales en la suma contribuyen con una cantidad despreciable a la variacin de la suma
y es poco probable que cualquier trmino haga una gran contribucin a la suma.
El Teorema del Lmite Central establece que los sumandos no necesitan estar distribuidos normalmente
a n de que la suma sea aproximada a una distribucin normal.

11.1. Problema de aplicacin


Al sumar nmeros, un computador aproxima cada nmero al entero ms prximo. Supongamos que todos los
errores de aproximacin son independientes y distribuidos uniformemente en [0, 5; 0, 5]. Si se suman 1500 nmeros, cul es la probabilidad de que la magnitud del error total exceda 15?
Sea X i : error de aproximacin en el i -simo nmero y X : error en la suma de los 1500 nmeros.
1500

X=

Xi ,
i =1

E (X ) = 1500E (X i ) ,

V (X ) = 1500V (X i ) .

1
donde E (X i ) = 0 y V (X i ) = (0.5(0.5)) = 12 .
12
Por el teorema del lmite central X tiene distribucin aproximadamente normal con E (X ) = 0 y V (X ) =
Por lo tanto

P (|X | > 15)

1 P (|X | 15) =

|X 0|
1P

1500
12 .

1 (2 0.9099 1) = 1 0.8198 = 0.1802.

1500
12

15
1500
12

= 1 P (|Z | 1.34) =

11.2. Propuesta
1. El espesor de una lmina metlica en mm es una variable aleatoria,
X N X = 0.5; X = 0.05 .
El espesor de una lmina de papel aislante en mm es tambin una variable aleatoria,
Y N Y = 0.05; Y = 0.02 .
Obtenga la distribucin del espesor del ncleo de un transformador que consta de 50 capas de lminas
metlicas y 49 lminas de papel aislante.

13

2. La demanda diaria de agua por habitante en una ciudad de 10000 habitantes es una variable aleatoria X
con E (X ) = 0.4 m3 y X = 0.09 m3 . La disponibilidad de agua para el consumo almacenado diariamente
en una represa es una variable aleatoria
Y N Y = 4500m3 ; Y = 450m3 .
Calcule la probabilidad de que un da cualquiera no sea satisfecha la demanda.

3. Un supermercado tiene dos puertas de ingreso que indicamos con A y B . El nmero de clientes que entran por la puerta A en un perodo de 1 minuto es una variable aleatoria con distribucin de Poisson de
parmetro A = 2.5, y el nmero de clientes que entran por la puerta B en un perodo de 1 minuto es una
variable aleatoria independiente de la anterior, con distribucin de Poisson de parmetro B = 2. Calcule
la probabilidad de que en un perodo de 2 minutos entren por lo menos 5 clientes.

12. Covariancia y coeciente de correlacin


Cuando vemos un nio de cinco aos y decidimos que est muy alto, lo comparamos con la altura media de
otros nios de la misma edad; es decir, relacionamos dos variables, la edad y la altura. Cuando se tienen dos
variables aleatorias X e Y suele ser til describir cmo varan conjuntamente, o disponer de una medida de la
relacin que existe entre las variables. Una medida de la relacin que existe entre dos variables aleatorias es la
covariancia.
Denimos
Se llama covariancia entre dos variables aleatorias X e Y , y se nota cov (X .Y ), al nmero
cov (X , Y ) = E X X Y Y .
De la denicin surge de inmediato que:
Si X e Y son variables aleatorias discretas con funcin de probabilidad conjunta p(x, y), entonces
cov (X , Y ) =

(x,y)R X Y

x X

y Y p(x, y).

(3)

Si X e Y son variables aleatorias continuas con funcin densidad conjunta f (x, y), entonces
cov (X , Y ) =

x X

y Y f (x, y) d x d y.

(4)

Las expresiones (3) y (4) nos permiten una interpretacin rpida de la covariancia. Veamos algunas cuestiones
importantes.

14

Si los valores grandes de X estn asociados con valores grandes de Y , con una probabilidad alta, entonces la covariancia es positiva. En cambio si existe una probabilidad alta de que valores grandes de X se
encuentren asociados con valores pequeos de Y o viceversa entonces la covariancia ser negativa.
Le proponemos probar que cov (X , Y ) = E (X Y ) E (X ) E (Y ).
En el caso en que las variables aleatorias son independientes, ya hemos observado que
E (X Y ) = E (X ) E (Y ),
y por lo tanto cov (X , Y ) = 0. Sin embargo puede mostrarse mediante un ejemplo que la recproca no se
cumple.
El inconveniente que presenta la covariancia es que depende de las unidades en que vienen dadas las
variables aleatorias. Si en vez de X e Y se toman las variables aleatorias a X , bY , donde a y b son escalares,
resulta:
cov (a X , bY ) = ab cov (X , Y ).
Para evitar este inconveniente se ha recurrido al siguiente concepto.
Introducimos la siguiente denicin:
Se llama coeciente de correlacin entre dos variables aleatorias X e Y y se nota
(X , Y ), al cociente
cov (X , Y )
.
(X , Y ) =
X Y
De la denicin se deduce en forma inmediata que
(X , Y ) = E

X X Y Y

.
X
Y

es la covariancia entre dos variables estandarizadas, es decir, variables que tienen esperanza matemtica igual a
cero y variancia igual a uno.
Enunciaremos, sin demostrar, algunas propiedades del coeciente de correlacin.
1. 1 (X , Y ) 1.
2. (X , Y ) = 1 Y = AX + B , con A < 0.
3. (X , Y ) = 1 Y = AX + B , con A > 0.
Cuando el coeciente de correlacin toma el valor 1 entonces las observaciones del vector (X , Y ) se
encuentran (con probabilidad uno) sobre una recta con pendiente negativa; en cambio cuando el coeciente de correlacin toma el valor 1, entonces las observaciones del vector (X , Y ) se encuentran (con
probabilidad uno) sobre una recta con pendiente positiva.
El valor = 0 indica la ausencia de cualquier relacin lineal entre las variables, sin embargo puede existir
otro tipo de relacin.
Si existe una relacin estrecha entre dos variables, el conocimiento de una de ellas puede ayudar a predecir el comportamiento de la otra; en cambio cuando la relacin es dbil, tener informacin sobre una de
las variables no ayuda demasiado a extraer conclusiones sobre la otra.
Si se conoce la funcin de densidad conjunta f (x, y) de un vector aleatorio continuo (X , Y ), entonces, es
posible calcular el coeciente de correlacin entre X e Y . Por qu?
Si slo se tiene una muestra formada por n pares ordenados x i , y i , con i = 1, . . . , n, de observaciones del
vector (X , Y ), una medida adecuada del grado de asociacin lineal entre las variables X e Y viene dada
por el estadstico
1 n
n i =1 x i x y i y
r=
.
2
2
1 n
1 n
xi x
yi y
n i =1
n i =1
El estadstico r se denomina coeciente de correlacin de la muestra.
15

Observemos que el numerador de r es la media aritmtica de los productos de las desviaciones correspondientes de x i e y i , y sus medias muestrales. Este valor se denomina covariancia muestral entre X e Y ,
y se simboliza por S X Y . En el denominador de r aparece el producto del desvo estndar de los valores de
x i (S X ) con el desvo estndar de los valores y i (S Y ).
Con la notacin introducida, podemos escribir:
r=

SX Y
.
S X SY

Veamos las propiedades de r , las que pueden ser deducidas a partir de su denicin:
1. 1 r 1.
2. Si r = 1 ( r = 1), los puntos de la muestra estn situados sobre una lnea recta de pendiente positiva
(negativa).
3. Si r asume valores prximos a 1 1, habr una asociacin lineal fuerte entre las variables.
4. Si r es prximo a cero, entonces hay una correlacin muy dbil entre las variables. (Podr existir una
relacin no lineal)
5. r es un nmero sin dimensin, es decir, no depende de las unidades empleadas para X e Y .
Es claro que r es una medida muy til para saber el grado en que la asociacin entre las dos variables se aproxima a una relacin funcional lineal.
Por otra parte es fundamental que se comprenda que r por s mismo no puede probar ni desmentir una relacin
causal entre X e Y an cuando r = 1. La manifestacin de una relacin causa-efecto es posible slo a travs de
la comprensin de la relacin natural que existe entre X e Y , y sta no debe manifestarse slo por la existencia
de una fuerte correlacin entre X e Y .

12.1. Propuesta
Los datos que guran en la siguiente tabla fueron recopilados con el n de estudiar la relacin entre la vida til
de una herramienta y su velocidad de corte.
vida til
velocidad de corte

41
86

18
104

22
100

43
85

6
107

20
104

21
106

35
99

35
90

11
110

15
108

13
105

32
91

Le proponemos que construya un diagrama de dispersin (visto en la Unidad I) representando sobre el eje horizontal la velocidad de corte.
1. Cules son sus observaciones?

2. Calcule el coeciente de correlacin muestral.

16

S-ar putea să vă placă și