Documente Academic
Documente Profesional
Documente Cultură
ECONOMETRA
xi = x1 + x2 + x3 + + xn
i =1
i =1 j =1
i =1
m n
i =1 j =1
j =1i =1
n m
i =1 j =1
i =1
j =1
i =1 j =1
i =1 j =1
i =1 j =1
xi = x1 x2 x3 xn
i =1
Por tanto,
3
xi = x1 x2 x3
i =1
P( X = xi ), i = 1,2,, n
f (x) =
x xi
0 , para
2
1/36
3
1/18
4
1/12
5
1/9
6
5/36
7
1/6
8
5/36
9
1/9
10
1/12
11
1/18
12
1/36
4 /2 5
7 /5 0
3 /2 5
f(x)
1 /1 0
2 /2 5
3 /5 0
1 /2 5
1 /5 0
0
0
10
12
14
f ( x )dx = 1
b
a f ( x )dx = P(a x b )
P (a X b )
10
31
entre 0 y 1 es 1/27.
2
1
1
/
9
x
dx
0
1. FDP conjunta
FDP conjunta discreta. Sean X y Y dos va discretas. Entonces la funcin
P ( X = x, Y = y )
f ( x, y ) =
Xy
y Yy
0 cuando
se conoce como la FDP conjunta discreta y da la probabilidad (conjunta) de que
X tome el valor de x y Y tome el valor de y.
11
EJEMPLO 4
La siguiente tabla presenta la FDP conjunta de las va X y Y.
X
Y
-2
0,27
0
3
6
0
0,08
0,04
2
0,16
0,10
3
0
0,35
Esta tabla muestra que las probabilidad de que X tome el valor de -2 mientras
simultneamente Y toma el valor de 3 es de 0,27, y que la probabilidad de que X
tome el valor de 3 mientras Y toma el valor de 6 es 0,35 y as sucesivamente.
2. FDP marginal
En relacin con f ( x, y ), f ( x ), f ( y ) se denominan FDP individuales o marginales.
Estas FDP marginales se obtienen de la siguiente manera:
f ( x ) = f ( x, y )
f ( x ) = f ( x, y )
y
EJEMPLO 5
Considrese la informacin dada en el ejemplo 4. La FDP marginal de X se
obtiene de la siguiente manera:
f ( x = 2) = y f ( x, y ) = 0,27 + 0 = 0,27
13
X
Y
3
6
FDP MARG Y
-2
0,27
0
0,27
0
0,08
0,04
0,12
2
0,16
0,10
0,26
3
0
0,35
0,35
FDP MARG
0,51
0,49
1
3. FDP condicional
En el anlisis de regresin, el inters se centra, con frecuencia, en estudiar el
comportamiento de una variable condicional respecto a los valores de otra u
otras variables. Esto puede hacerse considerando la FDP condicional. La funcin
f ( x | y ) = P( X = x | Y = y )
se conoce como la FDP condicional de X; sta da la probabilidad de que X
tome el valor de x dado que Y ha asumido el valor de y. En forma similar,
f ( y | x ) = P (Y = y | X = x )
lo cual da la FDP condicional de Y.
Las FDP condicionales pueden obtenerse de la siguiente manera:
14
f (x | y) =
f ( x, y )
,
f ( y)
f (y | x) =
f ( x, y )
FDP(CONJ )
, FDP(COND) =
f (x)
FDP( MARG)
15
3
6
-2
0
0,53 0,16
0,00 0,08
2
0,31
0,20
3
0,00
0,71
Independencia estadstica
Dos va X y Y son estadsticamente independientes ssi
f ( x, y ) = f ( x ) f ( y )
es decir, si la FDP conjunta puede expresarse como el producto de las FDP
marginales.
EJEMPLO 7
Una bolsa contiene tres bolas numeradas 1,2 y 3. Se seleccionan de la bolsa dos
bolas al azar, con reemplazamiento. Sea X el nmero de la primera bola sacada
y Y el nmero de la segunda. La siguiente tabla muestra la FDP conjunta de X y
Y.
16
1
2
3
X
2
1/9
1/9
1/9
3
1/9
1/9
1/9
X
-2
Y
3
6
0,14
0,13
0
0,06
0,06
2
0,13
0,13
3
0,18
0,17
17
f ( x, y ) 0
f ( x, y )dxdy = 1
f ( x, y )dxdy = P(a x b, c y d )
d b
c z
EJEMPLO 8
Considrese la siguiente FDP:
f ( x, y ) = 2 x y
1
2
1 3
( 2 x y ) dx dy = 2 y
xy
dy
y
dy
0 0
0
2
2
f ( x, y ) = 1 0
0 x 1; 0 y 1
3
y2
= y =1
2 0
2
f ( x) = f ( x, y )dy
f ( y ) = f ( x, y )dx
18
EJEMPLO 9
Las dos FDP marginales de la FDP conjunta dada en el ejemplo 8 son las
siguientes:
1
f ( x ) = f ( x, y ) dy =
1
y2
3
f ( 2 x y ) dy = 2 y xy = x ; 0 x 1
2
0 2
1
f ( y ) = f ( x, y ) dx =
1
x2
3
f ( 2 x y ) dx = 2 x xy = y ; 0 y 1
2
0 2
19
EJEMPLO 11
Estmese E ( X ) y E (Y ) para la informacin dada en el ejemplo 4.
X
Y
3
6
FDP MARG Y
-2
0,27
0
0,27
0
0,08
0,04
0,12
2
0,16
0,10
0,26
3
0
0,35
0,35
FDP MARG
0,51
0,49
1
E ( X ) = sf ( x )dx
La nica diferencia entre esta caso y el valor esperado de una va discreta es que
el smbolo de sumatoria se reemplaza por el smbolo de integral.
21
EJEMPLO 12
El valor esperado de la FDP del ejemplo 3 puede obtenerse as:
E ( X ) = 0 x
3
4 3
1 x
dx = = 9 / 4 = 2,25
9 4
0
()
2
x
9
x g ( X ) f (x)
E[g ( X )] =
g ( X ) f ( x )dx
En el primer caso si X es discreta, y en el ltimo si X es continua.
22
Por ejemplo, si g ( X ) = X
[ ]
x 2 f ( X )
E X = x2
x f ( X )dx
En el primer caso, X es discreta y en el ltimo es continua.
2
EJEMPLO 13
Considrese la siguiente FDP
2 1
x
2
f (x) 5 / 8 1/ 8 2 / 8
Entonces,
y
EX
23
Varianza
Sea X una va y sea E ( X ) = . La distribucin o dispersin de los valores de X
alrededor del valor esperado puede ser medida por la varianza.
var( X ) = x = E ( X )
2
Desviacin estndar
Es la raz cuadrada positiva x , de la varianza x .
2
24
var( X ) = x = E ( X )
2
( )
= E (X ) [E ( X )]
=E X
EJEMPLO 14
Para determinar la varianza de una va (continua) dada en el ejemplo 3, se
procede as:
var ( X ) = X2 = E ( X 2 ) E ( X )
( )
EX
4
5
2
1 x
3 2 x
3x
dx = 0 dx =
= 0 x
= 243 / 45 = 27 / 5
9
9
9 5
0
25
Propiedades de la varianza
( )
1. E ( X )2 = E X
Covarianza
Sean X y Y dos va con medias, x y y , respectivamente. Entonces la
covarianza entre las dos va se define como
cov( X , Y ) = E ( X x ) Y y = E ( XY ) x y
)]
Clculo de la covarianza:
cov( X , Y ) = ( X x ) Y y f ( x, y )
y x
= XYf ( x, y ) x y
y x
si X y Y son va discretas, y:
cov( X , Y ) = ( X x ) Y y f ( x, y )dxdy
= XYf ( x, y )dxdy x y
si X y Y son va continuas.
Propiedades de la varianza
1. Si X y Y son independientes, su covarianza es cero, puesto que
cov( X , Y ) = E ( XY ) x y
= xy xy
=0
2. cov(a + bX , c + dY ) = bd cov( X , Y ) , donde a, b, c, y d son constantes
27
EJEMPLO 15
Para el clculo de la covarianza entre las va discretas X y Y cuyas FDP
conjuntas son iguales a las ejemplo 4, se procede as: del ejemplo 11, sabemos
que x = E ( X ) = 1,03 y y = E (Y ) = 4,47 .
E ( XY ) = XYf ( x, y )
y x
= 6,84
Por consiguiente,
cov( X , Y ) = E ( XY ) x y
= 6,84 (1,03)(4,47 )
= 2,24
Coeficiente de correlacin
El coeficiente de correlacin poblacional (rho) se define como:
28
cov( X , Y )
cov( X , Y )
=
; 1 1
[var( X ) var(Y )] x y
x
f (x)
2
x
2
x fx
2
0,27
4
2
0,26
4
3
0,35
9
( )= x
EX
0
0,12
0
fx = 5,27
29
EJEMPLO 16 (continuacin)
y
f ( y)
2
y
2
y f ( y)
3
0,51
6
0,49
9
(9)(0,51)
36
(6)(0,49)
( )=
EY
( )
var(Y ) = E (Y )
var( X ) = E X
2
x
2
y y f ( y ) = 22,23
2
cov( X , Y )
x y
2,24
= 0,73
(2,05)(1,50 )
30
n n
var xi = var( X i ) + 2i < j cov X i , X j
i =1 i =1
= var( X i ) + 2i < j ij i j
n
i =1
x xf ( x | Y = y )
E( X | Y = y) =
xf ( x | Y = y )dx
donde E ( X | Y = y ) significa la esperanza condicional de X dada Y=y, y donde
f ( X | Y = y ) es la FDP condicional de X. La esperanza condicional de Y,
E (Y | X = x ), est definida en forma similar.
Esperanza condicional. E ( X | Y ) es una va porque es una funcin de la variable
condicionante Y. sin embargo, E ( X | Y = y ) , donde y , un valor especfico de Y,
es una constante.
Varianza condicional. La varianza condicional de X dada Y = y est definida
como:
var( X | Y = y ) = E [ X E ( X | Y = y )] | Y = y
2
x [ X E ( X | Y = y )]2 f ( x | Y = y )
=
2
[ X E ( X | Y = y )] f ( x | Y = y )dx
32
EJEMPLO 17
Calclese E (Y | X = 2 ) y var (Y | X = 2 ) para la informacin del ejemplo 4
E (Y | X = 2 ) = y yf (Y = y | X = 2 )
= 3 f (Y = 3 | X = 2 ) + 6 f (Y = 6 | X = 2 )
= (3)(0,16 ) / (0,26 ) + (6 )(0,10 ) / (0,26 )
= 4,15385
var(Y | X = 2 ) = y [Y E (Y | X = 2 )] f (Y | X = 2 )
2
) ( )
3
33
E [ f ( X )Y + g ( X ) | X ] = f ( X )E (Y | X ) + g ( X )
E (Y ) = E x [E (Y | X )]
E ( X )3
Asimetra (A)
Cuarto momento:
E ( X )4
Curtosis (C)
r-simo momento: E ( X )r
La importancia del tercer y el cuarto momento radica en el estudio de la
forma de una distribucin de probabilidad, en particular su Asimetra, A
(es decir, su falta de simetra) y su apuntamiento o curtosis C (es decir,
que tan alta o qu tan plana es la distribucin).
[E ( X ) ] = E( X )
S=
[E ( X ) ]
3 2
Medida de Asimetra:
Medida de Curtosis:
2 3
C=
E ( X )4
[E ( X ) ]
2 2
E ( X )4
35
36
37
Distribucin normal
La ms conocida.
Se dice que una va X continua est normalmente distribuida si su FDP tiene la
siguiente forma:
1 ( x )2
1
, x
f (x ) =
exp
2
2
2
Propiedades
1. Simtrica alrededor de su valor medio.
2. Aproximadamente 68 por ciento del rea bajo la curva normal se encuentra
entre los valores de , alrededor de 95 por ciento del rea se encuentra
entre 2 , y alrededor del 99,7 por ciento del rea se encuentra entre un
3 , como se muestra en la figura.
3. La distribucin normal depende slo de dos parmetros, y .
2
38
Z=
, Z ~ N(0,1)
1
1 2
exp Z
2
2
que es la FDP de la variable normal estandarizada.
f (Z ) =
39
EJEMPLO 18
Supngase que X ~ N (8,4 ) . Cul es la probabilidad de que X tome un valor
entre X 1 = 4 y X 2 = 12 ?
X1
48
= 2
2
X 2 12 8
=
= +2
Z2 =
2
EJEMPLO 19
Cul es la probabilidad de que en el ejemplo anterior, X exceda 12?
Esta probabilidad es la misma que X exceda 2. De la tabla D.1, resulta (0,50,4772) o 0,0228.
40
Y ~ N (a1 + b 2 ), a 1 + b 2
2
)]
X ~ N ,
n
n
X
n(X )
=
~ N(0,1)
/ n
41
E ( X )3 = 0
E ( X )4 = 3
S 2 (C 3)2
JB = n +
6
24
Z = Zi
i =1
2
2
( )
43
Distribucin t de Student
Si Z1 ~ N(0,1) , y otra variable Z 2 ~ (k g.de l.) y la cov(Z1 , Z 2 ) = 0 , entonces la
variable definida como
2
44
t=
Z1
Z k
= 1
(Z 2 / k ) Z 2
Propiedades
1. Es simtrica, pero es ms plana que la normal. Pero a medida que aumenta
los g. de l., la distribucin t se aproxima a la distribucin normal.
2. La media de la distribucin t es cero y su varianza es k / (k 2 ).
45
EJEMPLO 23
Sea k1 = 20 y k 2 = 120 . El valor F crtico al 5% para estos g. de l. es 1,48. Por
consiguiente, k1F = (20)(1,48) = 29,6 . De la distribucin ji-cuadrada para 20 g. de
l., el valor crtico ji-cuadrada es alrededor de 31,41.
Como las distribuciones t, ji-cuadrada y F se aproximan a la distribucin
normal para un nmero grande de g. de l., stas se conocen como las
distribuciones relacionadas con la distribucin normal.
46
X 2
n
se dice que hay una probabilidad de aprox. 95% de que intervalos como ste
incluyan la verdadera .
* El intervalo es aleatorio porque se basa en la media muestral (la cual variar de
muestra en muestra).
En la estimacin de intervalos se llega as a construir dos estimadores 1 y 2 ,
ambos funciones de los valores muestrales de X, de tal forma que
48
caso
se
convierte
en
X 1,96
X + 1,96
n
n
49
x1!
x2 !
e x n
e n x1
=
xn !
x1! x2 ! xn !
E( ) = 0
53
55
2
= E[ E ( ) + E ( ) ]
2
2
= E[ E ( )] + E[E ( ) ] + 2E[ E ( )][E ( ) ]
= E[ E ( )] + E[E ( ) ]
2
2
= var( ) + sesgo( )
56
(Xi X )
S =
( )
1
E S 2 = 2 1
n
Consistencia
Se dice que es un estimador consistente si se aproxima al verdadero valor de
a medida que el tamao de la muestra se hace ms grande.
Formalmente, se dice que un estimador es un estimador consistente de si la
probabilidad de que el valor absoluto de la diferencia entre y sea menor que
(una pequea cantidad positiva arbitraria) y se aproxima a la unidad.
lim P < = 1; > 0
n
58
59
1 p lim1
p lim =
2 p lim2
En general, las dos ltimas propiedades no se cumplen para el operador de
esperanza E. Por lo tanto:
60
62
H0 : = *
H1 : *
X ~ N , 2 = N ;2,52
X = 67
n = 100
Supngase que
H 0 : = * = 69
H1 : 69
64
X ~ N , 2 n
65
X
~ N (0,1)
/ n
Entonces, de la tabla de distribucin normal, se sabe que
Pr ( 1,96 Z i 1,96) = 0,95
Z i=
1,96 = 0,95
Pr 1,96
/ n
X + 1,96 = 0,95
Pr X 1,96
n
n
66
= 69
2,5
X 1,96
10
66,51
2,5
X + 1,96
10
67,49
67
68
H 0 es verdadera
H 0 es falsa
Rechazar
No rechazar
Error tipo I
No hay error
No hay error
Error tipo II
La idea es maximizar los errores del tipo I y II, pero para cualquier tamao de
muestra dado, no es posible minimizar los errores de manera simultanea.
Neyman y Pearson. Suponen que es probable que un error tipo I sea ms grave
en la prctica que un error tipo II a un nivel relativamente bajo, tal como 0,01 o
0,05, y luego, tratar de minimizar al mximo la probabilidad de incurrir en un error
tipo II.
Nivel de significancia. , prob. de cometer un error tipo I.
Potencia de la prueba. 1 , prob. de no cometer un error tipo II. Es la
capacidad de una prueba para rechazar la H 0 falsa.
69
71
72