Sunteți pe pagina 1din 91

ESTADSTICA ACTUARIAL PROF.

ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

Clase 1. Jueves 26/08/2010

Al analizar un fenmeno y en un momento t no transcurrido, nos referimos a cualquier tipo


de fenmeno, y en particular de la Economa (el precio de un activo, la tasa de inters, el
producto bruto, la demanda monetaria, etc.). Este conjunto de fenmenos tienen una
caracterstica comn: son fenmenos fcticos (pertenecen a la ciencia fctica). Para su
estudio (su explicacin) se requieren dos tipos de informacin: una informacin deductiva y
una informacin inductiva.
Podramos considerar la demanda monetaria; luego debera pensar cules son los factores que
afectan el comportamiento de la demanda monetaria. Uno de los factores ms importantes es
la tasa esperada de inflacin. Al incrementarse sta, se produce una disminucin en la
confianza de los operadores, y consecuentemente disminuye la demanda monetaria real.
Otras variables que afectan a la demanda monetaria son la tasa de inters; el nivel salarial; la
actividad de la economa, etc.
Este razonamiento deductivo conduce a los modelos econmicos. En ellos, las variables que
intervienen son variables de anlisis matemtico. Para referir dicho razonamiento deductivo a
un lugar y un perodo de tiempo determinados, inevitablemente debo agregar la observacin
emprica, que representa la informacin emprica.
Luego de averiguar la informacin inductiva, le aplicamos el razonamiento deductivo,
transformando al modelo econmico en el modelo economtrico.
Si realmente mi pretensin es explicar el comportamiento del fenmeno y, para poder hacerlo
necesito conocer todos los factores del entorno de la economa que, de alguna forma, afectan
al comportamiento de y y conocer cmo son los mecanismos causales que los vincula.
Conociendo todo esto, el fenmeno y no tendra secretos: podra obtenerse una explicacin
determinstica del fenmeno. Un fenmeno determinstico es aquel que no est afectado por
la aleatoriedad.
Ahora bien, las causas que afectan al comportamiento de cualquier fenmeno y son
innumerables. Habr causales cuantitativas, otras tantas cualitativas, e incluso habr causas
que ni siquiera conozco.
Formalicemos la hiptesis precedente. Es posible definir un conjunto infinito numerable, que
podra denominarse la estructura causal de y, que contenga a todos los fenmenos que de
alguna forma afectan al comportamiento de y:

( ) {
y( t ) = y( t ) , x1( t ) ,K }
En la propia estructura causal de y aparece el mismo fenmeno y, representando la influencia
que ejerce el pasado del fenmeno y en su comportamiento futuro. Se trata de la
autorregresividad del fenmeno y. Se dice que el fenmeno y regresa sobre s mismo, o sea
sobre su pasado; el fenmeno recuerda su comportamiento pasado, condicionando su
comportamiento futuro. Lo condiciona, no lo determina.
Existen fenmenos que no son autorregresivos; se los conoce como fenmenos AR(0), o
autorregresivos de orden cero. En ellos, el pasado no condiciona el futuro. Ejemplos:
extracciones sucesivas de un bolillero, con reposicin; las tiradas sucesivas de un dado; en la
economa, el retorno de un activo.

y( t ) : precio del activo al cierre del da "t"


r( t ) = y( t ) y( t 1) es una diferencia en trminos absolutos
y( t ) y( t 1)
r( t ) = es una diferencia en trminos relativos
y( t 1)

(
y( t ) = y( t 1) 1 + r( t ) )
1
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

Una mejor forma de calcular el retorno de un activo:


y( t )
r( t ) = ln = ln y( t ) ln y( t 1) esto le da ms estabilidad
y
( t 1)
r( t )
y( t ) = y( t 1) e tiene mayor flexibilidad porque permite momentos en el tiempo
segn una variable real, y ya no natural. Representa la capitalizacin continua.
La volatilidad de un activo est definida como la varianza de las rentabilidades futuras.

Axioma del Mercado Clsico:


Las rentabilidades son variables aleatorias independientes. Si las variables aleatorias son
independientes entre s, no existe relacin causal entre ellas. Esta hiptesis estaba
equivocada. Las variables aleatorias no eran independientes entre s, sino que simplemente
estaban incorrelacionadas. La independencia implica incorrelacin, pero la implicacin
recproca no es cierta en general. La incorrelacin en un determinado orden, no obsta la
correlacin en otro orden. Sin embargo, la independencia implica la incorrelacin en
cualquier orden. Solamente existe un caso en que la incorrelacin implica la independencia:
cuando las variables son normales. Fue aqu donde, al presuponer que las variables eran
normales, se dedujo errneamente la independencia.

r(t) representa las volatilidades de las rentabilidades; aqu aparecen autorregresividades. Lo


mismo ocurrira si tomara los valores absolutos de las rentabilidades. Se tratara entonces del
momento absoluto de las rentabilidades.

Con respecto a la estructura causal de y, debe considerarse que ningn observador finito
puede tener un conjunto de informacin infinito: nunca va a poder conocer (y(t)), lo cual
implica reconocer que el observador nunca podr explicar el comportamiento de y, que es un
fenmeno fctico. Sin embargo, cualquiera sea el fenmeno y, el observador siempre conoce
algo. Puede entonces definirse un conjunto finito numerable: el conjunto de informacin con
que cuenta el observador, que es un subconjunto de (y(t)).

( ) {
y( t ) = y( t ) , x1( t ) ,K , xk ( t ) }
Si para un observador se verifica que (y(t)) = (y(t)), podra decirse que, para ese observador,
el fenmeno y no tiene secretos, y se tratara de un fenmeno determinstico puro. En tal
caso, el observador podra conocer su infinito pasado, y predecir su infinito futuro,
descubriendo as la trayectoria del fenmeno y.
Si para algn observador (y(t)) = , en tal caso para ese observador el fenmeno es aleatorio
puro. En l, se asigna una distribucin uniforme de probabilidades, representando la situacin
de entropa mxima.
En general, en el mbito de las aplicaciones econmicas, es tan ideal el fenmeno
determinstico como el aleatorio puro. El observador siempre lograr que (y(t)) , aunque
sea utilizando consideraciones hermticas irracionales (por ejemplo, en la quiniela puedo
tener preferencia por algn nmero, asignndole una probabilidad mayor, y en funcin a ese
criterio podra apostar por l). Cualquier informacin que se considere, aparta de la
distribucin uniforme al fenmeno.
La explicacin que el observador obtendr del fenmeno y, es funcin del conjunto de
informacin con que cuenta; debiendo recordarse que no es menester que dicha informacin
sea de ndole matemtica.

( )
y( t ) = f y( t ) + ( t )

2
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

Dicha explicacin es incompleta, en tanto (y(t)) (y(t)). Esta explicacin es consecuencia


intermedia del Teorema de Wold. El comportamiento del fenmeno puede ser desagregado
en dos partes: una parte explicable para el observador, y otra no explicable. Al primer
sumando se lo denomina la componente sistemtica del fenmeno y. La segunda parte, no
explicable para el observador, contiene a todas las variables de la estructura causal que no
estn contenidas en (y(t)), es decir (y(t)) (y(t)). A estas variables se las denomina
perturbaciones del fenmeno y. Si ellas no existieran, el comportamiento de y sera
estrictamente funcional respecto de (y(t)); las perturbaciones se encargan de apartar al
comportamiento de y, de esa relacin funcional estricta. La segunda componente representa
aleatoriedad pura.
Por tratarse t de un momento no transcurrido, el fenmeno y, por ejemplo el precio de un
activo, puede referirse al precio del da de hoy, pero no del de ayer. Luego del da de hoy, el
respectivo precio pasar a formar parte del conjunto de informacin.
Dado un conjunto de informacin, existe ms de una posible funcin que puedo construir a
partir de dicho conjunto; la intencin es encontrar, de todas ellas, la funcin ptima.
Supongamos el problema de tener que estimar el precio de un activo al cierre de las
operaciones del da de hoy. En tal caso, dicho precio estar dado por el valor de la prediccin
provista por f [(y(t))], que es una cantidad constante, ms una cantidad variable cuyo valor
no puedo determinar. Dicho valor (t) es, para un t determinado, una variable aleatoria; debe
recordarse que las variables aleatorias integran una clase cerrada, es decir, que al realizar
operaciones con variables aleatorias, los resultados son variables aleatorias. Por lo tanto, la
explicacin y(t), que es la suma de un nmero y una variable aleatoria, es una variable
aleatoria; para cada valor de t no transcurrido, el fenmeno y adopta la forma de una variable
aleatoria.
Cualquier fenmeno dinmico y tiene infinitas trayectorias posibles. Existen determinados
fenmenos tales que todas sus posibles trayectorias son igualmente probables (fenmenos
aleatorios puros). A su vez, existen otros fenmenos tales que algunas trayectorias, para el
observador, tienen mayor probabilidad que otras. Idealmente hablando, existen fenmenos
tales que una trayectoria en particular reviste certeza (fenmenos determinsticos).
En la explicacin y(t), podra considerarse que f [(y(t))] hace las veces de estimador puntual
del comportamiento de y, mientras que lo nico que podr averiguar para un valor de t no
transcurrido, es un intervalo de confiabilidad, cuya amplitud respecto de la estimacin
puntual estar en funcin de (t).
La explicacin y(t), considerada como variable aleatoria, tendr la misma distribucin de
probabilidades que (t).

La variable aleatoria surge a partir de un fenmeno y de resultado eventual. Este fenmeno


puede asumir un resultado que est incluido en un conjunto de resultados.

(
y; ( y ) = { y1 , y2 ,K , yn } ; P y = y j )
El resultado de este fenmeno es una cantidad variable para el observador; se trata de una
variable en el mbito del anlisis matemtico, y como dicha cantidad variable no se puede
conocer de antemano, se trata de una variable aleatoria. Si bien no puede predecirse qu valor
tomar la variable para un determinado valor del dominio, puede sin embargo asignrsele una
probabilidad. Debe quedar claro que a los elementos no les corresponde naturalmente una
probabilidad, sino que sta es asignada por el observador. La probabilidad es una medida que
pretende cuantificar el estado de incertidumbre de una observacin con respecto a un
fenmeno.
Las variables son discretas cuando su dominio est definido por un conjunto numerable, y
continuas cuando ste est definido por un conjunto no numerable.

3
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

Una variable aleatoria puede definirse en forma estricta y en forma dbil. Queda definida en
forma estricta cuando se ha definido su dominio y su funcin de probabilidades. Al definir en
forma estricta un elemento, ste queda definido en forma nica; es decir, si dos variables
aleatorias poseen igual dominio e igual funcin de probabilidades, entonces se trata de la
misma variable aleatoria. Por su parte, la definicin dbil est basada en los momentos; un
momento es el valor esperado de una variable transformada elevada a la s-sima potencia.

{
ms ( y ) = E ( y )

s

} ( s = 0,1, 2,K)
La forma que toma esta transformacin, determina la clase a la que pertenece el momento:

Momentos naturales (o con origen cero): ms ( y ) = E ( y s )

Momentos centrados: {
s ( y ) = E y E ( y )
s
}
Momento centrado mixto: 1 2
{
( s ;s ) ( x ; y ) = E x E ( x ) y E ( y )
s1 s2
}
En particular, en este ltimo caso, si se verifica s1 = s2 = 1 queda definida la covarianza.
Se dice definicin dbil porque no se define la infinita sucesin de momentos; de ser as, la
definicin dbil se transformara en una definicin estricta por caractersticas de unicidad.
Existen variables aleatorias que no tienen infinitos momentos; por ejemplo, la variable t de
student con n grados de libertad tiene momentos finitos hasta el orden n.

Clase 2. Lunes 30/08/2010

Las variables x e y poseen un dominio, una funcin de probabilidad y una funcin de


distribucin, dadas por:
x

x; ( x ) ; f ( x ) ; F x ( x ) = P ( X < x ) = f x ( x ) dx

y

y; ( y ) ; f ( y ) ; F y ( y ) = P (Y < y ) = f y ( y ) dy

La funcin de densidad de probabilidad conjunta, est dada por:

z = f ( x ; y ) ; f x ; y ( x ; y ) = f x ( x ) f (Y = y ) x = P {[ X = x ] I [Y = y ]}

La funcin conjunta cumple la condicin de cierre:

f x; y ( x ; y ) dxdy =1
( ) ( )
( x ) ( y )
Las funciones de probabilidad marginales pueden hallarse de la siguiente manera:

f x;y ( x ; y ) dx = f y ( y)
( )
( x )

f x;y ( x ; y ) dy = f x ( x)
( )
( y )

4
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

La condicin de independencia est dada por:


f x ; y ( x; y ) = f x ( x ) f y ( y )
A su vez, se definen los momentos condicionados:
E ( yx) = y f( dy
y
)
( )
x
( y )
Se trata del valor que debiera esperarse que asuma y cuando x asume un valor particular. En
tanto que cualquier momento de una variable unidimensional est dado por un nmero, los
momentos condicionados son funciones de la variable condicionante.
La covarianza es el momento centrado mixto de primer orden:

{
( x ; y ) = E x E ( x ) y E ( y ) }
A partir de la desigualdad de Schwarz-Hlder (o Cauchy-Schwarz), se puede demostrar que:

( x ; y ) ( x ) ( y )
Esta desigualdad dio origen a otra medida del grado de relacin entre las variables:
( x; y )
( x; y ) =
( x ) ( y )
denominada coeficiente de correlacin. La covarianza es una medida absoluta del grado de
correlacin, y el coeficiente de correlacin es una medida relativa. De la desigualdad
anterior, se deduce que:

( x; y ) 1
Los momentos son medidas intrnsecas a una variable, y describen el efecto escala de esa
variable (es decir, su volatilidad, asimetra, grado de apuntamiento, etc.). Los momentos
mixtos son medidas que miden relaciones entre las variables. Para medir la relacin entre dos
variables, debe despojarse, a cada una de ellas, de sus caractersticas intrnsecas
fundamentales: la posicin y la volatilidad.
Si efectuamos observaciones, podramos representarlas en un plano de ejes cartesianos
ortogonales, que representen a ambas variables:

y posteriormente realizamos una transformacin del tipo X = x E(x), Y = y E(y),


estaramos efectuando un corrimiento hacia el origen de coordenadas. Podemos ver que,
luego de la transformacin, E(X) = 0, E(Y) = 0, y de esta forma hemos despojado a las
variables de su posicin inicial. Se trata de variables centradas.
Si, por su parte, sometemos a la variable x a la siguiente transformacin:
x E ( x)
u=
( x)

5
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

estaramos estandarizando o tipificando a la variable x, obtenindose E(u) = 0, 2(u) = 1, con


lo cual x quedara despojada de su posicin y de su dispersin (o volatilidad), eliminndose
de esta forma el efecto escala. Lo propio puede hacerse con la variable y. Resulta
conveniente realizar estas transformaciones previo a la construccin del coeficiente de
correlacin; de esta forma, el coeficiente de correlacin es la covarianza entre dos variables
estandarizadas. Por lo tanto, el coeficiente de correlacin es una mejor medida de la relacin
entre variables que la covarianza. Por su parte, desde el punto de vista de la inferencia,
existen tests para el coeficiente de correlacin, para los cuales es ms conveniente trabajar
con las variables estandarizadas.

Convergencia de las variables aleatorias (contenida en la convergencia estocstica, dado que


se trata de una convergencia bajo el operador probabilidad):
Las variables aleatorias son funciones en el dominio de los eventos. En trminos de
convergencia estocstica, lo que se garantiza no es la convergencia de la funcin, sino la
probabilidad de que la convergencia se cumpla, es decir, que la probabilidad de que la
convergencia se produzca, tiende a 1 cuando n tiende a . Estudiaremos la convergencia en
distribucin, la convergencia en probabilidad, y la convergencia en los momentos.

 Convergencia en distribucin. Supongamos una sucesin de variables aleatorias, cada una


con su funcin de densidad.
x1 , x2 ,K , xn x
f1 , f 2 ,K , f n fx
Se dice que la sucesin xn converge en distribucin a la variable x si se verifica que la
funcin de densidad de la sucesin converge a la funcin de densidad de la variable x.
Debemos considerar que a medida que se genera la sucesin de variables aleatorias, dicha
sucesin ser combinacin de variables aleatorias que, a su vez, constituyen nuevas variables
aleatorias. Cada una de esas variables aleatorias tendr su funcin de densidad. A medida que
n crezca en la sucesin, la funcin de densidad de la sucesin ir tomando una forma cada
vez ms parecida a la funcin de densidad de la variable x.
lim f n = f x xn
d
x
n
El caso tpico de convergencia en distribucin, es el Teorema Central del Lmite. El primer
teorema central del lmite (De Moivre), determina que la variable binomial, al crecer n
indefinidamente, converge a una distribucin normal.
x; ( x ) = {0,1} xn
d
N ( np; npq )
El segundo teorema central del lmite (Laplace) establece que la combinacin de n variables
independientes e idnticamente distribuidas, con varianzas acotadas, al crecer n
indefinidamente, converge a una distribucin normal.
xn E ( xn ) 1
x; iid ; (2x ) < ; un = un
d
N ( 0;1)
(x )
n
n
En el modelo de regresin, para cada valor de t no transcurrido, t puede considerarse como
el efecto que causan sobre y las infinitas variables que afectan al modelo, con excepcin de x:
yt = a0 + a1 xt + t
Es decir, se trata de una combinacin de infinitas variables aleatorias. Basta suponer que cada
una de dichas variables tiene varianza finita, y que las variables son independientes entre s,
para concluir que t ~ N (0; 2).

6
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

A partir de las condiciones de Feller-Lindenberg se fijaron las mnimas condiciones


necesarias y suficientes para garantizar la convergencia a la distribucin normal: la
independencia de las variables, y la finitud de las varianzas. Si las variables no tienen
varianzas finitas, dejan de converger a la normal, y convergen a una familia de variables, de
las cuales la normal es un caso particular: las variables estables.
 Convergencia en probabilidad. Supongamos una sucesin de variables aleatorias.
x1 , x2 ,K , xn x
Se dice que la sucesin xn converge en probabilidad a la variable x si se verifica que:
lim P ( xn x ) = 1
n
donde la expresin | xn x | es una proposicin: que la diferencia entre las variables xn y
x sea menor que un infinitsimo arbitrariamente pequeo. Se pretende, por tanto, que a
medida que n crece indefinidamente, la probabilidad de que dicha proposicin se verifique
converja a la certeza. Resulta evidente que se trata de una convergencia a partir del operador
probabilidad. En definitiva:
lim P ( xn x ) = 1 xn
P
x
n
Esta proposicin es cierta cuando n tiende a infinito; cuando n es finito, no importa lo grande
que sea, existe una probabilidad no nula de que dicha proposicin no se cumpla.
Otra forma equivalente de expresar la convergencia es la siguiente:
p lim ( xn = x ) = 1 xn
P
x
La segunda familia de teoremas en el lmite que parten de la distribucin binomial, es la Ley
de los Grandes Nmeros. Aqu ya no se estudia el comportamiento de la variable absoluta x,
sino el de la variable relativa fn = x/n, donde x representa el nmero de xitos obtenidos en n
observaciones independientes; consideremos que p = x/n, dado que x es el nmero de xitos a
obtener en n observaciones independientes con probabilidad p. De modo que se obtiene la
Primera Ley de los Grandes Nmeros, que es el primer teorema de convergencia de
probabilidad:
lim P ( f n p ) = 1
n
El basamento de este teorema es que se supona que cualquier evento tena un verdadero
valor de probabilidad, desconocido; y que dicho valor poda aproximarse a partir de la
frecuencia relativa. Se vincula, de esta manera, un valor absolutamente terico y
desconocido, con uno proveniente del mundo real. Representa que la probabilidad de que
ambos valores coincidan, converge a la unidad a medida que n crece indefinidamente.
La convergencia en probabilidad es muy parecida a la propiedad de consistencia:
( ) (
p lim = = lim P = 1
n
)
 Convergencia en los momentos. Supongamos una sucesin de variables aleatorias.
x1 , x2 ,K , xn x
Existe una condicin necesaria y suficiente para garantizar que la variable x tiene momentos
naturales de orden s:

( )<
E xn
s
( s = 1, 2,K)
Los momentos absolutos son momentos calculados sobre el valor absoluto de la variable:

( )=
E xn
s
x
( )
( x )
f x dx

7
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

La sucesin xn converge en los momentos a x si se verifica que:

(
lim E xn x
n
s
)=0
Y en tal caso, se dice que xn converge en Ls a x. En particular, si s = 2, xn converge en
varianzas a x.
Por su parte, se verifica que la convergencia en los momentos implica la convergencia en
probabilidad, y sta la convergencia en distribucin.

ms

P

d

Clase 3. Mircoles 01/09/2010 (Prctica)

La tcnica de Mnimos Cuadrados Clsicos consiste en minimizar la suma de los residuos al


cuadrado (SRC). Estos residuos cuadrados representan el sesgo (error de estimacin).
n n
min SRC = min u i = min ( yi y i )
2 2

i =1 i =1
Supuestos de Gauss-Markov:
Linealidad en los parmetros j, y en el error u. Ejemplos:
ln y = 0 + 1 x1 + ui es lineal en los parmetros y en el error.
y = ln (0) + ln (1) x1 + ui no es lineal en los parmetros.
Exogeneidad: E(u) = 0. Si no se cumple, se viola la consistencia.
Homocedasticidad: V(u) = 2(u). Si no se cumple, se viola la eficiencia de la estimacin.
No autocorrelacin: E(uiuj) = 0, i j. Si no se cumple, se viola la eficiencia. Se refiere a
la correlacin de los residuos respecto de s mismos.
Considerando que Cov(uiuj) = E(uiuj) E(ui) E(uj), y dado el supuesto de exogeneidad, segn
el cual se supone que E(ui) = 0 y E(uj) = 0, se llega a que Cov(uiuj) = E(uiuj). Como el
supuesto de no autocorrelacin pide que E(uiuj) = 0, al conjugarse con el de exogeneidad est
pidiendo que Cov(uiuj) = 0.
Normalidad de los residuos: u ~ N (0; 2u). No es estrictamente necesario para garantizar
la consistencia, sino que se pide para efectuar inferencia estadstica.

Clase 4. Jueves 02/09/2010

Asociadas e intrnsecas a una variable aleatoria, existen una funcin de densidad, una funcin
de distribucin, una funcin de supervivencia, a las cuales se denomina funciones
caractersticas; son una transformacin pura de la funcin de densidad. Se denotan:

H x (w) = h( x ;w )
f x ( x ) dx = h( x ;w )
dF x ( x ) = E h( x ;w )

( )
( x ) ( )
( x )
donde w es una variable real, que no tiene ningn tipo de interpretacin; es una variable
auxiliar. Segn la forma que tome la funcin h(x;w), quedar definida una transformacin
particular (o sea, una funcin caracterstica particular). Si la funcin toma la forma:
h( x ;w ) = e iwx
entonces queda definida una transformacin de Fourier sobre la funcin de densidad:
C x (w) = e f x ( x ) dx = E e iwx
iwx

( )
( x )

8
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

que se denomina la funcin caracterstica de la variable x. Toda variable tiene una funcin
caracterstica, dado que la integral es siempre convergente; dicha funcin tiene ciertas
propiedades:


C x ( 0) = f ( )dx = 1
x x
( )
( x )

C ax + b ( w ) = E e ( ) = E e ( ) e iwb = e iwb C x ( aw )
iw ax + b i aw x

 Sean x, y dos variables aleatorias independientes (es decir, x y), cada una con su propia
funcin caracterstica:

z = x + y; C z ( w ) = E e ( ) = E e iwx E e iwy = C x ( w ) C y ( w )
iw x + y

 Sea x1, x2,, xn una sucesin de variables aleatorias, y sea x una variable aleatoria. Sean
C1, C2,, Cn las funciones caractersticas de la sucesin, y Cx la funcin caracterstica de
x, se verifica que si xn converge en distribucin a la variable x, entonces se puede
asegurar que la funcin caracterstica de la sucesin converge a la funcin caracterstica
de la variable x; y viceversa, dado que la implicacin se da en ambos sentidos:
xn
d
x C n
Cx

Existe una versin de h(x;w) planteada en el dominio de los nmeros reales:


h( x ;w ) = e wx
quedando definida como una transformacin de Laplace sobre la funcin de densidad:
M x ( w) = e
wx
f x ( x ) dx
( )
( x )
que se denomina la funcin generatriz de momentos. Su ventaja radica en la disminucin de
la dificultad, al integrar en el dominio de los reales, y ya no en el de los complejos en
general. Su inconveniente es que no todas la variables aleatorias tienen funcin generatriz de
momentos. Si se garantiza que existe un w tal que la funcin integrante es convergente (es
decir |w|1), entonces puede asegurarse que la variable tiene funcin generatriz de momentos.
Por su parte, que la variable tenga funcin generatriz de momentos es condicin suficiente
para garantizar que la variable tiene una sucesin infinita de momentos, lo cual implica que
todos los momentos de la variable son finitos. En este caso, la definicin dbil queda
convertida en una definicin estricta. Si la variable es acotada, existe la funcin generatriz.
La recproca de la implicacin anterior es falsa en general: puede ser que una variable tenga
una sucesin infinita de momentos, y sin embargo no tenga funcin generatriz de momentos.
Propiedades:
 Sea x1, x2,, xn una sucesin de variables aleatorias, independientes entre s (es decir que
i j => xi xj), y sean M1, M2,, Mn las funciones generatrices de momentos de la
sucesin (considerando que todas las variables deben tener FGM); se verifica que:
M x ( w ) = M (w)
i i
i

9
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

wx w 2 x 2 w 3 x 3
 M x ( w ) = E e = E 1 +
wx
+ + + K =
1! 2! 3!
w w2 w3
= 1 + E [ x ] + E x 2
+ E x
3
+K =
1! 2! 3!

w w2 w3 wj
= 1 + m( x ) + m2 ( x ) + m3 ( x ) + K = m j ( x ) <
1! 2! 3! j =0 j !
La funcin generatriz de momentos existir, en tanto pueda asegurarse que para un entorno
del origen de w la sucesin sea convergente.

d w w2
 M x ( w ) = M x ( w ) = m( x ) + m2( x ) + m3 ( x ) +K
dw 1! 2!
M x ( 0) = m( x )
M x ( w ) = m2( x ) + w m3( x ) + K
M x ( 0) = m2 ( x )

M x( ) ( 0 ) = m s ( x )
s
( s = 1, 2,K)
 Supongamos una sucesin de variables aleatorias, con sus respectivas funciones
generatrices de momentos, y la variable x con su respectiva FGM.
x1 , x2 ,K , xn x
M 1 , M 2 ,K , M n Mx
Se puede asegurar que si la sucesin xn converge en distribucin a la variable x, entonces la
FGM de la sucesin converge a la FGM de la variable x, y viceversa:
xn
d
x M n
ms
Mx
Estas propiedades permiten una demostracin distinta del Teorema Central del Lmite. Sea
x1, x2,, xn una sucesin de variables aleatorias independientes e idnticamente distribuidas,
cada una de ellas con FGM, basta construir la FGM de la sucesin, y demostrar que dicha
FGM converge a la de la variable (por ejemplo, la FGM de la variable normal), para que
quede garantizada la convergencia en distribucin.

Supongamos una variable Binomial:

n
n
x : b ( n; p ) ; M x ( w ) = E e = e wx p x q n x
wx

x
x=0

M x ( w ) = ( pe w ) q n x = ( q + pe w ) = f ( w )
n x n

x
x
El hecho de que la FGM sea funcin exclusivamente de w, es una pauta para saber que
hemos obtenido una FGM.
10
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

M x ( w ) = n ( q + pe w )
n 1
pe w
M x ( 0 ) = np = E [ x ] = m( x )

M x ( w ) = n ( n 1) ( q + pe w ) ( pe w ) + n ( q + pe w )
n 2 2 n 1
pe w
M x ( 0 ) = n ( n 1) p 2 + np = m2( x )

Supongamos una variable Poisson:



x
x : P ( ) ; M x ( w ) = E e = e wx wx
e
x=0 x!
(e )
x
w
(
e w 1 )= f
M x ( w) = e
x x!
=e e ew
=e (w)

Supongamos una variable Normal Estandarizada:



1 2u2
u : N ( 0;1) ; M u ( w ) = E e = uw
e
uw
e du
2

1 u2
+ uw 1 ( u 2 uw ) du
1 2

M u (w) =
2 e

2
du =
2
e 2


1 ( u 2 uw + w
1 2 2
w2 ) du = 1 w2 1
2 ( u w )2
M u (w) =
2
e 2

2
e 2
du
w2 w2

y2
e 12 ( u w )
2 2
e 2
2

M u (w) = e
2
du = e dy
2
utilizando la sustitucin: y = u w , dy = du

y2 w2

Ahora bien, e 2
dy = 2 , de modo que: M u ( w ) = e 2


Sea x una variable discreta:
x; ( x ) N 0 ; P ( x = j ) = Pj
es posible definir una transformacin, que define la funcin generatriz de probabilidades:

G x ( w ) = w j Pj
j=0

FGPx = E w x

11
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

Si la sumatoria converge, entonces existe la FGP. De hecho, basta demostrar que la sucesin
{aj} es acotada para garantizar que siempre habr un valor de |w|1 para el cual la siguiente
sucesin converge:

w a
j
j
j

Ahora bien, en el caso de Gx(w), la sucesin {aj} es {Pj}, y sus elementos son probabilidades,
que por supuesto, son acotadas. Luego, la sumatoria converge absolutamente y, por lo tanto,
existe la FGP. Las variables continuas no tienen FGP.
Propiedades:
x; ( x ) = {0,1, 2,K} ; P ( x = i ) = f i ; G x ( u) = u i f i
i

y; ( y ) = {0,1, 2,K} ; P ( y = j ) = g j ; G y ( w ) = w j g j
j

x y
Supongamos adems que z vincula el comportamiento de x y de y:
z = x + y; ( z ) = {0,1, 2,K} ; P ( z = k ) = P ( x + y = k ) = hk

{
hk = P ( x = 0 ) I ( y = k ) U ( x = 1) I ( y = k 1) U K U ( x = k ) I ( y = 0 ) }
donde todos los pares (x,kx) representan eventos incompatibles, de modo que:
hk = f 0 gk + f1 gk 1 + K + f k g0 = { f i } g j { }
Cuando una expresin con probabilidades posee las caractersticas de la funcin h(k), se la
conoce como convolucin.
G x ( w ) G y ( u ) = ( f 0 + f1 w + f 2 w 2 + K) ( g0 + g1 w + g2 w 2 + K)
G x ( w ) G y ( u ) = f 0 g0 + ( f 0 g1 + f1 g0 ) w + ( f 0 g2 + f1 g1 + f 2 g0 ) w 2 + K
k = 0 h0 = f 0 g0
k = 1 h1 = f 0 g1 + f1 g0
k = 2 h2 = f 0 g2 + f1 g1 + f 2 g0

G x ( w ) G y ( u ) = h0 + h1 w + h2 w + K = w hk = w k Pk = G z ( w )
2 k

k =0 k =0
Es decir, la FGP de una convolucin {fi}{gj} es el producto de las FGP de las variables.
En particular, se cumple que:

{ fi } { fi } = { fi }
2

12
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

Por su parte, si derivamos la FGP:


G x ( w ) = jw j 1 f j ; G x (1) = j f j = E [ x ] = m( x )
j j

G x ( w ) = j ( j 1) w j2
f j ; G x (1) = j ( j 1) f j = m[ 2]( x )
j j
M
G x( ) (1) = j ( j 1)K j ( s 1) f j = m[ s ]( x )
s

j
obtenemos los sucesivos momentos factoriales. Adems, se verifican relaciones entre los
momentos factoriales de orden s y los momentos naturales de orden menor o igual que s. Por
ejemplo:
m[ 2]( x ) = j 2 f j j f j = m2 ( x ) m( x )
j j

Supongamos una variable Binomial:


n
n
x : b ( n; p ) ; G x ( w ) = E w = w x p x q n x
x

x x=0
n
G x ( w ) = ( wp ) q n x = ( q + pw )
x n

x
x

Supongamos una variable Poisson:



x
x : P ( ) ; G x ( w ) = E w = w x
e x

x=0 x!
( w ) = e e w = e ( w 1)
x

M x (w) = e
x x!
Clase 5. Lunes 06/09/2010

( ) {
y( t ) = y( t j ) , x1( t h ) , K , xk ( t h )
1 k
} ( j; h1 ;K; hk 0; R )
Las perturbaciones t, para cada valor de t no transcurrido, constituyen variables aleatorias.
Luego, y(t) es una variable aleatoria. Si se observa dicho fenmeno desde el pasado hacia el
futuro, tiene el aspecto de una sucesin de variables aleatorias ordenadas en el tiempo, como
todo fenmeno dinmico. A esta sucesin de variables aleatorias se denomina proceso
estocstico. Dado un fenmeno determinado, nuestra pretensin es aproximarnos en la mayor
medida de lo posible al proceso estocstico que genera su comportamiento.
Para cada valor de t, observamos que yt es una variable aleatoria, y por lo tanto el proceso es
una sucesin de variables aleatorias. Los valores que adoptar yt para los sucesivos valores
de t, representa la trayectoria del proceso, y debe considerarse que, para el observador,
existen infinitas trayectorias posibles. Si el fenmeno es aleatorio puro, tendr infinitas
trayectorias posibles, y para el observador stas son equiprobables (por ejemplo, la quiniela,

13
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

mientras que para la demanda monetaria sus infinitas trayectorias posibles no son
equiprobables).
Supongamos ahora que el tiempo ha transcurrido, y el proceso ha adoptado una trayectoria
determinada. El inters radica en explicar por qu adopt la trayectoria que adopt; este
problema es irresoluble.
Las explicaciones de un proceso dinmico pueden clasificarse en dos grandes grupos: las
estticas y las dinmicas. Las explicaciones estticas se caracterizan porque se basan en
conjuntos de observaciones obtenidas en igualdad de condiciones; representa tomar una
fotografa del fenmeno. Como dichas observaciones se realizan en un mismo momento en el
tiempo, las condiciones econmicas de contorno que afectan al comportamiento de ese
fenmeno estn fijas, y por lo tanto todas las observaciones pueden considerarse realizadas
en igualdad de condiciones. Las explicaciones dinmicas buscan hacer variar t y analizar
cmo evoluciona el comportamiento de y cuando t vara. La caracterstica de las
explicaciones dinmicas es que se basan en conjunto de observaciones obtenidas en
condiciones diferentes, dado que las observaciones son obtenidas en momentos distintos,
cada uno con sus propias condiciones econmicas de contorno; luego, las condiciones en que
se obtienen las observaciones son diferentes. De las infinitas condiciones que afectan a y,
alguna puede haber cambiado; no puedo asegurar que todas permanezcan iguales.

Primer tipo de explicacin esttica: supongamos que el conjunto de informacin sea


deductivamente vaco. No se trata de un conjunto vaco, sino de un conjunto que no incluye a
las variables xt, que puede suponerse que estn relacionadas. Recordemos que considerar a
las variables xt es una cuestin puramente deductiva; luego, no considerarlas implica
reconocer que se trata de un conjunto deductivamente vaco. No es vaco, puesto que la
explicacin de y se va a basar exclusivamente en observaciones realizadas sobre el fenmeno
y, y dichas observaciones se realizan todas, idealmente, en el mismo momento t. Como ello
es prcticamente imposible, entonces se supone que son obtenidas en un intervalo de tiempo
lo suficientemente corto como para poder considerar que las condiciones relevantes no han
variado.
Supongamos que se pretende analizar el consumo per cpita de una poblacin: las personas
que estn en relacin de dependencia en la Capital Federal el da de hoy, de manera que
queda as fijado el momento en el tiempo. Cada uno de los individuos de esta poblacin est
denotado por los sucesivos yi. Antes de realizar cualquier tipo de observacin, para el
observador, el consumo per cpita de cada individuo de esta poblacin representa una
variable aleatoria observable. Las observaciones, que son las realizaciones de dichas
variables aleatorias, deben obtenerse en igualdad de condiciones. Para que dichas
observaciones puedan ser consideradas en igualdad de condiciones, inevitablemente las
variables aleatorias deben ser independientes entre s, es decir que i j => xi xj. La
probabilidad de que una variable asuma una realizacin determinada est dada por una
funcin de probabilidades, ya sea conocida o no. Dos variables aleatorias sern
independientes entre s cuando la probabilidad de que la primera asuma una realizacin
determinada est regida por la misma distribucin de probabilidades que la otra variable; o
por lo menos, que su distribucin de probabilidades no est afectada por la realizacin
anterior. Si las variables no fueran independientes, en el momento en que pretenda obtenerse
la segunda observacin, la correspondiente realizacin estar afectada por las condiciones de
contorno de la primera observacin, y por la realizacin de dicha primera observacin;
consecuentemente, no habrn sido obtenidas en igualdad de condiciones. La independencia
de las variables aleatorias es la base de la inferencia; si no se cumple la independencia, la
inferencia no funciona.
De las variables aleatorias observables de la poblacin, el observador toma un conjunto
finito, que define la muestra (y1,y2,,yn); la muestra provee de observaciones que sern
procesadas; a tal efecto, el observador selecciona una funcin adecuada, que proporciona el

14
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

estimador muestral del verdadero valor del parmetro . El valor puntual de es


desconocido, y se pretende reemplazarlo por el valor puntual de la estimacin;
denominaremos entonces a este valor la estimacin puntual .

El valor de es un parmetro, y el estimador es una variable aleatoria, que tendr un


valor esperado, una varianza y una distribucin de probabilidad (eventualmente podr no
tener una distribucin exacta, y demostrarse que su distribucin de probabilidad converge a
la de una variable aleatoria determinada; o bien no tener distribucin de probabilidad). Las
propiedades del estimador estn ntimamente ligadas a su valor esperado y a su varianza.
Dichas propiedades son herramientas para otorgar un mayor o menor mrito a los distintos
estimadores.
Veamos que: = + , donde es una variable aleatoria no observable, que representa la
influencia que ejercen sobre todos los individuos de la poblacin que no han sido incluidos
en la muestra. Dicha variable representa aleatoriedad pura, y por lo tanto debe tener una
distribucin simtrica alrededor del cero. Luego, E() = 0. Si aplicamos el operador
esperanza a = + , obtenemos: E [ ] = E [ ] + E [ ] , o sea: = E [ ] , con lo cual el
estimador es insesgado.
La estimacin puntual conlleva un inconveniente: no toma en cuenta el error probable de la
variable. Ante la pregunta cul es el valor de ?, podra sustituirlo por el valor de , dado
que dicho valor sera el probable. Se produce entonces la inversin de la probabilidad.
No tener en cuenta el segundo miembro de la ecuacin acarrea complicaciones. Supongamos
que se har una estimacin puntual, y que dicho estimador puntual va a coincidir
exactamente con el verdadero valor del parmetro. A la anterior proposicin se le asigna
probabilidad nula: es la probabilidad de que una variable aleatoria continua asuma un valor
igual a un punto en su dominio.
La estimacin por intervalos construye un intervalo para asegurar que el verdadero valor del
parmetro est contenido en dicho intervalo, con un determinado grado de confiabilidad:

(
P a + a = 1 )
donde el valor de a est dado por un valor que proporciona la distribucin de probabilidades
del estimador, multiplicado por el desvo estndar de la estimacin. a = f( ) ( ) .
La clave en el problema de la estimacin por intervalos, es definir la distribucin de
probabilidad.
De esta manera, queda resuelto el problema de la explicacin esttica de un proceso
dinmico: el valor de y(t) para un t no transcurrido, no lo puedo obtener; sin embargo, dicho
valor queda contenido en un intervalo, en las condiciones ya descriptas.

Segundo tipo de explicacin esttica: el conjunto (y(t)) no es deductivamente vaco.

( ) { }
y( t ) = x( t )
Donde x(t) es una variable (o vector de variables) que explica las observaciones. El conjunto
no es deductivamente vaco, sino que queda supuesto que existe alguna variable del entorno
de la economa que puede contribuir a la explicacin de otra. Se supone que esa variable se
tiene en observacin. A esta variable (o al vector de variables) se lo denomina variable
explicativa, o regresor.
La variable y es la variable a explicar. Los (t) representan la influencia que ejercen sobre y
todas las variables del entorno de la economa que no son x.
Se produce una dualidad: suponemos que los fenmenos que integran la explicacin son
conceptualmente continuos, pero la informacin de que se dispone est basada en
15
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

observaciones, que son inevitablemente discretas, dado que estn referidas a distintos
momentos del tiempo, siempre sobre la base de la de discreticidad. Adoptamos el siguiente
cambio de notacin: yt = f(xt) + t
Se consigue entonces una aproximacin discreta al carcter continuo de y.
Por ejemplo, podramos explicar el consumo a partir del ingreso; pero no depende
nicamente del ingreso, sino que existen otras variables que lo afectan.
En este tipo de explicaciones, el observador decide qu valor toma la variable explicativa xt,
y por lo tanto no es una variable aleatoria. A estas explicaciones se las conoce como
representaciones con regresores no estocsticos.
A la hora de estudiar el sistema, compuesto de dos fenmenos, puede ser que una de las
variables sea exgena y la otra endgena. Las variables predeterminadas son un caso especial
de las variables exgenas, es decir de aquellas que asumen valores por cuestiones ajenas al
modelo. Por lo tanto, las modificaciones en dichas variables afectan a las endgenas, pero no
a la inversa.
Si las dos variables fueran endgenas, las modificaciones en una de ellas afectaran a la otra,
y stas retroalimentaran el comportamiento de la primera. Se trata de sistemas con
retroalimentacin.
Regla de oro de la Teora de Modelos: todo modelo tiene tantas ecuaciones como variables
endgenas tenga el sistema.
En la presente explicacin, la variable explicativa x, y la variable explicada y hacen
referencia a un mismo momento t, de manera que es una explicacin esttica de un fenmeno
dinmico. Si la variable explicativa hiciera referencia a un momento anterior a t, habra un
ordenamiento temporal entre las variables y cambiaran la explicacin y la relacin entre las
variables. La regla de oro de las relaciones causales es que la causa siempre tiene que
preceder al efecto, no pudiendo ser contempornea ni posterior a aqul. Con lo cual, dicho
ordenamiento temporal genera que la explicacin sea dinmica.
Puede fijarse un punto en el tiempo, y en ese momento realizar las observaciones (sobre las
variables x e y), obteniendo la explicacin esttica del fenmeno; a estas situaciones se las
conoce como de corte transversal.
Como la variable explicativa y la explicada refieren al mismo momento, la explicacin de y
en el momento t requiere de informacin de x en el momento t, con lo cual no puede
efectuarse una prediccin. En cambio, puede efectuarse la simulacin, con la intencin de
determinar el valor esperado de y.

Clase 6. Mircoles 08/09/2010 (Prctica)

Clase 7. Jueves 09/09/2010

Se pretende que f(xt) sea una funcin ptima para el conjunto de informacin xt, y ello
significa que las perturbaciones t deben tener un comportamiento absolutamente aleatorio.
Si de las perturbaciones pudiera rastrearse un comportamiento sistemtico, entonces la
funcin f(xt) es insuficiente, dado que algo de dicho comportamiento sistemtico escapa a la
funcin, quedando en forma residual dentro de las perturbaciones.
Se imponen axiomticamente ciertas condiciones sobre las t, que pretenden no contradecir el
sentido comn: las condiciones de Gauss-Markov.

 E(t) = 0
A las perturbaciones se las ha llamado errores de observacin no-sistemticos; es menester
que posean una funcin de densidad simtrica alrededor del cero, dado que existe
aleatoriedad pura. Si la funcin de densidad no fuera simtrica alrededor del cero, es decir, si
fuera ms probable cometer errores en defecto que errores en exceso, entonces el observador

16
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

tomara conciencia de ello, debiendo reconocer que algo conoce acerca del comportamiento
de las t, y ello contradice el principio de la aleatoriedad pura.
Histricamente, se propuso primeramente la distribucin uniforme como funcin de densidad
de las t. Con el tiempo, se entr en razn de que es ms probable cometer errores de pequea
magnitud, que errores de gran magnitud; a medida que aumenta la magnitud del error, la
probabilidad de cometer ese error disminuye. A partir del Teorema Central del Lmite, se
arrib a que la funcin de densidad ptima era la distribucin normal. La razn radica en que
las perturbaciones son la suma de infinitas variables aleatorias; basta suponer que son
independientes y que tienen varianza finita, para establecer que t ~ N (0; 2).

 (t,t+j) = j () = 0 ( j = 1,2, )
La covarianza mide el grado de correlacin lineal entre dos variables cualesquiera; si las
variables aleatorias son independientes, la covarianza se anula, aunque la recproca es falsa
en general. La covarianza igual a cero implica que las variables estn incorrelacionadas en
los momentos de primer orden, lo cual no implica que no exista correlacin en los momentos
de orden superior. Por su parte, la independencia implica que las variables estn
incorrelacionadas en los momentos de cualquier orden. Slo existe una situacin en que la
implicacin se cumple en ambos sentidos: cuando ambas variables son normales.
La medida j es un caso particular de la covarianza: la autocovarianza, que mide el grado de
relacin entre una variable y la misma variable desplazada j perodos. La autocovarianza
vara de acuerdo con el subndice j. El conjunto de las autocovarianzas forma la funcin de
autocovarianzas. El argumento de la funcin de autocovarianzas es el subndice j, que
representa el nmero de perodos que separa a las dos variables en comparacin y determina
el orden de la autocovarianza. La funcin de autocovarianzas, que conlleva la memoria del
proceso, es una funcin par, dado que (j) () = (-j) (). Por esta razn, resulta superfluo
permitir que j pueda tomar cualquier valor entero, y se restringe su dominio a los enteros no
negativos; sin embargo, en este apartado no se considera el caso j = 0 dado que la
autocovarianza de orden 0 es, por definicin, la varianza, que ser tratada en el siguiente
apartado.
Dado que se ha supuesto E(t) = 0, los momentos centrados mixtos se confunden con los
momentos naturales mixtos.
El presente apartado establece la condicin de que la funcin de autocovarianzas de las
perturbaciones debe ser nula, que es una condicin natural para que se cumpla la aleatoriedad
pura de las perturbaciones. Supongamos que para algn j se verifica que j () 0. Esto
significara que entre las perturbaciones t y t+j existe algn tipo de relacin sistemtica (en
particular, lineal). Luego, t+j puede ser expresada en trminos de t, o dicho de otra manera,
t+j = g(t). Pero el comportamiento sistemtico entre las perturbaciones implica que la
funcin f(xt) es insuficiente, con lo cual no es ptima.

 2 (t) = 2
Se trata de la condicin de homocedasticidad: la volatilidad de las perturbaciones es finita y
constante. Si no se cumple esta condicin, se dice que las volatilidades son heterocedsticas.

 t ~ N (0; 2)
La normalidad de las perturbaciones t permite deducir la normalidad de los estimadores
minimocuadrticos, abriendo paso a la inferencia.

Clasificacin de las relaciones estticas


La relacin entre ambas variables puede ser lineal o no lineal. Si dicha relacin es lineal,
entonces yt = a0 + a1 xt + t, y aplicando miembro a miembro el operador esperanza, queda:
17
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

E ( yt xt ) = E ( a0 ) + E ( a1 xt ) + E ( t ) = a0 + a1 xt
dado que hemos supuesto que E(t) = 0, y adems xt representa una variable impropia, que es
tomada como constante, puesto que es la variable condicionante en esta esperanza
condicionada. Denominamos a esta esperanza condicionada, la representacin entre las
variables x e y; proporciona el valor que debera esperarse de y, al tomar x un valor dado.
Si aplicamos el operador varianza a yt, vemos que:
2(y t
xt ) = ( a ) + ( a x ) + ( ) =
2
0
2
1 t
2
t
2

dado que se ha pedido que 2 (t) = 2.
El estimador muestral de la representacin est dado por:
y t = a 0 + a1 xt
y representa el modelo economtrico. Construir el modelo significa calcular los estimadores
puntuales, sobre la base del conjunto de informacin {xt}.
En el mbito del anlisis numrico, una tarea de inters es reemplazar una sucesin discreta
de puntos por una funcin continua. Esta transformacin puede hacerse de dos formas:
Cuando la funcin continua tiene que cumplir con la restriccin de pasar por todos los puntos
de la sucesin discreta, se denomina funcin de interpolacin.
Otro caso se da cuando la funcin debe comportarse como una funcin promedio, sin que sea
menester pasar por todos los puntos; se trata de la funcin de ajuste. En este caso, los puntos
de la funcin continua estn menos afectados por errores de observacin. O sea que para cada
valor de x, tendramos dos valores de y: uno efectivamente observado, y otro que proporciona
el modelo, y dichos valores, salvo extrema casualidad, no deberan coincidir.
yt = y t + t t = yt y t
denominndose a t los residuos del comportamiento de y no explicados por el modelo.
Geomtricamente, el estimador muestral de la representacin tomar uno u otro valor, segn
que se trate de uno u otro valor de xt, y en definitiva se podrn formar infinitas posibles
rectas. De ellas, se pretende encontrar la ptima, que ser la que minimice los residuos. A tal
n
efecto, se crea una funcin de los residuos: t , y resulta que la funcin se comporta como
t =1

el momento centrado de primer orden, y las observaciones van cancelndose. Si se considera


la suma del valor absoluto de los residuos, resultara en una funcin lineal, imposible de
minimizar. La alternativa es elevar cada trmino a una potencia par, y luego minimizar
(Criterio de los Cuadrados Mnimos).
n

( yt y t ) = ( yt a0 a1 xt )
2 2
t =
2
= min
t =1 t t
donde los xt son valores determinados por el observador, y los valores de yt son las
observaciones, y son por lo tanto inmodificables. Con lo cual, la expresin anterior est
nicamente en funcin de a 0 y a 1 .
n
f ( a 0 , a1 ) = t2 = ( yt a 0 a1 xt )
2

t =1 t
La condicin necesaria para la existencia de un mnimo, es que las derivadas parciales se
anulen; la condicin suficiente se relaciona con la matriz formada por las derivadas parciales
de segundo orden, es decir el hessiano. Existen dos soluciones a los cuadrados mnimos: una
no probabilstica, provista por Legendre, y otra probabilstica provista por Gauss, a travs del

18
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

mtodo del estimador mximoverosmil. La solucin consiste en establecer las condiciones


para la existencia del mximo: la condicin necesaria es que se anulen las derivadas parciales
de primer orden, y la condicin suficiente es que las derivadas de segundo orden sean
positivas. Dadas las caractersticas del criterio de los cuadrados mnimos, se puede demostrar
que si esta forma cuadrtica tiene un extremo, inevitablemente es un mnimo.
De las condiciones, se desprende el siguiente sistema de ecuaciones:
a 0 n + a1 xt = yt

a 0 xt + a1 xt = xt yt
2

Sean X t = xt X , Yt = yt Y , es decir variables centradas, entonces los estimadores


minimocuadrticos son:

a1 =
XY t t
; a 0 = Y a1 X
X 2
t
que, por ser estimadores muestrales, resultan ser variables aleatorias. Se puede demostrar que

a 0 : N a0 ;
xt2 2

n t
X 2

2
a1 : N a1 ; 2

t X
es decir que son estimadores insesgados y consistentes, y por ello son los mejores
estimadores lineales insesgados. Adicionalmente, puede demostrarse que si las variables t
tienen distribucin normal (tal como indica Gauss-Markov), entonces los estimadores
minimocuadrticos pueden expresarse como combinaciones lineales de los t, sin olvidar que
la combinacin lineal de variables normales es una variable normal.

El coeficiente de regresin a1 representa la variacin que debiera esperarse que se produzca


en y cuando x vara en una unidad. Ahora bien, este coeficiente forma parte de la
representacin yt = a0 + a1 xt + t, lo cual justifica pensar que existe una relacin lineal entre
las variables. Si dicho coeficiente fuera nulo, entonces no sera vlido suponer una relacin
lineal; detectar si es a1 significativo resulta clave para verificar la linealidad en la prctica.
A partir del estimador muestral de a1, se pretende construir un test de significatividad
individual. El primer paso es estandarizar al estimador minimocuadrtico:
a1 a1
: N ( 0;1)
X t2
Bajo el supuesto de que a1 no es significativo, el estimador minimocuadrtico estandarizado
se transforma en el siguiente estadstico:
H 0 : a1 = 0 H 1 : a1 0
a1
z = : N ( 0;1)
X t2
19
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

Pero resulta que 2 es desconocida, de manera que habr que estimarla. Para ello utilizamos
los residuos, que estiman a las perturbaciones. Se obtiene el siguiente estimador insesgado:
1 n 2
=2

n 2 t =1
t

donde n2 hace referencia a la cantidad de grados de libertad. Como fue necesario estimar 2
coeficientes de la representacin, se han perdido 2 grados de libertad. En general, cuando sea
necesario estimar k coeficientes, quedarn nk grados de libertad en el estimador insesgado.
Por ser un estimador muestral, es tambin una variable aleatoria, y se verifica que:
( n 2 ) 2
: 2( n 2 )
2

con lo cual z resulta ser un cociente de dos variables aleatorias, es decir una nueva variable
aleatoria que, de acuerdo con el Teorema de Fisher, se distribuye segn una t de student:
N ( 0;1)
: t( n 2 )
1
n 2 2
( n 2 )
y reemplazando en nuestro caso de estudio:
a1

X t2 a1
= : t( n 2)
1 ( n 2 ) 2
X t2
n2 2
En definitiva, utilizando este estadstico, si existen razones suficientes para rechazar la
hiptesis nula de la prueba de significatividad, entonces la representacin lineal podr
considerarse vlida, y el modelo quedara justificado. Una vez rechazada dicha hiptesis,
pretendemos medir la calidad del modelo, o sea hallar una medida de las posibilidades
explicativas del modelo.

Calidad del Modelo


En la siguiente igualdad, todas las variables son centradas:

Y t
2
= Yt 2 + t2
Y t
2
representa la variacin total de y, Y t
2
representa la variacin del fenmeno y
explicada por el modelo, 2
t representa la variacin de y no explicada por el modelo, o
variacin residual.
Un modelo ser de mayor calidad cuanto mayor sea la variacin de y explicada por el
modelo. Una medida de dicha calidad estara dada por el siguiente cociente:

Ry2
=
Y t
2

= 1
t
2

= (2xt , yt )
x
Y t
2
Y t
2

que es el coeficiente de determinacin, que tiene caractersticas intrnsecas para cada


variable; dicho coeficiente no sirve (en general) en trminos comparativos.

20
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

Caso en que sirve:


y t = a 0 + a1 xt ; Ry2
x

y t = b0 + b1 zt ; Ry2
z

Los dos modelos son lineales, y ambos utilizan una variable explicativa. A la hora de
comparar, selecciono aquel que tenga un R2 mayor, o sea que es buena medida comparativa.
Si en cambio el modelo lineal se construye agregando modularmente los distintos regresores,
llegamos a un estimador del tipo:
y t = b0 + b1 xt + b2 zt ; Ry2
x ;z

que es el caso ms habitual en la prctica. Se puede demostrar que siempre que se agregue un
regresor al modelo, se verificar, como una consecuencia de los cuadrados mnimos, que:
R 2y Ry2
x ;z x

incluso en el caso en que dicho regresor no contribuya a explicar el comportamiento de y.


Con lo cual se corre el riesgo de interpretar que el nuevo regresor contribuye a explicar a y,
conclusin que no siempre es cierta. El inconveniente de agregar al modelo un regresor que
no contribuya a la explicacin, radica en que se pierde la condicin de parsimonia, segn la
cual, ante dos modelos de igual calidad, siempre debe elegirse el ms simple, o sea el que
tenga menor cantidad de regresores. Si tiene menor cantidad de regresores, tiene menor
cantidad de coeficientes a estimar. Como la muestra tiene un tamao n fijo, a medida que se
incrementa la cantidad de coeficientes a estimar, la calidad individual de cada uno de los
estimadores disminuye.
A medida que se agregan regresores, el coeficiente de determinacin global siempre crece,
como consecuencia de los cuadrados mnimos; lo que interesa en un caso particular, es ver si
R2 crece por sobre lo que aportan los cuadrados mnimos, o por debajo, de modo que pueda
determinarse si el regresor adicional contribuye a explicar a y. Las medidas que permiten
detectar este tipo de calidad, se denominan medidas con trmino de penalizacin.
Es decir: se agrega el regresor, y se calcula R2. Si el incremento en R2 es mayor que el
trmino de penalizacin, se justifica el agregado del regresor adicional.

Clase 8. Lunes 13/09/2010

Cada modelo tiene asociado un coeficiente de determinacin en forma intrnseca. El


coeficiente de determinacin mide la relacin entre y y los regresores tomados en conjunto.
Est compuesto por la relacin que individualmente tiene cada uno de los regresores con la
variable que se quiere explicar, neta de la colinealidad, es decir, de la relacin que existe
entre los regresores. Como carece de posibilidades comparativas, se usa una medida distinta,
que podra decirse que es un R2 ponderado: el coeficiente de determinacin ajustado.

Ry = 1
2
1
n 2 2
t
= 1

n1 t
2

x 1
n 1 Y t
2
n 2 Y t
2

En general, para un modelo con k regresores, el R2 ajustado ser:

R 2y = 1
1
n k t
2

= 1
n1 t
2

x1 ,K, xk 1
n 1 Y t
2
n k Y t
2

21
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

Un modelo con k regresores verifica Rk2 = Rk2 f( k ) , siendo f(k) el trmino de penalizacin.
El R2 ajustado es una medida que pertenece a la familia de las medidas con trmino de
penalizacin. Al agregar un regresor adicional, R2k aumentar inevitablemente, pero el
trmino de penalizacin, que es funcin del nmero de regresores, tambin aumentar. Si el
aumento del R2k es mayor que el aumento de f(k), entonces el R2 ajustado aumenta,
indicando que la incorporacin del regresor favorece a la explicacin de y, y merece quedarse
en el modelo. Si f(k) aumenta ms que el aumento del R2k, entonces el regresor adicional no
contribuye a la explicacin de y, y merece ser eliminado del modelo para no contradecir la
condicin de parsimonia. De modo tal que, en general, si se tienen varios modelos
alternativos, debe elegirse el que tenga mayor R2 ajustado.
Dentro de la familia de las medidas con trmino de penalizacin, existen otras medidas,
incluso mejores que el coeficiente de determinacin ajustado, y se renen bajo la
denominacin comn de criterios de informacin.
El criterio de informacin de Akaike se basa en una funcin de verosimilitud:
Aic( k ) = ln 2 + 2nk
siendo, el primer trmino, una medida de la varianza residual, y el segundo, el trmino de
penalizacin, que es lineal respecto del nmero de regresores; alternativamente, podra ser
cuadrtico (ms pesado que el lineal) o de otra forma.
Al agregar un regresor adicional, el primer trmino disminuye y el segundo aumenta. Si el
primer trmino disminuye en mayor medida que el aumento del segundo trmino, entonces el
criterio de informacin disminuye; en caso contrario, aumenta. Se justifica el agregado del
regresor adicional, cuando el criterio de informacin disminuye. Entre dos modelos
alternativos, debe elegirse aquel cuyo criterio de informacin sea menor. Por ejemplo, si para
un modelo da 2 y para otro da 5, es preferible el segundo. Debe recordarse que el criterio de
informacin puede asumir cualquier valor real, puesto que basta que la medida de la varianza
residual sea menor que 1, para que el primer trmino sea negativo.
Cuanto ms pesado sea el trmino de penalizacin, mejor tendr que ser el regresor adicional
para quedar incluido en el modelo; es decir, cuanto ms pesado sea dicho trmino, ms
conservador es el criterio de informacin. Se trata de un criterio de informacin eficiente.
Existe un problema de sobreestimacin, que consiste, por ejemplo, en que se seleccione
como adecuado un modelo AR(2) cuando en realidad es ms adecuado AR(1). Esto ocurrira
si el criterio de informacin AIC (P2) < AIC (P1). Con lo cual, debiera determinarse la
probabilidad de cometer dicho error. Se verifica que:

lim P AIC ( P2 ) < AIC( P1 ) = P 22( P2 P1 ) > 3 ( P2 P1 )


n
Otro criterio de informacin es el denominado Criterio Bayesiano de Schwarz:
k ln( n )
Bsc( k ) = ln 2 + n
Este criterio es ms conservador que el de Akaike, dado que para valores de n a partir de 8,
se verifica que ln (n) > 2, de modo que en este caso el trmino de penalizacin es ms pesado
para casi todo n natural. Se trata de un criterio de informacin consistente.

Anlisis de los residuos


Se trata de una comprobacin del cumplimiento de las condiciones de Gauss-Markov. Dado
que las perturbaciones constituyen una variable aleatoria no observable, debemos acudir al
anlisis de los residuos, que pueden considerarse como la estimacin de las perturbaciones.
La idea es decidir si las perturbaciones cumplen con las condiciones de Gauss-Markov, a

22
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

partir de la informacin que proveen sus estimadores muestrales, es decir los residuos. Debe,
entonces, construirse un test de hiptesis para cada una de las condiciones.

Test de normalidad: se trata de un test de diagnstico, cuya idea se basa en la distancia entre
dos distribuciones. Se realizan ciertas observaciones, y se determina si la poblacin a la cual
pertenecen estas observaciones puede considerarse que se distribuye normalmente. En este
caso puntual, la poblacin bajo anlisis son las perturbaciones, y las observaciones son los
residuos. H0: t es normal; H1: t tiene otra distribucin. El test de Jarque-Bera pretende
verificar que la poblacin bajo anlisis tenga, o no, los mismos coeficientes de asimetra y de
curtosis que la distribucin normal. Los siguientes estimadores maximoverosmiles son
consistentes:

3
4

( ) = K ( ) =

As t
; t

( ) ( )
3 2

2 2
t t

Bajo el supuesto de que H0 es verdadera, se demuestra que:

As( )
d
N ( 0; n6 ) y K ( )
d
N ( 3; 24
n ) . Estandarizndolas se obtiene:


n As
d
N ( 0;1) y n K 3
d
N ( 0;1) . Elevando al cuadrado
6 ( ) 24 ( )
ambas normales estandarizadas, se obtienen sendas distribuciones chi-cuadrado con 1 grado
2
n
de libertad: 6 2
As d
2 ( 1) y n K 3
d
2(1) . Sumando ambas 2(1)
( ) 24 ( )

obtenemos una 2
(2): JB = n
6 { 2 + 1 K 3
As( ) 4 ( )
2

}
d
2( 2) .

El estadstico de Jarque-Bera converge en distribucin a una 2(2), independientemente del


nmero de observaciones. Este estadstico es una forma cuadrtica; puede alejarse del 0
solamente hacia la derecha.

Si H0 fuera verdadera, y la distribucin fuera exactamente normal, el estadstico de Jarque-


Bera sera igual a 0. El nico inconveniente del test es que los estimadores no tienen una
convergencia exacta en distribucin, sino asinttica.
Cuando n sea igual a infinito, el estimador va a tener su respectiva distribucin. Pero para
cualquier valor finito de n, atribuirle la distribucin normal implicara reconocer que se
comete un error de aproximacin, que va a depender de dos cosas: del valor de n (cuanto
mayor sea n, menor ser el error de aproximacin); y de la velocidad con que el estimador
converge a la distribucin. Este estadstico JB converge en forma lenta. La potencia del test
es suficientemente confiable cuando el nmero de observaciones es de al menos las cuatro
cifras, y ms bien plenamente confiables a partir de las dos mil observaciones. Este test es
til para medir la rentabilidad de un activo, dado que por efectuarse observaciones diarias,
cualquier activo tiene 3500 datos.

23
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

Si se rechaza H0, entonces ni las perturbaciones ni el fenmeno y tienen distribucin normal.


Entonces, se efecta una transformacin, tal que las variables pasen a ser normales: las
Transformaciones de Johnson.

Autocorrelaciones en las perturbaciones: en caso de haberlas, no habremos tenido en cuenta


que la variable yt es autorregresiva. El test de Durbin-Watson analiza la ausencia de
autocorrelaciones de primer orden.
hay AC ( 1 ) > 0
H 0 : no hay AC ( 1 ) H1 :
hay AC ( 1 ) < 0
En general, las autocorrelaciones de orden superior son combinaciones de autocorrelaciones
de primer orden.
n

( t 1 )
2

DW = t =2
t
=
2
t 2 t t 1 + t21


n
t
2 2
t

t =1

Se efecta una transformacin en el estadstico DB, la transformacin de Keane, que es una


aproximacin a dicho estadstico, con lo cual no da exactamente igual con la transformacin

que sin ella. La aproximacin consiste en considerar verdadero que: 2


t = t21 .


2
2 t t 1 + t21 2 ( t2 t 1t )
DW = t
=
t
2
2
t

La covarianza indica la medida de la influencia que ejerce el fenmeno x en el fenmeno y.

{
( x ; y ) = E x E ( x ) y E ( y ) }
La autocovarianza de orden j indica la medida de la influencia que ejerce el fenmeno y en el
momento t j, sobre el fenmeno y en el momento t.

{
j ( y ) = E yt j E ( y ) yt E ( y ) }
En trminos de variable centrada, lucira de la siguiente forma:
j ( y ) = E ( yt j yt )
Las perturbaciones tienen valor esperado nulo, y ello implica que los momentos centrados se
confunden con los momentos naturales.
j ( ) = E ( t j t )
El estimador de la autocorrelacin de orden j surge del cociente entre el estimador de la
autocovarianza de orden j y el estimador de la autocovarianza de orden 0:

24
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

n
j =
( )
1
n
t = j +1

t j t

j j
( ) ( )
j = ; j =
( ) 0 ( ) 0
( ) ( )
n n
1
n
t = j +1

t j t
t = j +1
t j t
j = =
( ) 1
n t
2
t
2
t
t
Dichos estimadores son maximoverosmiles, razn por la cual se utiliza n y no n j.
2 ( t2 t 1t ) t2 t 1t
DW = = 2 = 2 1 1( )
2
t

2
t
2
t
Si las perturbaciones no tuvieran autocorrelacin de primer orden, el coeficiente 1() sera
igual a 0. En este caso, el estadstico DW sera igual a 2. Si existiera autocorrelacin positiva
de primer orden, 0 < 1() < 1, entonces 0 < DW < 2. Si existiera autocorrelacin positiva de
primer orden perfecta, 1() = 1, y DW = 0. Si existiera autocorrelacin negativa de primer
orden, 1 < 1() < 0, entonces 2 < DW < 4. Si existiera autocorrelacin negativa de primer
orden perfecta, 1() = 1, y DW = 4.
En la medida en que DW se acerque a 2, podr considerarse que no existe autocorrelacin de
primer orden, y que el alejamiento leve respecto del 2 puede deberse a cuestiones muestrales.
Si DW presenta valores extremos (cercanos a 0 o a 4), puede concluirse que existe
autocorrelacin de primer orden. El estadstico DW no tiene distribucin exacta ni asinttica,
de modo que los valores crticos de tabla son obtenidos por simulaciones.
Si DW < 2, el anlisis de limita al rango de valores entre 0 y 2. Se obtienen los valores
crticos, denotados dL y dU. Si dU < DW < 2, se considera lo suficientemente cercano a 2, y se
acepta la hiptesis nula. Si 0 < DW < dL, se rechaza la hiptesis nula, considerando que hay
AC(1) > 0. Si dL < DW < dU, el test queda indeterminado.
Si DW > 2, el anlisis de limita al rango de valores entre 2 y 4. Si 2 < DW < 4 dU, se
considera lo suficientemente cercano a 2, y se acepta la hiptesis nula. Si 4 dL < DW < 4, se
rechaza la hiptesis nula, considerando que hay AC(1) < 0. Si 4 dU < DW < 4 dL, el test
queda indeterminado.
Si el test da indefinido, debe incrementarse el nmero de observaciones, con la intencin de
ver si DW se coloca en un intervalo definido. Debe considerarse que el intervalo de
indefinicin es grande para n chico, y chico para n grande.
Los valores crticos que se obtienen en tabla sirven solamente cuando a 0 es significativo. Si
en el modelo no existiera trmino independiente (es decir, a 0 no es significativo), los valores
crticos deben modificarse, a cuyo efecto existen las tablas de Farebrother, que surgen luego
de efectuar la simulacin para modelos que carecen de trmino independiente.
Si se rechaza la hiptesis nula, debe reconocerse que las perturbaciones, y consecuentemente
el fenmeno y, tienen autocorrelacin de primer orden, con lo cual las variables aleatorias
observables de la poblacin no sern independientes, no pudiendo utilizarse la inferencia
clsica. Esto indica que parte del comportamiento del fenmeno y en el momento t puede
explicarse por su comportamiento en el momento t 1, de modo que es justificable agregar el
regresor yt-1 al modelo: yt = b0 + b1 yt-1 + b2 xt + t, lo cual se conoce como la correccin de

25
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

Cochran-Orcutt. De esta forma, las perturbaciones ya no contendrn autocorrelacin de


primer orden, y el test DW seguramente conducir a aceptar la hiptesis nula. Sin embargo,
en este caso se reconoce un orden temporal; las observaciones son obtenidas en condiciones
distintas, y la inferencia clsica ya no es til, debiendo desarrollarse un nuevo mtodo de
inferencia para estos modelos.
Si en la construccin del estadstico DW se reemplazara el subndice t 1 por t j, pueden
detectarse autocorrelaciones de orden j, debiendo previamente cambiar de tablas.

Clase 9. Mircoles 15/09/2010 (Prctica)

Clase 10. Jueves 16/09/2010

Un tercer caso en la explicacin de fenmenos est dado cuando el conjunto de informacin


se compone de realizaciones anteriores de la variable a explicar.

( ) {
y( t ) = y( t j ) } ( j 0; )
En este caso, dichas realizaciones representan los regresores, que en este caso sern
estocsticos, dado que son variables aleatorias. A su vez, existe una relacin temporal entre
la variable explicativa y la variable a explicar, de modo que la explicacin ser dinmica. Las
variables explicativas no son independientes, de hecho en general estn altamente
correlacionadas; luego, no puede utilizarse la inferencia clsica, debiendo desarrollarse un
nuevo mtodo de inferencia.
Si el observador considera las realizaciones yt desde el presente y para todo valor de t no
transcurrido, entonces este fenmeno yt tiene, para el observador, el aspecto de una sucesin
de variables aleatorias ordenadas en el tiempo; a esta sucesin se denomina proceso
estocstico. La finalidad es definir cul es el proceso estocstico que rige el comportamiento
del fenmeno y. Dada esta definicin de proceso estocstico, es evidente que tal proceso se
desarrolla sobre dos dominios: el dominio de las variables y el dominio del tiempo.

Clasificacin de los procesos estocsticos:


 Discreto o continuo en el dominio de las variables, segn que el dominio de las variables
que lo componen sea numerable o no numerable.
 Procesos unidimensionales o multidimensionales en el dominio de las variables. Por
ejemplo, cada una de las variables incluidas en:

( ) {
y( t ) = y( t j ) , x1( t h ) ,K , xk ( t h )
1 k
} ( j; h1;K; hk 0; )
son variables unidimensionales; mientras que el proceso y, cuyo conjunto de informacin es
(y(t)), es un proceso de k + 1 dimensiones.
Un proceso que slo pueda explicarse a partir de realizaciones anteriores de la variable a
explicar, es un proceso unidimensional.
 Discreto o continuo en el dominio del tiempo. Un proceso ser discreto en este sentido,
cuando sus variables se generen en puntos determinados del tiempo, puntos que no estn
26
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

afectados por ningn tipo de aleatoriedad; mientras que ser continuo en el dominio del
tiempo cuando las variables aleatorias se generen en puntos aleatorios del tiempo, o sea no
puede saberse cundo se va a generar la variable aleatoria. Por ejemplo, supongamos una
poblacin de habitantes, de tamao n en el momento t. El tamao de la poblacin se
modificar en cuanto se produzca un nacimiento o una muerte. En tal caso, el tamao de
dicha poblacin en un instante posterior, pasar a ser n + 1 o n 1, pero, si bien el cambio
puede ocurrir en cualquier momento del tiempo, no se sabe en qu momento se producir.

Definicin de un proceso estocstico:


 Definicin estricta, cuando el proceso queda definido en forma nica.
 Definicin dbil, al igual que en el caso de las variables aleatorias, cuando el proceso se
define a partir de los momentos.

La definicin estricta implica definir al proceso desde adentro, y esto podr lograrse si
pueden definirse, con respecto al proceso, ciertas reglas de juego. Por ejemplo, un proceso
que representa el tamao de una poblacin; dicha poblacin admite solamente ingresos por
nacimiento y egresos por fallecimiento; la tasa o la probabilidad de que un individuo de la
poblacin d origen a un nuevo individuo de la poblacin, producindose un nacimiento, es
constante, y no depende de menores procesos; todas estas constituyen ciertas reglas de
juego. Si pueden definirse todas estas reglas de juego, puede lograrse una definicin estricta
del proceso.
La definicin dbil es como si se observara al proceso desde afuera. Por ejemplo, para
analizar el rendimiento de un activo cuento nicamente con los precios de dicho activo al
cierre de cada da, y no cuento con otra informacin. Se define el proceso nicamente a partir
de la realizacin que producen sus variables; ello conduce forzosamente a una definicin
dbil. Una definicin estricta es siempre preferible a una definicin dbil.
Un proceso queda definido en forma estricta cuando es posible definir la funcin de
probabilidades conjunta para cualquier sucesin finita de sus variables aleatorias (para todo t
y todo n).
fdp = f dy( t1 ) dy( t2 ) K dy( tn )
y t ) ; y( t ) ;K; y t
(1 2 ( n) ( y( t1 ) ; y( t2 ) ;K; y( t n ) )
El valor a asumir por el proceso en un momento dado es el estado del proceso.

{
fdp = P y( t1 ) = Y( t1 ) I y( t2 ) = Y( t2 ) I K I y( tn ) = Y( tn )
}
y( t j )
fdp = P

y
( t j 1 ) ; y( t j 2 ) ;K
donde, para el estado j, los valores j 1, j 2, representan los estados anteriores del
proceso, es decir su pasado, su historia, su autorregresividad, su memoria; y la secuencia de
todos los estados, ordenada en el tiempo, representa la trayectoria del proceso. Cada una de
las probabilidades condicionales se denomina probabilidad de transicin del proceso; el
conjunto de dichas probabilidades es el conjunto o la familia de las probabilidades de
transicin del proceso. Para definir el proceso en forma estricta se requiere el conjunto
completo de las probabilidades de transicin del proceso.
La memoria del proceso es aquello que el proceso recuerda de su historia para condicionar
su comportamiento futuro.
En trminos generales, todo proceso est afectado por su infinito pasado. En algunos casos,
la informacin sobre ese infinito pasado se resume en un conjunto finito de sus estados

27
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

anteriores. Esta idea lleva a una nueva clasificacin de los procesos, que no se vincula con el
dominio sino con la relacin que existe entre las variables aleatorias del proceso:
Proceso AR(0). Los resultados anteriores del proceso no afectan su comportamiento futuro.
Si las variables son independientes entre s, el proceso es estrictamente AR(0). Si en vez de
ser independientes fueran incorrelacionadas, el proceso sera dbilmente AR(0).

P y( t )
j
Proceso AR(1), o proceso de Markov. La informacin sobre su infinito pasado est resumida
estrictamente en su estado inmediato anterior.
y( t j )
P y
( t j 1 )

Proceso AR(2), o proceso de Yule.
y( t j )
P y
( t j 1 ) ( t j 2 )
;y

Proceso AR(p). El infinito pasado del proceso puede resumirse en forma aproximada en las p
realizaciones inmediatamente anteriores.
yt
P ( j ) y t ; y t ;K; y t
( j 1 ) ( j 2 ) ( j p )

Cuando un proceso queda definido a partir de los momentos se dice que ha sido definido
dbilmente. La informacin sobre el proceso est conformada por la sucesin de sus
realizaciones anteriores (observaciones sobre el proceso). Pero dicha informacin consiste en
un conjunto de observaciones discretas, aun cuando refieran a un proceso continuo, dado que
las observaciones se vinculan inevitablemente con un momento t del tiempo. La explicacin
que se lograr, ser una aproximacin discreta al comportamiento continuo del proceso. A
estos procesos se los conoce como procesos de parmetro discreto o procesos de series
cronolgicas.
Se produce un cambio de nomenclatura, para discrecionalizar el proceso en el dominio del
tiempo: en lugar de usar {y(t)}, usaremos {yt}, con (t = 1, 2, ).
Utilizaremos los momentos naturales de primer orden del proceso, y los momentos de
segundo orden del proceso, o sea la familia completa de autocovarianzas.
Si y(t) es un proceso normal, queda definido por sus momentos de primer y segundo orden; si
no es un proceso normal, pero admite una representacin lineal, entonces sus principales
caractersticas quedan resumidas en los momentos de primer y segundo orden.
Un proceso admite una representacin dbilmente lineal si su esperanza matemtica
condicionada puede expresarse como funcin lineal de sus realizaciones pasadas:
E yt yt 1 ; yt 2 ;K = a0 + a1 yt 1 + a2 yt 2 + K
Para determinar un momento de primer orden especfico, debemos fijar un momento en el
tiempo; con lo cual, se trata de un problema en el dominio de las variables.
En un caso de laboratorio podran, idealmente, replicarse infinitas veces las mismas
condiciones de contorno, con lo cual se podran obtener infinitas observaciones, y calcular
los momentos sobre la base de todos ellos. Pero en la economa no se pueden tomar muestras
infinitas; el precio de un activo en un momento t quizs sea el nico dato con que contemos
para ese momento, con lo cual sera como trabajar con una muestra de tamao 1. Nunca
podr explicarse el comportamiento de un fenmeno dinmico, salvo que se exija al proceso
la condicin adicional de estacionariedad, es decir, que el proceso sea estacionario.

28
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

Se dice que un proceso es dbilmente estacionario de orden s si sus momentos de orden s son
independientes del tiempo, o sea invariantes con respecto al tiempo:
ms ( yt ) = ms ( y ) ( s = 1, 2,K; t = 1, 2,K)
Tambin se pretende que el proceso sea estacionario de segundo orden, o estacionariedad en
las covarianzas, o en las varianzas.
La estacionariedad dbil de orden s tiene la siguiente propiedad: si un proceso es estacionario
de orden s, se puede asegurar que es estacionario de orden s 1, s 2, etc.

Vemos que en los momentos t1, t2, t3, los valores esperados son distintos, es decir que
dependen del tiempo; esto es tpico de un proceso no estacionario.

En cambio, el proceso estacionario de primer orden evoluciona por fluctuaciones alrededor


de un valor constante; es el caso del grfico, donde los valores esperados coinciden en los
momentos t1, t2, t3, de modo que no dependen del tiempo. A estos procesos se los conoce
tambin como procesos sin tendencia.
Determinar un momento de primer orden especfico representa un problema en el dominio de
las variables. Si el proceso es estacionario de primer orden, podemos calcular el promedio de
los y1, y2, y3, obteniendo m(y), que a su vez es m(y1) = m(y2) = m(y3) = = m(yt) = = m(y),
de modo que hemos obtenido todos los momentos de primer orden referidos a esos
momentos en el tiempo. De modo que, un problema en el dominio de las variables, fue
transformado en un problema en el dominio del tiempo, y resuelto en el dominio del tiempo,
dado que obtuvimos los momentos de primer orden a partir de las realizaciones en distintos
momentos en el tiempo. A esta idea se la conoce como el teorema de la inversin del
dominio.
No todos los fenmenos cumplen con la condicin de estacionariedad; sin embargo, casi
siempre es posible aplicar a los fenmenos no estacionarios algn tipo de transformacin que
los convierta en fenmenos estacionarios.

Clase 11. Lunes 20/09/2010

Momentos de segundo orden: covarianzas, de las cuales analizamos un caso particular, las
autocovarianzas.
29
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

{
j ( y ) = E yt m ( y ) yt + j m ( y ) } ( j = 0,1, 2,K)
Si el proceso es estacionario, la funcin de autocovarianzas es par; el subndice j puede tomar
cualquier valor entero no negativo. As como a la autocovarianza se asocia la autocorrelacin
como medida relativa de la relacin entre dos variables, a la funcin de autocovarianzas se
asocia la funcin de autocorrelacin (FAC), que se basa en momentos estandarizados en vez
de en momentos centrados. Esta funcin representa la gran herramienta para estudiar las
caractersticas del proceso estacionario.
jy
( )
j y = ; j y <1
( ) 0 y ( )
( )
Cuando la esperanza condicionada al infinito pasado del proceso es igual a la esperanza
condicionada a sus ltimas p realizaciones, se dice que el proceso es dbilmente AR(p), y son
nulos todos los coeficientes de autocorrelacin siempre que j > p.
E yt yt 1 ; yt 2 ;K = E yt yt 1 ; yt 2 ;K; yt p
El correlograma representa los valores del coeficiente de autocorrelacin para los distintos
valores de j.
 Para el caso particular de un proceso AR(0), todos los coeficientes de autocorrelacin son
nulos y el pasado no sirve para explicar su comportamiento; el correlograma es:

 Supongamos un proceso que no est afectado por factores peridicos. Se puede demostrar
que la funcin de autocorrelacin es decreciente en valor absoluto, dado que el grado de
influencia disminuye a medida que las dos variables se apartan en el tiempo.

 Si el proceso es estacionario de segundo orden, o sea en las covarianzas, la funcin de


autocorrelacin es exponencialmente decreciente en valor absoluto, lo cual representa un
sntoma de estacionariedad. Que la funcin de autocorrelacin decrezca cada vez ms
rpido indica que la memoria del proceso es corta; la medida de la memoria se aproxima

30
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

rpidamente a 0. Esta caracterstica determina que los procesos estacionarios den lugar a
modelos de coyuntura, en vez de modelos de largo plazo.

 Si el proceso est afectado por factores cclicos (peridicos), la funcin de


autocorrelacin presenta picos.

Este es un comportamiento tpico, por ejemplo, de un proceso afectado por


estacionalidades. Las medidas que caracterizan al factor cclico son la amplitud del ciclo
y el perodo del ciclo; la frecuencia del ciclo es inversamente proporcional al perodo.
Los ciclos de perodo largo son de baja frecuencia, y los de perodo corto son de alta
frecuencia.

Un tipo particular de ciclo es la estacionalidad; se caracteriza porque su perodo es igual a


un ao calendario, marcando efemrides que condicionan el comportamiento del proceso.
Si la serie presenta picos, entonces est afectada por factores cclicos. Para estudiar la
serie, lo ideal es previamente depurarla de dichos picos, dado que desarrollar el modelo
sin depurarlo implica estimar mayor cantidad de coeficientes, lo cual reduce la
confiabilidad de una estimacin derivada de una muestra de tamao determinado. Esta
depuracin es anloga a los filtros de audio, que cumplen la funcin de un colador.
La funcin de autocorrelacin no es la ms apta para estudiar los ciclos, dado que los
estimadores de los coeficientes de autocorrelacin estn correlacionados entre s,
generando distorsin; la utilidad de la funcin de autocorrelacin se limita a detectar,
sugerir que existen ciclos. Lo que se hace para poder estudiar los ciclos es aplicar a la
31
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

funcin de autocorrelacin una transformacin ortogonal, que da origen al espectro del


proceso.
Para determinar si un proceso es AR(0), debemos detectar si todos los coeficientes de
autocorrelacin j ( y ) son iguales a cero, considerando que dichos valores son desconocidos.
A partir de un conjunto finito de observaciones se forma la serie cronolgica, de manera que
pueda determinarse un estimador muestral y construir un test de hiptesis:
H0 : j =0 H1 : j 0
( y) ( y)
( j = 1, 2,K)
El estimador muestral mximoverosmil es:
n j

( y t (
y ) yt + j y )
j y = t =1
n
( )
( y y)
2
t
t =1
El inconveniente es que el numerador tiene n j trminos, de modo que, segn el valor de j
que se pretenda, la informacin contenida en el estimador es asimilable a la obtenida a partir
de una muestra de tamao n j, y a medida que se incremente j, se asimilar a una muestra
cada vez ms chica, reducindose la confiabilidad de la estimacin. Se considera que dicha
confiabilidad se mantiene dentro de niveles aceptables en tanto se cumpla que j n / 4,
aplicable a series macro (series cortas), dado que si se tratara de series largas, de por ejemplo
4000 datos, podra garantizarse la confiabilidad hasta j = 1000, y sin embargo dicho valor
carece de inters prctico, habida cuenta de que, en un proceso estacionario, la memoria del
proceso es particularmente corta, y se pierde la autocorrelacin mucho antes de j = 1000. En
definitiva, esta limitacin no es grave.

La varianza del estimador se aproxima por el primer trmino de la frmula de Bartlett:


j 1 j 1
1 1+ 2
2

1
n 2
i( y ) = n i2( )

y
j( y ) i = ( j 1) i =1

y puede verse que la varianza no es constante. Incrementar j implica agregar ms trminos,
todos positivos; pero cada trmino que se agrega es menor que el anterior, dado que la
autocorrelacin decrece al separarse en el tiempo las variables. Luego, la varianza del
estimador crece con j, pero a una tasa decreciente.
Bajo el supuesto de que H0 es verdadera, se verifica que:
j( )
y
d
N ( 0; n1 )

n j y
d
N ( 0;1)
( )
Para un nivel de significacin del 5%, se tiene la siguiente regla de decisin:
2
Si j > se rechaza H 0
y ( ) n
Este test de significatividad individual no es muy recomendable, porque para valores chicos
de j se genera una autocorrelacin entre los valores estimados, sesgndose el test. Esto ocurre
porque el numerador y el denominador del estimador poseen n j trminos en comn. El

32
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

porcentaje de trminos en comn es (n j) / n, o sea 1 j / n. Cuanto mayor sea j, ms


tender a 0 el porcentaje de trminos en comn, reducindose as el peso de la
autocorrelacin que se genera.

El test q de significatividad conjunta presenta el siguiente estadstico de Box-Pierce:


H 0 : { yt } es AR( 0) , o sea 1 y = 2( y ) = K = 0
( )

H 1 : i i( y ) 0
j
q BP
j = n i2( y )
d
(2j )
i =1
Este test tena un problema al aproximar el valor de la varianza por 1 / n. Se plantea entonces
una prueba adicional, sobre la base de una nueva aproximacin de Ljung-Box de la varianza:
n j
2
n ( n + 2) j( y )

y el estadstico es:
j i2( )
q LB = n ( n + 2)
d
(2j )
y
j
i =1 ni
La hiptesis nula se rechaza cuando algn j ( y ) sea distinto de cero.
Como caso especial y excepcional a tener en cuenta, puede ser que todos los coeficientes
estimados de correlacin sean cercanos a 0, y sin embargo, como el test es conjunto, la suma
entre todos los coeficientes puede generar que termine rechazndose H0.
Si se acepta H0, se acab el problema: el proceso es AR(0). Si se rechaza H0, el anlisis debe
continuar.

Representaciones del proceso


El siguiente es un resultado intermedio del teorema de Wold o de la descomposicin:
yt = t + a1 t 1 + K + a j t j + a j +1 t j 1 + K
donde las variables yt son centradas y las t son independientes e idnticamente distribuidas.
Si las variables yt son centradas, entonces la representacin no tiene trmino independiente.
Los t se denominan shocks aleatorios. Desde un punto de vista formal, las t forman un
proceso estocstico, componiendo un proceso ruido blanco (WN).
Existen varias categoras de ruido blanco; en todas ellas se verifica E(t) = 0 y 2(t) = 2.
Los WN son estrictos cuando sus variables son independientes entre s, e idnticamente
distribuidas.

P t = P ( t )
t j
f ; = f ( t ) f
( t t+ j ) ( t+ j )
Si adems consideramos que t ~ N (0; ), tenemos un WN normal. Las perturbaciones son
2

WN estrictos normales.

33
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

En un WN dbil, las variables t son incorrelacionadas. Todo WN es AR(0), pero la recproca


es falsa en general. Con lo cual, todas las autocovarianzas de orden mayor que 0 son nulas.
Cuando j tiende a infinito, la representacin toma la siguiente forma:

yt = t + 1 t 1 + K + j t j + j +1 t j 1 + K = j t j ( 0 = 1)
j=0
y se la denomina representacin de promedios mviles MA(), y sugiere que todo proceso yt
puede expresarse como una combinacin lineal de infinitos shocks aleatorios
contemporneos y anteriores, donde los {j} definen una sucesin de ponderaciones, que
miden la influencia que el shock aleatorio del perodo t j ejerce sobre el comportamiento de
yt; adems 0 = 1. En esta representacin yt son variables centradas y t son ruidos blancos.

Clase 13. Jueves 23/09/2010

Se utilizar un operador auxiliar Backward que verifique: B yt = yt-1 ; B2 yt = B (B yt) = yt-2 ;


Bj yt = yt-j ; (j = 0, 1, 2, ). La representacin queda reexpresada segn:
yt = t + 1 B t + 2 B 2 t + K = ( 1 + 1 B + 2 B 2 + K ) t = ( B ) t
de modo que el operador B pas a funcionar como variable. El operador (B) tambin se
denomina operador MA de orden infinito, o MA(); est definido por un polinomio de grado
infinito en t, que es un desarrollo en serie de potencias de t. Se trata de un sistema que tiene a
los shocks aleatorios como inputs y al proceso yt como output; los inputs son procesos
estocsticos ruidos blancos, y los outputs son procesos en general con variables
autocorrelacionadas.
Para que yt = (B) t sea factible, el sistema debe cumplir ciertas condiciones de
estabilidad. El operador, encargado de la transformacin, se denomina filtro. El sistema est
caracterizado por el operador (B); el operador est definido por un desarrollo en serie de
potencias de B, que puede ser divergente o convergente. La estabilidad del sistema requiere
que el operador sea convergente en algn entorno del origen de B; en particular, si | B | 1
puede garantizarse que el proceso yt es dbilmente estacionario. La condicin de
estacionariedad est vinculada con el operador.
Hasta ahora los nicos indicios de estacionariedad eran: que los momentos de primer y
segundo orden fueran estables, o sea invariables con respecto al tiempo; que la funcin de
autocorrelacin decreciera exponencialmente en valor absoluto. En el primer indicio, resulta
que los momentos son parmetros desconocidos, y sus estimadores satisfacen siempre la
condicin de invariabilidad respecto del tiempo; en el segundo, la condicin depende
exclusivamente de la lectura de un grfico, que no siempre suele ser excesivamente prolijo, y
por lo tanto la interpretacin tiene un cierto grado de subjetividad. La condicin que
acabamos de obtener, relacionada con el operador, es ms clara. Para que se verifique la
convergencia de la serie de potencias en el entorno del origen de B, debe verificarse que:


j=0
2
j <
o sea, que la sucesin de ponderaciones sea de cuadrados sumables. Si se cumple esta
condicin, el operador ser convergente en el entorno del origen (es decir, (B) < ), el
sistema ser estable, y se puede asegurar que el proceso yt es estacionario. Debe recordarse
que la estacionariedad implica la convergencia del operador (B).
Las autocovarianzas de variables yt centradas estn dadas, en funcin del argumento j, por:

34
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

j ( y ) = E ( yt yt + j ) = E ( t + 1 t 1 + K) ( t + j + 1 t + j 1 + K)

j( y)
i = 0 h= 0 i h
(
= E i h t i t + j h = i h E t i t + j h )
Ahora bien, las E(t-i t+j-h) son autocovarianzas de t, que es un ruido blanco, y sern todas
nulas cuando el orden sea mayor que 0, mientras que sern no nulas cuando se refieran al
mismo momento, o sea cuando t i = t + j h, o equivalentemente h = i + j. Dichas
autocovarianzas no nulas, por ser de orden 0, son la varianza de t, o sea 2. Con lo cual:

j ( y ) = i i + j
2

i =0

Para j = 0 tenemos la autocovarianza de orden 0, que es la varianza de y:



0( y ) = = i2
2
y
2

i =0
y para asegurar la estabilidad del sistema (y consecuentemente la estacionariedad del proceso
yt), debi satisfacerse que i2 < . De esta forma, se encuentra una condicin adicional
que garantiza la estacionariedad: la condicin necesaria y suficiente para que un proceso sea
estacionario, es que su varianza y2 sea finita. Sin embargo, dicha varianza es desconocida.
La siguiente es una representacin AR(), donde yt son variables centradas y t ruido blanco:
y t = 1 y t 1 2 y t 2 K + t
yt + 1 yt 1 + 2 yt 2 + K = t
yt + 1 Byt + 2 B 2 yt + K = t
(1 + B + B
1 2
2
+ K ) yt = t
( B ) yt = t
donde (B) es el operador AR de orden infinito, o AR(), y est definido por la serie de
potencias de B. La ltima expresin es legtima si el sistema es estable, es decir, si para un
entorno de B (| B | 1) el operador AR() es convergente (es decir, (B) < ), lo cual puede
garantizarse si el sistema de ponderaciones j es absolutamente sumable, o sea si:


j=0
j <
La condicin de sumabilidad absoluta implica la de cuadrados sumables, garantizndose la
convergencia de la serie de potencias, y consecuentemente la estabilidad del sistema, con lo
cual el proceso yt es invertible. La condicin de invertibilidad implica la convergencia del
operador AR().
Cualquiera sea el proceso yt con el que pretenda trabajar, debe pedirse la condicin de
estacionariedad y la de invertibilidad.
Hay procesos que admiten ciertas representaciones AR, y hay procesos que admiten ciertas
representaciones MA. Pero como en las representaciones MA el proceso queda expresado en
funcin de variables aleatorias no observables, si se pretende operar con ese proceso, debe

35
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

inevitablemente transformarse en una representacin AR, dado que en ella el yt queda


expresado en funcin de sus realizaciones anteriores, que son observables. Por lo tanto, en
esta idea de invertibilidad, el proceso debe ser tal que al pasar de la forma MA a la forma
AR, la forma AR que se obtenga sea estacionaria.
Como puede verificarse al aplicar los operadores esperanza y varianza, las representaciones
MA son siempre estacionarias:
yt = t + 1 t 1 + K
E ( yt ) = E ( t ) + 1 E ( t 1 ) + K
y como las t son ruidos blancos, sus esperanzas son nulas, quedando E(yt) = 0, con lo cual el
momento de primer orden es independiente del tiempo, siendo yt estacionario de primer
orden.
yt = t + 1 t 1 + K
2 ( yt ) = 2 ( t ) + 12 2 ( t 1 ) + K
2 ( yt ) = 2 + 12 2 + K = ( 1 + 12 + K) 2
de modo que el momento de segundo orden es independiente del tiempo. Luego, el proceso
es estacionario de segundo orden.
Dadas las representaciones AR y MA, si se aplica en cualquiera de ellas un operador
miembro a miembro, la igualdad no se altera. En el caso particular de aplicar (B) a MA:
AR ( B ) yt = t
MA yt = ( B ) t

( B ) yt = ( B ) ( B ) t = ( B ) ( B ) t = t
De manera que queda entre corchetes un operador tal que, al aplicarlo al ruido blanco, no lo
altera. Este operador es la identidad, de lo cual se desprende que un operador es la inversa del
otro:
1
( B ) ( B ) = id ( B ) = ( B )

Es posible pasar de una representacin a la otra, y viceversa, invirtiendo el operador. Con lo
cual, las dos representaciones son dos formas de expresar el mismo concepto.
Esta representacin es terica, y el inters radica en usufructuarla en la prctica; ello
implicara plantear un modelo que intente explicar al fenmeno yt a partir de, en particular,
infinitos shocks aleatorios pasados que generan una determinada influencia ponderada sobre
yt; lo cual requiere estimar cada uno de los respectivos coeficientes de ponderacin. Pero
como se cuenta con informacin finita, resulta imposible estimar los infinitos coeficientes.
De modo que se pretende pasar de una representacin de orden infinito a una de orden finito.
Para que se verifique la estabilidad del sistema, el sistema de ponderaciones j debe ser
absolutamente sumable, lo cual implica que las ponderaciones j deben decrecer rpidamente
en valor absoluto. Puede demostrarse que para que esto se cumpla, deben decrecer en forma
exponencial en valor absoluto. Con lo cual, a medida que j crece, los j se aproximan
rpidamente a 0, de modo que, en trminos de un modelo, podran despreciarse, o sea:

36
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

1 = 1 ; 2 = 2 ;K ; p = p ; j = 0 ( j = p+1, p+ 2,K)
yt = 1 yt 1 + 2 yt 2 + K + p yt p + t
As, la representacin AR de orden infinito se transforma en una de orden finito AR(p). Se
dice que yt admite una representacin AR(p), o sea {yt}: AR(p).
yt 1 Byt 2 B 2 yt K p B p yt = t

(1 B B
1 2
2
)
K p B p yt = t
( B ) y t = t
donde (B) es el operador AR(p), y est definido por el polinomio de orden p.
Tendremos as una representacin AR(p), otra MA(q), ARMA(p,q), etc., que constituyen una
suerte de directorio genrico de representaciones posibles; respecto de cada una de ellas,
tendremos que seguir un orden de tareas para todos ellos:
 Analizar las condiciones de estacionariedad e invertibilidad.
 La especificacin de la representacin, que implica responder: cul representacin
aplicar al fenmeno yt? Es decir, a qu familia de representaciones pertenece el
proceso? Luego debe determinarse el orden.
 La estimacin de los coeficientes i, lo cual implica construir el modelo AR(p).
 El anlisis de los residuos, como estimadores de las perturbaciones. Este anlisis se hace
para cualquier modelo, y es igual para todos ellos. Por eso, en el presente curso, este
anlisis se trata en una instancia ms avanzada.

Condiciones de estacionariedad e invertibilidad de la AR(p)


La condicin de invertibilidad est vinculada a la convergencia del operador AR(). Pero los
j fueron reemplazados por los j, determinando la siguiente sucesin finita de trminos:
1 1 B 2 B 2 K p B p
que, trivialmente, es convergente, dado que no posee una cantidad infinita de trminos. Con
lo cual no tiene inters detenerse en esta condicin. La invertibilidad no est vinculada con
los procesos AR(p).
La condicin de estacionariedad est vinculada a la convergencia del operador MA(). Para
analizar dicha condicin, se requiere hallar la representacin MA de este AR(p).
( B ) yt = t
1 1

yt = ( B ) t =
1 1 B 2 B 2 K p B p t
donde el cociente genera un operador MA() como se ve en el siguiente ejemplo.
En particular, en un proceso AR(1) donde yt son variables centradas y t ruido blanco normal:
yt = 1 yt 1 + t
yt = 1 Byt + t
( 1 1 B ) yt = t
yt = ( 1 1 B ) t
1

37
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

Ahora bien, es vlida la siguiente igualdad general:

( )x

1
= r +k 1 k

(1 x ) r 1
r
k =0

y en particular para r = 1, nos queda:

( )x ( ) = 1, k N

1
= k k
= x k dado que k
1 x k =0 0
k =0
0 0

y volviendo a la representacin:

1
= ( 1 B ) = 1 + 1 B + 12 B 2 + K
k

1 1 B k =0
de modo que:

yt = ( 1 1 B ) t = ( 1 + 1 B + 1 B + K) t = 1 j t j
1 2 2

j=0
y para p = 1 (como en este caso) pero tambin para cualquier p se cumple que la
representacin MA del AR(p) es un MA(), donde:
j = 1 j
Volviendo al proceso AR(p); la convergencia del operador [(B)]-1 depende de las
caractersticas del polinomio del denominador en ese cociente, y las caractersticas del
polinomio dependen de las caractersticas de sus races. Sus races son las que surjan de la
ecuacin caracterstica del AR(p). Esta ecuacin produce p races G1,G2,,Gp. Expresando la
representacin MA en funcin de la inversa de dichas p races, y suponiendo que stas son
todas de multiplicidad simple:

( )
1 1
yt = ( B ) t = 1 1 B 2 B 2 K p B p
t

yt = ( 1 G11 B ) ( 1 G B ) K ( 1 G B )
1
1 1
2 p t

1
yt = t
( 1 G1 B ) ( 1 G2 B )K 1 G p B
1 1 1
( )
podemos ver que, cuando B = G1 => (B) = 0, etc., y cuando B = Gp => (B) = 0, de modo que
la anterior expresin no contradice que G1,G2,,Gp son races de (B), confirmando que est
bien expresada la representacin MA en funcin de la inversa de sus races.
Por otra parte, sean A1,,Ap tales que se verifique:

( 1 G B )K ( 1 G B ) A + K + ( 1 G B )K ( 1 G
1
2
1
p 1
1
1
1
p 1 )
B Ap = 1
1
Entonces
( 1 G11B ) ( 1 G21B ) K 1 G p1 B ( ) se expresa tambin as:

38
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

( 1 G B )K ( 1 G B ) A + K + ( 1 G B )K ( 1 G
1
2
1
p 1
1
1
1
p 1 )
B Ap
( 1 G B )K ( 1 G B ) 1
1
1
p
y separando en p trminos de igual denominador:

A1 (1 G B )K (1 G B )
1

2
1

p Ap (1 G B )K(1 G B )
1

1
1

p 1
+K+
( 1 G1
1
B ) (1 G B )K (1 G B )
1

2
1

p
(1 G 1

p
B ) (1 G B )K(1 G B )
1

1
1

p 1

nos queda de la siguiente manera:


p
A1 Ap Aj
) (
+ K + =
( 1 G11B ) 1 G p1 B ( 1
j =1 1 G j B )
con lo cual:
p
1 Aj

1
( B ) = ( B ) = =
( 1 G1 B ) ( 1 G2 B )K ( 1 G p B )
1 1 1
j =1 ( 1 G B )
1
j

y se requiere que dicha suma de p sumandos converja para que el sistema sea estable. El
binomio del denominador de cada sumando puede reexpresarse como un desarrollo en serie:
p p
Aj 1 + G j 1 B + ( G j 1 ) B 2 + K <
Aj

1 2

( B ) = =
j =1 ( 1 G B )
1
jj =1
Para que la suma de los p sumandos converja, cada sumando del desarrollo en serie debe
converger en | B | 1. Y para que converja cada uno de dichos sumandos, se requiere que la
inversa de cada una de las races sea, en mdulo, menor que la unidad: | Gj-1 | < 1 (j=1,2,,p).
Esta condicin es equivalente a pedir que | Gj | > 1 (j=1,2,,p). Esta condicin garantiza la
estacionariedad del proceso. Se trata de una condicin comprobable. Eventualmente, en la
prctica ocurrir que no se conocern los valores de las races, y debern estimarse, teniendo
que decidir, a partir de los valores estimados, si las verdaderas races satisfacen la condicin.
No se puede pasar en forma general de condiciones en las races a condiciones en los
coeficientes, sino que debe plantearse caso por caso para cada valor de p. En el caso
particular de un AR(1), la ecuacin caracterstica es:
( B ) = 1 1 B = 0
con lo cual la raz es G1 = 1-1, lo cual implica que | G1 | = | 1 |-1 > 1 => | 1 | < 1
Para un AR(2):
( B ) = 1 1 B 2 B 2 = 0 ; G1 , G2 > 1
2 + 1 < 1

2 1 < 1

2 < 1
lo cual es complicado para demostrar.
Para otros valores de p, el planteo genrico se complica cada vez ms.

39
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

Clase 14. Lunes 27/09/2010

La especificacin del modelo


Se logra a partir de la FAC. Para cada valor de p, el proceso AR(p) tiene un familia de
funciones de autocorrelacin tpica asociada. Si se identifica que un proceso tiene
determinada funcin de correlacin tpica asociada, entonces es un punto de partida para
intentar conocer el valor p. Para construir la FAC, deben primero determinarse las
autocovarianzas. Para ello tomamos la representacin AR(p), y miembro a miembro
multiplicamos por yt-j y aplicamos operador esperanza. Como las yt son centradas, aparecern
las autocovarianzas.
yt = 1 yt 1 + K + p yt p + t
yt j yt = 1 yt j yt 1 + K + p yt j yt p + yt j t

j ( y ) = E ( yt j yt ) = 1 E ( yt j yt 1 ) + K + p E ( yt j yt p ) + E ( yt j t )
Tomamos los sucesivos valores de j y buscamos algn comportamiento regular. Para j = 0
obtenemos la autocovarianza de orden 0, que es la varianza de y:
0( y ) = E ( yt2 ) = 1 E ( yt yt 1 ) + K + p E ( yt yt p ) + E ( yt t )
0( y ) = y2 = 1 1( y ) + K + p p ( y ) + E ( yt t )
Analizando el ltimo trmino, por medio de la representacin MA():

E ( y t t ) = E j t j t = E j t j t ( )
j = 0 j=0

E ( yt t ) = E (
j=0
j
t j t ) = ( )
j=0
j j

y como t es WN, todas sus autocovarianzas de orden mayor que 0 son nulas, de modo que
subsiste solamente el trmino en que j = 0:
E ( yt t ) = 0 E ( ) =
2
t
2

Con lo cual queda:


0( y ) = y2 = 1 1( y ) + K + p p ( y ) + 2
Para j = 1:
1( y ) = E ( yt 1 yt ) = 1 E ( yt21 ) + K + p E ( yt 1 yt p ) + E ( yt 1 t )
1( y ) = E ( yt 1 yt ) = 1 0( y ) + K + p p1( y ) + E ( yt 1 t )
Analizando el ltimo trmino, por medio de la representacin MA():

40
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY


E ( yt 1 t ) = E j t 1 j t = E j t 1 j t ( )
j = 0 j=0

E ( yt 1 t ) = E (
j =0
j t 1 j t ) = j=0
j j + 1( )

Y como j toma valores desde 0, las autocovarianzas del ruido blanco sern de orden mayor o
igual a 1, con lo cual sern todas nulas. Poda arribarse a este resultado razonando que yt-1 es
combinacin lineal de infinitos shocks aleatorios contemporneos y anteriores, pero no
posteriores, con lo cual ambas variables aleatorias no estn relacionadas.

E ( yt 1 t ) = j j +1( ) =0
j=0

1( y ) = 1 0( y ) + K + p p1( y )
Para j = 2:
2( y ) = 1 E ( yt 2 yt 1 ) + K + p E ( yt 2 yt p ) + E ( yt 2 t )
2( y ) = 1 1( y ) + K + p p 2 ( y )
La funcin de autocovarianzas del AR(p) es infinita; es decir, existe y es no nula para
cualquier valor de j. La FAC hereda las propiedades de la funcin de autocovarianzas, con lo
cual la FAC del AR(p) es infinita.
FAC = j ( y ) = 1 j 1( y ) + 2 j 2( y ) + K + p j p ( y ) ( j = 1, 2, K )
En el caso prctico de un proceso especfico, se plantea la FAC, y si es infinita entonces todo
parece indicar que la familia que mejor representa al proceso es la AR.
Una vez asignada la familia, debe determinarse el orden p; para ello, definimos la funcin de
autocorrelaciones parcial (FACP).
Existen tres tipos de coeficientes de correlacin. Supongamos tres variables: x, y, z. El
coeficiente de correlacin simple mide la relacin de las variables tomadas de a pares. El
coeficiente de correlacin mltiple mida la relacin de una variable con las otras variables
tomadas en conjunto; habitualmente es el coeficiente de determinacin. El coeficiente de
correlacin parcial mide la relacin existente entre dos de las variables, neta de la influencia
que, sobre ambas variables, ejerce la tercera. Si tomamos los siguientes modelos:
y = a 0 + a1 z ; y
z

x = b0 + b1 z ; x z
vemos que cada uno de ellos tiene residuos asociados, que son una medida de la parte del
comportamiento de y, en el primer caso, y de x, en el segundo, debida a cualquier otra
variable que no sea z. En dichos residuos se ha eliminado la influencia de z; representan el
comportamiento de y o x, neto de la influencia de z. El coeficiente de correlacin parcial
entre x e y est dado por el coeficiente de correlacin mltiple entre los residuos:
x; y =
( z) x , y
z



z

41
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

Un caso particular de la correlacin parcial es la autocorrelacin parcial.


Para cada valor de j la FAC representa una ecuacin en diferencias. Como existen infinitos
valores posibles para j, puede formarse un sistema de infinitas ecuaciones en diferencias.
Tomamos de ellas las p primeras para formar el sistema de Yule-Walker:
1 = 1 + K + 2 1 + p p 1

2 = 1 1 + 2 + K + p p 2

M
= + + K + p
p 1 p 1 2 p 2
y agregamos a cada coeficiente i un subndice igual al orden p del sistema de ecuaciones:
1 = 1 p + K + 2 p 1 + pp p 1

2 = 1 p 1 + 2 p + K + pp p 2

M
= + + K + pp
p 1p p 1 2p p 2
Si p = 1, estaramos ante un proceso AR(1), con lo cual todas las autocovarianzas (y
consecuentemente las autocorrelaciones) de orden mayor que 1 seran nulas; adems,
estaramos tomando tan slo una ecuacin para el sistema de Yule-Walker, quedando este
sistema de dimensin 1 x 1:
1 = 11
indicando que la autocorrelacin parcial de orden 1 es igual a la autocorrelacin de orden 1.
Si p = 2, estaramos ante el siguiente sistema:
1 = 12 + 22 1

2 = 12 1 + 22
buscando resolverlo para 22:
2 12
22 =
1 12
A medida que p crece, se complica la resolucin del sistema. Existe un algoritmo iterativo
para computadoras: el algoritmo de Durban-Levinson.

Supongamos las variables yt-3 yt-2 yt-1 yt; construimos el modelo para yt y para yt-3:
y t = 1 yt 1 + 2 yt 2 ; t
y t 3 = 1 yt 1 + 2 yt 2 ; t 3
Cada modelo tiene residuos asociados, netos de la influencia de yt-1 y de yt-2. Planteamos la
correlacin parcial entre los residuos:
33 = ( t 3 ,t )
y notamos que, en tanto yt-3 no sea un proceso reversible, no puede estar determinado por sus
realizaciones posteriores; luego, los coeficientes que ponderan la influencia que sobre dicha
42
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

variable ejercen yt-1 e yt-2 son nulos. Por lo tanto, los residuos asociados a yt-3, netos de la
influencia de yt-1 e yt-2, son los mismos que si no se hubiera eliminado dicha influencia. En
otras palabras, las infinitas variables que caracterizan el comportamiento de yt-3 son las
mismas, ya sea que se consideren yt-1 e yt-2 o no. Por lo tanto el comportamiento de yt-3 est
determinado por las mismas variables que conforman los residuos netos antes mencionados,
verificndose que:
yt 3 = t 3
o sea,
33 = ( t 3 ,t ) = ( yt 3 ,t )
Supongamos un proceso AR(1) y planteemos su FAC. Para ello, debemos considerar la FAC
de un AR(p) y limitarla a p = 1:
yt = 1 yt 1 + t
j = 1 j 1
1 = 1
2 = 1 1 = 1 1 = 12
3 = 1 2 = 1 12 = 13
M
j = 1j
Basta que | 1 | < 1 para garantizar que la sucesin decrece exponencialmente en valor
absoluto. Con respecto a la FACP de orden p, se verifica que:
11 = 1
2 12 12 12
22 = = =0
1 12 1 12
M
pp = 0
En general, se cumple que jj toma valores significativos para j p, y se anula para j > p.
Este criterio representa una pauta dbil para sugerir el orden p de autorregresividad, a partir
del anlisis de la FACP. Los verdaderos valores de los coeficientes jj son desconocidos, y
disponemos de sus estimadores muestrales y de un test de significatividad individual tal que:
H0: jj = 0; H1: jj 0. Se puede demostrar, bajo el supuesto de que H0 es verdadera, que:
jj
d
N ( 0; n1 )
n jj
d
N ( 0;1)
Con un nivel de significacin del 5%, H0 se rechaza cuando:

jj >
2
n
( j = 1, 2,K , n4 )
43
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

La FAC decrece ms suavemente que la FACP:

Consideremos la estructura autorregresiva el proceso AR(p), es decir planteemos nulos a los


ruidos blancos:
yt = 1 yt 1 + 2 yt 2 + K + p yt p
( B ) = 1 1 B 2 B 2 K p B p = 0
G1 ; G2 ;K ; G p
La condicin de estacionariedad exige que las p races sean todas, en mdulo, mayores que 1.
Obtenemos la siguiente ecuacin en diferencia, y luego su respectiva ecuacin caracterstica:
yt 1 yt 1 K p yt p = 0
p 1 p1 K p = 0
Conmutando los trminos que conforman al operador (B), puede verse que es igual a la
ecuacin caracterstica, excepto por los coeficientes, que estn invertidos en el orden:
( B ) = p B p p 1 B p 1 K 2 B 2 1 B + 1 = 0
p 1 p 1 K p 2 2 p1 p = 0
Cuando dos ecuaciones cumplen con esta caracterstica, las races de una ecuacin son las
inversas de las races de la otra:
G11 ; G21 ;K ; G p 1
La solucin general de la ecuacin en diferencias que rige la estructura autorregresiva del
proceso yt, tiene la siguiente forma:

( ) ( ) ( )
t t t
1 1 1
yt = A1 G 1 + A2 G 2 + K + Ap G p
La FAC tiene la misma estructura que el sistema de ecuaciones yt, y por lo tanto la solucin
general de ambos es la misma, mientras que difieren en su solucin particular dado que los j
pueden tomar valores entre -1 y 1, y los yt pueden tomar cualquier valor.
yt 1 yt 1 2 yt 2 K p yt p = 0
j ( y ) 1 j 1( y ) 2 j 2( y ) K p j p ( y ) = 0
Como los comportamientos estructurales de ambas expresiones son los mismos, es decir,
ambas ecuaciones en diferencia son del mismo orden y con los mismos coeficientes, queda
demostrado que las caractersticas del proceso yt estn contenidas en la FAC.

44
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

( ) ( ) ( )
j j j
j = B1 G11 + B2 G21 + K + B p G p1
Por su parte, si el proceso es estacionario, las races son, en mdulo, mayores que la unidad.
Si se trata de races reales, la FAC ser exponencial decreciente; si son races complejas, la
FAC ser sinusoidal amortiguada. Esto demuestra que si el proceso es estacionario, su FAC
es exponencialmente decreciente.

Por otra parte, supongamos que todas las races cumplan con la condicin de estacionariedad,
excepto una. Para que no cumpla con dicha condicin, puede darse que exista una raz cuyo
mdulo es 1, en cuyo caso podramos expresarla: G1 = 1 + , donde es un infinitsimo. En
caso de = 0, el proceso no estacionario puede sufrir una transformacin que lo haga
estacionario. Si 0(-), el proceso es explosivo y no tiene solucin en el mbito de la teora
de modelos. Si es 0(+), entonces:

( ) ( ) ( ) = B1 ( G11 )
j j j j
j = B1 G11 + B2 G21 + K + B p G p1
dado que el resto de los trminos tender a anularse a medida que j crezca. Ahora bien, la
expresin exponencial puede pensarse como un binomio a la menos j, con lo cual puede
plantearse como la siguiente suma infinita:

( ) = B1
j + k 1
= B1 ( 1 + ) ( )
j j
1 j

k
j = B1 G 1 = B1G 1
k =0 j1
pero dado que se trata de infinitsimos al cuadrado, al cubo, etc., que son infinitsimos de
orden mucho mayor, y por lo tanto despreciables, la expresin puede aproximarse por:
j ( j + 1) 2
j = B1 1 j + + K B1 ( 1 j )
2
para valores suficientemente grandes de j, lo cual demuestra que en un proceso no
estacionario, la FAC decrece en forma lineal.

La estimacin de los coeficientes


En un AR(p) los coeficientes pueden ser estimados por 3 mtodos:
1. El mtodo de Yule-Walker surge de construir el sistema de ecuaciones de Yule-Walker:
1 = 1 + K + 2 1 + p p 1

2 = 1 1 + 2 + K + p p 2

M
= + + K + p
p 1 p 1 2 p 2
Si se sustituyen los i por sus estimadores muestrales, se obtiene el siguiente sistema de
ecuaciones:

45
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

1 = 1 + K + 2 1 + p p 1

2 = 1 1 + 2 + K + p p 2
YW
j ( j = 1, 2,K , p )
M
= + + K + p
p 1 p 1 2 p 2
del cual pueden obtenerse los p coeficientes estimados.

2. El mtodo de los mnimos cuadrados consiste en minimizar la suma del cuadrado de los
residuos:

t2 = ( yt 1 yt 1 K p yt p ) = f ,K, ) = min
n

t = p +1 t
( 1 p

f
=0 ( j = 1, 2,K , p )
j

Se demuestra que el extremo ser siempre mnimo. Se puede garantizar que si el ruido blanco
es normal, entonces los estimadores minimocuadrticos son asintticamente eficientes,
convergen en distribucin a la normal y son consistentes.

3. El mtodo de maximoverosimilitud es eminentemente paramtrico, debiendo definirse


una distribucin de probabilidad, en este caso la normal. Se busca maximizar la siguiente
funcin de probabilidades conjunta:
1 n

2

( )
t
2 2 t = p + 1
dF p +1 ;K ; n = 1
( n p) e
d p +1 K d n
( 2 2 ) 2

1 n
2
( yt 1 yt 1 K p yt p )

(
dF y p+1 ;K ; yn = ) 1
( n p) e
2 2 t = p + 1



dy p +1 K dyn
( 2 )
2 2

Clase 15. Mircoles 29/09/2010 (Prctica)

Clase 16. Jueves 30/09/2010

Con respecto a los estimadores de los coeficientes AR, se puede demostrar que si el orden p
es conocido, o sea que no es una variable aleatoria, y los t son WN normal, entonces los
estimadores son asintticamente insesgados y convergen hacia una distribucin normal.
Estos estimadores tienen la siguiente matriz de varianzas y covarianzas:

46
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

2 ( ; ) K ( ; )
( 1) 1 2 1
p

( ) K ( ; )
2

= (1 2 )
1
; 2 2 p
1 T( y )p 1( y )
p( ) p
M M O M n
p


(1 ;p ) ( ; ) K (2 )
2 p p
1 1 ( y ) K p 1 ( y )
1 ( y ) 1
( y) = M p = M
p ( y) = M
M O M
1
p

p ( y) p p 1 ( y ) K K
Se pretende determinar cules regresores pueden permanecer en el modelo. Se construye
entonces un estadstico T que converge a una distribucin t, y se plantea un test de
significatividad individual para un modelo con variables centradas.
H0 : j = 0 H1 : j 0
j
T= : t( n p )
( )
( j)
T >2 se rechaza H 0
Debe aclararse que el estadstico T debe ser marcadamente mayor que 2 en valor absoluto. Si
para algn coeficiente se aceptara la hiptesis nula, entonces sera posible eliminar el
respectivo trmino de la representacin, sin alterar el orden p del modelo. Si se tratara de un
modelo con variables no centradas, se tendra un trmino independiente, con lo cual habra
un coeficiente ms a estimar, y la distribucin t del estadstico tendra n p 1 grados de
libertad.

En la representacin AR(2), la ecuacin caracterstica produce dos races: G1 y G2.


yt = 1 yt 1 + 2 yt 2 + t
( B ) = 1 1 B 2 B 2 = 0 1 B + 2 B 2 1 = 0

1 12 + 42
G= ; D = 12 + 42
22
Si el discriminante es positivo, la funcin es exponencialmente decreciente. Si el
discriminante es negativo, se puede demostrar que la representacin es una funcin seno
amortiguada. Si el discriminante es cero, la funcin es en parte lineal y en parte exponencial
decreciente, y hay una parte de la funcin donde domina la linealidad, y otra parte donde
domina la exponencialidad. Se puede demostrar que el punto de inflexin se ubica a la
derecha del extremo.

47
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

Clase 17. Lunes 04/10/2010

Sea una representacin MA(), con yt centrada y t WN.


yt = t + 1 t 1 + 2 t 2 + K
El inconveniente de la representacin MA() es que involucra a un nmero infinito de
coeficientes, pero no se cuenta con informacin suficiente para realizar infinitas
estimaciones. Para que el sistema sea estable, se pide que la sucesin de ponderaciones sea
de cuadrados sumables:


j=0
2
j <
Esto requiere que la influencia de los shocks aleatorios t-j sobre yt decrezca en forma rpida.
Sobre esta base, puede considerarse que habr una cantidad finita q de shocks aleatorios que
influirn en yt, obtenindose:
1 = 1
2 = 2
M
q = q
j = 0 ( j > q)
yt = t 1 t 1 2 t 2 K q t q

(
y t = 1 1 B 2 B 2 K q B q t = ( B ) t )
que es una representacin MA(q), a partir del operador MA(q), que es un polinomio de orden
q en B. Los MA(q) siempre son estacionarios:

( )
E ( yt ) = E ( t ) 1 E ( t 1 ) 2 E ( t 2 ) K q E t q = 0

2 ( yt ) = 2 ( ) + ( ) + ( ) + K + ( )
t 1
2 2
t 1
2
2
2
t 2
2
q
2
t q

( y ) = (1 + + + K + )
2 2
t 1
2 2
2
2
q
2

La condicin de invertibilidad implica la convergencia del operador AR(). Lo primero que
debe hacerse es hallar la forma AR del MA(q), invirtiendo el operador.
y t = ( B ) t
1 1
yt = y = ( B ) yt = t
( B) 1 1 B 2 B 2 K q B q t
La convergencia del operador (B), significa la convergencia del cociente, y sta depende de
la caracterstica del polinomio del denominador, la cual depende de la naturaleza de sus
races, y stas son las que se obtienen al resolver la ecuacin caracterstica del MA (q):
( B ) = 1 1 B 2 B 2 K q B q = 0

48
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

que proporciona q races H1,H2,,Hq. La condicin | Hj | > 1 (j=1,2,,q) garantiza la


invertibilidad del proceso.

Especificacin del modelo


A partir de la funcin de autocovarianzas, desarrollamos la FAC y la FACP.

( )
j ( y ) = E yt j yt = E ( t j 1 t j 1 K q t q ) ( t 1 t 1 K q t q ) =

( ) ) ( ) (
( )
= E t j t 1 E t j t 1 2 E t j t 2 K q E t j t q

E ( ) + E ( ) + E ( ) + K + E ( )
2
1 t j 1 t 1 t j 1 t 1 1 2 t j 1 t2 1 q t j 1 t q

K E ( ) + E ( ) + K + E ( )
q t j q t 1 q t jq t 1 q
2
t jq t q

Para los sucesivos valores de j:


0( y ) = + 1 + K + q = 1 + 1 + K + q
2 2 2 2 2
( 2 2
)
2

(
1( y ) = 1 + 1 2 + 2 3 + K + q 1 q ) 2

(
2 ( y ) = 2 + 1 3 + K + q 2 q ) 2

y puede verse que a medida que j crece, decrece el nmero de sumandos en el parntesis.
q ( y ) = q
2

j( y) = 0 ( j > q)
La FAC es:
j + 1 j + 1 + K + q j q
( j = 1, 2,K , q )
( = 1 + 1 + K + q
2 2

j y)


0 ( j > q)
Con respecto a la FACP:
2 12
11 = 1 ; 22 = =0
1 12
y se puede demostrar que es infinita. La FACP decrece ms suavemente que la FAC.

Estimacin de los coeficientes


Necesitamos q + 1 ecuaciones: q ecuaciones que nos permitan estimar los 1,2,,q, y una
ecuacin para el 2.

49
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

0( y ) = ( 1 + 1 2 + K + q 2 ) 2

1 + 1 2 + K + q 1 q
1 =
1 + 12 + K + q 2

M
q
q =
1 + 12 + K + q 2
Ahora planteemos un proceso MA(1):
yt = t 1 t 1
1
1 = 112 + 1 + 1 = 0
1 + 12
1 1 4
12 1(1)
1 = ( 2)
2 1 1
Analizando la estructura de cada raz, puede llegarse a la siguiente relacin:
1
1(1) =
( 2 )
1

( B ) = 1 1 B = 0
H = 11 > 1 1 < 1
De modo que, si para una raz el proceso cumple la condicin de invertibilidad, para la otra
no lo cumple. Con lo cual, a cada FAC le corresponde un solo proceso MA invertible. Por lo
tanto, a cada FAC le corresponde un solo proceso ARMA(p,q) estacionario e invertible. Esto
respalda la idea de establecer una biyeccin entre las FAC y los procesos: a cada proceso le
corresponde una nica FAC, y viceversa.

El siguiente es un proceso ARMA(p,q):


yt = 1 yt 1 + 2 yt 2 + K + p yt p + t 1 t 1 K q t q
Se trata de un proceso similar al AR(p), con su componente autorregresiva y el shock
aleatorio del perodo t, ms la influencia residual de los q shocks aleatorios anteriores.
Tambin puede interpretarse como un proceso al cual se aplica una representacin AR(p),
con una serie de perturbaciones que no son un ruido blanco, dado que presentan
autocorrelaciones significativas.
Si por ejemplo se planteara un proceso AR(2), y dicho proceso fuera realmente AR(2), las
perturbaciones seran ruido blanco dado que no habra autocorrelaciones; ahora bien, si se
plante un AR(1), entonces habr parte de las perturbaciones que debiera ser reconocida
como una autorregresividad de segundo orden, y por lo tanto las perturbaciones presentaran
una autocorrelacin.

50
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

En realidad, la representacin AR(p) es una representacin ARMA(p,0), y la representacin


MA(q) es una representacin ARMA(0,q).

(1 B K B ) y = (1 B K B )
1 p
p
t 1 q
q
t

( B ) yt = ( B ) t
La condicin de estacionariedad est vinculada a la convergencia del operador MA, que a su
vez depende de las caractersticas de la componente AR:
( B) ( B)
yt = t = t = ( B ) t
( B ) 1 1 B K p B p

( B ) < ; ( B ) = 0 ; G j > 1 ( j = 1, 2,K , p )


La condicin de invertibilidad est vinculada a la convergencia del operador AR, que a su
vez depende de las caractersticas de la componente MA:
( B ) ( B )
yt = yt = t = ( B ) yt
( B) 1 1 B K q B q

( B) < ; ( B) = 0 ; H j > 1 ( j = 1, 2,K , q )


Especificacin del modelo

( ) ( )
j ( y ) = E yt j yt = 1 E yt j yt 1 + K + p E yt j yt p + ( )
( ) ( )
+ E y t j t 1 E y t j t 1 K q E yt j t q ( )
Para los sucesivos valores de j:

0( y ) = 1 1( y ) + K + p p ( y ) + 1 ( yt t 1 ) K q yt t q
2
( )
1( y ) = 0 0( y ) + K + p p 1( y ) 1 K q yt 1 t q
2
( )
y puede verse que a medida que j crece, decrece el nmero de sumandos de la parte MA,
mientras que la contribucin autorregresiva consta siempre de p sumandos.
q ( y ) = 1 q 1( y ) + K + p q p ( y ) q
2

j ( y ) = 1 j 1( y ) + K + p j p ( y) ( j > p)
La funcin de autocovarianzas, y la FAC, son infinitas. La FAC se comporta irregularmente
al comienzo, por la contribucin de la componente MA, y a partir de j = q + 1 coincide con
la FAC de la representacin AR. La FACP tambin es infinita. La FAC y la FACP decrecen
a una velocidad bastante parecida.

Para la estimacin de los coeficientes se requieren p + q + 1 ecuaciones. Una de ellas es la


autocovarianza de orden 0, para estimar 2. Adems se construye un sistema de p ecuaciones
de Yule-Walker, desde el orden j = q + 1 hasta el orden j = q + p. Dichas ecuaciones son
lineales; se sustituyen los coeficientes de correlacin por sus estimadores, obteniendo los

51
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

estimadores de los coeficientes j. Luego, los sustituimos en las primeras q ecuaciones, que
tendrn sus respectivos coeficientes j; sin embargo, en este caso son no lineales.

Clase 18. Lunes 25/10/2010

LA CLASE TRAT ACERCA DE ANLISIS DE LOS RESIDUOS Y PREDICCIN.

Clase 19. Jueves 28/10/2010

La restriccin para que un proceso sea estacionario, es que evolucione alrededor de una
funcin llamada tendencia estacionaria, y que tenga una varianza fija, y adems est
caracterizada por el particular comportamiento de sus autocovarianzas. Se puede aplicar una
transformacin tal que un proceso no estacionario se vuelva estacionario. Un proceso no
estacionario de segundo orden puede ser estacionario de primer orden; recordemos que el
hecho de que sea estacionario de orden s implica la estacionariedad de orden r < s, pero la
implicacin inversa no es cierta en general.
d
yt = m ( yt ) + = a j t j + t

t
j=0
El primer sumando representa los niveles (el comportamiento de los niveles). Podemos
suponer que este primer miembro es una constante (el proceso evoluciona en un nivel
alrededor de un valor fijo), o podra presentar una tendencia estacionaria. Existen dos tipos
de tendencia: una tendencia estacionaria, cuando el proceso evoluciona alrededor de una
funcin del anlisis numrico (tpicamente lineal, pudiendo ser una parbola de segundo
grado); o una tendencia no estacionaria o estocstica, originada en el no cumplimiento de las
condiciones de estacionariedad, referidas al comportamiento de las races de la ecuacin
caracterstica de la componente AR, es decir, que sean en mdulo mayores que la unidad.
Este ltimo tipo de tendencia se origina por la acumulacin no convergente de shocks
aleatorios.
Supongamos que la varianza de las perturbaciones de este modelo no cumpla con la
condicin de estacionariedad, es decir, que no sea constante, sino que sea una funcin de los
niveles:
2 ( t ) = h m ( yt )
Se pretende eliminar esta heterocedasticidad mediante la aplicacin de una transformacin.
La forma de la transformacin, depende de la forma que adopte esta funcin. Aqu aparecen
las transformaciones de Box-Cox:

T m ( yt ) =
1
h m ( yt )
La transformacin es tal, que la varianza resulta constante:
2 ( T ( yt ) ) = y2
1
T =
m ( yt )

T = ln m ( yt )
La siguiente representa la familia de transformaciones de Tukey:

52
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

T ( ) ( yt ) = ( y t + C )

La constante C tiene como funcin garantizar que la serie cronolgica del parntesis no
presente valores nulos ni negativos. Todo el problema relacionado con la transformacin se
reduce a la estimacin del parmetro ; se trata de un proceso artesanal, sobre la base de un
grfico rango-mediana: se divide la serie cronolgica en r subseries, y en cada una de
ellas se obtiene el rango y la mediana. Un grfico cartesiano que relacione los valores de
ambas variables para cada subserie, sugiere el valor de . Una vez obtenido, es utilizado para
volver a procesar los valores y rehacer el grfico rango-mediana. Para los nuevos valores se
analiza la heterocedasticidad, y de ser necesario se reitera el proceso, hasta que la serie
resulte homocedstica. No tiene ningn secreto conceptual; es puramente artesanal.

Los procesos no estacionarios de primer orden presentan tendencia estocstica, que se


manifiesta cuando no se cumplen las condiciones de estacionariedad. La no estacionariedad
puede darse porque existe alguna raz cuyo mdulo sea menor que la unidad, o alguna cuyo
mdulo sea igual a la unidad. En el primer caso, se dice que el proceso es explosivo; un
proceso de estas caractersticas asume una forma exponencial:

En el caso explosivo, los mtodos para volver estacionario al proceso no se estn incluidos en
la teora de modelos. El segundo caso es el que estudiaremos. Expresamos al proceso en
funcin de su representacin ARMA, pero consideramos tan slo la parte AR, dado que en
ella se genera la no-estacionariedad.
y t = 1 y t 1 + 2 y t 2 + K + p + d y t p d + ( B ) t
( B ) y t = ( B ) t

( B ) = 1 1 B 2 B 2 K p+ d B p+ d = 0
Supongamos que las races son tales que:

G1 , G2 ,K , G p > 1 ; G p +1 = G p + 2 = K = G p + d = 1
Entonces es un operador AR no-estacionario. El operador puede expresarse en funcin de la
inversa de las p races cuyo mdulo es mayor que la unidad, pero ello no ocurre con las
races unitarias:

( )
( 1 G11 B ) K 1 G p 1 B ( 1 B ) d yt = B t
( )
Lo que vemos entre corchetes, es la representacin, en funcin de la inversa de sus races, de
un operador AR de orden p estacionario:
( B ) ( 1 B ) y t = ( B ) t
d

Por su parte, veamos lo siguiente: aplicar el operador (1 B) a yt representa:

53
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

(1 B ) y t
= yt y t 1 = y t
De modo que la existencia de una raz unitaria genera la aparicin del operador (1 B), que
es el operador diferencia, y la multiplicidad de dicha raz determina el orden del operador
diferencia:

(1 B )
d
yt = d yt
Obtenindose la siguiente expresin de la representacin:
( B ) d y t = ( B ) t
Necesitamos reemplazar a la variable original transformada por el operador diferencia (d yt)
por una variable estacionaria zt, es decir que se representacin AR de zt no presente races
unitarias:
d yt = z t
( B ) zt = ( B ) t
yt = d z t

1 = ( 1 B ) = 1 + B + B 2 + K = S
1

yt = d z t = S d z t
{ y } : I (d )
t
Entonces, el proceso original se obtiene integrando d veces el proceso estacionario. Por ello,
si el proceso presenta d races unitarias, se denomina proceso integrado de orden d.
Si el proceso yt no posee races unitarias, entonces es integrado de orden 0 y admite una
representacin ARIMA (p;d;q), que es una representacin que tiene d races unitarias, que
fue diferenciado d veces para volverlo estacionario, y que una vez diferenciado d veces
admite una representacin ARMA (p;q).
En la prctica, al determinarse el orden d pueden presentarse errores de subdiferenciacin o
de sobrediferenciacin. No conozco la ecuacin caracterstica con los verdaderos valores de
los coeficientes, sino que parte de los estimadores de los verdaderos valores. De modo que no
contamos con las races, sino con sus estimadores, y es extremadamente difcil que un
estimador d exactamente igual a 1. Si el problema es la subdiferenciacin, el problema no es
grave porque en tal caso seguira apareciendo alguna raz unitaria, y al notarlo podramos
seguir diferenciando. En caso de sobrediferenciar, la cosa es menos detectable, dado que
luego de haber diferenciado las primeras d veces necesarias, el proceso se hizo estacionario,
y luego de realizar las diferencias innecesarias, el proceso sigue siendo estacionario y en
principio no podran distinguirse ambas situaciones.
El problema de la sobrediferenciacin est relacionado con la componente MA del proceso, y
produce tres efectos: la prdida de la condicin de parsimonia, la prdida de la condicin de
invertibilidad y el aumento de la varianza.

Supongamos un MA(1):
yt = t 1 t 1 = ( 1 1 B ) t
Esta representacin es siempre estacionaria. Supongamos que por un error de lectura, se
diferencia el proceso:

54
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

yt = ( 1 B ) y t = ( 1 B ) ( 1 1 B ) t = ( 1 1 B B 1 B 2 ) t =
= 1 ( 1 + 1 ) B + 1 B 2 t = ( 1 1 B 2 B 2 ) t
1 = 1 + 1 ; 2 = 1
y el proceso se transform en un MA(2), con lo cual se perdi la condicin de parsimonia.
La ecuacin caracterstica de la parte MA es:
(B ) = 1 1 B 2 B 2 = 0
Cuando la ecuacin es de este tipo, el hecho de que los coeficientes sumen 1 es condicin
necesaria y suficiente para garantizar que tiene una raz unitaria, y ello implica que ha
perdido la condicin de invertibilidad.
La varianza del proceso original y la del sobredimensionado, son las siguientes:
y2 = ( 1 + 12 ) 2

2 y = 1 + ( 1 + 1 ) + 12 2 = 2 ( 1 + 1 + 12 ) 2
2


2 y 2y = ( 1 + 1 ) 2 > 0 2 y > y2
2

y la varianza del proceso sobredimensionado es mayor que la del proceso original.

El hecho de pretender estimar las races, hace que las races unitarias sean variables
aleatorias no observables. Se debe construir un test de hiptesis para detectar las races
unitarias. Supongamos un proceso AR(1):
yt = 1 yt 1 + t
( B ) = 1 1 B = 0
G = 11
Si el proceso es no estacionario, entonces |1| = 1.
H0: 1 = 1; H1: 1 < 1
Consideramos solamente una cola porque si 1 > 1, entonces la raz G es tal que G < 1, y
estamos en el caso explosivo, que no pretendamos analizar.
Recordemos que:
y t = y t 1 + t
y t 1 = y t 2 + t 1
M
y t n = y t n 1 + t n
y t = t + t 1 + t 2 + K + t n + y t n 1
y si n tiende a infinito, se obtiene la representacin MA():

yt = t j
j =0

55
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

Si H0 es verdadera, es decir tiene raz unitaria, al proceso AR(1) se lo denomina Random


Walk, y tiene la particularidad de que las perturbaciones son estacionarias. La presencia de la
raz unitaria genera tendencia estocstica porque esta tendencia es definida por la
acumulacin de shocks aleatorios, de modo que la representacin MA() no es de cuadrados
sumable. De modo tal que la varianza del proceso verifica:
lim 2 ( yt ) =
t

Clase 20. Lunes 01/11/2010

Si en un AR(1) restamos miembro a miembro yt-1:


yt = 1 yt 1 + t
yt yt 1 = 1 yt 1 yt 1 + t
yt = ( 1 1) yt 1 + t
obtenemos la ecuacin de Dickey-Fuller.
H 0 : 1 1 = 0 H 1 : 1 1 < 0
1 1
T=
( 1 )
( )
Si H0 es verdadera, resulta que 1 = 0 , invalidando a 1 como estimador; adems, en este
caso el estadstico no converge a la distribucin t, sino a la siguiente distribucin:
1

1 1 d 0
B( t ) dt
T=
1
( 1 )

B( )dt
2
t
0
donde B(t) son procesos movimiento browniano estandarizados. Luego de simular la
distribucin, Dickey y Fuller hallaron una tabla de valores crticos . Regla de decisin: se
acepta H0 si < T < 0; pero, si T < , se considera lo suficientemente alejado de 0 como para
rechazar H0.
Luego propusieron que la representacin tuviera una tendencia estacionaria, caracterizada
por la existencia de trmino independiente:
yt = a0 + ( 1 1) yt 1 + t
y hallaron para este caso valores crticos , con la misma regla de decisin.
Adicionalmente, propusieron una tendencia lineal, y hallaron valores crticos :
yt = a0 + a1t + ( 1 1) yt 1 + t
Se verifica que < < . Esto genera que un estadstico T tal que < T < , el proceso se
considera no estacionario si tiene trmino independiente, pero se considera estacionario si no
lo tiene. Anlogamente, si T fuera tal que < T < , el proceso sera estacionario si tiene
trmino independiente, pero sera no estacionario si tiene tendencia lineal. Todo esto sugiere
que es importante verificar la significatividad de a0 y a1. El test de Phillips-Perron de
significatividad conjunta, pone a prueba la hiptesis H 0 : a0 = a1 = 1 1 = 0 .

56
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

Aqu se completa el estudio de las series cronolgicas; los procesos de parmetro discreto, en
particular en su definicin dbil de los procesos de parmetro discreto. Ahora vamos a
estudiar los procesos que admiten una definicin estricta. Nos salteamos los fenmenos
discretos-discretos, y vamos directamente a los {yt} que son continuos en el dominio del
tiempo y discretos en el dominio de las variables. Vamos a suponer un proceso {yt} tal que
sus variables van a tomar valores en la medida que ocurra un evento E determinado. Esto
puede ocurrir en cualquier momento del tiempo, y por ello es un proceso continuo en el
dominio del tiempo. Cuando ocurre una vez, el proceso pasa del estado 0 al estado 1.
Permanece en el estado 1 hasta que ocurre otra vez, y all pasa del estado 1 al estado 2,
permanece en el estado 2, etc. Es un proceso de salto (discreto). Adems, una vez que
alcanz el estado j+1, no puede regresar al estado j, sino permanecer o avanzar.

Ahora bien:

vamos a suponer que se conoce el estado de un proceso en el momento t0. La probabilidad


P(yt)(t > t0) de este proceso en un momento t posterior a t0 es independiente de todo lo que le
ocurri al proceso antes del momento t0.
Lo que le ocurra al proceso en el intervalo (t0;t) depende exclusivamente del estado del
proceso en t0. Las ocurrencias del evento E para intervalos disjuntos en el tiempo, son
independientes entre s. O sea, lo que le ocurri al estado en (t0;t) no depende de ningn otro
intervalo en el tiempo, sino tan slo del estado del proceso en t0. Esta dependencia del estado
en un momento respecto del estado en un momento anterior, representa la propiedad de
autorregresividad. Estos procesos son AR(1).
Supongamos tambin que en un instante del tiempo el evento E slo puede ocurrir una vez;
no se permiten dos ocurrencias simultneas del evento E. Esta es la condicin de linealidad.

Al comenzar a estudiar los procesos, vimos que lo que se necesita para definir en forma
estricta a un proceso es definir la distribucin de probabilidades para cualquier sucesin
finita de las variables del proceso. Luego demostramos que esa sucesin finita, esa funcin
de probabilidades conjuntas, poda ser expresada como un producto de probabilidades
condicionales. Estas probabilidades condicionales, sern llamadas probabilidades de
transicin del proceso:

( y = y)
Px , y ( t1 ;t2 ) = P ( t2 ) y = x
( ( t1 ) )
Entonces, para poder definir en forma estricta un proceso es necesario poder definir la
familia completa de probabilidades de transicin, x,y,t. Toda la informacin sobre el
infinito pasado est resumida en la situacin aqu enmarcada. Esta probabilidad nos dice cul
es la probabilidad de que un proceso que en el momento t1 se encontraba en el estado x, se
encuentre en el estado y en el momento t2.
El dominio de las variables del proceso son los nmeros enteros no-negativos:
( yt ) = {0,1, 2,K}
Las propiedades de la autorregresividad de orden 1, dan lugar a una ecuacin de
trascendencia fundamental:

57
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

Como el proceso es continuo en el dominio del tiempo, sin importar los valores que asuman
t1 y t2, siempre es posible generar una variable aleatoria que se ubique entre los dos instantes.
Supongamos t1 < t < t2, y analicemos la probabilidad de que el proceso que en el momento t1
se encuentra en el estado x, en el momento t2 se encuentre en el estado y. Observemos que no
existe una nica trayectoria (de hecho existen y x + 1). Entonces podra expresarse la
siguiente igualdad:
Px , y ( t1 ; t 2 ) = Px , x ( t1 ; t ) Px , y ( t ; t 2 ) + Px , x +1 ( t1 ; t ) Px +1, y ( t ; t 2 ) + K + Px , y ( t1 ; t ) Py , y ( t ; t 2 )
Que podra expresarse en forma compacta como:
y
Px , y ( t1; t 2 ) = Px ,h ( t1; t ) Ph , y ( t ; t 2 )
h= x
La probabilidad de transicin entre un momento x y otro momento y, est dada por la
probabilidad de que el proceso adopte una trayectoria o adopte otra, u otra, etc. La
probabilidad de la suma de eventos, es la suma de sus probabilidades.
Todas estas trayectorias son mutuamente excluyentes. Luego, la probabilidad de transicin es
una probabilidad total.
Si el proceso es AR(1), entonces lo que ocurra con el proceso en el intervalo (t1;t) es
independiente de lo que ocurra en el intervalo (t;t2). La probabilidad Px,y(t1;t2) de cada
trayectoria es una probabilidad compuesta, o sea, la probabilidad de que ocurra un suceso y
luego el otro (por ejemplo, que del estado x pase al x+1, y del estado x+1 pase al estado y, o
que del estado x pase al estado y, y una vez en el estado y permanezca en ese estado y, etc.).
Pero como estos eventos que estn incluidos en las probabilidades compuestas son
independientes entre s, porque el proceso es autorregresivo de orden 1, entonces estas
probabilidades compuestas son igual al producto de las probabilidades. Esto no ocurrira si el
proceso fuera AR(2), porque entonces la probabilidad del segundo suceso dependera de la
ocurrencia en el instante t y de la ocurrencia en un instante anterior a t, y no existira
independencia entre los intervalos disjuntos.
y x
Px , y ( t1 ; t 2 ) = Px , x ( t1 ; t ) Px , y ( t ; t 2 ) + Px , x +1 ( t1 ; t ) Px +1, y ( t ; t 2 ) + Px , x + k ( t1 ; t ) Px + k , y ( t ; t 2 )
k2
Esta ecuacin clave se conoce como la Condicin de Kolmogorov-Chapman.

Supongamos un intervalo de longitud t; este intervalo es tan chico como se quiera. La


probabilidad de que un proceso que se halla en el estado x en el momento t, pase al estado
x+1 en el momento t+t (que puede interpretarse tambin como la probabilidad de que en
dicho intervalo ocurre el evento E una vez), es igual a t, donde se denomina la tasa
instantnea de ocurrencia del evento E.

58
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

Px , x +1 ( t ; t + t ) = t
1 Px , x ( t ; t + t )
lim =
t 0 t
Esta tasa define la funcin Intensidad de Ocurrencia del evento E.

Supongamos que se selecciona un t tan chico como se pretenda; entonces la probabilidad


puede definirse como una funcin de t. Estamos suponiendo que si t es lo suficientemente
pequeo, entonces la probabilidad de que el evento E ocurra ms de una vez en ese intervalo,
tiende a 0.
lim Px , x + k ( t ; t + t ) = 0
t 0

Px , x + k ( t ; t + t ) = o ( t ) ( k 2)
Donde o(t) representa una expresin en funcin de t, tal que la probabilidad tiende a ser
nula cuando k > 1, dado que implicara que el evento E ocurra ms de una vez en un intervalo
tan pequeo como se pretenda. Lo que se puede demostrar es que la suma de funciones o(t)
es tambin una funcin o(t):
P x ,x+k ( t ; t + t ) = o ( t )
k2
Debe considerarse a la funcin o(t) como una expresin tal que no tiende a 0 si t tampoco
tiende a 0, dado que nada impedira que en un intervalo grande de tiempo ocurra ms de un
evento; pero dicha expresin tiende inevitablemente a 0 si t tiende a 0.
Por ltimo, falta determinar la probabilidad de que el evento E no ocurra en el intervalo:
Px , x ( t ; t + t ) = 1 t o ( t )
Estas probabilidades se denominan de transicin infinitesimal. El quid de la cuestin, es que
estas probabilidades se pueden calcular, ya que dependen de t. Luego, la clave del problema
radica en expresar a todas las probabilidades de transicin en funcin de las probabilidades
de transicin infinitesimal, dado que estas ltimas se pueden calcular.

Clase 21. Mircoles 03/11/2010 (Prctica)

Clase 22. Jueves 04/11/2010

La intencin es definir la familia completa de probabilidades de transicin. Para simplificar


la cosa, y sin prdida alguna de generalidad, supongamos que en el momento 0 el proceso se
halla en el estado 0. Debemos, entonces, definir las siguientes probabilidades:
P0, y ( 0; t ) = Py ( t )
y = 0,1, 2K ; t 0
El momento 0 es el nico momento en que el proceso no es estocstico, sino determinstico.
Por ello, cuando planteemos un sistema de ecuaciones en derivadas parciales y tengamos la
solucin general, al buscar la solucin particular necesitaremos una condicin inicial, y la
buscaremos siempre en el momento 0:
1 si y = 0
Py ( 0 ) =
0 si y > 0

59
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

Utilizaremos los siguientes intervalos disjuntos, para aprovechar la ecuacin de Kolmogorov-


Chapman, gracias a las propiedades de la autorregresividad de primer orden:

Y entonces se verifica que:


Py ( t; t + t ) = Py ( t ) Py , y ( t; t + t ) + Py 1 ( t ) Py 1, y ( t; t + t ) + K + P0 ( t ) P0, y ( t; t + t )
y
Py ( t ; t + t ) = Py ( t ) Py , y ( t ; t + t ) + Py 1 ( t ) Py 1, y ( t ; t + t ) + Py k ( t ) Py k , y ( t ; t + t )
k=2

Py ( t ; t + t ) = Py ( t ) 1 t o ( t ) + Py 1 ( t ) t + o ( t ) Py k ( t )
k2

A los efectos que nos interesan, o(t) ser siempre utilizada cuando t tienda a 0, de modo
que siempre que aparezca activamente en escena, tomar un valor infinitesimal. Por dicha
razn, puede considerarse constante (slo en el caso en que t tienda a 0) y extraerse como
factor comn.
Si dividimos por t y aplicamos el operador lmite cuando t 0:
P ( t ; t + t ) Py ( t ) o ( t ) o ( t )
lim y = Py ( t ) lim Py ( t ) + Py 1 ( t ) + lim P (t )
t 0 t t 0 t t 0 t k 2 y k
Ahora bien, o(t) tiende a 0 solamente cuando t tiende a 0, de modo que en este caso se
anula.
d
P ( t ) Py ( t ) = Py ( t ) + Py 1 ( t )
dt y
La definicin estricta del proceso exige la resolucin de este sistema de infinitas ecuaciones
diferenciales-en diferencias (diferenciales con respecto a t, en diferencias respecto de y),
llamado Sistema de ecuaciones diferenciales de Kolmogorov.
Habamos visto la funcin generatriz de probabilidades en funcin de un nico argumento w,
porque se trataba de variables aleatorias aisladas. En este caso se agrega el argumento t
porque las variables no estn aisladas, sino que estn ordenadas en el tiempo. La funcin
generatriz de probabilidades est dada por:

G y ( w; t ) = w y Py ( t )
y=0
Es posible aplicar la funcin generatriz de probabilidades porque el dominio de la variable y
son los enteros no negativos.
En el momento 0 se verifica que:

G y ( w;0 ) = w y Py ( 0 ) = w 0 1 = 1
y=0
dado que la probabilidad Py(0) era no nula solamente cuando y = 0, siendo sta igual a 1.
Por su parte:
G
= w y Py ( t )
t y=0

G
= y w y 1 Py ( t )
w y = 0

60
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

Partiendo del sistema de ecuaciones diferenciales de Kolmogorov, podemos multiplicar a


ambos miembros por wy y luego aplicar sumatoria.

w y
Py ( t ) = w Py ( t ) + w y Py 1 ( t )
y

y=0 y=0 y=0


De esta manera, el miembro de la izquierda es la derivada parcial de G respecto de t. En el
primer sumando del miembro de la derecha, la sumatoria es la funcin G. En el segundo
sumando, debemos lograr que la potencia w coincida con el subndice de la probabilidad,
para que la estructura se asemeje a la de la funcin G. Luego, tomamos w como factor comn
fuera de la sumatoria, obteniendo:
G
= G + w w y 1 Py 1 ( t )
t y=0
Ahora bien, analicemos esta ltima sumatoria:

w y 1
Py 1 ( t ) = w 1 P1 ( t ) + w 0 P0 ( t ) + w 1 P1 ( t ) + w 2 P2 ( t ) + K
y=0

w y 1
Py 1 ( t ) = w P1 ( t ) + w y Py ( t )
1

y=0 y=0
Pero P-1(t) indica la probabilidad de que en un momento t el proceso se halle en el estado -1,
que no pertenece al dominio del proceso. Luego, este suceso es imposible: P-1(t) = 0.

w y 1
Py 1 ( t ) = G
y =0
Y entonces:
G
= ( w 1) G
t
Aplicando la funcin generatriz de probabilidades, hemos transformado el sistema de
infinitas ecuaciones diferenciales-en diferencias de Kolmogorov, en una ecuacin en
derivadas parciales.
Ahora bien, una ecuacin en derivadas parciales tiene la siguiente estructura:
PZ x + QZ y = R
Z = Z ( x; y )
En nuestro caso:
x=t ; y=w
Z = G y ( w; t )
QZ y = 0
y puede verse que:

G ( w; t ) = ( w 1 ) G y ( w ; t )
t y
de modo que, por no aparecer la derivada de G respecto de w, puede considerarse a w como
una constante y transformar esta ecuacin en derivadas parciales en una ecuacin diferencial
ordinaria, quedando:

61
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

d
G = ( w 1) G
dt
y separando variables se obtiene:
dG
= ( w 1) dt
G
( )
ln G y ( w; t ) = ( w 1) t + C

G y ( w; t ) = Ce ( )
w 1 t

que es la solucin general. Para hallar la solucin particular, debe especificarse una
condicin inicial, que est siempre vinculada con el punto t = 0, que es el nico punto en el
cual el proceso no es estocstico.
El sistema de ecuaciones que estamos trabajando es de ecuaciones estocsticas, porque los
coeficientes que participan son funciones de variables aleatorias (son probabilidades). La
solucin de las ecuaciones diferenciales estocsticas no es la misma que la de las ecuaciones
diferenciales ordinarias. No se puede generar con una ecuacin diferencial estocstica una
solucin analtica, salvo que el estado inicial (la condicin inicial) sea determinstico. En tal
caso, se puede encarar la solucin del sistema de ecuaciones estocsticas utilizando mtodos
analticos (que es lo que estamos haciendo nosotros).
Por definicin:
G y ( w;0 ) = 1
Con lo cual:
G y ( w;0 ) = Ce ( ) = C = 1
w 1 0

Y la solucin particular es:


G y ( w; t ) = e ( ) ( t 0)
w 1 t

Que puede verse como:


G y ( w; t ) = e ( ) = e t e ( )
w 1 t t w

Desarrollando en serie de potencias:


( t ) 2 t
2
t
G y ( w; t ) = 1 + w+ w + K e
1! 2!

y ( t )
y

G y ( w; t ) = w t
e
y=0 y !
Lo que se halla dentro del corchete no es otra cosa que la expresin de la probabilidad Py(t),
de modo que el proceso ha quedado definido en forma estricta:
{ y ( t )} : ( t )
( t )
y

Py ( t ) = e t
y!
Este tipo particular de procesos autorregresivos de orden 1 (o procesos markovianos) se
denominan procesos de Poisson. Este es el origen de la distribucin de probabilidades de

62
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

Poisson. Basta comprobar que se cumplan las condiciones de no-negatividad y de cierre, para
garantizar que se trata de una distribucin de probabilidades.
Puede encararse la solucin a partir de la funcin generatriz de momentos, y arribarse a una
definicin dbil:

M y ( w; t ) = e wy Py ( t )
y=0

M y ( w;0 ) = e wy Py ( 0 ) = 1
y=0

M
= e wy Py ( t )
t y=0

M
= ye wy Py ( t )
w y = 0
Consideremos que:

e Py ( t ) = e wy Py ( t ) + e wy Py1 ( t )
y=0
wy

y=0 y=0

M
= M + e e ( ) Py 1 ( t ) = M + e w M = ( e w 1) M
w w y 1

t y=0
Derivamos a ambos miembros respecto de w:
M
M y ( w; t ) = e w M + ( e w 1 )
t w w
Evaluamos en w = 0, con lo cual w deja de ser variable y la derivada parcial se transforma en
diferencial total.

m ( y ( t )) =
d
dt
Y obtenemos la solucin general:
m ( y ( t )) = t + C
La solucin particular para t = 0 es:

m ( y ( 0 ) ) = y Py ( 0 ) = 0
y=0

m ( y ( 0) ) = 0 + C = C
C =0
m ( y ( t )) = t
Con respecto al momento de orden 2:

63
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

2M w M 2M
= e M + 2 e
w
+ ( e 1)
w

t w 2 w w 2

m2 ( y ( t ) ) = + 2 m ( y ( t ) ) = + 2 2 t
d
dt
m2 ( y ( t ) ) = t + 2 t 2 + C

m2 ( y ( 0 ) ) = y 2 Py ( 0 ) = 0
y=0

m2 ( y ( 0 ) ) = 0 + 0 + C = C2 2
C=0
m2 ( y ( t ) ) = t + 2 t 2
2 ( y ( t )) = t
Debe considerarse que la definicin dbil puede transformarse en estricta, en tanto pueda
demostrarse que la variable bajo anlisis tiene una sucesin infinita de momentos. En el
presente caso, no existe limitacin alguna para calcular los infinitos momentos; luego, la
definicin se transforma en estricta.
Hemos resuelto el problema en el dominio de las variables. Esto significa que si fijamos el
valor de t, podemos representar la probabilidad de que el proceso se encuentre en un estado
cualquiera en ese momento t.

Clase 23. Lunes 08/11/2010

T representa el tiempo a transcurrir para que el proceso pase del estado 0 al estado 1; o bien,
puede interpretarse como el tiempo a transcurrir hasta la primera ocurrencia del evento E.
Esta variable continua puede tomar cualquier valor real no negativo. Analicemos la
probabilidad de que la ocurrencia del evento E tarde un perodo de tiempo mayor que t; esto
es equivalente a pensar que en el momento t el proceso se halle en el estado 0:
( t )
y

Py ( t ) = e t
y!
P ( T0,1 > t ) = P0 ( t ) = e t
Y de esta forma hemos establecido una relacin entre los resultados obtenidos anteriormente
(anlisis en el dominio de las variables), y el anlisis en el dominio del tiempo.
La funcin de distribucin es de la siguiente forma:
P ( T0,1 t ) = FT0 ,1 ( t ) = 1 e t
Esta funcin es continua en todo el dominio de la variable, y por lo tanto derivable. De modo
que derivando obtenemos la funcin de densidad de T:
d
fT0 ,1 ( t ) = FT0 ,1 ( t ) = e t ( t 0)
dt
La variable Ti,i+1 (i = 0,1,2,) representa el tiempo a transcurrir para que el proceso pase del
estado i al estado i+1, o sea entre la i-sima y la i+1-sima ocurrencia del evento E. Como
los eventos son independientes entre s, todas estas variables tienen la misma distribucin de
probabilidad, que es la distribucin exponencial. A esta variable se la suele llamar como

64
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

variable Tiempos de Espera. Que la variable tiempos de espera sea exponencial, es una
condicin necesaria y suficiente para considerar que se trata de un proceso de Poisson.
Por su parte, vemos que la media y la varianza del proceso dependen del tiempo; luego, el
proceso no es estacionario. De hecho, cuando t crece indefinidamente, stas se hacen
infinitas, con lo cual no se cumple la condicin necesaria y suficiente de la estacionariedad
dbil del proceso. Adems, la probabilidad tambin depende del tiempo, lo cual respalda la
no-estacionariedad estricta.
El valor esperado de la variable T es inversamente proporcional a la tasa instantnea de
ocurrencia del evento E:

E ( Ti ,i +1 ) = ; 2 ( Ti ,i +1 ) =
1 1
2
La variable Tj representa el tiempo a transcurrir por el proceso hasta su arribo al estado j (o
hasta la j-sima ocurrencia del evento E):
j 1
T j = Ti ,i +1
i =0
Se puede demostrar que si las variables Ti,i+1 son independientes entre s y tienen distribucin
exponencial, entonces Tj tiene una distribucin Gamma.
Procesos puros de nacimiento
Supongamos un proceso {n(t)} continuo en el dominio del tiempo, discreto en el dominio de
las variables tal que:
{n ( t )}; ( t 0; ( n ( t ) ) = {n , n 0 0 )
+ 1, n0 + 2,K} ; n ( 0 ) = n0
Este proceso representa el tamao de una poblacin en un momento t. El tamao inicial de
esa poblacin es n0, y dicha poblacin admite solamente ingresos por nacimiento.
Supongamos que todos los individuos de la poblacin estn sometidos al mismo riesgo de
reproduccin, y que la probabilidad de que un individuo cualquiera de la poblacin d origen
a un nuevo individuo de la poblacin en el intervalo (t;t+t), est dada por t, donde es la
tasa instantnea de nacimiento.
Supongamos que el proceso es AR(1), y la condicin de linealidad (no pueden producirse 2 o
ms nacimientos simultneamente).
Con respecto a la condicin inicial:
1 si n = n0
Pn0 ,n ( 0 ) =
0 si n > n0
Por su parte, habiendo n individuos en la poblacin en un momento determinado, cualquiera
de ellos puede dar origen a un nuevo individuo, con lo cual la probabilidad de pasar del
estado n al estado n+1 est dada por:
Pn ,n+1 ( t ; t + t ) = n t
Pn ,n+ k ( t ; t + t ) = o ( t )( k 2)
Pn,n+ k ( t; t + t ) = o ( t )
k2

Pn ,n ( t ; t + t ) = 1 n t o ( t )
El siguiente es el sistema de de ecuaciones de Kolmogorov:

65
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

Pn0 ,n ( t ; t + t ) = Pn0 ,n ( t ) Pn ,n ( t; t + t ) + Pn0 ,n1 ( t ) Pn1,n ( t ; t + t ) + Pn0 ,n k ( t ) Pn k ,n ( t; t + t )


k2
( n = n0 , n0 + 1, n0 + 2,K)
Pn ,n ( t ; t + t ) = 1 t o ( t ) Pn ,n ( t ) + ( n 1) tPn ,n1 ( t ) + o ( t ) Pn ,n k ( t )
0 0 0 0
k2
Dividimos por t y tomamos lmite cuando t tiende a 0, y obtenemos:
Pn ( t ) = n Pn ( t ) + ( n 1) Pn1 ( t ) ( t 0; n0 , n0 + 1, n0 + 2,K)
que es el sistema de infinitas ecuaciones diferenciales-en diferencias de Kolmogorov.

Podemos resolver el sistema haciendo aparecer la funcin generatriz de probabilidades:


w n
Pn ( t ) = w nw n 1
Pn ( t ) + w 2
( n 1) w n 2
Pn1 ( t )
n = n0 n = n0 n = n0

G G G
G n ( w; t ) = w + w2 = w ( w 1)
t w w w
Y obtenemos la siguiente ecuacin en derivadas parciales:
G G
w ( w 1) =0
t w
En este caso aparecen las dos derivadas parciales. As como las ecuaciones diferenciales
tienen un sistema de ecuaciones algebraico que permite lograr la solucin general, las
ecuaciones en derivadas parciales tienen un sistema de ecuaciones auxiliares. Las ecuaciones
de Lagrange forman un sistema de ecuaciones auxiliares, y a partir de ellas es posible obtener
la solucin general:
PZ x + QZ y = R
Z = Z ( x; y )
dx dy dz
= =
P Q R
u = f ( x , y , z ) = C1 ; v = g ( x, y, z ) = C2
( u, v ) = 0
que es la solucin general de la ecuacin, donde es desconocida. Pasar de esta funcin
desconocida a una funcin conocida, implica pasar de una solucin general a la solucin
particular, para lo cual se requiere contar con un sistema de condiciones iniciales.
En nuestro caso:
x=t ; y=w
Z ( x; y ) = G n ( w ; t )
P = 1 ; Q = w ( w 1) ; R = 0

66
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

dw dw dw
dt = =
w ( w 1) w w 1
dw dw
dt =
w w 1
w
t = ln w ln ( w 1) + C = ln +C
w 1
w w t
et = C C1 = e
w 1 w 1
Hemos obtenido la primera solucin u. Ahora obtenemos v:
0dt = 1 dG dGn ( w; t ) = 0
Gn ( w; t ) = C 2
La solucin general es de la siguiente forma:
w t
e , G n ( w; t ) = 0
w 1
Explicitamos esta funcin implcita, en funcin de una de las dos variables:
w t
G n ( w; t ) = f e
w 1
Solucin particular:

Gn ( w;0 ) = w n
Pn0 ,n ( 0 ) = w n0
n= n0

w 0 w
Gn ( w;0 ) = f e = f
w 1 w 1
w
f = w n0
w 1
Utilicemos una variable auxiliar adicional:
w r
= r w = wr r r = w ( r 1) w =
w 1 r 1
n0
w r
f (r) = f = w n0
=
w 1 r 1
w t
Si hacemos r= e obtenemos:
w 1

67
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

n
w t 0
e
w t w 1
f e = = Gn ( w; t )
w 1 w et 1
w 1
n0 n0
we t we t
G n ( w; t ) = =
w ( e 1) + 1 1 w ( 1 e )
t t

Gn ( w; t ) = w n0 e n0 t 1 w ( 1 e t )
n0

Clase 24. Mircoles 10/11/2010

Clase 25. Jueves 11/11/2010

Proceso de fallecimiento
Mientras que el proceso de nacimiento evoluciona exclusivamente hacia la derecha, el
proceso de fallecimiento evoluciona hacia la izquierda. Esto ltimo tiene solucin nica dado
que no puede divergir, mientras que el primero puede converger o ser explosivo.
Sea {n(t)} un proceso continuo en el dominio del tiempo, discreto en el dominio de las
variables, tal que slo admite egresos por fallecimiento.
{n ( t )}; ( t 0; ( n ( t ) ) = {0,1, 2,K , n }) ; n ( 0 ) = n
0 0

Todos los individuos de la poblacin estn sometidos al mismo riesgo de fallecimiento; la


probabilidad de que un individuo cualquiera de la poblacin fallezca en un intervalo (t;t+t),
est dada por t, donde es la tasa instantnea de fallecimiento.
Supongamos que el proceso es AR(1), y la condicin de linealidad (no pueden producirse 2 o
ms fallecimientos simultneamente).
Con respecto a la condicin inicial:
1 si n = n0
Pn0 ,n ( 0 ) =
0 si n n0
La probabilidad de pasar del estado n al estado n-1 est dada por:
Pn ,n1 ( t ; t + t ) = nt
Pn ,n k ( t ; t + t ) = o ( t )( k 2)
Pn,n+ k ( t; t + t ) = o ( t )
k2

Pn ,n ( t ; t + t ) = 1 nt o ( t )
Pn ( t ) = n Pn ( t ) + ( n + 1) Pn+1 ( t )
n0 n0 n0

w n
Pn ( t ) = w nw n 1
Pn ( t ) + ( n + 1) w n Pn+1 ( t )
n= 0 n= 0 n= 0

Observemos el ltimo trmino y notemos que:

68
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

G n0
= nw n1 Pn ( t ) = 0 + P1 ( t ) + 2wP2 ( t ) + K + n0 w n0 1 Pn0 ( t )
w n = 0
n0

( n + 1) w n
Pn+1 ( t ) = P1 ( t ) + 2 wP2 ( t ) + K + n0 w n0 1 Pn0 ( t ) + ( n0 + 1) w n0 Pn0 +1 ( t )
n= 0
n0
G
( n + 1) w n
Pn+1 ( t ) = + ( n0 + 1) w n0 Pn0 +1 ( t )
n= 0 w
Por ltimo, recordemos que n0+1 no pertenece al dominio del proceso; luego, su ocurrencia
es imposible: Pn0 +1 ( t ) = 0 . De modo que:
n0
G
( n + 1) w
n= 0
n
Pn+1 ( t ) =
w
Y entonces:
dt dw
=
1 (1 w )
dw
dt =
1 w
t + C = ln ( 1 w )
t C = ln ( 1 w )
1 w = e C e t
1 w = C 2e t
C1 = ( 1 w ) e t
Hemos obtenido la primera solucin u. Ahora obtenemos v:
G G
(1 w ) =0
t w
0dt = 1 dG dG = 0
G = C2
La solucin general es de la siguiente forma:
( ( 1 w ) e t , Gn ( w; t ) ) = 0
Explicitamos esta funcin implcita, en funcin de una de las dos variables:
G n ( w; t ) = f ( (1 w ) e ) t

Solucin particular:

69
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY


Gn ( w;0 ) = w n
Pn0 ,n ( 0 ) = w n0
n = n0

Gn ( w;0 ) = f ( (1 w ) e ) = f (1 w )
0

f ( 1 w ) = w n0
Utilicemos una variable auxiliar adicional:
1 w = r w = 1 r
f ( r ) = f ( 1 w ) = w n0 = ( 1 r )
n0

Si hacemos r = (1 w ) e t obtenemos:

( (1 w ) e ) = 1 (1 w ) e = Gn ( w; t )
t t n0
f
n0
n
Gn ( w; t ) = ( 1 e ) + we = 0 ( we t ) ( 1 e t )
n0 n n0 n
t t

n= 0 n
dado que:
k
k
(a + b) = a i bk i
k

i =0 i
Finalmente:
n0
n0 t n n0 n
n0
Gn ( w; t ) = w ( e ) ( 1 e ) = w n Pn0 ,n ( t )
n t

n= 0 n n= 0
n
Pn0 ,n ( t ) = 0 ( e t ) ( 1 e t )
n n0 n

n
El proceso sigue una distribucin binomial: n(t):b(n0;e-t).
Proceso de nacimiento y fallecimiento
Sea {n(t)} un proceso continuo en el dominio del tiempo, discreto en el dominio de las
variables, tal que solo admite ingresos por nacimiento y egresos por fallecimiento.
{n ( t )}; ( t 0; ( n ( t ) ) = {0,1, 2,K} ) ; n ( 0 ) = n 0

La probabilidad de que un individuo cualquiera de la poblacin d origen a un nuevo


individuo en un intervalo (t;t+t), est dada por t, donde es la tasa instantnea de
nacimiento, y la probabilidad de que un individuo cualquiera de la poblacin fallezca en un
intervalo (t;t+t), est dada por t, donde es la tasa instantnea de fallecimiento.
Supongamos que el proceso es AR(1), y la condicin de linealidad (no pueden producirse 2 o
ms eventos cualesquiera simultneamente).
Con respecto a las probabilidades de transicin infinitesimal, observemos que no existe una
nica forma de que el tamao de la poblacin se incremente en 1 individuo: puede ser que
haya 1 nacimiento y 0 fallecimientos, o 2 y 1, o 3 y 2, etc. La probabilidad de transicin
infinitesimal en el primer caso encuadra en la estudiada para los procesos puros de
nacimiento, mientras que los otros casos implican la ocurrencia de ms de un suceso en un
intervalo arbitrariamente chico; luego, dicha probabilidad tiende a 0, es decir que puede ser
expresada como una funcin o(t).
70
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

Pn ,n+1 ( t ; t + t ) = n t + o ( t )
Pn ,n1 ( t ; t + t ) = nt + o ( t )
Pn ,n k ( t ; t + t ) = o ( t ) ( k 2)
Pn ,n ( t ; t + t ) = 1 n ( + ) t o ( t )

El siguiente es el sistema de ecuaciones de Kolmogorov:


Pn0 ,n ( t ; t + t ) = Pn0 ,n ( t ) Pn ,n ( t ; t + t ) + Pn0 ,n1 ( t ) Pn1,n ( t ; t + t ) +
+ Pn0 ,n+1 ( t ) Pn+1,n ( t ; t + t ) + Pn0 ,n k ( t ) Pn k ,n ( t ; t + t )
k 2
Dividimos por t y tomamos lmite cuando t tiende a 0 y obtenemos:
Pn ( t ) = n ( + ) Pn ( t ) + ( n 1) Pn1 ( t ) + ( n + 1) Pn+1 ( t )
( n = 0,1, 2,K; t 0 )
Este proceso tiene un estado absorbente en n = 0. Este estado se denomina tambin barrera
absorbente; el proceso cae en dicho estado y ya no podr salir de l.
G G
= ( + ) w + w 2 +
t w
Para poder manipular mejor esta expresin, notemos que el corchete contiene un polinomio
de grado 2 en w, y factoricmoslo hallando sus races:

( + ) ( + ) 4 ( + )
2
2 + 2 + 2 4
= =
2 2
( + ) 2 2 + 2 ( + ) ( ) + ( )
2

= = =
2 2 2
Primera raz:
+ + 2
= =
2 2
Segunda raz:
+ + 2
= =1
2 2
Sabemos que la expresin factorizada de un polinomio de grado n es:
an x n + an1 x n1 + K + a2 x 2 + a1 x + a0 = an ( x 1 ) ( x 2 ) K ( x n1 ) ( x n )
De modo que:

w2 ( + ) w + = w ( w 1) = ( w ) ( w 1 )

Quedando:

71
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

G G
= ( + ) w + w 2 +
t w
G G
= ( w ) ( w 1)
t w
G G
( w ) ( w 1) =0
t w

El siguiente es el sistema de ecuaciones auxiliares:


dw
dt = ( w ) ( w 1)


dGn ( w; t ) = 0
A partir de la primera ecuacin, hallemos u:
dw
dt =
( w ) ( w 1)
1
dt = ( w ) ( w 1)
dw

Esta integral se resuelve por el mtodo de fracciones simples:


1 A B
= + =
( w ) ( w 1) ( w ) ( w 1)
A ( w 1) B ( w ) A ( w 1) + B ( w )
= + =
( w ) ( w 1) ( w 1) ( w ) ( w ) ( w 1)
En sntesis:
1 A ( w 1) + B ( w )
=
( w ) ( w 1) ( w ) ( w 1)
O equivalentemente:
A ( w 1) + B ( w ) = 1
Cuando w = 1:
1
B ( ) = 1 B=

Cuando w = /:

72
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY


A = 1 A =

1
1
=
( ) + ( ) = 1 + 1
( w ) ( w 1) ( w ) ( w 1) ( w ) ( w 1)
1 1 1
dt = ( w ) ( w 1)
dw = + dw
( w ) ( w 1)
1
( ) dt = ( w ) dw + ( w 1) dw
( ) t + C = ln ( w ) ln ( w 1)
w
( ) t + C = ln
w 1
w
Ce ( ) =
t

w 1
w ( )t
C1 = e
w 1
Hemos obtenido la primera solucin u. Ahora obtenemos v:
0dt = 1 dG dGn ( w; t ) = 0
Gn ( w; t ) = C 2
La solucin general es de la siguiente forma:
w ( )t
G n ( w; t ) = f e
w 1
Notemos que:

Gn ( w;0 ) = w n
Pn0 ,n ( 0 ) = w n0
n = n0

w ( ) 0 w
Gn ( w;0 ) = f e = f
w 1 w 1
w
f = w n0
w 1
Utilicemos una variable auxiliar adicional:

73
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

w r
= r wr + r + w = w ( r ) = r w =
w 1 r
w r
n0

f (r) = f = w n0
=
w 1 r
w ( )t
Si hacemos r= e obtenemos:
w 1
w ( ) t
n0

e
w ( ) t
= Gn ( w; t )
= w 1
f

e w
w 1 e
( ) t

w 1
w 1 w ( )t
0 n

w 1 w 1 e ( w 1) ( w ) e ( )t
n0

G n ( w; t ) = = ( )t
w 1 w ( )t ( ) ( )
e w 1 w e
w 1 w 1
w ( w ) e ( )t
n0
w we ( ) t + e ( ) t
n0

G n ( w; t ) = ( )t
= t
w ( w ) e w we
( )t
+ e ( )
n0
e ( ) t 1 e ( ) t w

Gn ( w; t ) = ( ) t
( )t


e e 1 w
Donde la tasa instantnea de reproduccin est dada por .
Veamos qu ocurre cuando nos acercamos a que = .
( e 0 1) w ( e 0 )
n0
n0
0
lim Gn ( w; t ) = =

( e ) ( e 1) w 0
0 0

quedndonos dentro del corchete una indeterminacin que debemos resolver utilizando el
teorema de LHopital. Recordemos que, como tiende a , estamos tcitamente asumiendo
que es la variable, mientras que se considera constante. No olvidemos que, para aplicar
este teorema, debemos estar trabajando con tan slo una variable independiente (o sea: ).

74
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

e ( )t 1 e ( ) t w
lim ( ) t
=

e e ( ) t 1 w

te ( ) e ( ) + ( t ) e ( ) w
t t t

= lim =

te
( )t
1 e
(
( )t
)
1 + ( t ) e
( ) t

w

t (1 t ) w t + (1 t ) w
= =
( t 1) + tw ( 1 + t ) tw
De modo que la solucin particular es:

( ) ( )
n0
( ) t ( )t
e 1 e w
( )
Gn ( w; t ) =

e(( )t
e ) ( ( )t
1 w
)
t + (1 t ) w
n0

( = )
( 1 + t ) tw
Es prcticamente imposible que ambas tasas instantneas coincidan.
Analicemos la probabilidad de extincin al momento t (es decir en ese momento, o antes).
Primeramente notemos que la funcin G puede verse como:
Gn ( w; t ) = Pn0 ,0 ( t ) + wPn0 ,1 ( t ) + w 2 Pn0 ,2 ( t ) + K
Gn ( 0; t ) = Pn0 ,0 ( t )
Ahora bien, haciendo w = 0 en Gn(w;t) queda:

( )
n0
( )t
e 1
( ) t
( )
e
Pn0 ,0 ( t ) =
n0
t

1 t ( = )
+
Si calculamos el lmite cuando t tiende a infinito, obtenemos la probabilidad de extincin
final de la poblacin (es decir, que se extinga en algn momento).
Analicemos este lmite cuando > , es decir cuando > 0.

75
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

( ) ( e 1)
n0
e ( ) t 1 n0

n0 n0

lim = = =
t e ( ) t

e

Ahora bien, si < , o sea < 0, vemos que:

( ) ( )
n0 n0
e ( ) t 1 e ( ) 1

n0

lim = =

t e ( ) t e ( )

quedndonos en el corchete una indeterminacin a resolver con el teorema de LHopital.
Notemos que t es la variable independiente.

( )
n0
e ( ) t 1 ( ) e ( ) t
n0

lim = lim =1
( )
t e ( ) t t e ( ) t

Por su parte, veamos el caso en que = . Primeramente notemos que:
t t + 1 1 1
= = 1
1 + t 1 + t 1 + t
de modo que:
n0 n0
t
n
1 10
lim
t 1 + t
= lim 1 1 + t = 1 = 1
t

Y entonces, la probabilidad de extincin final es:

( )
n0


lim Pn0 ,0 ( t ) =
( > )
t

1 ( )
Obtengamos la solucin utilizando la funcin generatriz de momentos:
M
= ( + ) ne wn Pn ( t ) + ( n 1) e wn Pn1 ( t ) + ( n + 1) e wn Pn+1 ( t )
t n= 0 n= 0 n= 0

M M M M
= ( + ) + ew + e w
t w w w
M M
= ( + ) + e w + e w
t w
d M w M w M
= ( e e )
2
w
+ ( + ) + e + e
w

dt w w w 2
Hacemos w = 0:
76
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

m ( n ( t )) = ( ) m ( n ( t ))
d
dt
dm
= ( ) dt
m
ln m = ( ) t + C
m = Ce ( )
t

Solucin particular:
1 si n = n0
Pn ( 0 ) =
0 si n n0

m ( n ( t ) ) = nPn ( t )
n= 0
n0 1
m ( n ( 0 ) ) = nPn ( 0 ) = nP ( 0 ) +n P ( 0 ) +
n 0 n0 nPn ( 0 ) = n0
n= 0 n= 0 n = n0 + 1

m ( n ( 0 ) ) = Ce ( ) = C
0
C = n0
m ( n ( t ) ) = n0e ( ) ( t 0)
t

Obtengamos el momento natural de orden 2:


d 2M w M w M
= ( e + e ) + ( e e )
2
w w
+
dt w 2 w w 2
w M w M
+ ( e e )
2 3
w
+ ( + ) + e + e
w

w 2 w 3

Hacemos w = 0:
m2 = ( + ) m + 2 ( ) m2
m2 2 ( ) m2 = ( + ) n0e ( )
t

Comencemos por la solucin general de esta ecuacin diferencial:

77
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

m2 2 ( ) m2 = 0
D 2 ( ) m2 = 0
2( ) = 0
= 2( )
2( ) t
m2h = Ce
La solucin complementaria es:
m2C = Ae ( )
t

m2C = A ( ) e ( )
t

m2C 2 ( ) m2C = A ( ) e ( ) 2 ( ) Ae ( )
t t

m2C 2 ( ) m2C = A ( ) e ( )
t

A ( ) e ( ) = ( + ) n0e ( )
t t

+
A = n0

+ ( )t
m2C = n0 e

Y entonces, la solucin general es:
+ ( )t
m2G ( n ( t ) ) = Ce
2( ) t
n0 e

Con respecto a las condiciones iniciales:
1 si n = n0
Pn ( 0 ) =
0 si n n0
+ ( )0 +
m2 ( n ( 0 ) ) = Ce ( ) n0
2 0
e = C n0


+
m2 ( n ( 0 ) ) = n 2 Pn ( 0 ) = n02 C = n02 + n0
n= 0

78
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

+ 2( ) t + ( )t
m2 ( n ( t ) ) = n02 + n0 e n0 e

+ 2( ) t + ( )t

V ( n ( t ) ) = n02 + n0 ( )
2
n0e ( )
t
e n e
0

+ 2( ) t + ( )t + ( )t ( )t
V ( n ( t ) ) = n0 e n0 e = n0 e e 1

Proceso de nacimiento y fallecimiento con inmigracin y emigracin
Admite ingresos por nacimiento y egresos por fallecimiento, e ingresos por inmigracin y
egresos por emigracin. Mientras que las velocidades de ingresos por nacimiento son lineales
con respecto al tamao de la poblacin, las velocidades de ingresos por inmigracin, por
ejemplo, son, en cierta manera, independientes con respecto al tamao de la poblacin. Con
lo cual, podrn ser consideradas constantes, o bien funciones pero de otra variable que no sea
el tamao de la poblacin.
{n ( t )}; n ( 0 ) = n ;[ t; t + t ) ; t; t;t;t
0
Siendo la tasa instantnea de inmigracin, y la tasa instantnea de emigracin. Sola
discutirse si stas eran funcin del tamao de la poblacin de origen, o inversamente
proporcionales al tamao de la poblacin de receptora. En el primer caso se convierten en un
factor exgeno, y en el segundo se pierde la condicin de linealidad.
Pn ,n+1 ( t ; t + t ) = n t + t + o ( t )
Pn ,n1 ( t ; t + t ) = nt + t + o ( t )
Pn ,n k ( t ; t + t ) = o ( t )( k 2)
Pn ,n ( t ; t + t ) = 1 n ( + ) t ( + ) t o ( t )
Pn ( t ) = n ( + ) Pn ( t ) ( + ) Pn ( t ) + ( n 1) Pn1 ( t ) +
+ Pn1 ( t ) + ( n + 1) Pn+1 ( t ) + Pn+1 ( t )
Multipliquemos por ewn y sumemos. Analicemos el ltimo sumando:

e Pn+1 ( t ) = e
wn w
e w ( n + 1)
Pn+1 ( t ) =
n= 0 n= 0

= e w ( e w p1 + e 2 w p2 + K + p0 ) p0 = e w M e w p0
dado que:

p0 + e p1 + e
w 2w
p2 + K = e wn Pn ( t ) = M
n= 0
Nos queda:
M M
= ( + ) + e w + e w + ( + ) + e w + e w M e w P0 ( t )
t w

79
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

Derivando respecto de w:
M w M w M
w = ( e e ) w + ( + ) + e + e w 2 +
2
w w

t
M P
+ ( e w e w ) M + ( + ) + e w + e w + e w P0 ( t ) e w 0
w w
Y finalmente haciendo w = 0:
m ( ) m = ( ) + P0 ( t ) P0 ( t )
Y es necesario definir P0 para poder resolver esta ecuacin diferencial. Es decir, a todas las
condiciones definidas anteriormente, es necesario agregar una restriccin: la probabilidad de
que en el momento t acaezca el estado 0. Este problema es generado por la emigracin, y se
parece al que ocurre en un proceso de colas: n(t) es el nmero de individuos que integran la
fila de espera. A esa fila de espera se puede ingresar y de ella se puede egresar; pero ni los
ingresos ni los egresos son linealmente proporcionales al tamao de la poblacin.
Este proceso particular no tiene en el estado 0 una barrera absorbente, sino una reflectora: si
se produce una inmigracin (lo cual puede ocurrir porque no es proporcional al tamao de la
poblacin), vuelve al estado 1; es como si rebotara en el 0.

Clase 26. Lunes 15/11/2010

Sea n(t) el tamao de una poblacin, dividida en poblacin femenina y poblacin masculina.
Ambas admiten ingresos por nacimiento y egresos por fallecimiento.

{n ( t )} = { f ( t ) ; v ( t )}; ( ( f ( t ) ) ; ( v ( t ) ) = {0,1, 2,K} ) ;


f ( 0 ) = f 0 ; v ( 0 ) = v0 ; f 0 + v0 = n0 ;
[ t ; t + t ) ; f t ; v t ; f + v = ; f t ; v t ; f + v =
Sean ft y vt las probabilidades de que un individuo de la poblacin femenina d origen a
un nuevo individuo de la poblacin femenina y a uno de la poblacin masculina,
respectivamente; ft y vt las probabilidades de que fallezca un individuo de la poblacin
femenina y uno de la poblacin masculina, respectivamente. Supongamos que el proceso es
AR(1), y la condicin de linealidad.
Probabilidades de transicin infinitesimal:

P( f ;v ),( f +1;v ) ( t ; t + t ) = f f t + o ( t )
P( f ;v ) ,( f ;v +1) ( t ; t + t ) = f v t + o ( t )
P( f ;v ),( f 1;v ) ( t ; t + t ) = f f t + o ( t )
P( f ;v ),( f ;v 1) ( t ; t + t ) = v v t + o ( t )
P( f ;v ), f k ;v k ( t ; t + t ) = o ( t )
( f v) (k f ; kv 2 )
( )
P( f ;v ),( f ;v ) ( t ; t + t ) = 1 f f + v + f t v v t o ( t )

80
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

( )
P(f ;v ) ( t ) = f f + v + f v v P( f ;v ) ( t ) + ( f 1) f P( f 1;v ) ( t ) +

+f v P( f ;v 1) ( t ) + ( f + 1) f P( f +1;v ) ( t ) + ( v + 1) v P( f ;v +1) ( t )
( f ; v = 0,1, 2,K; t 0 )
Consideremos que:

G f ;v ( w1 ; w2 ; t ) = w1f w2v P( f ;v ) ( t )
f =0 v =0

M f ;v ( w1 ; w2 ; t ) = e w1 f e w2v P( f ;v ) ( t )
f =0 v =0

M
= e w1 f e w2v P(f ;v ) ( t )
t f =0 v =0

M
= fe w1 f e w2v P( f ;v ) ( t )
w1 f = 0 v = 0
M
= ve w1 f e w2v P( f ;v ) ( t )
w 2 f = 0 v = 0
M
= f P( f ;v ) ( t ) = m ( f ( t ) ) = E f ( t ) f0 ;v0
w1 w1 = w2 = 0 f =0 =

M
= v P( f ;v ) ( t ) = m ( v ( t ) ) = E v ( t ) f0 ;v0
w 2 w1 = w2 = 0 v =0 =

( )
2
= e w1 f + f 2e w1 f e w2v P( f ;v ) ( t )
w1 2
f =0 v =0

( )
2
= e w2v + v 2e w2v e w1 f P( f ;v ) ( t )
w 2 2
f =0 v =0

M2
= f v e w1 f e w2v P( f ;v ) ( t )
w1 w2 f = 0 v = 0
2M
= ( 1 + f 2 ) P( f ;v ) ( t ) = m2 ( f ( t ) )
w12 w1 = w2 = 0 f =0

2M
= ( 1 + v 2 ) P( f ;v ) ( t ) = m2 ( v ( t ) )
w22 w1 = w2 = 0 f =0

2M
= f v P( f ;v ) ( t ) = m ( f ( t ) , v ( t ) )
w1 w2 w1 = w2 = 0 f =0 v =0

El momento natural mixto de primer orden es la covarianza entre los procesos:

81
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

( f ( t ) ; v ( t ) ) = m f ,v m f m v
Si las poblaciones son incorrelacionadas, la covarianza debe ser nula. Ello no ocurre, dado
que el nacimiento de varones se supedita al tamao de la poblacin femenina (o dicho ms
tcnicamente, el tamao esperado de la poblacin masculina depende exclusivamente de las
caractersticas demogrficas de la poblacin femenina).
Por su parte la condicin inicial en t = 0 es:
1 si f = f 0 v = v0
P( f ;v ) ( 0 ) =
0 si f f 0 v v0

e f =0 v =0
w1 f
e w2v
(
P(f ;v ) ( t ) = f + v + f ) f e
f =0 v =0
w1 f
e w2v P( f ;v ) ( t )


P( f ;v ) ( t ) + f e ( f 1) e P( f 1;v ) ( t )+
w1 ( f 1) w2v
v v e w1 f
e w2v w1
e
f =0 v =0 f =0 v =0

P( f ;v 1) ( t )+ f e ( f + 1) e P( f +1;v ) ( t ) +
w 2 ( v 1 ) w1 ( f +1) w2v
+ v e w2
f e
f =0 v =0
w1 f
e w1

f =0 v =0
e


+ v e w2
( v + 1) e
f =0 v =0
w1 f
e
w 2 ( v + 1)
P( f ;v +1) ( t )

M M M M
t
= f + v + f(w1
v
w2
+ f e w1
w1
+ )
M M M
+ v e w 2 + f e w1 + v e w2
w1 w1 w 2
M M M
t
(
= f + v + f + f e w1 + v e w2 + f e w1 )
w1
+ v e w2 1
w 2
( )
M w1 M
( )
2

= f + v + f + f e + v e + f e +
w1 w2

t w1 w12
M 2M
(
+ fe fe w1 w1
) w1
+ v e 1
w2

w1 w2
( )
Haciendo w1 = w2 = 0:

82
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

d
dt
( )
m ( f ( t )) = f f m ( f ( t ))

( )
dm f
= f f mf
dt
dm
m
(
= f f dt )
( )
ln m = f f t + C
( )t
m f = Ce f f

m ( f ( 0 ) ) = f Pf (0) = f 0
f =0

( ) 0
m ( f ( 0 ) ) = Ce f f = C C = f 0
( )t
m f = f 0e f f = E f ( t ) f0 ;v0
M w1 M
( )
2

= f + v + f + f e + v e + f e +
w1 w2

t w 2 w1 w2
M w 2 M 2M
+ v e w2

w1
v e
w 2
+ v e 1
w2
(
w22
)
Haciendo w1 = w2 = 0:
( )t
m ( v ( t ) ) + v m ( v ( t ) ) = v m ( f ( t ) ) = v f 0 e f f
d
dt
( )t
mv + v mv = v f 0e f f
Obtenemos una ecuacin diferencial no homognea. Resolvemos primeramente la ecuacin
diferencial lineal homognea asociada:
D + v mv = 0
+ v = 0 = v
mvh = C1e v t
Ahora encontramos la solucin complementaria:

83
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

( )t
mvc = Ae f f

(
mv c = A f f e f f )
( )t

( ( )t
mv c + v mvc = A f f + v e f f )
( )t
( ( )t
v f 0 e f f = A f f + v e f f )
v f 0
A=
f f + v
v f 0 ( f t)
mvc = e f

f f + v
De modo que la solucin general es:
v f 0 ( )
f t
m v = C 1e v t + e f

f f + v
Para hallar la solucin particular, debemos considerar la condicin inicial para t = 0.
v f 0 ) v f 0
m ( v ( 0 ) ) = C 1e v 0 + e(
f 0
f
= C1 +
f f + v f f + v
M
= m ( v ( 0 ) ) = v e e P( f ;v ) ( t ) = v P( f ;v ) ( 0 ) = v0
0 f 0v

w 2 w1 = w2 = t = 0 f =0 v =0 v =0

v f 0 v f 0
C1 + = v 0 C1 = v 0
f f + v f f + v
v f 0 t v f 0 ( )t
mv = v0 e v + e f f
f f + v f f + v

v f 0 e ( f f ) t e v t + v e v t = E v ( t )
mv = f0 ;v0
f f + v 0
Ser necesario hallar el momento natural segundo de la poblacin femenina:
2M
= m2 ( f ( t ) )
w12 w1 = w2 = 0
Para ello volvemos a derivar respecto de w1:

84
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

2M w1 M
2

2
= f e f e
w1
+
t w
1 w1
2


( )
3
+ f + v + f + f e + v e w1 w2
+ fe w1 M3 +
w
1

M w1 M 3M
( ) ( )
2
+ fe + few1 w1
+ e f e
w1
+ v e 1
w2

w1 f w12 w12 w2
Haciendo w1 = w2 = 0:
d
(
m ( f ( t ) ) = f f m2 ( f ( t ) ) +
dt 2
)
( )
+ f + f m ( f ( t ) ) + f f m2 ( f ( t ) ) ( )
dm2 f
dt
( ) ( )t
= 2 f f m 2 f + f + f f 0e f f ( )
(
m2 f 2 f f m2 f ) = ( f + f ) f e( 0
f f t )
Se obtiene una ecuacin diferencial lineal ordinaria. Hallemos la solucin homognea:

(
D 2 f f m2 = 0
f )
2( f f ) = 0
= 2( f f )
2 )t
m2hf = C1e ( f f
En cuanto a la solucin complementaria:
( )t
m2c f = Ae f f

( m2 cf = A f f e )( ) f f t

2 ( ) m = A ( ) 2 A ( ) e
( )
f f t
m2 f f f 2f f f f f =

= A( ) e = ( + ) f e
( f f t ) ( ) f f t
f f f f 0
Luego,
f + f
A = f0
f f
f + f ( f t)
m2c f = f 0 e f

f f
Solucin general:
85
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

( )
2 f f t f + f ( f t )
m2Gf = C1e f0 e f

f f
Utilizando la condicin inicial, t = 0:
f + f
m 2 f = C1 f 0
f f
Y recordemos que:
2M
= ( 1 + f 2 ) P( f ;v ) ( 0 ) = 1 + f 0 2 = m2 ( f ( 0 ) )
w12 w1 = w2 = t = 0 f =0

O sea:
f + f
m 2 f = C1 f 0 = 1 + f02
f f
f + f
C1 = 1 + f 0 2 + f 0
f f
f + f 2( f f ) t + f ( f f )t
m G
= 1 + f0 + f0
2
e f0 f e
2f
f f f f
Ahora buscamos el momento natural mixto de la poblacin femenina:
2M w2 M
( )
2 3
M
= e + + + + e w1
+ e w 2
+ e w1
w 2 w +
t w1 w2 w12
v f v f f v f
1 2

2M w2 M 3M
( ) ( )
2
+ fe + fe w1 w1
v e + v e 1
w2

w1 w2 w1 w2 w1 w22
Haciendo w1 = w2 = 0:
d
dt
( )
m ( f ( t ) , v ( t ) ) = v m 2 ( f ( t ) ) + f f m ( f ( t ) , v ( t ) ) v m ( f ( t ) , v ( t ) )

(
= v m 2 ( f ( t ) ) + f f v m f ,v )
dm f ,v
dt
f + f 2( ) t f + f ( )t
m f ,v ( f f v ) m f ,v = v 1 + f 0 2 + f 0 e f f
e f

f f


0
f f f f
Hallemos la solucin homognea:

86
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

( )
D f f v m f ,v = 0

( f f v ) = 0
= ( f f v )
( )t
m hf ,v = C 2e f f v
Solucin complementaria:
2 )t ( )t
m cf ,v = Ae ( f f + Be f f

(2 )t
) ( )t
mfc,v = 2 A f f e ( f f + B f f e f f ( )
(
mfc,v f f v m cf ,v ) = 2A( f )
f e
(
2 f f t )
+ B( f f e) ( f f )t

( 2( ) t
)
( )t 2( ) t
f f v Ae f f + Be f f = A f f + v e f f +
( )
( )t + f 2( f f ) t f + f ( f f )t
+ Bv e f f = 1 + f 0 2 + f 0 f e f e
v 0 v

f f f f

+ f
(
A f f + v = 1 + f 0 2 + f 0 f

) v
f f

+ f v
A = 1 + f02 + f0 f
f f f f + v

+ f
B v = f 0v f
f f
v f + f
B = f0
v f f
+ f v 2( ) t + f ( f f )t
m cf ,v = 1 + f 0 2 + f 0 f e f f f0 v f e
+
f f f f v v f f
Solucin general:
( )
f v t f + f v ( )
2 f f t v f + f ( )
f t
m f ,v = C 2 e + 1 + f0 + f0 f0
G 2
e e
f f

f f f f + v v f f
Utilizando la condicin inicial, t = 0:
+ f v v f + f
m Gf ,v = C 2 + 1 + f 0 2 + f 0 f f
+ 0
v f f
f f f f v

87
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

Y recordemos que:
2M
= f v P( f ;v ) ( 0 ) = f 0 v0 = m ( f ( 0 ) , v ( 0 ) )
w1 w2 w1 = w2 = 0 f =0 v =0

O sea:
+ f v v f + f
m f ,v = C 2 + 1 + f 0 2 + f 0 f f = f 0 v0
+ 0

f f f f v v f f

f + f v + f
C 2 = f 0 v0 1 + f 0 + f 0
2
+ f0 v f
f f f f + v v f f

f + f v v f + f ( )t
m f ,v = f 0 v0 1 + f 0 + f 0 + e +
G 2
f f f v

f f f f + v 0
v f f

f + f ( )
2 f f t + ( )
f f t
+ 1 + f0 + f0 f0 v
2 f f

v
e e
f f f f + v v f f

Finalmente, calculamos la covarianza,


( f ( t ) ; v ( t ) ) = m f ,v m f mv
+ f v v f + f ( f f v ) t
f ,v = f 0 v0 1 + f 0 2 + f 0 f
+ f0 e +
f f f f + v v f
f

+ f v 2( ) t + f ( f f )t
+ 1 + f02 + f0 f

+
e f f f0 v f e
f f f f v v f f

( f f ) t v f 0 ( f f )t v t v t

f 0e e e +v e
f f + v 0

que es distinta de 0, como puede verse.

Veamos un proceso sin egresos por emigracin:


{n ( t )}; t; t;t
Pn ( t ) = n ( + ) Pn ( t ) Pn ( t ) + ( n 1) Pn1 ( t ) +
+ Pn1 ( t ) + ( n + 1) Pn+1 ( t )

88
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

G G G G
= w ( + ) G + w2 + wG +
t w w w
G G
= w 2 w ( + ) + + ( w 1) G
t w
G G
( w ) ( w 1) = ( w 1) G
t w
dt dw dG
= =
1 ( w ) ( w 1) ( w 1) G
De los miembros de la izquierda se obtiene la siguiente ecuacin diferencial de variables
separables:
dw
dt = ( w ) ( w 1)
que, segn vimos anteriormente (procesos de nacimiento y fallecimiento), tiene la siguiente
solucin:
w
e ( ) = C1
t

w 1
De los miembros de la derecha en la triple igualdad, surge la siguiente ecuacin diferencial:
dw dG
=
w G
dw dG
=
w G
1 1
ln ( w ) = ln G + C

1
(w )
1


=e G C


( w )
= e C G

( w ) G = e C = C 2
w ( ) t
e ,(w ) G = 0
w 1

89
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

w ( )t
Gn ( w; t ) ( w ) = f
e
w 1

w ( ) t
Gn ( w; t ) = ( w ) f e
w 1
Notemos que:

Gn ( w;0 ) = w n
Pn0 ,n ( 0 ) = w n0
n = n0


w ( ) 0
w
Gn ( w;0 ) = ( w ) f
e = ( w )
f w 1
w 1
w
f = w n0
( w )
w 1
Utilicemos una variable auxiliar adicional:
w r
= r wr + r + w = w ( r ) = r w =
w 1 r

w r r
n0


f (r ) = f = w n0 ( w )
=
w 1 r r
w ( )t
Si hacemos r = e obtenemos:
w 1

w w
n0

t
e ( )
( )t
w 1 e
w t w 1
f e ( ) = = G n ( w; t )
w 1 w e ( )t
w ( )t
e
w 1 w 1

90
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY

Proceso de colas
El tamao de la poblacin representa el nmero de personas que forma una fila de espera.
{n ( t )}; t; t
Pn ,n+1 ( t ; t + t ) = t + o ( t )
Pn ,n1 ( t ; t + t ) = t + o ( t )
Pn ( t ) = ( + ) Pn ( t ) + Pn1 ( t ) + Pn+1 ( t )
( n = 0,1, 2,K ; t 0 )

e wn
Pn ( t ) = ( + ) e wn Pn ( t ) +
n= 0 n= 0

Pn1 ( t )+ e Pn+1 ( t )
w ( n 1) w ( n + 1)
+ew e w
e
n= 0 n= 0
M
= ( + ) M + e w M + e w ( M P0 ( t ) )
t
Si hacemos w = 0:
m = ( + ) + + ( 1 P0 ( t ) )
m = P0 ( t )
debiendo explicitarse la funcin P0(t) para que quede hallada la solucin.

91

S-ar putea să vă placă și