Documente Academic
Documente Profesional
Documente Cultură
ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
( ) {
y( t ) = y( t ) , x1( t ) ,K }
En la propia estructura causal de y aparece el mismo fenmeno y, representando la influencia
que ejerce el pasado del fenmeno y en su comportamiento futuro. Se trata de la
autorregresividad del fenmeno y. Se dice que el fenmeno y regresa sobre s mismo, o sea
sobre su pasado; el fenmeno recuerda su comportamiento pasado, condicionando su
comportamiento futuro. Lo condiciona, no lo determina.
Existen fenmenos que no son autorregresivos; se los conoce como fenmenos AR(0), o
autorregresivos de orden cero. En ellos, el pasado no condiciona el futuro. Ejemplos:
extracciones sucesivas de un bolillero, con reposicin; las tiradas sucesivas de un dado; en la
economa, el retorno de un activo.
(
y( t ) = y( t 1) 1 + r( t ) )
1
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
Con respecto a la estructura causal de y, debe considerarse que ningn observador finito
puede tener un conjunto de informacin infinito: nunca va a poder conocer (y(t)), lo cual
implica reconocer que el observador nunca podr explicar el comportamiento de y, que es un
fenmeno fctico. Sin embargo, cualquiera sea el fenmeno y, el observador siempre conoce
algo. Puede entonces definirse un conjunto finito numerable: el conjunto de informacin con
que cuenta el observador, que es un subconjunto de (y(t)).
( ) {
y( t ) = y( t ) , x1( t ) ,K , xk ( t ) }
Si para un observador se verifica que (y(t)) = (y(t)), podra decirse que, para ese observador,
el fenmeno y no tiene secretos, y se tratara de un fenmeno determinstico puro. En tal
caso, el observador podra conocer su infinito pasado, y predecir su infinito futuro,
descubriendo as la trayectoria del fenmeno y.
Si para algn observador (y(t)) = , en tal caso para ese observador el fenmeno es aleatorio
puro. En l, se asigna una distribucin uniforme de probabilidades, representando la situacin
de entropa mxima.
En general, en el mbito de las aplicaciones econmicas, es tan ideal el fenmeno
determinstico como el aleatorio puro. El observador siempre lograr que (y(t)) , aunque
sea utilizando consideraciones hermticas irracionales (por ejemplo, en la quiniela puedo
tener preferencia por algn nmero, asignndole una probabilidad mayor, y en funcin a ese
criterio podra apostar por l). Cualquier informacin que se considere, aparta de la
distribucin uniforme al fenmeno.
La explicacin que el observador obtendr del fenmeno y, es funcin del conjunto de
informacin con que cuenta; debiendo recordarse que no es menester que dicha informacin
sea de ndole matemtica.
( )
y( t ) = f y( t ) + ( t )
2
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
(
y; ( y ) = { y1 , y2 ,K , yn } ; P y = y j )
El resultado de este fenmeno es una cantidad variable para el observador; se trata de una
variable en el mbito del anlisis matemtico, y como dicha cantidad variable no se puede
conocer de antemano, se trata de una variable aleatoria. Si bien no puede predecirse qu valor
tomar la variable para un determinado valor del dominio, puede sin embargo asignrsele una
probabilidad. Debe quedar claro que a los elementos no les corresponde naturalmente una
probabilidad, sino que sta es asignada por el observador. La probabilidad es una medida que
pretende cuantificar el estado de incertidumbre de una observacin con respecto a un
fenmeno.
Las variables son discretas cuando su dominio est definido por un conjunto numerable, y
continuas cuando ste est definido por un conjunto no numerable.
3
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
Una variable aleatoria puede definirse en forma estricta y en forma dbil. Queda definida en
forma estricta cuando se ha definido su dominio y su funcin de probabilidades. Al definir en
forma estricta un elemento, ste queda definido en forma nica; es decir, si dos variables
aleatorias poseen igual dominio e igual funcin de probabilidades, entonces se trata de la
misma variable aleatoria. Por su parte, la definicin dbil est basada en los momentos; un
momento es el valor esperado de una variable transformada elevada a la s-sima potencia.
{
ms ( y ) = E ( y )
s
} ( s = 0,1, 2,K)
La forma que toma esta transformacin, determina la clase a la que pertenece el momento:
Momentos centrados: {
s ( y ) = E y E ( y )
s
}
Momento centrado mixto: 1 2
{
( s ;s ) ( x ; y ) = E x E ( x ) y E ( y )
s1 s2
}
En particular, en este ltimo caso, si se verifica s1 = s2 = 1 queda definida la covarianza.
Se dice definicin dbil porque no se define la infinita sucesin de momentos; de ser as, la
definicin dbil se transformara en una definicin estricta por caractersticas de unicidad.
Existen variables aleatorias que no tienen infinitos momentos; por ejemplo, la variable t de
student con n grados de libertad tiene momentos finitos hasta el orden n.
x; ( x ) ; f ( x ) ; F x ( x ) = P ( X < x ) = f x ( x ) dx
y
y; ( y ) ; f ( y ) ; F y ( y ) = P (Y < y ) = f y ( y ) dy
z = f ( x ; y ) ; f x ; y ( x ; y ) = f x ( x ) f (Y = y ) x = P {[ X = x ] I [Y = y ]}
La funcin conjunta cumple la condicin de cierre:
f x; y ( x ; y ) dxdy =1
( ) ( )
( x ) ( y )
Las funciones de probabilidad marginales pueden hallarse de la siguiente manera:
f x;y ( x ; y ) dx = f y ( y)
( )
( x )
f x;y ( x ; y ) dy = f x ( x)
( )
( y )
4
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
{
( x ; y ) = E x E ( x ) y E ( y ) }
A partir de la desigualdad de Schwarz-Hlder (o Cauchy-Schwarz), se puede demostrar que:
( x ; y ) ( x ) ( y )
Esta desigualdad dio origen a otra medida del grado de relacin entre las variables:
( x; y )
( x; y ) =
( x ) ( y )
denominada coeficiente de correlacin. La covarianza es una medida absoluta del grado de
correlacin, y el coeficiente de correlacin es una medida relativa. De la desigualdad
anterior, se deduce que:
( x; y ) 1
Los momentos son medidas intrnsecas a una variable, y describen el efecto escala de esa
variable (es decir, su volatilidad, asimetra, grado de apuntamiento, etc.). Los momentos
mixtos son medidas que miden relaciones entre las variables. Para medir la relacin entre dos
variables, debe despojarse, a cada una de ellas, de sus caractersticas intrnsecas
fundamentales: la posicin y la volatilidad.
Si efectuamos observaciones, podramos representarlas en un plano de ejes cartesianos
ortogonales, que representen a ambas variables:
5
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
6
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
( )<
E xn
s
( s = 1, 2,K)
Los momentos absolutos son momentos calculados sobre el valor absoluto de la variable:
( )=
E xn
s
x
( )
( x )
f x dx
7
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
(
lim E xn x
n
s
)=0
Y en tal caso, se dice que xn converge en Ls a x. En particular, si s = 2, xn converge en
varianzas a x.
Por su parte, se verifica que la convergencia en los momentos implica la convergencia en
probabilidad, y sta la convergencia en distribucin.
ms
P
d
Clase 3. Mircoles 01/09/2010 (Prctica)
i =1 i =1
Supuestos de Gauss-Markov:
Linealidad en los parmetros j, y en el error u. Ejemplos:
ln y = 0 + 1 x1 + ui es lineal en los parmetros y en el error.
y = ln (0) + ln (1) x1 + ui no es lineal en los parmetros.
Exogeneidad: E(u) = 0. Si no se cumple, se viola la consistencia.
Homocedasticidad: V(u) = 2(u). Si no se cumple, se viola la eficiencia de la estimacin.
No autocorrelacin: E(uiuj) = 0, i j. Si no se cumple, se viola la eficiencia. Se refiere a
la correlacin de los residuos respecto de s mismos.
Considerando que Cov(uiuj) = E(uiuj) E(ui) E(uj), y dado el supuesto de exogeneidad, segn
el cual se supone que E(ui) = 0 y E(uj) = 0, se llega a que Cov(uiuj) = E(uiuj). Como el
supuesto de no autocorrelacin pide que E(uiuj) = 0, al conjugarse con el de exogeneidad est
pidiendo que Cov(uiuj) = 0.
Normalidad de los residuos: u ~ N (0; 2u). No es estrictamente necesario para garantizar
la consistencia, sino que se pide para efectuar inferencia estadstica.
Asociadas e intrnsecas a una variable aleatoria, existen una funcin de densidad, una funcin
de distribucin, una funcin de supervivencia, a las cuales se denomina funciones
caractersticas; son una transformacin pura de la funcin de densidad. Se denotan:
H x (w) = h( x ;w )
f x ( x ) dx = h( x ;w )
dF x ( x ) = E h( x ;w )
( )
( x ) ( )
( x )
donde w es una variable real, que no tiene ningn tipo de interpretacin; es una variable
auxiliar. Segn la forma que tome la funcin h(x;w), quedar definida una transformacin
particular (o sea, una funcin caracterstica particular). Si la funcin toma la forma:
h( x ;w ) = e iwx
entonces queda definida una transformacin de Fourier sobre la funcin de densidad:
C x (w) = e f x ( x ) dx = E e iwx
iwx
( )
( x )
8
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
que se denomina la funcin caracterstica de la variable x. Toda variable tiene una funcin
caracterstica, dado que la integral es siempre convergente; dicha funcin tiene ciertas
propiedades:
C x ( 0) = f ( )dx = 1
x x
( )
( x )
C ax + b ( w ) = E e ( ) = E e ( ) e iwb = e iwb C x ( aw )
iw ax + b i aw x
Sean x, y dos variables aleatorias independientes (es decir, x y), cada una con su propia
funcin caracterstica:
z = x + y; C z ( w ) = E e ( ) = E e iwx E e iwy = C x ( w ) C y ( w )
iw x + y
Sea x1, x2,, xn una sucesin de variables aleatorias, y sea x una variable aleatoria. Sean
C1, C2,, Cn las funciones caractersticas de la sucesin, y Cx la funcin caracterstica de
x, se verifica que si xn converge en distribucin a la variable x, entonces se puede
asegurar que la funcin caracterstica de la sucesin converge a la funcin caracterstica
de la variable x; y viceversa, dado que la implicacin se da en ambos sentidos:
xn
d
x C n
Cx
9
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
wx w 2 x 2 w 3 x 3
M x ( w ) = E e = E 1 +
wx
+ + + K =
1! 2! 3!
w w2 w3
= 1 + E [ x ] + E x 2
+ E x
3
+K =
1! 2! 3!
w w2 w3 wj
= 1 + m( x ) + m2 ( x ) + m3 ( x ) + K = m j ( x ) <
1! 2! 3! j =0 j !
La funcin generatriz de momentos existir, en tanto pueda asegurarse que para un entorno
del origen de w la sucesin sea convergente.
d w w2
M x ( w ) = M x ( w ) = m( x ) + m2( x ) + m3 ( x ) +K
dw 1! 2!
M x ( 0) = m( x )
M x ( w ) = m2( x ) + w m3( x ) + K
M x ( 0) = m2 ( x )
M x( ) ( 0 ) = m s ( x )
s
( s = 1, 2,K)
Supongamos una sucesin de variables aleatorias, con sus respectivas funciones
generatrices de momentos, y la variable x con su respectiva FGM.
x1 , x2 ,K , xn x
M 1 , M 2 ,K , M n Mx
Se puede asegurar que si la sucesin xn converge en distribucin a la variable x, entonces la
FGM de la sucesin converge a la FGM de la variable x, y viceversa:
xn
d
x M n
ms
Mx
Estas propiedades permiten una demostracin distinta del Teorema Central del Lmite. Sea
x1, x2,, xn una sucesin de variables aleatorias independientes e idnticamente distribuidas,
cada una de ellas con FGM, basta construir la FGM de la sucesin, y demostrar que dicha
FGM converge a la de la variable (por ejemplo, la FGM de la variable normal), para que
quede garantizada la convergencia en distribucin.
n
n
x : b ( n; p ) ; M x ( w ) = E e = e wx p x q n x
wx
x
x=0
M x ( w ) = ( pe w ) q n x = ( q + pe w ) = f ( w )
n x n
x
x
El hecho de que la FGM sea funcin exclusivamente de w, es una pauta para saber que
hemos obtenido una FGM.
10
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
M x ( w ) = n ( q + pe w )
n 1
pe w
M x ( 0 ) = np = E [ x ] = m( x )
M x ( w ) = n ( n 1) ( q + pe w ) ( pe w ) + n ( q + pe w )
n 2 2 n 1
pe w
M x ( 0 ) = n ( n 1) p 2 + np = m2( x )
M u (w) =
2 e
2
du =
2
e 2
1 ( u 2 uw + w
1 2 2
w2 ) du = 1 w2 1
2 ( u w )2
M u (w) =
2
e 2
2
e 2
du
w2 w2
y2
e 12 ( u w )
2 2
e 2
2
M u (w) = e
2
du = e dy
2
utilizando la sustitucin: y = u w , dy = du
y2 w2
Ahora bien, e 2
dy = 2 , de modo que: M u ( w ) = e 2
Sea x una variable discreta:
x; ( x ) N 0 ; P ( x = j ) = Pj
es posible definir una transformacin, que define la funcin generatriz de probabilidades:
G x ( w ) = w j Pj
j=0
FGPx = E w x
11
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
Si la sumatoria converge, entonces existe la FGP. De hecho, basta demostrar que la sucesin
{aj} es acotada para garantizar que siempre habr un valor de |w|1 para el cual la siguiente
sucesin converge:
w a
j
j
j
Ahora bien, en el caso de Gx(w), la sucesin {aj} es {Pj}, y sus elementos son probabilidades,
que por supuesto, son acotadas. Luego, la sumatoria converge absolutamente y, por lo tanto,
existe la FGP. Las variables continuas no tienen FGP.
Propiedades:
x; ( x ) = {0,1, 2,K} ; P ( x = i ) = f i ; G x ( u) = u i f i
i
y; ( y ) = {0,1, 2,K} ; P ( y = j ) = g j ; G y ( w ) = w j g j
j
x y
Supongamos adems que z vincula el comportamiento de x y de y:
z = x + y; ( z ) = {0,1, 2,K} ; P ( z = k ) = P ( x + y = k ) = hk
{
hk = P ( x = 0 ) I ( y = k ) U ( x = 1) I ( y = k 1) U K U ( x = k ) I ( y = 0 ) }
donde todos los pares (x,kx) representan eventos incompatibles, de modo que:
hk = f 0 gk + f1 gk 1 + K + f k g0 = { f i } g j { }
Cuando una expresin con probabilidades posee las caractersticas de la funcin h(k), se la
conoce como convolucin.
G x ( w ) G y ( u ) = ( f 0 + f1 w + f 2 w 2 + K) ( g0 + g1 w + g2 w 2 + K)
G x ( w ) G y ( u ) = f 0 g0 + ( f 0 g1 + f1 g0 ) w + ( f 0 g2 + f1 g1 + f 2 g0 ) w 2 + K
k = 0 h0 = f 0 g0
k = 1 h1 = f 0 g1 + f1 g0
k = 2 h2 = f 0 g2 + f1 g1 + f 2 g0
G x ( w ) G y ( u ) = h0 + h1 w + h2 w + K = w hk = w k Pk = G z ( w )
2 k
k =0 k =0
Es decir, la FGP de una convolucin {fi}{gj} es el producto de las FGP de las variables.
En particular, se cumple que:
{ fi } { fi } = { fi }
2
12
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
G x ( w ) = j ( j 1) w j2
f j ; G x (1) = j ( j 1) f j = m[ 2]( x )
j j
M
G x( ) (1) = j ( j 1)K j ( s 1) f j = m[ s ]( x )
s
j
obtenemos los sucesivos momentos factoriales. Adems, se verifican relaciones entre los
momentos factoriales de orden s y los momentos naturales de orden menor o igual que s. Por
ejemplo:
m[ 2]( x ) = j 2 f j j f j = m2 ( x ) m( x )
j j
x x=0
n
G x ( w ) = ( wp ) q n x = ( q + pw )
x n
x
x
x=0 x!
( w ) = e e w = e ( w 1)
x
M x (w) = e
x x!
Clase 5. Lunes 06/09/2010
( ) {
y( t ) = y( t j ) , x1( t h ) , K , xk ( t h )
1 k
} ( j; h1 ;K; hk 0; R )
Las perturbaciones t, para cada valor de t no transcurrido, constituyen variables aleatorias.
Luego, y(t) es una variable aleatoria. Si se observa dicho fenmeno desde el pasado hacia el
futuro, tiene el aspecto de una sucesin de variables aleatorias ordenadas en el tiempo, como
todo fenmeno dinmico. A esta sucesin de variables aleatorias se denomina proceso
estocstico. Dado un fenmeno determinado, nuestra pretensin es aproximarnos en la mayor
medida de lo posible al proceso estocstico que genera su comportamiento.
Para cada valor de t, observamos que yt es una variable aleatoria, y por lo tanto el proceso es
una sucesin de variables aleatorias. Los valores que adoptar yt para los sucesivos valores
de t, representa la trayectoria del proceso, y debe considerarse que, para el observador,
existen infinitas trayectorias posibles. Si el fenmeno es aleatorio puro, tendr infinitas
trayectorias posibles, y para el observador stas son equiprobables (por ejemplo, la quiniela,
13
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
mientras que para la demanda monetaria sus infinitas trayectorias posibles no son
equiprobables).
Supongamos ahora que el tiempo ha transcurrido, y el proceso ha adoptado una trayectoria
determinada. El inters radica en explicar por qu adopt la trayectoria que adopt; este
problema es irresoluble.
Las explicaciones de un proceso dinmico pueden clasificarse en dos grandes grupos: las
estticas y las dinmicas. Las explicaciones estticas se caracterizan porque se basan en
conjuntos de observaciones obtenidas en igualdad de condiciones; representa tomar una
fotografa del fenmeno. Como dichas observaciones se realizan en un mismo momento en el
tiempo, las condiciones econmicas de contorno que afectan al comportamiento de ese
fenmeno estn fijas, y por lo tanto todas las observaciones pueden considerarse realizadas
en igualdad de condiciones. Las explicaciones dinmicas buscan hacer variar t y analizar
cmo evoluciona el comportamiento de y cuando t vara. La caracterstica de las
explicaciones dinmicas es que se basan en conjunto de observaciones obtenidas en
condiciones diferentes, dado que las observaciones son obtenidas en momentos distintos,
cada uno con sus propias condiciones econmicas de contorno; luego, las condiciones en que
se obtienen las observaciones son diferentes. De las infinitas condiciones que afectan a y,
alguna puede haber cambiado; no puedo asegurar que todas permanezcan iguales.
14
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
(
P a + a = 1 )
donde el valor de a est dado por un valor que proporciona la distribucin de probabilidades
del estimador, multiplicado por el desvo estndar de la estimacin. a = f( ) ( ) .
La clave en el problema de la estimacin por intervalos, es definir la distribucin de
probabilidad.
De esta manera, queda resuelto el problema de la explicacin esttica de un proceso
dinmico: el valor de y(t) para un t no transcurrido, no lo puedo obtener; sin embargo, dicho
valor queda contenido en un intervalo, en las condiciones ya descriptas.
( ) { }
y( t ) = x( t )
Donde x(t) es una variable (o vector de variables) que explica las observaciones. El conjunto
no es deductivamente vaco, sino que queda supuesto que existe alguna variable del entorno
de la economa que puede contribuir a la explicacin de otra. Se supone que esa variable se
tiene en observacin. A esta variable (o al vector de variables) se lo denomina variable
explicativa, o regresor.
La variable y es la variable a explicar. Los (t) representan la influencia que ejercen sobre y
todas las variables del entorno de la economa que no son x.
Se produce una dualidad: suponemos que los fenmenos que integran la explicacin son
conceptualmente continuos, pero la informacin de que se dispone est basada en
15
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
observaciones, que son inevitablemente discretas, dado que estn referidas a distintos
momentos del tiempo, siempre sobre la base de la de discreticidad. Adoptamos el siguiente
cambio de notacin: yt = f(xt) + t
Se consigue entonces una aproximacin discreta al carcter continuo de y.
Por ejemplo, podramos explicar el consumo a partir del ingreso; pero no depende
nicamente del ingreso, sino que existen otras variables que lo afectan.
En este tipo de explicaciones, el observador decide qu valor toma la variable explicativa xt,
y por lo tanto no es una variable aleatoria. A estas explicaciones se las conoce como
representaciones con regresores no estocsticos.
A la hora de estudiar el sistema, compuesto de dos fenmenos, puede ser que una de las
variables sea exgena y la otra endgena. Las variables predeterminadas son un caso especial
de las variables exgenas, es decir de aquellas que asumen valores por cuestiones ajenas al
modelo. Por lo tanto, las modificaciones en dichas variables afectan a las endgenas, pero no
a la inversa.
Si las dos variables fueran endgenas, las modificaciones en una de ellas afectaran a la otra,
y stas retroalimentaran el comportamiento de la primera. Se trata de sistemas con
retroalimentacin.
Regla de oro de la Teora de Modelos: todo modelo tiene tantas ecuaciones como variables
endgenas tenga el sistema.
En la presente explicacin, la variable explicativa x, y la variable explicada y hacen
referencia a un mismo momento t, de manera que es una explicacin esttica de un fenmeno
dinmico. Si la variable explicativa hiciera referencia a un momento anterior a t, habra un
ordenamiento temporal entre las variables y cambiaran la explicacin y la relacin entre las
variables. La regla de oro de las relaciones causales es que la causa siempre tiene que
preceder al efecto, no pudiendo ser contempornea ni posterior a aqul. Con lo cual, dicho
ordenamiento temporal genera que la explicacin sea dinmica.
Puede fijarse un punto en el tiempo, y en ese momento realizar las observaciones (sobre las
variables x e y), obteniendo la explicacin esttica del fenmeno; a estas situaciones se las
conoce como de corte transversal.
Como la variable explicativa y la explicada refieren al mismo momento, la explicacin de y
en el momento t requiere de informacin de x en el momento t, con lo cual no puede
efectuarse una prediccin. En cambio, puede efectuarse la simulacin, con la intencin de
determinar el valor esperado de y.
Se pretende que f(xt) sea una funcin ptima para el conjunto de informacin xt, y ello
significa que las perturbaciones t deben tener un comportamiento absolutamente aleatorio.
Si de las perturbaciones pudiera rastrearse un comportamiento sistemtico, entonces la
funcin f(xt) es insuficiente, dado que algo de dicho comportamiento sistemtico escapa a la
funcin, quedando en forma residual dentro de las perturbaciones.
Se imponen axiomticamente ciertas condiciones sobre las t, que pretenden no contradecir el
sentido comn: las condiciones de Gauss-Markov.
E(t) = 0
A las perturbaciones se las ha llamado errores de observacin no-sistemticos; es menester
que posean una funcin de densidad simtrica alrededor del cero, dado que existe
aleatoriedad pura. Si la funcin de densidad no fuera simtrica alrededor del cero, es decir, si
fuera ms probable cometer errores en defecto que errores en exceso, entonces el observador
16
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
tomara conciencia de ello, debiendo reconocer que algo conoce acerca del comportamiento
de las t, y ello contradice el principio de la aleatoriedad pura.
Histricamente, se propuso primeramente la distribucin uniforme como funcin de densidad
de las t. Con el tiempo, se entr en razn de que es ms probable cometer errores de pequea
magnitud, que errores de gran magnitud; a medida que aumenta la magnitud del error, la
probabilidad de cometer ese error disminuye. A partir del Teorema Central del Lmite, se
arrib a que la funcin de densidad ptima era la distribucin normal. La razn radica en que
las perturbaciones son la suma de infinitas variables aleatorias; basta suponer que son
independientes y que tienen varianza finita, para establecer que t ~ N (0; 2).
(t,t+j) = j () = 0 ( j = 1,2, )
La covarianza mide el grado de correlacin lineal entre dos variables cualesquiera; si las
variables aleatorias son independientes, la covarianza se anula, aunque la recproca es falsa
en general. La covarianza igual a cero implica que las variables estn incorrelacionadas en
los momentos de primer orden, lo cual no implica que no exista correlacin en los momentos
de orden superior. Por su parte, la independencia implica que las variables estn
incorrelacionadas en los momentos de cualquier orden. Slo existe una situacin en que la
implicacin se cumple en ambos sentidos: cuando ambas variables son normales.
La medida j es un caso particular de la covarianza: la autocovarianza, que mide el grado de
relacin entre una variable y la misma variable desplazada j perodos. La autocovarianza
vara de acuerdo con el subndice j. El conjunto de las autocovarianzas forma la funcin de
autocovarianzas. El argumento de la funcin de autocovarianzas es el subndice j, que
representa el nmero de perodos que separa a las dos variables en comparacin y determina
el orden de la autocovarianza. La funcin de autocovarianzas, que conlleva la memoria del
proceso, es una funcin par, dado que (j) () = (-j) (). Por esta razn, resulta superfluo
permitir que j pueda tomar cualquier valor entero, y se restringe su dominio a los enteros no
negativos; sin embargo, en este apartado no se considera el caso j = 0 dado que la
autocovarianza de orden 0 es, por definicin, la varianza, que ser tratada en el siguiente
apartado.
Dado que se ha supuesto E(t) = 0, los momentos centrados mixtos se confunden con los
momentos naturales mixtos.
El presente apartado establece la condicin de que la funcin de autocovarianzas de las
perturbaciones debe ser nula, que es una condicin natural para que se cumpla la aleatoriedad
pura de las perturbaciones. Supongamos que para algn j se verifica que j () 0. Esto
significara que entre las perturbaciones t y t+j existe algn tipo de relacin sistemtica (en
particular, lineal). Luego, t+j puede ser expresada en trminos de t, o dicho de otra manera,
t+j = g(t). Pero el comportamiento sistemtico entre las perturbaciones implica que la
funcin f(xt) es insuficiente, con lo cual no es ptima.
2 (t) = 2
Se trata de la condicin de homocedasticidad: la volatilidad de las perturbaciones es finita y
constante. Si no se cumple esta condicin, se dice que las volatilidades son heterocedsticas.
t ~ N (0; 2)
La normalidad de las perturbaciones t permite deducir la normalidad de los estimadores
minimocuadrticos, abriendo paso a la inferencia.
E ( yt xt ) = E ( a0 ) + E ( a1 xt ) + E ( t ) = a0 + a1 xt
dado que hemos supuesto que E(t) = 0, y adems xt representa una variable impropia, que es
tomada como constante, puesto que es la variable condicionante en esta esperanza
condicionada. Denominamos a esta esperanza condicionada, la representacin entre las
variables x e y; proporciona el valor que debera esperarse de y, al tomar x un valor dado.
Si aplicamos el operador varianza a yt, vemos que:
2(y t
xt ) = ( a ) + ( a x ) + ( ) =
2
0
2
1 t
2
t
2
dado que se ha pedido que 2 (t) = 2.
El estimador muestral de la representacin est dado por:
y t = a 0 + a1 xt
y representa el modelo economtrico. Construir el modelo significa calcular los estimadores
puntuales, sobre la base del conjunto de informacin {xt}.
En el mbito del anlisis numrico, una tarea de inters es reemplazar una sucesin discreta
de puntos por una funcin continua. Esta transformacin puede hacerse de dos formas:
Cuando la funcin continua tiene que cumplir con la restriccin de pasar por todos los puntos
de la sucesin discreta, se denomina funcin de interpolacin.
Otro caso se da cuando la funcin debe comportarse como una funcin promedio, sin que sea
menester pasar por todos los puntos; se trata de la funcin de ajuste. En este caso, los puntos
de la funcin continua estn menos afectados por errores de observacin. O sea que para cada
valor de x, tendramos dos valores de y: uno efectivamente observado, y otro que proporciona
el modelo, y dichos valores, salvo extrema casualidad, no deberan coincidir.
yt = y t + t t = yt y t
denominndose a t los residuos del comportamiento de y no explicados por el modelo.
Geomtricamente, el estimador muestral de la representacin tomar uno u otro valor, segn
que se trate de uno u otro valor de xt, y en definitiva se podrn formar infinitas posibles
rectas. De ellas, se pretende encontrar la ptima, que ser la que minimice los residuos. A tal
n
efecto, se crea una funcin de los residuos: t , y resulta que la funcin se comporta como
t =1
( yt y t ) = ( yt a0 a1 xt )
2 2
t =
2
= min
t =1 t t
donde los xt son valores determinados por el observador, y los valores de yt son las
observaciones, y son por lo tanto inmodificables. Con lo cual, la expresin anterior est
nicamente en funcin de a 0 y a 1 .
n
f ( a 0 , a1 ) = t2 = ( yt a 0 a1 xt )
2
t =1 t
La condicin necesaria para la existencia de un mnimo, es que las derivadas parciales se
anulen; la condicin suficiente se relaciona con la matriz formada por las derivadas parciales
de segundo orden, es decir el hessiano. Existen dos soluciones a los cuadrados mnimos: una
no probabilstica, provista por Legendre, y otra probabilstica provista por Gauss, a travs del
18
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
a1 =
XY t t
; a 0 = Y a1 X
X 2
t
que, por ser estimadores muestrales, resultan ser variables aleatorias. Se puede demostrar que
a 0 : N a0 ;
xt2 2
n t
X 2
2
a1 : N a1 ; 2
t X
es decir que son estimadores insesgados y consistentes, y por ello son los mejores
estimadores lineales insesgados. Adicionalmente, puede demostrarse que si las variables t
tienen distribucin normal (tal como indica Gauss-Markov), entonces los estimadores
minimocuadrticos pueden expresarse como combinaciones lineales de los t, sin olvidar que
la combinacin lineal de variables normales es una variable normal.
Pero resulta que 2 es desconocida, de manera que habr que estimarla. Para ello utilizamos
los residuos, que estiman a las perturbaciones. Se obtiene el siguiente estimador insesgado:
1 n 2
=2
n 2 t =1
t
donde n2 hace referencia a la cantidad de grados de libertad. Como fue necesario estimar 2
coeficientes de la representacin, se han perdido 2 grados de libertad. En general, cuando sea
necesario estimar k coeficientes, quedarn nk grados de libertad en el estimador insesgado.
Por ser un estimador muestral, es tambin una variable aleatoria, y se verifica que:
( n 2 ) 2
: 2( n 2 )
2
con lo cual z resulta ser un cociente de dos variables aleatorias, es decir una nueva variable
aleatoria que, de acuerdo con el Teorema de Fisher, se distribuye segn una t de student:
N ( 0;1)
: t( n 2 )
1
n 2 2
( n 2 )
y reemplazando en nuestro caso de estudio:
a1
X t2 a1
= : t( n 2)
1 ( n 2 ) 2
X t2
n2 2
En definitiva, utilizando este estadstico, si existen razones suficientes para rechazar la
hiptesis nula de la prueba de significatividad, entonces la representacin lineal podr
considerarse vlida, y el modelo quedara justificado. Una vez rechazada dicha hiptesis,
pretendemos medir la calidad del modelo, o sea hallar una medida de las posibilidades
explicativas del modelo.
Y t
2
= Yt 2 + t2
Y t
2
representa la variacin total de y, Y t
2
representa la variacin del fenmeno y
explicada por el modelo, 2
t representa la variacin de y no explicada por el modelo, o
variacin residual.
Un modelo ser de mayor calidad cuanto mayor sea la variacin de y explicada por el
modelo. Una medida de dicha calidad estara dada por el siguiente cociente:
Ry2
=
Y t
2
= 1
t
2
= (2xt , yt )
x
Y t
2
Y t
2
20
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
y t = b0 + b1 zt ; Ry2
z
Los dos modelos son lineales, y ambos utilizan una variable explicativa. A la hora de
comparar, selecciono aquel que tenga un R2 mayor, o sea que es buena medida comparativa.
Si en cambio el modelo lineal se construye agregando modularmente los distintos regresores,
llegamos a un estimador del tipo:
y t = b0 + b1 xt + b2 zt ; Ry2
x ;z
que es el caso ms habitual en la prctica. Se puede demostrar que siempre que se agregue un
regresor al modelo, se verificar, como una consecuencia de los cuadrados mnimos, que:
R 2y Ry2
x ;z x
Ry = 1
2
1
n 2 2
t
= 1
n1 t
2
x 1
n 1 Y t
2
n 2 Y t
2
R 2y = 1
1
n k t
2
= 1
n1 t
2
x1 ,K, xk 1
n 1 Y t
2
n k Y t
2
21
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
Un modelo con k regresores verifica Rk2 = Rk2 f( k ) , siendo f(k) el trmino de penalizacin.
El R2 ajustado es una medida que pertenece a la familia de las medidas con trmino de
penalizacin. Al agregar un regresor adicional, R2k aumentar inevitablemente, pero el
trmino de penalizacin, que es funcin del nmero de regresores, tambin aumentar. Si el
aumento del R2k es mayor que el aumento de f(k), entonces el R2 ajustado aumenta,
indicando que la incorporacin del regresor favorece a la explicacin de y, y merece quedarse
en el modelo. Si f(k) aumenta ms que el aumento del R2k, entonces el regresor adicional no
contribuye a la explicacin de y, y merece ser eliminado del modelo para no contradecir la
condicin de parsimonia. De modo tal que, en general, si se tienen varios modelos
alternativos, debe elegirse el que tenga mayor R2 ajustado.
Dentro de la familia de las medidas con trmino de penalizacin, existen otras medidas,
incluso mejores que el coeficiente de determinacin ajustado, y se renen bajo la
denominacin comn de criterios de informacin.
El criterio de informacin de Akaike se basa en una funcin de verosimilitud:
Aic( k ) = ln 2 + 2nk
siendo, el primer trmino, una medida de la varianza residual, y el segundo, el trmino de
penalizacin, que es lineal respecto del nmero de regresores; alternativamente, podra ser
cuadrtico (ms pesado que el lineal) o de otra forma.
Al agregar un regresor adicional, el primer trmino disminuye y el segundo aumenta. Si el
primer trmino disminuye en mayor medida que el aumento del segundo trmino, entonces el
criterio de informacin disminuye; en caso contrario, aumenta. Se justifica el agregado del
regresor adicional, cuando el criterio de informacin disminuye. Entre dos modelos
alternativos, debe elegirse aquel cuyo criterio de informacin sea menor. Por ejemplo, si para
un modelo da 2 y para otro da 5, es preferible el segundo. Debe recordarse que el criterio de
informacin puede asumir cualquier valor real, puesto que basta que la medida de la varianza
residual sea menor que 1, para que el primer trmino sea negativo.
Cuanto ms pesado sea el trmino de penalizacin, mejor tendr que ser el regresor adicional
para quedar incluido en el modelo; es decir, cuanto ms pesado sea dicho trmino, ms
conservador es el criterio de informacin. Se trata de un criterio de informacin eficiente.
Existe un problema de sobreestimacin, que consiste, por ejemplo, en que se seleccione
como adecuado un modelo AR(2) cuando en realidad es ms adecuado AR(1). Esto ocurrira
si el criterio de informacin AIC (P2) < AIC (P1). Con lo cual, debiera determinarse la
probabilidad de cometer dicho error. Se verifica que:
22
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
partir de la informacin que proveen sus estimadores muestrales, es decir los residuos. Debe,
entonces, construirse un test de hiptesis para cada una de las condiciones.
Test de normalidad: se trata de un test de diagnstico, cuya idea se basa en la distancia entre
dos distribuciones. Se realizan ciertas observaciones, y se determina si la poblacin a la cual
pertenecen estas observaciones puede considerarse que se distribuye normalmente. En este
caso puntual, la poblacin bajo anlisis son las perturbaciones, y las observaciones son los
residuos. H0: t es normal; H1: t tiene otra distribucin. El test de Jarque-Bera pretende
verificar que la poblacin bajo anlisis tenga, o no, los mismos coeficientes de asimetra y de
curtosis que la distribucin normal. Los siguientes estimadores maximoverosmiles son
consistentes:
3
4
( ) = K ( ) =
As t
; t
( ) ( )
3 2
2 2
t t
As( )
d
N ( 0; n6 ) y K ( )
d
N ( 3; 24
n ) . Estandarizndolas se obtiene:
n As
d
N ( 0;1) y n K 3
d
N ( 0;1) . Elevando al cuadrado
6 ( ) 24 ( )
ambas normales estandarizadas, se obtienen sendas distribuciones chi-cuadrado con 1 grado
2
n
de libertad: 6 2
As d
2 ( 1) y n K 3
d
2(1) . Sumando ambas 2(1)
( ) 24 ( )
obtenemos una 2
(2): JB = n
6 { 2 + 1 K 3
As( ) 4 ( )
2
}
d
2( 2) .
23
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
( t 1 )
2
DW = t =2
t
=
2
t 2 t t 1 + t21
n
t
2 2
t
t =1
2
2 t t 1 + t21 2 ( t2 t 1t )
DW = t
=
t
2
2
t
{
( x ; y ) = E x E ( x ) y E ( y ) }
La autocovarianza de orden j indica la medida de la influencia que ejerce el fenmeno y en el
momento t j, sobre el fenmeno y en el momento t.
{
j ( y ) = E yt j E ( y ) yt E ( y ) }
En trminos de variable centrada, lucira de la siguiente forma:
j ( y ) = E ( yt j yt )
Las perturbaciones tienen valor esperado nulo, y ello implica que los momentos centrados se
confunden con los momentos naturales.
j ( ) = E ( t j t )
El estimador de la autocorrelacin de orden j surge del cociente entre el estimador de la
autocovarianza de orden j y el estimador de la autocovarianza de orden 0:
24
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
n
j =
( )
1
n
t = j +1
t j t
j j
( ) ( )
j = ; j =
( ) 0 ( ) 0
( ) ( )
n n
1
n
t = j +1
t j t
t = j +1
t j t
j = =
( ) 1
n t
2
t
2
t
t
Dichos estimadores son maximoverosmiles, razn por la cual se utiliza n y no n j.
2 ( t2 t 1t ) t2 t 1t
DW = = 2 = 2 1 1( )
2
t
2
t
2
t
Si las perturbaciones no tuvieran autocorrelacin de primer orden, el coeficiente 1() sera
igual a 0. En este caso, el estadstico DW sera igual a 2. Si existiera autocorrelacin positiva
de primer orden, 0 < 1() < 1, entonces 0 < DW < 2. Si existiera autocorrelacin positiva de
primer orden perfecta, 1() = 1, y DW = 0. Si existiera autocorrelacin negativa de primer
orden, 1 < 1() < 0, entonces 2 < DW < 4. Si existiera autocorrelacin negativa de primer
orden perfecta, 1() = 1, y DW = 4.
En la medida en que DW se acerque a 2, podr considerarse que no existe autocorrelacin de
primer orden, y que el alejamiento leve respecto del 2 puede deberse a cuestiones muestrales.
Si DW presenta valores extremos (cercanos a 0 o a 4), puede concluirse que existe
autocorrelacin de primer orden. El estadstico DW no tiene distribucin exacta ni asinttica,
de modo que los valores crticos de tabla son obtenidos por simulaciones.
Si DW < 2, el anlisis de limita al rango de valores entre 0 y 2. Se obtienen los valores
crticos, denotados dL y dU. Si dU < DW < 2, se considera lo suficientemente cercano a 2, y se
acepta la hiptesis nula. Si 0 < DW < dL, se rechaza la hiptesis nula, considerando que hay
AC(1) > 0. Si dL < DW < dU, el test queda indeterminado.
Si DW > 2, el anlisis de limita al rango de valores entre 2 y 4. Si 2 < DW < 4 dU, se
considera lo suficientemente cercano a 2, y se acepta la hiptesis nula. Si 4 dL < DW < 4, se
rechaza la hiptesis nula, considerando que hay AC(1) < 0. Si 4 dU < DW < 4 dL, el test
queda indeterminado.
Si el test da indefinido, debe incrementarse el nmero de observaciones, con la intencin de
ver si DW se coloca en un intervalo definido. Debe considerarse que el intervalo de
indefinicin es grande para n chico, y chico para n grande.
Los valores crticos que se obtienen en tabla sirven solamente cuando a 0 es significativo. Si
en el modelo no existiera trmino independiente (es decir, a 0 no es significativo), los valores
crticos deben modificarse, a cuyo efecto existen las tablas de Farebrother, que surgen luego
de efectuar la simulacin para modelos que carecen de trmino independiente.
Si se rechaza la hiptesis nula, debe reconocerse que las perturbaciones, y consecuentemente
el fenmeno y, tienen autocorrelacin de primer orden, con lo cual las variables aleatorias
observables de la poblacin no sern independientes, no pudiendo utilizarse la inferencia
clsica. Esto indica que parte del comportamiento del fenmeno y en el momento t puede
explicarse por su comportamiento en el momento t 1, de modo que es justificable agregar el
regresor yt-1 al modelo: yt = b0 + b1 yt-1 + b2 xt + t, lo cual se conoce como la correccin de
25
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
( ) {
y( t ) = y( t j ) } ( j 0; )
En este caso, dichas realizaciones representan los regresores, que en este caso sern
estocsticos, dado que son variables aleatorias. A su vez, existe una relacin temporal entre
la variable explicativa y la variable a explicar, de modo que la explicacin ser dinmica. Las
variables explicativas no son independientes, de hecho en general estn altamente
correlacionadas; luego, no puede utilizarse la inferencia clsica, debiendo desarrollarse un
nuevo mtodo de inferencia.
Si el observador considera las realizaciones yt desde el presente y para todo valor de t no
transcurrido, entonces este fenmeno yt tiene, para el observador, el aspecto de una sucesin
de variables aleatorias ordenadas en el tiempo; a esta sucesin se denomina proceso
estocstico. La finalidad es definir cul es el proceso estocstico que rige el comportamiento
del fenmeno y. Dada esta definicin de proceso estocstico, es evidente que tal proceso se
desarrolla sobre dos dominios: el dominio de las variables y el dominio del tiempo.
( ) {
y( t ) = y( t j ) , x1( t h ) ,K , xk ( t h )
1 k
} ( j; h1;K; hk 0; )
son variables unidimensionales; mientras que el proceso y, cuyo conjunto de informacin es
(y(t)), es un proceso de k + 1 dimensiones.
Un proceso que slo pueda explicarse a partir de realizaciones anteriores de la variable a
explicar, es un proceso unidimensional.
Discreto o continuo en el dominio del tiempo. Un proceso ser discreto en este sentido,
cuando sus variables se generen en puntos determinados del tiempo, puntos que no estn
26
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
afectados por ningn tipo de aleatoriedad; mientras que ser continuo en el dominio del
tiempo cuando las variables aleatorias se generen en puntos aleatorios del tiempo, o sea no
puede saberse cundo se va a generar la variable aleatoria. Por ejemplo, supongamos una
poblacin de habitantes, de tamao n en el momento t. El tamao de la poblacin se
modificar en cuanto se produzca un nacimiento o una muerte. En tal caso, el tamao de
dicha poblacin en un instante posterior, pasar a ser n + 1 o n 1, pero, si bien el cambio
puede ocurrir en cualquier momento del tiempo, no se sabe en qu momento se producir.
La definicin estricta implica definir al proceso desde adentro, y esto podr lograrse si
pueden definirse, con respecto al proceso, ciertas reglas de juego. Por ejemplo, un proceso
que representa el tamao de una poblacin; dicha poblacin admite solamente ingresos por
nacimiento y egresos por fallecimiento; la tasa o la probabilidad de que un individuo de la
poblacin d origen a un nuevo individuo de la poblacin, producindose un nacimiento, es
constante, y no depende de menores procesos; todas estas constituyen ciertas reglas de
juego. Si pueden definirse todas estas reglas de juego, puede lograrse una definicin estricta
del proceso.
La definicin dbil es como si se observara al proceso desde afuera. Por ejemplo, para
analizar el rendimiento de un activo cuento nicamente con los precios de dicho activo al
cierre de cada da, y no cuento con otra informacin. Se define el proceso nicamente a partir
de la realizacin que producen sus variables; ello conduce forzosamente a una definicin
dbil. Una definicin estricta es siempre preferible a una definicin dbil.
Un proceso queda definido en forma estricta cuando es posible definir la funcin de
probabilidades conjunta para cualquier sucesin finita de sus variables aleatorias (para todo t
y todo n).
fdp = f dy( t1 ) dy( t2 ) K dy( tn )
y t ) ; y( t ) ;K; y t
(1 2 ( n) ( y( t1 ) ; y( t2 ) ;K; y( t n ) )
El valor a asumir por el proceso en un momento dado es el estado del proceso.
{
fdp = P y( t1 ) = Y( t1 ) I y( t2 ) = Y( t2 ) I K I y( tn ) = Y( tn )
}
y( t j )
fdp = P
y
( t j 1 ) ; y( t j 2 ) ;K
donde, para el estado j, los valores j 1, j 2, representan los estados anteriores del
proceso, es decir su pasado, su historia, su autorregresividad, su memoria; y la secuencia de
todos los estados, ordenada en el tiempo, representa la trayectoria del proceso. Cada una de
las probabilidades condicionales se denomina probabilidad de transicin del proceso; el
conjunto de dichas probabilidades es el conjunto o la familia de las probabilidades de
transicin del proceso. Para definir el proceso en forma estricta se requiere el conjunto
completo de las probabilidades de transicin del proceso.
La memoria del proceso es aquello que el proceso recuerda de su historia para condicionar
su comportamiento futuro.
En trminos generales, todo proceso est afectado por su infinito pasado. En algunos casos,
la informacin sobre ese infinito pasado se resume en un conjunto finito de sus estados
27
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
anteriores. Esta idea lleva a una nueva clasificacin de los procesos, que no se vincula con el
dominio sino con la relacin que existe entre las variables aleatorias del proceso:
Proceso AR(0). Los resultados anteriores del proceso no afectan su comportamiento futuro.
Si las variables son independientes entre s, el proceso es estrictamente AR(0). Si en vez de
ser independientes fueran incorrelacionadas, el proceso sera dbilmente AR(0).
P y( t )
j
Proceso AR(1), o proceso de Markov. La informacin sobre su infinito pasado est resumida
estrictamente en su estado inmediato anterior.
y( t j )
P y
( t j 1 )
Proceso AR(2), o proceso de Yule.
y( t j )
P y
( t j 1 ) ( t j 2 )
;y
Proceso AR(p). El infinito pasado del proceso puede resumirse en forma aproximada en las p
realizaciones inmediatamente anteriores.
yt
P ( j ) y t ; y t ;K; y t
( j 1 ) ( j 2 ) ( j p )
Cuando un proceso queda definido a partir de los momentos se dice que ha sido definido
dbilmente. La informacin sobre el proceso est conformada por la sucesin de sus
realizaciones anteriores (observaciones sobre el proceso). Pero dicha informacin consiste en
un conjunto de observaciones discretas, aun cuando refieran a un proceso continuo, dado que
las observaciones se vinculan inevitablemente con un momento t del tiempo. La explicacin
que se lograr, ser una aproximacin discreta al comportamiento continuo del proceso. A
estos procesos se los conoce como procesos de parmetro discreto o procesos de series
cronolgicas.
Se produce un cambio de nomenclatura, para discrecionalizar el proceso en el dominio del
tiempo: en lugar de usar {y(t)}, usaremos {yt}, con (t = 1, 2, ).
Utilizaremos los momentos naturales de primer orden del proceso, y los momentos de
segundo orden del proceso, o sea la familia completa de autocovarianzas.
Si y(t) es un proceso normal, queda definido por sus momentos de primer y segundo orden; si
no es un proceso normal, pero admite una representacin lineal, entonces sus principales
caractersticas quedan resumidas en los momentos de primer y segundo orden.
Un proceso admite una representacin dbilmente lineal si su esperanza matemtica
condicionada puede expresarse como funcin lineal de sus realizaciones pasadas:
E yt yt 1 ; yt 2 ;K = a0 + a1 yt 1 + a2 yt 2 + K
Para determinar un momento de primer orden especfico, debemos fijar un momento en el
tiempo; con lo cual, se trata de un problema en el dominio de las variables.
En un caso de laboratorio podran, idealmente, replicarse infinitas veces las mismas
condiciones de contorno, con lo cual se podran obtener infinitas observaciones, y calcular
los momentos sobre la base de todos ellos. Pero en la economa no se pueden tomar muestras
infinitas; el precio de un activo en un momento t quizs sea el nico dato con que contemos
para ese momento, con lo cual sera como trabajar con una muestra de tamao 1. Nunca
podr explicarse el comportamiento de un fenmeno dinmico, salvo que se exija al proceso
la condicin adicional de estacionariedad, es decir, que el proceso sea estacionario.
28
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
Se dice que un proceso es dbilmente estacionario de orden s si sus momentos de orden s son
independientes del tiempo, o sea invariantes con respecto al tiempo:
ms ( yt ) = ms ( y ) ( s = 1, 2,K; t = 1, 2,K)
Tambin se pretende que el proceso sea estacionario de segundo orden, o estacionariedad en
las covarianzas, o en las varianzas.
La estacionariedad dbil de orden s tiene la siguiente propiedad: si un proceso es estacionario
de orden s, se puede asegurar que es estacionario de orden s 1, s 2, etc.
Vemos que en los momentos t1, t2, t3, los valores esperados son distintos, es decir que
dependen del tiempo; esto es tpico de un proceso no estacionario.
Momentos de segundo orden: covarianzas, de las cuales analizamos un caso particular, las
autocovarianzas.
29
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
{
j ( y ) = E yt m ( y ) yt + j m ( y ) } ( j = 0,1, 2,K)
Si el proceso es estacionario, la funcin de autocovarianzas es par; el subndice j puede tomar
cualquier valor entero no negativo. As como a la autocovarianza se asocia la autocorrelacin
como medida relativa de la relacin entre dos variables, a la funcin de autocovarianzas se
asocia la funcin de autocorrelacin (FAC), que se basa en momentos estandarizados en vez
de en momentos centrados. Esta funcin representa la gran herramienta para estudiar las
caractersticas del proceso estacionario.
jy
( )
j y = ; j y <1
( ) 0 y ( )
( )
Cuando la esperanza condicionada al infinito pasado del proceso es igual a la esperanza
condicionada a sus ltimas p realizaciones, se dice que el proceso es dbilmente AR(p), y son
nulos todos los coeficientes de autocorrelacin siempre que j > p.
E yt yt 1 ; yt 2 ;K = E yt yt 1 ; yt 2 ;K; yt p
El correlograma representa los valores del coeficiente de autocorrelacin para los distintos
valores de j.
Para el caso particular de un proceso AR(0), todos los coeficientes de autocorrelacin son
nulos y el pasado no sirve para explicar su comportamiento; el correlograma es:
Supongamos un proceso que no est afectado por factores peridicos. Se puede demostrar
que la funcin de autocorrelacin es decreciente en valor absoluto, dado que el grado de
influencia disminuye a medida que las dos variables se apartan en el tiempo.
30
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
rpidamente a 0. Esta caracterstica determina que los procesos estacionarios den lugar a
modelos de coyuntura, en vez de modelos de largo plazo.
( y t (
y ) yt + j y )
j y = t =1
n
( )
( y y)
2
t
t =1
El inconveniente es que el numerador tiene n j trminos, de modo que, segn el valor de j
que se pretenda, la informacin contenida en el estimador es asimilable a la obtenida a partir
de una muestra de tamao n j, y a medida que se incremente j, se asimilar a una muestra
cada vez ms chica, reducindose la confiabilidad de la estimacin. Se considera que dicha
confiabilidad se mantiene dentro de niveles aceptables en tanto se cumpla que j n / 4,
aplicable a series macro (series cortas), dado que si se tratara de series largas, de por ejemplo
4000 datos, podra garantizarse la confiabilidad hasta j = 1000, y sin embargo dicho valor
carece de inters prctico, habida cuenta de que, en un proceso estacionario, la memoria del
proceso es particularmente corta, y se pierde la autocorrelacin mucho antes de j = 1000. En
definitiva, esta limitacin no es grave.
n j y
d
N ( 0;1)
( )
Para un nivel de significacin del 5%, se tiene la siguiente regla de decisin:
2
Si j > se rechaza H 0
y ( ) n
Este test de significatividad individual no es muy recomendable, porque para valores chicos
de j se genera una autocorrelacin entre los valores estimados, sesgndose el test. Esto ocurre
porque el numerador y el denominador del estimador poseen n j trminos en comn. El
32
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
H 1 : i i( y ) 0
j
q BP
j = n i2( y )
d
(2j )
i =1
Este test tena un problema al aproximar el valor de la varianza por 1 / n. Se plantea entonces
una prueba adicional, sobre la base de una nueva aproximacin de Ljung-Box de la varianza:
n j
2
n ( n + 2) j( y )
y el estadstico es:
j i2( )
q LB = n ( n + 2)
d
(2j )
y
j
i =1 ni
La hiptesis nula se rechaza cuando algn j ( y ) sea distinto de cero.
Como caso especial y excepcional a tener en cuenta, puede ser que todos los coeficientes
estimados de correlacin sean cercanos a 0, y sin embargo, como el test es conjunto, la suma
entre todos los coeficientes puede generar que termine rechazndose H0.
Si se acepta H0, se acab el problema: el proceso es AR(0). Si se rechaza H0, el anlisis debe
continuar.
P t = P ( t )
t j
f ; = f ( t ) f
( t t+ j ) ( t+ j )
Si adems consideramos que t ~ N (0; ), tenemos un WN normal. Las perturbaciones son
2
WN estrictos normales.
33
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
j=0
2
j <
o sea, que la sucesin de ponderaciones sea de cuadrados sumables. Si se cumple esta
condicin, el operador ser convergente en el entorno del origen (es decir, (B) < ), el
sistema ser estable, y se puede asegurar que el proceso yt es estacionario. Debe recordarse
que la estacionariedad implica la convergencia del operador (B).
Las autocovarianzas de variables yt centradas estn dadas, en funcin del argumento j, por:
34
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
j ( y ) = E ( yt yt + j ) = E ( t + 1 t 1 + K) ( t + j + 1 t + j 1 + K)
j( y)
i = 0 h= 0 i h
(
= E i h t i t + j h = i h E t i t + j h )
Ahora bien, las E(t-i t+j-h) son autocovarianzas de t, que es un ruido blanco, y sern todas
nulas cuando el orden sea mayor que 0, mientras que sern no nulas cuando se refieran al
mismo momento, o sea cuando t i = t + j h, o equivalentemente h = i + j. Dichas
autocovarianzas no nulas, por ser de orden 0, son la varianza de t, o sea 2. Con lo cual:
j ( y ) = i i + j
2
i =0
i =0
y para asegurar la estabilidad del sistema (y consecuentemente la estacionariedad del proceso
yt), debi satisfacerse que i2 < . De esta forma, se encuentra una condicin adicional
que garantiza la estacionariedad: la condicin necesaria y suficiente para que un proceso sea
estacionario, es que su varianza y2 sea finita. Sin embargo, dicha varianza es desconocida.
La siguiente es una representacin AR(), donde yt son variables centradas y t ruido blanco:
y t = 1 y t 1 2 y t 2 K + t
yt + 1 yt 1 + 2 yt 2 + K = t
yt + 1 Byt + 2 B 2 yt + K = t
(1 + B + B
1 2
2
+ K ) yt = t
( B ) yt = t
donde (B) es el operador AR de orden infinito, o AR(), y est definido por la serie de
potencias de B. La ltima expresin es legtima si el sistema es estable, es decir, si para un
entorno de B (| B | 1) el operador AR() es convergente (es decir, (B) < ), lo cual puede
garantizarse si el sistema de ponderaciones j es absolutamente sumable, o sea si:
j=0
j <
La condicin de sumabilidad absoluta implica la de cuadrados sumables, garantizndose la
convergencia de la serie de potencias, y consecuentemente la estabilidad del sistema, con lo
cual el proceso yt es invertible. La condicin de invertibilidad implica la convergencia del
operador AR().
Cualquiera sea el proceso yt con el que pretenda trabajar, debe pedirse la condicin de
estacionariedad y la de invertibilidad.
Hay procesos que admiten ciertas representaciones AR, y hay procesos que admiten ciertas
representaciones MA. Pero como en las representaciones MA el proceso queda expresado en
funcin de variables aleatorias no observables, si se pretende operar con ese proceso, debe
35
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
( B ) yt = ( B ) ( B ) t = ( B ) ( B ) t = t
De manera que queda entre corchetes un operador tal que, al aplicarlo al ruido blanco, no lo
altera. Este operador es la identidad, de lo cual se desprende que un operador es la inversa del
otro:
1
( B ) ( B ) = id ( B ) = ( B )
Es posible pasar de una representacin a la otra, y viceversa, invirtiendo el operador. Con lo
cual, las dos representaciones son dos formas de expresar el mismo concepto.
Esta representacin es terica, y el inters radica en usufructuarla en la prctica; ello
implicara plantear un modelo que intente explicar al fenmeno yt a partir de, en particular,
infinitos shocks aleatorios pasados que generan una determinada influencia ponderada sobre
yt; lo cual requiere estimar cada uno de los respectivos coeficientes de ponderacin. Pero
como se cuenta con informacin finita, resulta imposible estimar los infinitos coeficientes.
De modo que se pretende pasar de una representacin de orden infinito a una de orden finito.
Para que se verifique la estabilidad del sistema, el sistema de ponderaciones j debe ser
absolutamente sumable, lo cual implica que las ponderaciones j deben decrecer rpidamente
en valor absoluto. Puede demostrarse que para que esto se cumpla, deben decrecer en forma
exponencial en valor absoluto. Con lo cual, a medida que j crece, los j se aproximan
rpidamente a 0, de modo que, en trminos de un modelo, podran despreciarse, o sea:
36
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
1 = 1 ; 2 = 2 ;K ; p = p ; j = 0 ( j = p+1, p+ 2,K)
yt = 1 yt 1 + 2 yt 2 + K + p yt p + t
As, la representacin AR de orden infinito se transforma en una de orden finito AR(p). Se
dice que yt admite una representacin AR(p), o sea {yt}: AR(p).
yt 1 Byt 2 B 2 yt K p B p yt = t
(1 B B
1 2
2
)
K p B p yt = t
( B ) y t = t
donde (B) es el operador AR(p), y est definido por el polinomio de orden p.
Tendremos as una representacin AR(p), otra MA(q), ARMA(p,q), etc., que constituyen una
suerte de directorio genrico de representaciones posibles; respecto de cada una de ellas,
tendremos que seguir un orden de tareas para todos ellos:
Analizar las condiciones de estacionariedad e invertibilidad.
La especificacin de la representacin, que implica responder: cul representacin
aplicar al fenmeno yt? Es decir, a qu familia de representaciones pertenece el
proceso? Luego debe determinarse el orden.
La estimacin de los coeficientes i, lo cual implica construir el modelo AR(p).
El anlisis de los residuos, como estimadores de las perturbaciones. Este anlisis se hace
para cualquier modelo, y es igual para todos ellos. Por eso, en el presente curso, este
anlisis se trata en una instancia ms avanzada.
37
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
( )x
1
= r +k 1 k
(1 x ) r 1
r
k =0
( )x ( ) = 1, k N
1
= k k
= x k dado que k
1 x k =0 0
k =0
0 0
y volviendo a la representacin:
1
= ( 1 B ) = 1 + 1 B + 12 B 2 + K
k
1 1 B k =0
de modo que:
yt = ( 1 1 B ) t = ( 1 + 1 B + 1 B + K) t = 1 j t j
1 2 2
j=0
y para p = 1 (como en este caso) pero tambin para cualquier p se cumple que la
representacin MA del AR(p) es un MA(), donde:
j = 1 j
Volviendo al proceso AR(p); la convergencia del operador [(B)]-1 depende de las
caractersticas del polinomio del denominador en ese cociente, y las caractersticas del
polinomio dependen de las caractersticas de sus races. Sus races son las que surjan de la
ecuacin caracterstica del AR(p). Esta ecuacin produce p races G1,G2,,Gp. Expresando la
representacin MA en funcin de la inversa de dichas p races, y suponiendo que stas son
todas de multiplicidad simple:
( )
1 1
yt = ( B ) t = 1 1 B 2 B 2 K p B p
t
yt = ( 1 G11 B ) ( 1 G B ) K ( 1 G B )
1
1 1
2 p t
1
yt = t
( 1 G1 B ) ( 1 G2 B )K 1 G p B
1 1 1
( )
podemos ver que, cuando B = G1 => (B) = 0, etc., y cuando B = Gp => (B) = 0, de modo que
la anterior expresin no contradice que G1,G2,,Gp son races de (B), confirmando que est
bien expresada la representacin MA en funcin de la inversa de sus races.
Por otra parte, sean A1,,Ap tales que se verifique:
( 1 G B )K ( 1 G B ) A + K + ( 1 G B )K ( 1 G
1
2
1
p 1
1
1
1
p 1 )
B Ap = 1
1
Entonces
( 1 G11B ) ( 1 G21B ) K 1 G p1 B ( ) se expresa tambin as:
38
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
( 1 G B )K ( 1 G B ) A + K + ( 1 G B )K ( 1 G
1
2
1
p 1
1
1
1
p 1 )
B Ap
( 1 G B )K ( 1 G B ) 1
1
1
p
y separando en p trminos de igual denominador:
A1 (1 G B )K (1 G B )
1
2
1
p Ap (1 G B )K(1 G B )
1
1
1
p 1
+K+
( 1 G1
1
B ) (1 G B )K (1 G B )
1
2
1
p
(1 G 1
p
B ) (1 G B )K(1 G B )
1
1
1
p 1
y se requiere que dicha suma de p sumandos converja para que el sistema sea estable. El
binomio del denominador de cada sumando puede reexpresarse como un desarrollo en serie:
p p
Aj 1 + G j 1 B + ( G j 1 ) B 2 + K <
Aj
1 2
( B ) = =
j =1 ( 1 G B )
1
jj =1
Para que la suma de los p sumandos converja, cada sumando del desarrollo en serie debe
converger en | B | 1. Y para que converja cada uno de dichos sumandos, se requiere que la
inversa de cada una de las races sea, en mdulo, menor que la unidad: | Gj-1 | < 1 (j=1,2,,p).
Esta condicin es equivalente a pedir que | Gj | > 1 (j=1,2,,p). Esta condicin garantiza la
estacionariedad del proceso. Se trata de una condicin comprobable. Eventualmente, en la
prctica ocurrir que no se conocern los valores de las races, y debern estimarse, teniendo
que decidir, a partir de los valores estimados, si las verdaderas races satisfacen la condicin.
No se puede pasar en forma general de condiciones en las races a condiciones en los
coeficientes, sino que debe plantearse caso por caso para cada valor de p. En el caso
particular de un AR(1), la ecuacin caracterstica es:
( B ) = 1 1 B = 0
con lo cual la raz es G1 = 1-1, lo cual implica que | G1 | = | 1 |-1 > 1 => | 1 | < 1
Para un AR(2):
( B ) = 1 1 B 2 B 2 = 0 ; G1 , G2 > 1
2 + 1 < 1
2 1 < 1
2 < 1
lo cual es complicado para demostrar.
Para otros valores de p, el planteo genrico se complica cada vez ms.
39
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
j ( y ) = E ( yt j yt ) = 1 E ( yt j yt 1 ) + K + p E ( yt j yt p ) + E ( yt j t )
Tomamos los sucesivos valores de j y buscamos algn comportamiento regular. Para j = 0
obtenemos la autocovarianza de orden 0, que es la varianza de y:
0( y ) = E ( yt2 ) = 1 E ( yt yt 1 ) + K + p E ( yt yt p ) + E ( yt t )
0( y ) = y2 = 1 1( y ) + K + p p ( y ) + E ( yt t )
Analizando el ltimo trmino, por medio de la representacin MA():
E ( y t t ) = E j t j t = E j t j t ( )
j = 0 j=0
E ( yt t ) = E (
j=0
j
t j t ) = ( )
j=0
j j
y como t es WN, todas sus autocovarianzas de orden mayor que 0 son nulas, de modo que
subsiste solamente el trmino en que j = 0:
E ( yt t ) = 0 E ( ) =
2
t
2
40
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
E ( yt 1 t ) = E j t 1 j t = E j t 1 j t ( )
j = 0 j=0
E ( yt 1 t ) = E (
j =0
j t 1 j t ) = j=0
j j + 1( )
Y como j toma valores desde 0, las autocovarianzas del ruido blanco sern de orden mayor o
igual a 1, con lo cual sern todas nulas. Poda arribarse a este resultado razonando que yt-1 es
combinacin lineal de infinitos shocks aleatorios contemporneos y anteriores, pero no
posteriores, con lo cual ambas variables aleatorias no estn relacionadas.
E ( yt 1 t ) = j j +1( ) =0
j=0
1( y ) = 1 0( y ) + K + p p1( y )
Para j = 2:
2( y ) = 1 E ( yt 2 yt 1 ) + K + p E ( yt 2 yt p ) + E ( yt 2 t )
2( y ) = 1 1( y ) + K + p p 2 ( y )
La funcin de autocovarianzas del AR(p) es infinita; es decir, existe y es no nula para
cualquier valor de j. La FAC hereda las propiedades de la funcin de autocovarianzas, con lo
cual la FAC del AR(p) es infinita.
FAC = j ( y ) = 1 j 1( y ) + 2 j 2( y ) + K + p j p ( y ) ( j = 1, 2, K )
En el caso prctico de un proceso especfico, se plantea la FAC, y si es infinita entonces todo
parece indicar que la familia que mejor representa al proceso es la AR.
Una vez asignada la familia, debe determinarse el orden p; para ello, definimos la funcin de
autocorrelaciones parcial (FACP).
Existen tres tipos de coeficientes de correlacin. Supongamos tres variables: x, y, z. El
coeficiente de correlacin simple mide la relacin de las variables tomadas de a pares. El
coeficiente de correlacin mltiple mida la relacin de una variable con las otras variables
tomadas en conjunto; habitualmente es el coeficiente de determinacin. El coeficiente de
correlacin parcial mide la relacin existente entre dos de las variables, neta de la influencia
que, sobre ambas variables, ejerce la tercera. Si tomamos los siguientes modelos:
y = a 0 + a1 z ; y
z
x = b0 + b1 z ; x z
vemos que cada uno de ellos tiene residuos asociados, que son una medida de la parte del
comportamiento de y, en el primer caso, y de x, en el segundo, debida a cualquier otra
variable que no sea z. En dichos residuos se ha eliminado la influencia de z; representan el
comportamiento de y o x, neto de la influencia de z. El coeficiente de correlacin parcial
entre x e y est dado por el coeficiente de correlacin mltiple entre los residuos:
x; y =
( z) x , y
z
z
41
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
Supongamos las variables yt-3 yt-2 yt-1 yt; construimos el modelo para yt y para yt-3:
y t = 1 yt 1 + 2 yt 2 ; t
y t 3 = 1 yt 1 + 2 yt 2 ; t 3
Cada modelo tiene residuos asociados, netos de la influencia de yt-1 y de yt-2. Planteamos la
correlacin parcial entre los residuos:
33 = ( t 3 ,t )
y notamos que, en tanto yt-3 no sea un proceso reversible, no puede estar determinado por sus
realizaciones posteriores; luego, los coeficientes que ponderan la influencia que sobre dicha
42
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
variable ejercen yt-1 e yt-2 son nulos. Por lo tanto, los residuos asociados a yt-3, netos de la
influencia de yt-1 e yt-2, son los mismos que si no se hubiera eliminado dicha influencia. En
otras palabras, las infinitas variables que caracterizan el comportamiento de yt-3 son las
mismas, ya sea que se consideren yt-1 e yt-2 o no. Por lo tanto el comportamiento de yt-3 est
determinado por las mismas variables que conforman los residuos netos antes mencionados,
verificndose que:
yt 3 = t 3
o sea,
33 = ( t 3 ,t ) = ( yt 3 ,t )
Supongamos un proceso AR(1) y planteemos su FAC. Para ello, debemos considerar la FAC
de un AR(p) y limitarla a p = 1:
yt = 1 yt 1 + t
j = 1 j 1
1 = 1
2 = 1 1 = 1 1 = 12
3 = 1 2 = 1 12 = 13
M
j = 1j
Basta que | 1 | < 1 para garantizar que la sucesin decrece exponencialmente en valor
absoluto. Con respecto a la FACP de orden p, se verifica que:
11 = 1
2 12 12 12
22 = = =0
1 12 1 12
M
pp = 0
En general, se cumple que jj toma valores significativos para j p, y se anula para j > p.
Este criterio representa una pauta dbil para sugerir el orden p de autorregresividad, a partir
del anlisis de la FACP. Los verdaderos valores de los coeficientes jj son desconocidos, y
disponemos de sus estimadores muestrales y de un test de significatividad individual tal que:
H0: jj = 0; H1: jj 0. Se puede demostrar, bajo el supuesto de que H0 es verdadera, que:
jj
d
N ( 0; n1 )
n jj
d
N ( 0;1)
Con un nivel de significacin del 5%, H0 se rechaza cuando:
jj >
2
n
( j = 1, 2,K , n4 )
43
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
( ) ( ) ( )
t t t
1 1 1
yt = A1 G 1 + A2 G 2 + K + Ap G p
La FAC tiene la misma estructura que el sistema de ecuaciones yt, y por lo tanto la solucin
general de ambos es la misma, mientras que difieren en su solucin particular dado que los j
pueden tomar valores entre -1 y 1, y los yt pueden tomar cualquier valor.
yt 1 yt 1 2 yt 2 K p yt p = 0
j ( y ) 1 j 1( y ) 2 j 2( y ) K p j p ( y ) = 0
Como los comportamientos estructurales de ambas expresiones son los mismos, es decir,
ambas ecuaciones en diferencia son del mismo orden y con los mismos coeficientes, queda
demostrado que las caractersticas del proceso yt estn contenidas en la FAC.
44
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
( ) ( ) ( )
j j j
j = B1 G11 + B2 G21 + K + B p G p1
Por su parte, si el proceso es estacionario, las races son, en mdulo, mayores que la unidad.
Si se trata de races reales, la FAC ser exponencial decreciente; si son races complejas, la
FAC ser sinusoidal amortiguada. Esto demuestra que si el proceso es estacionario, su FAC
es exponencialmente decreciente.
Por otra parte, supongamos que todas las races cumplan con la condicin de estacionariedad,
excepto una. Para que no cumpla con dicha condicin, puede darse que exista una raz cuyo
mdulo es 1, en cuyo caso podramos expresarla: G1 = 1 + , donde es un infinitsimo. En
caso de = 0, el proceso no estacionario puede sufrir una transformacin que lo haga
estacionario. Si 0(-), el proceso es explosivo y no tiene solucin en el mbito de la teora
de modelos. Si es 0(+), entonces:
( ) ( ) ( ) = B1 ( G11 )
j j j j
j = B1 G11 + B2 G21 + K + B p G p1
dado que el resto de los trminos tender a anularse a medida que j crezca. Ahora bien, la
expresin exponencial puede pensarse como un binomio a la menos j, con lo cual puede
plantearse como la siguiente suma infinita:
( ) = B1
j + k 1
= B1 ( 1 + ) ( )
j j
1 j
k
j = B1 G 1 = B1G 1
k =0 j1
pero dado que se trata de infinitsimos al cuadrado, al cubo, etc., que son infinitsimos de
orden mucho mayor, y por lo tanto despreciables, la expresin puede aproximarse por:
j ( j + 1) 2
j = B1 1 j + + K B1 ( 1 j )
2
para valores suficientemente grandes de j, lo cual demuestra que en un proceso no
estacionario, la FAC decrece en forma lineal.
45
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
1 = 1 + K + 2 1 + p p 1
2 = 1 1 + 2 + K + p p 2
YW
j ( j = 1, 2,K , p )
M
= + + K + p
p 1 p 1 2 p 2
del cual pueden obtenerse los p coeficientes estimados.
2. El mtodo de los mnimos cuadrados consiste en minimizar la suma del cuadrado de los
residuos:
t2 = ( yt 1 yt 1 K p yt p ) = f ,K, ) = min
n
t = p +1 t
( 1 p
f
=0 ( j = 1, 2,K , p )
j
Se demuestra que el extremo ser siempre mnimo. Se puede garantizar que si el ruido blanco
es normal, entonces los estimadores minimocuadrticos son asintticamente eficientes,
convergen en distribucin a la normal y son consistentes.
( )
t
2 2 t = p + 1
dF p +1 ;K ; n = 1
( n p) e
d p +1 K d n
( 2 2 ) 2
1 n
2
( yt 1 yt 1 K p yt p )
(
dF y p+1 ;K ; yn = ) 1
( n p) e
2 2 t = p + 1
dy p +1 K dyn
( 2 )
2 2
Con respecto a los estimadores de los coeficientes AR, se puede demostrar que si el orden p
es conocido, o sea que no es una variable aleatoria, y los t son WN normal, entonces los
estimadores son asintticamente insesgados y convergen hacia una distribucin normal.
Estos estimadores tienen la siguiente matriz de varianzas y covarianzas:
46
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
2 ( ; ) K ( ; )
( 1) 1 2 1
p
( ) K ( ; )
2
= (1 2 )
1
; 2 2 p
1 T( y )p 1( y )
p( ) p
M M O M n
p
(1 ;p ) ( ; ) K (2 )
2 p p
1 1 ( y ) K p 1 ( y )
1 ( y ) 1
( y) = M p = M
p ( y) = M
M O M
1
p
p ( y) p p 1 ( y ) K K
Se pretende determinar cules regresores pueden permanecer en el modelo. Se construye
entonces un estadstico T que converge a una distribucin t, y se plantea un test de
significatividad individual para un modelo con variables centradas.
H0 : j = 0 H1 : j 0
j
T= : t( n p )
( )
( j)
T >2 se rechaza H 0
Debe aclararse que el estadstico T debe ser marcadamente mayor que 2 en valor absoluto. Si
para algn coeficiente se aceptara la hiptesis nula, entonces sera posible eliminar el
respectivo trmino de la representacin, sin alterar el orden p del modelo. Si se tratara de un
modelo con variables no centradas, se tendra un trmino independiente, con lo cual habra
un coeficiente ms a estimar, y la distribucin t del estadstico tendra n p 1 grados de
libertad.
1 12 + 42
G= ; D = 12 + 42
22
Si el discriminante es positivo, la funcin es exponencialmente decreciente. Si el
discriminante es negativo, se puede demostrar que la representacin es una funcin seno
amortiguada. Si el discriminante es cero, la funcin es en parte lineal y en parte exponencial
decreciente, y hay una parte de la funcin donde domina la linealidad, y otra parte donde
domina la exponencialidad. Se puede demostrar que el punto de inflexin se ubica a la
derecha del extremo.
47
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
j=0
2
j <
Esto requiere que la influencia de los shocks aleatorios t-j sobre yt decrezca en forma rpida.
Sobre esta base, puede considerarse que habr una cantidad finita q de shocks aleatorios que
influirn en yt, obtenindose:
1 = 1
2 = 2
M
q = q
j = 0 ( j > q)
yt = t 1 t 1 2 t 2 K q t q
(
y t = 1 1 B 2 B 2 K q B q t = ( B ) t )
que es una representacin MA(q), a partir del operador MA(q), que es un polinomio de orden
q en B. Los MA(q) siempre son estacionarios:
( )
E ( yt ) = E ( t ) 1 E ( t 1 ) 2 E ( t 2 ) K q E t q = 0
2 ( yt ) = 2 ( ) + ( ) + ( ) + K + ( )
t 1
2 2
t 1
2
2
2
t 2
2
q
2
t q
( y ) = (1 + + + K + )
2 2
t 1
2 2
2
2
q
2
La condicin de invertibilidad implica la convergencia del operador AR(). Lo primero que
debe hacerse es hallar la forma AR del MA(q), invirtiendo el operador.
y t = ( B ) t
1 1
yt = y = ( B ) yt = t
( B) 1 1 B 2 B 2 K q B q t
La convergencia del operador (B), significa la convergencia del cociente, y sta depende de
la caracterstica del polinomio del denominador, la cual depende de la naturaleza de sus
races, y stas son las que se obtienen al resolver la ecuacin caracterstica del MA (q):
( B ) = 1 1 B 2 B 2 K q B q = 0
48
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
( )
j ( y ) = E yt j yt = E ( t j 1 t j 1 K q t q ) ( t 1 t 1 K q t q ) =
( ) ) ( ) (
( )
= E t j t 1 E t j t 1 2 E t j t 2 K q E t j t q
E ( ) + E ( ) + E ( ) + K + E ( )
2
1 t j 1 t 1 t j 1 t 1 1 2 t j 1 t2 1 q t j 1 t q
K E ( ) + E ( ) + K + E ( )
q t j q t 1 q t jq t 1 q
2
t jq t q
(
1( y ) = 1 + 1 2 + 2 3 + K + q 1 q ) 2
(
2 ( y ) = 2 + 1 3 + K + q 2 q ) 2
y puede verse que a medida que j crece, decrece el nmero de sumandos en el parntesis.
q ( y ) = q
2
j( y) = 0 ( j > q)
La FAC es:
j + 1 j + 1 + K + q j q
( j = 1, 2,K , q )
( = 1 + 1 + K + q
2 2
j y)
0 ( j > q)
Con respecto a la FACP:
2 12
11 = 1 ; 22 = =0
1 12
y se puede demostrar que es infinita. La FACP decrece ms suavemente que la FAC.
49
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
0( y ) = ( 1 + 1 2 + K + q 2 ) 2
1 + 1 2 + K + q 1 q
1 =
1 + 12 + K + q 2
M
q
q =
1 + 12 + K + q 2
Ahora planteemos un proceso MA(1):
yt = t 1 t 1
1
1 = 112 + 1 + 1 = 0
1 + 12
1 1 4
12 1(1)
1 = ( 2)
2 1 1
Analizando la estructura de cada raz, puede llegarse a la siguiente relacin:
1
1(1) =
( 2 )
1
( B ) = 1 1 B = 0
H = 11 > 1 1 < 1
De modo que, si para una raz el proceso cumple la condicin de invertibilidad, para la otra
no lo cumple. Con lo cual, a cada FAC le corresponde un solo proceso MA invertible. Por lo
tanto, a cada FAC le corresponde un solo proceso ARMA(p,q) estacionario e invertible. Esto
respalda la idea de establecer una biyeccin entre las FAC y los procesos: a cada proceso le
corresponde una nica FAC, y viceversa.
50
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
(1 B K B ) y = (1 B K B )
1 p
p
t 1 q
q
t
( B ) yt = ( B ) t
La condicin de estacionariedad est vinculada a la convergencia del operador MA, que a su
vez depende de las caractersticas de la componente AR:
( B) ( B)
yt = t = t = ( B ) t
( B ) 1 1 B K p B p
( ) ( )
j ( y ) = E yt j yt = 1 E yt j yt 1 + K + p E yt j yt p + ( )
( ) ( )
+ E y t j t 1 E y t j t 1 K q E yt j t q ( )
Para los sucesivos valores de j:
0( y ) = 1 1( y ) + K + p p ( y ) + 1 ( yt t 1 ) K q yt t q
2
( )
1( y ) = 0 0( y ) + K + p p 1( y ) 1 K q yt 1 t q
2
( )
y puede verse que a medida que j crece, decrece el nmero de sumandos de la parte MA,
mientras que la contribucin autorregresiva consta siempre de p sumandos.
q ( y ) = 1 q 1( y ) + K + p q p ( y ) q
2
j ( y ) = 1 j 1( y ) + K + p j p ( y) ( j > p)
La funcin de autocovarianzas, y la FAC, son infinitas. La FAC se comporta irregularmente
al comienzo, por la contribucin de la componente MA, y a partir de j = q + 1 coincide con
la FAC de la representacin AR. La FACP tambin es infinita. La FAC y la FACP decrecen
a una velocidad bastante parecida.
51
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
estimadores de los coeficientes j. Luego, los sustituimos en las primeras q ecuaciones, que
tendrn sus respectivos coeficientes j; sin embargo, en este caso son no lineales.
La restriccin para que un proceso sea estacionario, es que evolucione alrededor de una
funcin llamada tendencia estacionaria, y que tenga una varianza fija, y adems est
caracterizada por el particular comportamiento de sus autocovarianzas. Se puede aplicar una
transformacin tal que un proceso no estacionario se vuelva estacionario. Un proceso no
estacionario de segundo orden puede ser estacionario de primer orden; recordemos que el
hecho de que sea estacionario de orden s implica la estacionariedad de orden r < s, pero la
implicacin inversa no es cierta en general.
d
yt = m ( yt ) + = a j t j + t
t
j=0
El primer sumando representa los niveles (el comportamiento de los niveles). Podemos
suponer que este primer miembro es una constante (el proceso evoluciona en un nivel
alrededor de un valor fijo), o podra presentar una tendencia estacionaria. Existen dos tipos
de tendencia: una tendencia estacionaria, cuando el proceso evoluciona alrededor de una
funcin del anlisis numrico (tpicamente lineal, pudiendo ser una parbola de segundo
grado); o una tendencia no estacionaria o estocstica, originada en el no cumplimiento de las
condiciones de estacionariedad, referidas al comportamiento de las races de la ecuacin
caracterstica de la componente AR, es decir, que sean en mdulo mayores que la unidad.
Este ltimo tipo de tendencia se origina por la acumulacin no convergente de shocks
aleatorios.
Supongamos que la varianza de las perturbaciones de este modelo no cumpla con la
condicin de estacionariedad, es decir, que no sea constante, sino que sea una funcin de los
niveles:
2 ( t ) = h m ( yt )
Se pretende eliminar esta heterocedasticidad mediante la aplicacin de una transformacin.
La forma de la transformacin, depende de la forma que adopte esta funcin. Aqu aparecen
las transformaciones de Box-Cox:
T m ( yt ) =
1
h m ( yt )
La transformacin es tal, que la varianza resulta constante:
2 ( T ( yt ) ) = y2
1
T =
m ( yt )
T = ln m ( yt )
La siguiente representa la familia de transformaciones de Tukey:
52
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
T ( ) ( yt ) = ( y t + C )
La constante C tiene como funcin garantizar que la serie cronolgica del parntesis no
presente valores nulos ni negativos. Todo el problema relacionado con la transformacin se
reduce a la estimacin del parmetro ; se trata de un proceso artesanal, sobre la base de un
grfico rango-mediana: se divide la serie cronolgica en r subseries, y en cada una de
ellas se obtiene el rango y la mediana. Un grfico cartesiano que relacione los valores de
ambas variables para cada subserie, sugiere el valor de . Una vez obtenido, es utilizado para
volver a procesar los valores y rehacer el grfico rango-mediana. Para los nuevos valores se
analiza la heterocedasticidad, y de ser necesario se reitera el proceso, hasta que la serie
resulte homocedstica. No tiene ningn secreto conceptual; es puramente artesanal.
En el caso explosivo, los mtodos para volver estacionario al proceso no se estn incluidos en
la teora de modelos. El segundo caso es el que estudiaremos. Expresamos al proceso en
funcin de su representacin ARMA, pero consideramos tan slo la parte AR, dado que en
ella se genera la no-estacionariedad.
y t = 1 y t 1 + 2 y t 2 + K + p + d y t p d + ( B ) t
( B ) y t = ( B ) t
( B ) = 1 1 B 2 B 2 K p+ d B p+ d = 0
Supongamos que las races son tales que:
G1 , G2 ,K , G p > 1 ; G p +1 = G p + 2 = K = G p + d = 1
Entonces es un operador AR no-estacionario. El operador puede expresarse en funcin de la
inversa de las p races cuyo mdulo es mayor que la unidad, pero ello no ocurre con las
races unitarias:
( )
( 1 G11 B ) K 1 G p 1 B ( 1 B ) d yt = B t
( )
Lo que vemos entre corchetes, es la representacin, en funcin de la inversa de sus races, de
un operador AR de orden p estacionario:
( B ) ( 1 B ) y t = ( B ) t
d
53
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
(1 B ) y t
= yt y t 1 = y t
De modo que la existencia de una raz unitaria genera la aparicin del operador (1 B), que
es el operador diferencia, y la multiplicidad de dicha raz determina el orden del operador
diferencia:
(1 B )
d
yt = d yt
Obtenindose la siguiente expresin de la representacin:
( B ) d y t = ( B ) t
Necesitamos reemplazar a la variable original transformada por el operador diferencia (d yt)
por una variable estacionaria zt, es decir que se representacin AR de zt no presente races
unitarias:
d yt = z t
( B ) zt = ( B ) t
yt = d z t
1 = ( 1 B ) = 1 + B + B 2 + K = S
1
yt = d z t = S d z t
{ y } : I (d )
t
Entonces, el proceso original se obtiene integrando d veces el proceso estacionario. Por ello,
si el proceso presenta d races unitarias, se denomina proceso integrado de orden d.
Si el proceso yt no posee races unitarias, entonces es integrado de orden 0 y admite una
representacin ARIMA (p;d;q), que es una representacin que tiene d races unitarias, que
fue diferenciado d veces para volverlo estacionario, y que una vez diferenciado d veces
admite una representacin ARMA (p;q).
En la prctica, al determinarse el orden d pueden presentarse errores de subdiferenciacin o
de sobrediferenciacin. No conozco la ecuacin caracterstica con los verdaderos valores de
los coeficientes, sino que parte de los estimadores de los verdaderos valores. De modo que no
contamos con las races, sino con sus estimadores, y es extremadamente difcil que un
estimador d exactamente igual a 1. Si el problema es la subdiferenciacin, el problema no es
grave porque en tal caso seguira apareciendo alguna raz unitaria, y al notarlo podramos
seguir diferenciando. En caso de sobrediferenciar, la cosa es menos detectable, dado que
luego de haber diferenciado las primeras d veces necesarias, el proceso se hizo estacionario,
y luego de realizar las diferencias innecesarias, el proceso sigue siendo estacionario y en
principio no podran distinguirse ambas situaciones.
El problema de la sobrediferenciacin est relacionado con la componente MA del proceso, y
produce tres efectos: la prdida de la condicin de parsimonia, la prdida de la condicin de
invertibilidad y el aumento de la varianza.
Supongamos un MA(1):
yt = t 1 t 1 = ( 1 1 B ) t
Esta representacin es siempre estacionaria. Supongamos que por un error de lectura, se
diferencia el proceso:
54
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
yt = ( 1 B ) y t = ( 1 B ) ( 1 1 B ) t = ( 1 1 B B 1 B 2 ) t =
= 1 ( 1 + 1 ) B + 1 B 2 t = ( 1 1 B 2 B 2 ) t
1 = 1 + 1 ; 2 = 1
y el proceso se transform en un MA(2), con lo cual se perdi la condicin de parsimonia.
La ecuacin caracterstica de la parte MA es:
(B ) = 1 1 B 2 B 2 = 0
Cuando la ecuacin es de este tipo, el hecho de que los coeficientes sumen 1 es condicin
necesaria y suficiente para garantizar que tiene una raz unitaria, y ello implica que ha
perdido la condicin de invertibilidad.
La varianza del proceso original y la del sobredimensionado, son las siguientes:
y2 = ( 1 + 12 ) 2
2 y = 1 + ( 1 + 1 ) + 12 2 = 2 ( 1 + 1 + 12 ) 2
2
2 y 2y = ( 1 + 1 ) 2 > 0 2 y > y2
2
El hecho de pretender estimar las races, hace que las races unitarias sean variables
aleatorias no observables. Se debe construir un test de hiptesis para detectar las races
unitarias. Supongamos un proceso AR(1):
yt = 1 yt 1 + t
( B ) = 1 1 B = 0
G = 11
Si el proceso es no estacionario, entonces |1| = 1.
H0: 1 = 1; H1: 1 < 1
Consideramos solamente una cola porque si 1 > 1, entonces la raz G es tal que G < 1, y
estamos en el caso explosivo, que no pretendamos analizar.
Recordemos que:
y t = y t 1 + t
y t 1 = y t 2 + t 1
M
y t n = y t n 1 + t n
y t = t + t 1 + t 2 + K + t n + y t n 1
y si n tiende a infinito, se obtiene la representacin MA():
yt = t j
j =0
55
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
1 1 d 0
B( t ) dt
T=
1
( 1 )
B( )dt
2
t
0
donde B(t) son procesos movimiento browniano estandarizados. Luego de simular la
distribucin, Dickey y Fuller hallaron una tabla de valores crticos . Regla de decisin: se
acepta H0 si < T < 0; pero, si T < , se considera lo suficientemente alejado de 0 como para
rechazar H0.
Luego propusieron que la representacin tuviera una tendencia estacionaria, caracterizada
por la existencia de trmino independiente:
yt = a0 + ( 1 1) yt 1 + t
y hallaron para este caso valores crticos , con la misma regla de decisin.
Adicionalmente, propusieron una tendencia lineal, y hallaron valores crticos :
yt = a0 + a1t + ( 1 1) yt 1 + t
Se verifica que < < . Esto genera que un estadstico T tal que < T < , el proceso se
considera no estacionario si tiene trmino independiente, pero se considera estacionario si no
lo tiene. Anlogamente, si T fuera tal que < T < , el proceso sera estacionario si tiene
trmino independiente, pero sera no estacionario si tiene tendencia lineal. Todo esto sugiere
que es importante verificar la significatividad de a0 y a1. El test de Phillips-Perron de
significatividad conjunta, pone a prueba la hiptesis H 0 : a0 = a1 = 1 1 = 0 .
56
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
Aqu se completa el estudio de las series cronolgicas; los procesos de parmetro discreto, en
particular en su definicin dbil de los procesos de parmetro discreto. Ahora vamos a
estudiar los procesos que admiten una definicin estricta. Nos salteamos los fenmenos
discretos-discretos, y vamos directamente a los {yt} que son continuos en el dominio del
tiempo y discretos en el dominio de las variables. Vamos a suponer un proceso {yt} tal que
sus variables van a tomar valores en la medida que ocurra un evento E determinado. Esto
puede ocurrir en cualquier momento del tiempo, y por ello es un proceso continuo en el
dominio del tiempo. Cuando ocurre una vez, el proceso pasa del estado 0 al estado 1.
Permanece en el estado 1 hasta que ocurre otra vez, y all pasa del estado 1 al estado 2,
permanece en el estado 2, etc. Es un proceso de salto (discreto). Adems, una vez que
alcanz el estado j+1, no puede regresar al estado j, sino permanecer o avanzar.
Ahora bien:
Al comenzar a estudiar los procesos, vimos que lo que se necesita para definir en forma
estricta a un proceso es definir la distribucin de probabilidades para cualquier sucesin
finita de las variables del proceso. Luego demostramos que esa sucesin finita, esa funcin
de probabilidades conjuntas, poda ser expresada como un producto de probabilidades
condicionales. Estas probabilidades condicionales, sern llamadas probabilidades de
transicin del proceso:
( y = y)
Px , y ( t1 ;t2 ) = P ( t2 ) y = x
( ( t1 ) )
Entonces, para poder definir en forma estricta un proceso es necesario poder definir la
familia completa de probabilidades de transicin, x,y,t. Toda la informacin sobre el
infinito pasado est resumida en la situacin aqu enmarcada. Esta probabilidad nos dice cul
es la probabilidad de que un proceso que en el momento t1 se encontraba en el estado x, se
encuentre en el estado y en el momento t2.
El dominio de las variables del proceso son los nmeros enteros no-negativos:
( yt ) = {0,1, 2,K}
Las propiedades de la autorregresividad de orden 1, dan lugar a una ecuacin de
trascendencia fundamental:
57
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
Como el proceso es continuo en el dominio del tiempo, sin importar los valores que asuman
t1 y t2, siempre es posible generar una variable aleatoria que se ubique entre los dos instantes.
Supongamos t1 < t < t2, y analicemos la probabilidad de que el proceso que en el momento t1
se encuentra en el estado x, en el momento t2 se encuentre en el estado y. Observemos que no
existe una nica trayectoria (de hecho existen y x + 1). Entonces podra expresarse la
siguiente igualdad:
Px , y ( t1 ; t 2 ) = Px , x ( t1 ; t ) Px , y ( t ; t 2 ) + Px , x +1 ( t1 ; t ) Px +1, y ( t ; t 2 ) + K + Px , y ( t1 ; t ) Py , y ( t ; t 2 )
Que podra expresarse en forma compacta como:
y
Px , y ( t1; t 2 ) = Px ,h ( t1; t ) Ph , y ( t ; t 2 )
h= x
La probabilidad de transicin entre un momento x y otro momento y, est dada por la
probabilidad de que el proceso adopte una trayectoria o adopte otra, u otra, etc. La
probabilidad de la suma de eventos, es la suma de sus probabilidades.
Todas estas trayectorias son mutuamente excluyentes. Luego, la probabilidad de transicin es
una probabilidad total.
Si el proceso es AR(1), entonces lo que ocurra con el proceso en el intervalo (t1;t) es
independiente de lo que ocurra en el intervalo (t;t2). La probabilidad Px,y(t1;t2) de cada
trayectoria es una probabilidad compuesta, o sea, la probabilidad de que ocurra un suceso y
luego el otro (por ejemplo, que del estado x pase al x+1, y del estado x+1 pase al estado y, o
que del estado x pase al estado y, y una vez en el estado y permanezca en ese estado y, etc.).
Pero como estos eventos que estn incluidos en las probabilidades compuestas son
independientes entre s, porque el proceso es autorregresivo de orden 1, entonces estas
probabilidades compuestas son igual al producto de las probabilidades. Esto no ocurrira si el
proceso fuera AR(2), porque entonces la probabilidad del segundo suceso dependera de la
ocurrencia en el instante t y de la ocurrencia en un instante anterior a t, y no existira
independencia entre los intervalos disjuntos.
y x
Px , y ( t1 ; t 2 ) = Px , x ( t1 ; t ) Px , y ( t ; t 2 ) + Px , x +1 ( t1 ; t ) Px +1, y ( t ; t 2 ) + Px , x + k ( t1 ; t ) Px + k , y ( t ; t 2 )
k2
Esta ecuacin clave se conoce como la Condicin de Kolmogorov-Chapman.
58
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
Px , x +1 ( t ; t + t ) = t
1 Px , x ( t ; t + t )
lim =
t 0 t
Esta tasa define la funcin Intensidad de Ocurrencia del evento E.
Px , x + k ( t ; t + t ) = o ( t ) ( k 2)
Donde o(t) representa una expresin en funcin de t, tal que la probabilidad tiende a ser
nula cuando k > 1, dado que implicara que el evento E ocurra ms de una vez en un intervalo
tan pequeo como se pretenda. Lo que se puede demostrar es que la suma de funciones o(t)
es tambin una funcin o(t):
P x ,x+k ( t ; t + t ) = o ( t )
k2
Debe considerarse a la funcin o(t) como una expresin tal que no tiende a 0 si t tampoco
tiende a 0, dado que nada impedira que en un intervalo grande de tiempo ocurra ms de un
evento; pero dicha expresin tiende inevitablemente a 0 si t tiende a 0.
Por ltimo, falta determinar la probabilidad de que el evento E no ocurra en el intervalo:
Px , x ( t ; t + t ) = 1 t o ( t )
Estas probabilidades se denominan de transicin infinitesimal. El quid de la cuestin, es que
estas probabilidades se pueden calcular, ya que dependen de t. Luego, la clave del problema
radica en expresar a todas las probabilidades de transicin en funcin de las probabilidades
de transicin infinitesimal, dado que estas ltimas se pueden calcular.
59
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
Py ( t ; t + t ) = Py ( t ) 1 t o ( t ) + Py 1 ( t ) t + o ( t ) Py k ( t )
k2
A los efectos que nos interesan, o(t) ser siempre utilizada cuando t tienda a 0, de modo
que siempre que aparezca activamente en escena, tomar un valor infinitesimal. Por dicha
razn, puede considerarse constante (slo en el caso en que t tienda a 0) y extraerse como
factor comn.
Si dividimos por t y aplicamos el operador lmite cuando t 0:
P ( t ; t + t ) Py ( t ) o ( t ) o ( t )
lim y = Py ( t ) lim Py ( t ) + Py 1 ( t ) + lim P (t )
t 0 t t 0 t t 0 t k 2 y k
Ahora bien, o(t) tiende a 0 solamente cuando t tiende a 0, de modo que en este caso se
anula.
d
P ( t ) Py ( t ) = Py ( t ) + Py 1 ( t )
dt y
La definicin estricta del proceso exige la resolucin de este sistema de infinitas ecuaciones
diferenciales-en diferencias (diferenciales con respecto a t, en diferencias respecto de y),
llamado Sistema de ecuaciones diferenciales de Kolmogorov.
Habamos visto la funcin generatriz de probabilidades en funcin de un nico argumento w,
porque se trataba de variables aleatorias aisladas. En este caso se agrega el argumento t
porque las variables no estn aisladas, sino que estn ordenadas en el tiempo. La funcin
generatriz de probabilidades est dada por:
G y ( w; t ) = w y Py ( t )
y=0
Es posible aplicar la funcin generatriz de probabilidades porque el dominio de la variable y
son los enteros no negativos.
En el momento 0 se verifica que:
G y ( w;0 ) = w y Py ( 0 ) = w 0 1 = 1
y=0
dado que la probabilidad Py(0) era no nula solamente cuando y = 0, siendo sta igual a 1.
Por su parte:
G
= w y Py ( t )
t y=0
G
= y w y 1 Py ( t )
w y = 0
60
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
w y
Py ( t ) = w Py ( t ) + w y Py 1 ( t )
y
w y 1
Py 1 ( t ) = w 1 P1 ( t ) + w 0 P0 ( t ) + w 1 P1 ( t ) + w 2 P2 ( t ) + K
y=0
w y 1
Py 1 ( t ) = w P1 ( t ) + w y Py ( t )
1
y=0 y=0
Pero P-1(t) indica la probabilidad de que en un momento t el proceso se halle en el estado -1,
que no pertenece al dominio del proceso. Luego, este suceso es imposible: P-1(t) = 0.
w y 1
Py 1 ( t ) = G
y =0
Y entonces:
G
= ( w 1) G
t
Aplicando la funcin generatriz de probabilidades, hemos transformado el sistema de
infinitas ecuaciones diferenciales-en diferencias de Kolmogorov, en una ecuacin en
derivadas parciales.
Ahora bien, una ecuacin en derivadas parciales tiene la siguiente estructura:
PZ x + QZ y = R
Z = Z ( x; y )
En nuestro caso:
x=t ; y=w
Z = G y ( w; t )
QZ y = 0
y puede verse que:
G ( w; t ) = ( w 1 ) G y ( w ; t )
t y
de modo que, por no aparecer la derivada de G respecto de w, puede considerarse a w como
una constante y transformar esta ecuacin en derivadas parciales en una ecuacin diferencial
ordinaria, quedando:
61
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
d
G = ( w 1) G
dt
y separando variables se obtiene:
dG
= ( w 1) dt
G
( )
ln G y ( w; t ) = ( w 1) t + C
G y ( w; t ) = Ce ( )
w 1 t
que es la solucin general. Para hallar la solucin particular, debe especificarse una
condicin inicial, que est siempre vinculada con el punto t = 0, que es el nico punto en el
cual el proceso no es estocstico.
El sistema de ecuaciones que estamos trabajando es de ecuaciones estocsticas, porque los
coeficientes que participan son funciones de variables aleatorias (son probabilidades). La
solucin de las ecuaciones diferenciales estocsticas no es la misma que la de las ecuaciones
diferenciales ordinarias. No se puede generar con una ecuacin diferencial estocstica una
solucin analtica, salvo que el estado inicial (la condicin inicial) sea determinstico. En tal
caso, se puede encarar la solucin del sistema de ecuaciones estocsticas utilizando mtodos
analticos (que es lo que estamos haciendo nosotros).
Por definicin:
G y ( w;0 ) = 1
Con lo cual:
G y ( w;0 ) = Ce ( ) = C = 1
w 1 0
y ( t )
y
G y ( w; t ) = w t
e
y=0 y !
Lo que se halla dentro del corchete no es otra cosa que la expresin de la probabilidad Py(t),
de modo que el proceso ha quedado definido en forma estricta:
{ y ( t )} : ( t )
( t )
y
Py ( t ) = e t
y!
Este tipo particular de procesos autorregresivos de orden 1 (o procesos markovianos) se
denominan procesos de Poisson. Este es el origen de la distribucin de probabilidades de
62
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
Poisson. Basta comprobar que se cumplan las condiciones de no-negatividad y de cierre, para
garantizar que se trata de una distribucin de probabilidades.
Puede encararse la solucin a partir de la funcin generatriz de momentos, y arribarse a una
definicin dbil:
M y ( w; t ) = e wy Py ( t )
y=0
M y ( w;0 ) = e wy Py ( 0 ) = 1
y=0
M
= e wy Py ( t )
t y=0
M
= ye wy Py ( t )
w y = 0
Consideremos que:
e Py ( t ) = e wy Py ( t ) + e wy Py1 ( t )
y=0
wy
y=0 y=0
M
= M + e e ( ) Py 1 ( t ) = M + e w M = ( e w 1) M
w w y 1
t y=0
Derivamos a ambos miembros respecto de w:
M
M y ( w; t ) = e w M + ( e w 1 )
t w w
Evaluamos en w = 0, con lo cual w deja de ser variable y la derivada parcial se transforma en
diferencial total.
m ( y ( t )) =
d
dt
Y obtenemos la solucin general:
m ( y ( t )) = t + C
La solucin particular para t = 0 es:
m ( y ( 0 ) ) = y Py ( 0 ) = 0
y=0
m ( y ( 0) ) = 0 + C = C
C =0
m ( y ( t )) = t
Con respecto al momento de orden 2:
63
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
2M w M 2M
= e M + 2 e
w
+ ( e 1)
w
t w 2 w w 2
m2 ( y ( t ) ) = + 2 m ( y ( t ) ) = + 2 2 t
d
dt
m2 ( y ( t ) ) = t + 2 t 2 + C
m2 ( y ( 0 ) ) = y 2 Py ( 0 ) = 0
y=0
m2 ( y ( 0 ) ) = 0 + 0 + C = C2 2
C=0
m2 ( y ( t ) ) = t + 2 t 2
2 ( y ( t )) = t
Debe considerarse que la definicin dbil puede transformarse en estricta, en tanto pueda
demostrarse que la variable bajo anlisis tiene una sucesin infinita de momentos. En el
presente caso, no existe limitacin alguna para calcular los infinitos momentos; luego, la
definicin se transforma en estricta.
Hemos resuelto el problema en el dominio de las variables. Esto significa que si fijamos el
valor de t, podemos representar la probabilidad de que el proceso se encuentre en un estado
cualquiera en ese momento t.
T representa el tiempo a transcurrir para que el proceso pase del estado 0 al estado 1; o bien,
puede interpretarse como el tiempo a transcurrir hasta la primera ocurrencia del evento E.
Esta variable continua puede tomar cualquier valor real no negativo. Analicemos la
probabilidad de que la ocurrencia del evento E tarde un perodo de tiempo mayor que t; esto
es equivalente a pensar que en el momento t el proceso se halle en el estado 0:
( t )
y
Py ( t ) = e t
y!
P ( T0,1 > t ) = P0 ( t ) = e t
Y de esta forma hemos establecido una relacin entre los resultados obtenidos anteriormente
(anlisis en el dominio de las variables), y el anlisis en el dominio del tiempo.
La funcin de distribucin es de la siguiente forma:
P ( T0,1 t ) = FT0 ,1 ( t ) = 1 e t
Esta funcin es continua en todo el dominio de la variable, y por lo tanto derivable. De modo
que derivando obtenemos la funcin de densidad de T:
d
fT0 ,1 ( t ) = FT0 ,1 ( t ) = e t ( t 0)
dt
La variable Ti,i+1 (i = 0,1,2,) representa el tiempo a transcurrir para que el proceso pase del
estado i al estado i+1, o sea entre la i-sima y la i+1-sima ocurrencia del evento E. Como
los eventos son independientes entre s, todas estas variables tienen la misma distribucin de
probabilidad, que es la distribucin exponencial. A esta variable se la suele llamar como
64
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
variable Tiempos de Espera. Que la variable tiempos de espera sea exponencial, es una
condicin necesaria y suficiente para considerar que se trata de un proceso de Poisson.
Por su parte, vemos que la media y la varianza del proceso dependen del tiempo; luego, el
proceso no es estacionario. De hecho, cuando t crece indefinidamente, stas se hacen
infinitas, con lo cual no se cumple la condicin necesaria y suficiente de la estacionariedad
dbil del proceso. Adems, la probabilidad tambin depende del tiempo, lo cual respalda la
no-estacionariedad estricta.
El valor esperado de la variable T es inversamente proporcional a la tasa instantnea de
ocurrencia del evento E:
E ( Ti ,i +1 ) = ; 2 ( Ti ,i +1 ) =
1 1
2
La variable Tj representa el tiempo a transcurrir por el proceso hasta su arribo al estado j (o
hasta la j-sima ocurrencia del evento E):
j 1
T j = Ti ,i +1
i =0
Se puede demostrar que si las variables Ti,i+1 son independientes entre s y tienen distribucin
exponencial, entonces Tj tiene una distribucin Gamma.
Procesos puros de nacimiento
Supongamos un proceso {n(t)} continuo en el dominio del tiempo, discreto en el dominio de
las variables tal que:
{n ( t )}; ( t 0; ( n ( t ) ) = {n , n 0 0 )
+ 1, n0 + 2,K} ; n ( 0 ) = n0
Este proceso representa el tamao de una poblacin en un momento t. El tamao inicial de
esa poblacin es n0, y dicha poblacin admite solamente ingresos por nacimiento.
Supongamos que todos los individuos de la poblacin estn sometidos al mismo riesgo de
reproduccin, y que la probabilidad de que un individuo cualquiera de la poblacin d origen
a un nuevo individuo de la poblacin en el intervalo (t;t+t), est dada por t, donde es la
tasa instantnea de nacimiento.
Supongamos que el proceso es AR(1), y la condicin de linealidad (no pueden producirse 2 o
ms nacimientos simultneamente).
Con respecto a la condicin inicial:
1 si n = n0
Pn0 ,n ( 0 ) =
0 si n > n0
Por su parte, habiendo n individuos en la poblacin en un momento determinado, cualquiera
de ellos puede dar origen a un nuevo individuo, con lo cual la probabilidad de pasar del
estado n al estado n+1 est dada por:
Pn ,n+1 ( t ; t + t ) = n t
Pn ,n+ k ( t ; t + t ) = o ( t )( k 2)
Pn,n+ k ( t; t + t ) = o ( t )
k2
Pn ,n ( t ; t + t ) = 1 n t o ( t )
El siguiente es el sistema de de ecuaciones de Kolmogorov:
65
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
w n
Pn ( t ) = w nw n 1
Pn ( t ) + w 2
( n 1) w n 2
Pn1 ( t )
n = n0 n = n0 n = n0
G G G
G n ( w; t ) = w + w2 = w ( w 1)
t w w w
Y obtenemos la siguiente ecuacin en derivadas parciales:
G G
w ( w 1) =0
t w
En este caso aparecen las dos derivadas parciales. As como las ecuaciones diferenciales
tienen un sistema de ecuaciones algebraico que permite lograr la solucin general, las
ecuaciones en derivadas parciales tienen un sistema de ecuaciones auxiliares. Las ecuaciones
de Lagrange forman un sistema de ecuaciones auxiliares, y a partir de ellas es posible obtener
la solucin general:
PZ x + QZ y = R
Z = Z ( x; y )
dx dy dz
= =
P Q R
u = f ( x , y , z ) = C1 ; v = g ( x, y, z ) = C2
( u, v ) = 0
que es la solucin general de la ecuacin, donde es desconocida. Pasar de esta funcin
desconocida a una funcin conocida, implica pasar de una solucin general a la solucin
particular, para lo cual se requiere contar con un sistema de condiciones iniciales.
En nuestro caso:
x=t ; y=w
Z ( x; y ) = G n ( w ; t )
P = 1 ; Q = w ( w 1) ; R = 0
66
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
dw dw dw
dt = =
w ( w 1) w w 1
dw dw
dt =
w w 1
w
t = ln w ln ( w 1) + C = ln +C
w 1
w w t
et = C C1 = e
w 1 w 1
Hemos obtenido la primera solucin u. Ahora obtenemos v:
0dt = 1 dG dGn ( w; t ) = 0
Gn ( w; t ) = C 2
La solucin general es de la siguiente forma:
w t
e , G n ( w; t ) = 0
w 1
Explicitamos esta funcin implcita, en funcin de una de las dos variables:
w t
G n ( w; t ) = f e
w 1
Solucin particular:
Gn ( w;0 ) = w n
Pn0 ,n ( 0 ) = w n0
n= n0
w 0 w
Gn ( w;0 ) = f e = f
w 1 w 1
w
f = w n0
w 1
Utilicemos una variable auxiliar adicional:
w r
= r w = wr r r = w ( r 1) w =
w 1 r 1
n0
w r
f (r) = f = w n0
=
w 1 r 1
w t
Si hacemos r= e obtenemos:
w 1
67
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
n
w t 0
e
w t w 1
f e = = Gn ( w; t )
w 1 w et 1
w 1
n0 n0
we t we t
G n ( w; t ) = =
w ( e 1) + 1 1 w ( 1 e )
t t
Gn ( w; t ) = w n0 e n0 t 1 w ( 1 e t )
n0
Proceso de fallecimiento
Mientras que el proceso de nacimiento evoluciona exclusivamente hacia la derecha, el
proceso de fallecimiento evoluciona hacia la izquierda. Esto ltimo tiene solucin nica dado
que no puede divergir, mientras que el primero puede converger o ser explosivo.
Sea {n(t)} un proceso continuo en el dominio del tiempo, discreto en el dominio de las
variables, tal que slo admite egresos por fallecimiento.
{n ( t )}; ( t 0; ( n ( t ) ) = {0,1, 2,K , n }) ; n ( 0 ) = n
0 0
Pn ,n ( t ; t + t ) = 1 nt o ( t )
Pn ( t ) = n Pn ( t ) + ( n + 1) Pn+1 ( t )
n0 n0 n0
w n
Pn ( t ) = w nw n 1
Pn ( t ) + ( n + 1) w n Pn+1 ( t )
n= 0 n= 0 n= 0
68
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
G n0
= nw n1 Pn ( t ) = 0 + P1 ( t ) + 2wP2 ( t ) + K + n0 w n0 1 Pn0 ( t )
w n = 0
n0
( n + 1) w n
Pn+1 ( t ) = P1 ( t ) + 2 wP2 ( t ) + K + n0 w n0 1 Pn0 ( t ) + ( n0 + 1) w n0 Pn0 +1 ( t )
n= 0
n0
G
( n + 1) w n
Pn+1 ( t ) = + ( n0 + 1) w n0 Pn0 +1 ( t )
n= 0 w
Por ltimo, recordemos que n0+1 no pertenece al dominio del proceso; luego, su ocurrencia
es imposible: Pn0 +1 ( t ) = 0 . De modo que:
n0
G
( n + 1) w
n= 0
n
Pn+1 ( t ) =
w
Y entonces:
dt dw
=
1 (1 w )
dw
dt =
1 w
t + C = ln ( 1 w )
t C = ln ( 1 w )
1 w = e C e t
1 w = C 2e t
C1 = ( 1 w ) e t
Hemos obtenido la primera solucin u. Ahora obtenemos v:
G G
(1 w ) =0
t w
0dt = 1 dG dG = 0
G = C2
La solucin general es de la siguiente forma:
( ( 1 w ) e t , Gn ( w; t ) ) = 0
Explicitamos esta funcin implcita, en funcin de una de las dos variables:
G n ( w; t ) = f ( (1 w ) e ) t
Solucin particular:
69
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
Gn ( w;0 ) = w n
Pn0 ,n ( 0 ) = w n0
n = n0
Gn ( w;0 ) = f ( (1 w ) e ) = f (1 w )
0
f ( 1 w ) = w n0
Utilicemos una variable auxiliar adicional:
1 w = r w = 1 r
f ( r ) = f ( 1 w ) = w n0 = ( 1 r )
n0
Si hacemos r = (1 w ) e t obtenemos:
( (1 w ) e ) = 1 (1 w ) e = Gn ( w; t )
t t n0
f
n0
n
Gn ( w; t ) = ( 1 e ) + we = 0 ( we t ) ( 1 e t )
n0 n n0 n
t t
n= 0 n
dado que:
k
k
(a + b) = a i bk i
k
i =0 i
Finalmente:
n0
n0 t n n0 n
n0
Gn ( w; t ) = w ( e ) ( 1 e ) = w n Pn0 ,n ( t )
n t
n= 0 n n= 0
n
Pn0 ,n ( t ) = 0 ( e t ) ( 1 e t )
n n0 n
n
El proceso sigue una distribucin binomial: n(t):b(n0;e-t).
Proceso de nacimiento y fallecimiento
Sea {n(t)} un proceso continuo en el dominio del tiempo, discreto en el dominio de las
variables, tal que solo admite ingresos por nacimiento y egresos por fallecimiento.
{n ( t )}; ( t 0; ( n ( t ) ) = {0,1, 2,K} ) ; n ( 0 ) = n 0
Pn ,n+1 ( t ; t + t ) = n t + o ( t )
Pn ,n1 ( t ; t + t ) = nt + o ( t )
Pn ,n k ( t ; t + t ) = o ( t ) ( k 2)
Pn ,n ( t ; t + t ) = 1 n ( + ) t o ( t )
( + ) ( + ) 4 ( + )
2
2 + 2 + 2 4
= =
2 2
( + ) 2 2 + 2 ( + ) ( ) + ( )
2
= = =
2 2 2
Primera raz:
+ + 2
= =
2 2
Segunda raz:
+ + 2
= =1
2 2
Sabemos que la expresin factorizada de un polinomio de grado n es:
an x n + an1 x n1 + K + a2 x 2 + a1 x + a0 = an ( x 1 ) ( x 2 ) K ( x n1 ) ( x n )
De modo que:
w2 ( + ) w + = w ( w 1) = ( w ) ( w 1 )
Quedando:
71
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
G G
= ( + ) w + w 2 +
t w
G G
= ( w ) ( w 1)
t w
G G
( w ) ( w 1) =0
t w
72
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
A = 1 A =
1
1
=
( ) + ( ) = 1 + 1
( w ) ( w 1) ( w ) ( w 1) ( w ) ( w 1)
1 1 1
dt = ( w ) ( w 1)
dw = + dw
( w ) ( w 1)
1
( ) dt = ( w ) dw + ( w 1) dw
( ) t + C = ln ( w ) ln ( w 1)
w
( ) t + C = ln
w 1
w
Ce ( ) =
t
w 1
w ( )t
C1 = e
w 1
Hemos obtenido la primera solucin u. Ahora obtenemos v:
0dt = 1 dG dGn ( w; t ) = 0
Gn ( w; t ) = C 2
La solucin general es de la siguiente forma:
w ( )t
G n ( w; t ) = f e
w 1
Notemos que:
Gn ( w;0 ) = w n
Pn0 ,n ( 0 ) = w n0
n = n0
w ( ) 0 w
Gn ( w;0 ) = f e = f
w 1 w 1
w
f = w n0
w 1
Utilicemos una variable auxiliar adicional:
73
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
w r
= r wr + r + w = w ( r ) = r w =
w 1 r
w r
n0
f (r) = f = w n0
=
w 1 r
w ( )t
Si hacemos r= e obtenemos:
w 1
w ( ) t
n0
e
w ( ) t
= Gn ( w; t )
= w 1
f
e w
w 1 e
( ) t
w 1
w 1 w ( )t
0 n
w 1 w 1 e ( w 1) ( w ) e ( )t
n0
G n ( w; t ) = = ( )t
w 1 w ( )t ( ) ( )
e w 1 w e
w 1 w 1
w ( w ) e ( )t
n0
w we ( ) t + e ( ) t
n0
G n ( w; t ) = ( )t
= t
w ( w ) e w we
( )t
+ e ( )
n0
e ( ) t 1 e ( ) t w
Gn ( w; t ) = ( ) t
( )t
e e 1 w
Donde la tasa instantnea de reproduccin est dada por .
Veamos qu ocurre cuando nos acercamos a que = .
( e 0 1) w ( e 0 )
n0
n0
0
lim Gn ( w; t ) = =
( e ) ( e 1) w 0
0 0
quedndonos dentro del corchete una indeterminacin que debemos resolver utilizando el
teorema de LHopital. Recordemos que, como tiende a , estamos tcitamente asumiendo
que es la variable, mientras que se considera constante. No olvidemos que, para aplicar
este teorema, debemos estar trabajando con tan slo una variable independiente (o sea: ).
74
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
e ( )t 1 e ( ) t w
lim ( ) t
=
e e ( ) t 1 w
te ( ) e ( ) + ( t ) e ( ) w
t t t
= lim =
te
( )t
1 e
(
( )t
)
1 + ( t ) e
( ) t
w
t (1 t ) w t + (1 t ) w
= =
( t 1) + tw ( 1 + t ) tw
De modo que la solucin particular es:
( ) ( )
n0
( ) t ( )t
e 1 e w
( )
Gn ( w; t ) =
e(( )t
e ) ( ( )t
1 w
)
t + (1 t ) w
n0
( = )
( 1 + t ) tw
Es prcticamente imposible que ambas tasas instantneas coincidan.
Analicemos la probabilidad de extincin al momento t (es decir en ese momento, o antes).
Primeramente notemos que la funcin G puede verse como:
Gn ( w; t ) = Pn0 ,0 ( t ) + wPn0 ,1 ( t ) + w 2 Pn0 ,2 ( t ) + K
Gn ( 0; t ) = Pn0 ,0 ( t )
Ahora bien, haciendo w = 0 en Gn(w;t) queda:
( )
n0
( )t
e 1
( ) t
( )
e
Pn0 ,0 ( t ) =
n0
t
1 t ( = )
+
Si calculamos el lmite cuando t tiende a infinito, obtenemos la probabilidad de extincin
final de la poblacin (es decir, que se extinga en algn momento).
Analicemos este lmite cuando > , es decir cuando > 0.
75
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
( ) ( e 1)
n0
e ( ) t 1 n0
n0 n0
lim = = =
t e ( ) t
e
Ahora bien, si < , o sea < 0, vemos que:
( ) ( )
n0 n0
e ( ) t 1 e ( ) 1
n0
lim = =
t e ( ) t e ( )
quedndonos en el corchete una indeterminacin a resolver con el teorema de LHopital.
Notemos que t es la variable independiente.
( )
n0
e ( ) t 1 ( ) e ( ) t
n0
lim = lim =1
( )
t e ( ) t t e ( ) t
Por su parte, veamos el caso en que = . Primeramente notemos que:
t t + 1 1 1
= = 1
1 + t 1 + t 1 + t
de modo que:
n0 n0
t
n
1 10
lim
t 1 + t
= lim 1 1 + t = 1 = 1
t
Y entonces, la probabilidad de extincin final es:
( )
n0
lim Pn0 ,0 ( t ) =
( > )
t
1 ( )
Obtengamos la solucin utilizando la funcin generatriz de momentos:
M
= ( + ) ne wn Pn ( t ) + ( n 1) e wn Pn1 ( t ) + ( n + 1) e wn Pn+1 ( t )
t n= 0 n= 0 n= 0
M M M M
= ( + ) + ew + e w
t w w w
M M
= ( + ) + e w + e w
t w
d M w M w M
= ( e e )
2
w
+ ( + ) + e + e
w
dt w w w 2
Hacemos w = 0:
76
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
m ( n ( t )) = ( ) m ( n ( t ))
d
dt
dm
= ( ) dt
m
ln m = ( ) t + C
m = Ce ( )
t
Solucin particular:
1 si n = n0
Pn ( 0 ) =
0 si n n0
m ( n ( t ) ) = nPn ( t )
n= 0
n0 1
m ( n ( 0 ) ) = nPn ( 0 ) = nP ( 0 ) +n P ( 0 ) +
n 0 n0 nPn ( 0 ) = n0
n= 0 n= 0 n = n0 + 1
m ( n ( 0 ) ) = Ce ( ) = C
0
C = n0
m ( n ( t ) ) = n0e ( ) ( t 0)
t
w 2 w 3
Hacemos w = 0:
m2 = ( + ) m + 2 ( ) m2
m2 2 ( ) m2 = ( + ) n0e ( )
t
77
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
m2 2 ( ) m2 = 0
D 2 ( ) m2 = 0
2( ) = 0
= 2( )
2( ) t
m2h = Ce
La solucin complementaria es:
m2C = Ae ( )
t
m2C = A ( ) e ( )
t
m2C 2 ( ) m2C = A ( ) e ( ) 2 ( ) Ae ( )
t t
m2C 2 ( ) m2C = A ( ) e ( )
t
A ( ) e ( ) = ( + ) n0e ( )
t t
+
A = n0
+ ( )t
m2C = n0 e
Y entonces, la solucin general es:
+ ( )t
m2G ( n ( t ) ) = Ce
2( ) t
n0 e
Con respecto a las condiciones iniciales:
1 si n = n0
Pn ( 0 ) =
0 si n n0
+ ( )0 +
m2 ( n ( 0 ) ) = Ce ( ) n0
2 0
e = C n0
+
m2 ( n ( 0 ) ) = n 2 Pn ( 0 ) = n02 C = n02 + n0
n= 0
78
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
+ 2( ) t + ( )t
m2 ( n ( t ) ) = n02 + n0 e n0 e
+ 2( ) t + ( )t
V ( n ( t ) ) = n02 + n0 ( )
2
n0e ( )
t
e n e
0
+ 2( ) t + ( )t + ( )t ( )t
V ( n ( t ) ) = n0 e n0 e = n0 e e 1
Proceso de nacimiento y fallecimiento con inmigracin y emigracin
Admite ingresos por nacimiento y egresos por fallecimiento, e ingresos por inmigracin y
egresos por emigracin. Mientras que las velocidades de ingresos por nacimiento son lineales
con respecto al tamao de la poblacin, las velocidades de ingresos por inmigracin, por
ejemplo, son, en cierta manera, independientes con respecto al tamao de la poblacin. Con
lo cual, podrn ser consideradas constantes, o bien funciones pero de otra variable que no sea
el tamao de la poblacin.
{n ( t )}; n ( 0 ) = n ;[ t; t + t ) ; t; t;t;t
0
Siendo la tasa instantnea de inmigracin, y la tasa instantnea de emigracin. Sola
discutirse si stas eran funcin del tamao de la poblacin de origen, o inversamente
proporcionales al tamao de la poblacin de receptora. En el primer caso se convierten en un
factor exgeno, y en el segundo se pierde la condicin de linealidad.
Pn ,n+1 ( t ; t + t ) = n t + t + o ( t )
Pn ,n1 ( t ; t + t ) = nt + t + o ( t )
Pn ,n k ( t ; t + t ) = o ( t )( k 2)
Pn ,n ( t ; t + t ) = 1 n ( + ) t ( + ) t o ( t )
Pn ( t ) = n ( + ) Pn ( t ) ( + ) Pn ( t ) + ( n 1) Pn1 ( t ) +
+ Pn1 ( t ) + ( n + 1) Pn+1 ( t ) + Pn+1 ( t )
Multipliquemos por ewn y sumemos. Analicemos el ltimo sumando:
e Pn+1 ( t ) = e
wn w
e w ( n + 1)
Pn+1 ( t ) =
n= 0 n= 0
= e w ( e w p1 + e 2 w p2 + K + p0 ) p0 = e w M e w p0
dado que:
p0 + e p1 + e
w 2w
p2 + K = e wn Pn ( t ) = M
n= 0
Nos queda:
M M
= ( + ) + e w + e w + ( + ) + e w + e w M e w P0 ( t )
t w
79
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
Derivando respecto de w:
M w M w M
w = ( e e ) w + ( + ) + e + e w 2 +
2
w w
t
M P
+ ( e w e w ) M + ( + ) + e w + e w + e w P0 ( t ) e w 0
w w
Y finalmente haciendo w = 0:
m ( ) m = ( ) + P0 ( t ) P0 ( t )
Y es necesario definir P0 para poder resolver esta ecuacin diferencial. Es decir, a todas las
condiciones definidas anteriormente, es necesario agregar una restriccin: la probabilidad de
que en el momento t acaezca el estado 0. Este problema es generado por la emigracin, y se
parece al que ocurre en un proceso de colas: n(t) es el nmero de individuos que integran la
fila de espera. A esa fila de espera se puede ingresar y de ella se puede egresar; pero ni los
ingresos ni los egresos son linealmente proporcionales al tamao de la poblacin.
Este proceso particular no tiene en el estado 0 una barrera absorbente, sino una reflectora: si
se produce una inmigracin (lo cual puede ocurrir porque no es proporcional al tamao de la
poblacin), vuelve al estado 1; es como si rebotara en el 0.
Sea n(t) el tamao de una poblacin, dividida en poblacin femenina y poblacin masculina.
Ambas admiten ingresos por nacimiento y egresos por fallecimiento.
P( f ;v ),( f +1;v ) ( t ; t + t ) = f f t + o ( t )
P( f ;v ) ,( f ;v +1) ( t ; t + t ) = f v t + o ( t )
P( f ;v ),( f 1;v ) ( t ; t + t ) = f f t + o ( t )
P( f ;v ),( f ;v 1) ( t ; t + t ) = v v t + o ( t )
P( f ;v ), f k ;v k ( t ; t + t ) = o ( t )
( f v) (k f ; kv 2 )
( )
P( f ;v ),( f ;v ) ( t ; t + t ) = 1 f f + v + f t v v t o ( t )
80
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
( )
P(f ;v ) ( t ) = f f + v + f v v P( f ;v ) ( t ) + ( f 1) f P( f 1;v ) ( t ) +
+f v P( f ;v 1) ( t ) + ( f + 1) f P( f +1;v ) ( t ) + ( v + 1) v P( f ;v +1) ( t )
( f ; v = 0,1, 2,K; t 0 )
Consideremos que:
G f ;v ( w1 ; w2 ; t ) = w1f w2v P( f ;v ) ( t )
f =0 v =0
M f ;v ( w1 ; w2 ; t ) = e w1 f e w2v P( f ;v ) ( t )
f =0 v =0
M
= e w1 f e w2v P(f ;v ) ( t )
t f =0 v =0
M
= fe w1 f e w2v P( f ;v ) ( t )
w1 f = 0 v = 0
M
= ve w1 f e w2v P( f ;v ) ( t )
w 2 f = 0 v = 0
M
= f P( f ;v ) ( t ) = m ( f ( t ) ) = E f ( t ) f0 ;v0
w1 w1 = w2 = 0 f =0 =
M
= v P( f ;v ) ( t ) = m ( v ( t ) ) = E v ( t ) f0 ;v0
w 2 w1 = w2 = 0 v =0 =
( )
2
= e w1 f + f 2e w1 f e w2v P( f ;v ) ( t )
w1 2
f =0 v =0
( )
2
= e w2v + v 2e w2v e w1 f P( f ;v ) ( t )
w 2 2
f =0 v =0
M2
= f v e w1 f e w2v P( f ;v ) ( t )
w1 w2 f = 0 v = 0
2M
= ( 1 + f 2 ) P( f ;v ) ( t ) = m2 ( f ( t ) )
w12 w1 = w2 = 0 f =0
2M
= ( 1 + v 2 ) P( f ;v ) ( t ) = m2 ( v ( t ) )
w22 w1 = w2 = 0 f =0
2M
= f v P( f ;v ) ( t ) = m ( f ( t ) , v ( t ) )
w1 w2 w1 = w2 = 0 f =0 v =0
81
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
( f ( t ) ; v ( t ) ) = m f ,v m f m v
Si las poblaciones son incorrelacionadas, la covarianza debe ser nula. Ello no ocurre, dado
que el nacimiento de varones se supedita al tamao de la poblacin femenina (o dicho ms
tcnicamente, el tamao esperado de la poblacin masculina depende exclusivamente de las
caractersticas demogrficas de la poblacin femenina).
Por su parte la condicin inicial en t = 0 es:
1 si f = f 0 v = v0
P( f ;v ) ( 0 ) =
0 si f f 0 v v0
e f =0 v =0
w1 f
e w2v
(
P(f ;v ) ( t ) = f + v + f ) f e
f =0 v =0
w1 f
e w2v P( f ;v ) ( t )
P( f ;v ) ( t ) + f e ( f 1) e P( f 1;v ) ( t )+
w1 ( f 1) w2v
v v e w1 f
e w2v w1
e
f =0 v =0 f =0 v =0
P( f ;v 1) ( t )+ f e ( f + 1) e P( f +1;v ) ( t ) +
w 2 ( v 1 ) w1 ( f +1) w2v
+ v e w2
f e
f =0 v =0
w1 f
e w1
f =0 v =0
e
+ v e w2
( v + 1) e
f =0 v =0
w1 f
e
w 2 ( v + 1)
P( f ;v +1) ( t )
M M M M
t
= f + v + f(w1
v
w2
+ f e w1
w1
+ )
M M M
+ v e w 2 + f e w1 + v e w2
w1 w1 w 2
M M M
t
(
= f + v + f + f e w1 + v e w2 + f e w1 )
w1
+ v e w2 1
w 2
( )
M w1 M
( )
2
= f + v + f + f e + v e + f e +
w1 w2
t w1 w12
M 2M
(
+ fe fe w1 w1
) w1
+ v e 1
w2
w1 w2
( )
Haciendo w1 = w2 = 0:
82
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
d
dt
( )
m ( f ( t )) = f f m ( f ( t ))
( )
dm f
= f f mf
dt
dm
m
(
= f f dt )
( )
ln m = f f t + C
( )t
m f = Ce f f
m ( f ( 0 ) ) = f Pf (0) = f 0
f =0
( ) 0
m ( f ( 0 ) ) = Ce f f = C C = f 0
( )t
m f = f 0e f f = E f ( t ) f0 ;v0
M w1 M
( )
2
= f + v + f + f e + v e + f e +
w1 w2
t w 2 w1 w2
M w 2 M 2M
+ v e w2
w1
v e
w 2
+ v e 1
w2
(
w22
)
Haciendo w1 = w2 = 0:
( )t
m ( v ( t ) ) + v m ( v ( t ) ) = v m ( f ( t ) ) = v f 0 e f f
d
dt
( )t
mv + v mv = v f 0e f f
Obtenemos una ecuacin diferencial no homognea. Resolvemos primeramente la ecuacin
diferencial lineal homognea asociada:
D + v mv = 0
+ v = 0 = v
mvh = C1e v t
Ahora encontramos la solucin complementaria:
83
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
( )t
mvc = Ae f f
(
mv c = A f f e f f )
( )t
( ( )t
mv c + v mvc = A f f + v e f f )
( )t
( ( )t
v f 0 e f f = A f f + v e f f )
v f 0
A=
f f + v
v f 0 ( f t)
mvc = e f
f f + v
De modo que la solucin general es:
v f 0 ( )
f t
m v = C 1e v t + e f
f f + v
Para hallar la solucin particular, debemos considerar la condicin inicial para t = 0.
v f 0 ) v f 0
m ( v ( 0 ) ) = C 1e v 0 + e(
f 0
f
= C1 +
f f + v f f + v
M
= m ( v ( 0 ) ) = v e e P( f ;v ) ( t ) = v P( f ;v ) ( 0 ) = v0
0 f 0v
w 2 w1 = w2 = t = 0 f =0 v =0 v =0
v f 0 v f 0
C1 + = v 0 C1 = v 0
f f + v f f + v
v f 0 t v f 0 ( )t
mv = v0 e v + e f f
f f + v f f + v
v f 0 e ( f f ) t e v t + v e v t = E v ( t )
mv = f0 ;v0
f f + v 0
Ser necesario hallar el momento natural segundo de la poblacin femenina:
2M
= m2 ( f ( t ) )
w12 w1 = w2 = 0
Para ello volvemos a derivar respecto de w1:
84
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
2M w1 M
2
2
= f e f e
w1
+
t w
1 w1
2
( )
3
+ f + v + f + f e + v e w1 w2
+ fe w1 M3 +
w
1
M w1 M 3M
( ) ( )
2
+ fe + few1 w1
+ e f e
w1
+ v e 1
w2
w1 f w12 w12 w2
Haciendo w1 = w2 = 0:
d
(
m ( f ( t ) ) = f f m2 ( f ( t ) ) +
dt 2
)
( )
+ f + f m ( f ( t ) ) + f f m2 ( f ( t ) ) ( )
dm2 f
dt
( ) ( )t
= 2 f f m 2 f + f + f f 0e f f ( )
(
m2 f 2 f f m2 f ) = ( f + f ) f e( 0
f f t )
Se obtiene una ecuacin diferencial lineal ordinaria. Hallemos la solucin homognea:
(
D 2 f f m2 = 0
f )
2( f f ) = 0
= 2( f f )
2 )t
m2hf = C1e ( f f
En cuanto a la solucin complementaria:
( )t
m2c f = Ae f f
( m2 cf = A f f e )( ) f f t
2 ( ) m = A ( ) 2 A ( ) e
( )
f f t
m2 f f f 2f f f f f =
= A( ) e = ( + ) f e
( f f t ) ( ) f f t
f f f f 0
Luego,
f + f
A = f0
f f
f + f ( f t)
m2c f = f 0 e f
f f
Solucin general:
85
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
( )
2 f f t f + f ( f t )
m2Gf = C1e f0 e f
f f
Utilizando la condicin inicial, t = 0:
f + f
m 2 f = C1 f 0
f f
Y recordemos que:
2M
= ( 1 + f 2 ) P( f ;v ) ( 0 ) = 1 + f 0 2 = m2 ( f ( 0 ) )
w12 w1 = w2 = t = 0 f =0
O sea:
f + f
m 2 f = C1 f 0 = 1 + f02
f f
f + f
C1 = 1 + f 0 2 + f 0
f f
f + f 2( f f ) t + f ( f f )t
m G
= 1 + f0 + f0
2
e f0 f e
2f
f f f f
Ahora buscamos el momento natural mixto de la poblacin femenina:
2M w2 M
( )
2 3
M
= e + + + + e w1
+ e w 2
+ e w1
w 2 w +
t w1 w2 w12
v f v f f v f
1 2
2M w2 M 3M
( ) ( )
2
+ fe + fe w1 w1
v e + v e 1
w2
w1 w2 w1 w2 w1 w22
Haciendo w1 = w2 = 0:
d
dt
( )
m ( f ( t ) , v ( t ) ) = v m 2 ( f ( t ) ) + f f m ( f ( t ) , v ( t ) ) v m ( f ( t ) , v ( t ) )
(
= v m 2 ( f ( t ) ) + f f v m f ,v )
dm f ,v
dt
f + f 2( ) t f + f ( )t
m f ,v ( f f v ) m f ,v = v 1 + f 0 2 + f 0 e f f
e f
f f
0
f f f f
Hallemos la solucin homognea:
86
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
( )
D f f v m f ,v = 0
( f f v ) = 0
= ( f f v )
( )t
m hf ,v = C 2e f f v
Solucin complementaria:
2 )t ( )t
m cf ,v = Ae ( f f + Be f f
(2 )t
) ( )t
mfc,v = 2 A f f e ( f f + B f f e f f ( )
(
mfc,v f f v m cf ,v ) = 2A( f )
f e
(
2 f f t )
+ B( f f e) ( f f )t
( 2( ) t
)
( )t 2( ) t
f f v Ae f f + Be f f = A f f + v e f f +
( )
( )t + f 2( f f ) t f + f ( f f )t
+ Bv e f f = 1 + f 0 2 + f 0 f e f e
v 0 v
f f f f
+ f
(
A f f + v = 1 + f 0 2 + f 0 f
) v
f f
+ f v
A = 1 + f02 + f0 f
f f f f + v
+ f
B v = f 0v f
f f
v f + f
B = f0
v f f
+ f v 2( ) t + f ( f f )t
m cf ,v = 1 + f 0 2 + f 0 f e f f f0 v f e
+
f f f f v v f f
Solucin general:
( )
f v t f + f v ( )
2 f f t v f + f ( )
f t
m f ,v = C 2 e + 1 + f0 + f0 f0
G 2
e e
f f
f f f f + v v f f
Utilizando la condicin inicial, t = 0:
+ f v v f + f
m Gf ,v = C 2 + 1 + f 0 2 + f 0 f f
+ 0
v f f
f f f f v
87
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
Y recordemos que:
2M
= f v P( f ;v ) ( 0 ) = f 0 v0 = m ( f ( 0 ) , v ( 0 ) )
w1 w2 w1 = w2 = 0 f =0 v =0
O sea:
+ f v v f + f
m f ,v = C 2 + 1 + f 0 2 + f 0 f f = f 0 v0
+ 0
f f f f v v f f
f + f v + f
C 2 = f 0 v0 1 + f 0 + f 0
2
+ f0 v f
f f f f + v v f f
f + f v v f + f ( )t
m f ,v = f 0 v0 1 + f 0 + f 0 + e +
G 2
f f f v
f f f f + v 0
v f f
f + f ( )
2 f f t + ( )
f f t
+ 1 + f0 + f0 f0 v
2 f f
v
e e
f f f f + v v f f
+ f v 2( ) t + f ( f f )t
+ 1 + f02 + f0 f
+
e f f f0 v f e
f f f f v v f f
( f f ) t v f 0 ( f f )t v t v t
f 0e e e +v e
f f + v 0
88
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
G G G G
= w ( + ) G + w2 + wG +
t w w w
G G
= w 2 w ( + ) + + ( w 1) G
t w
G G
( w ) ( w 1) = ( w 1) G
t w
dt dw dG
= =
1 ( w ) ( w 1) ( w 1) G
De los miembros de la izquierda se obtiene la siguiente ecuacin diferencial de variables
separables:
dw
dt = ( w ) ( w 1)
que, segn vimos anteriormente (procesos de nacimiento y fallecimiento), tiene la siguiente
solucin:
w
e ( ) = C1
t
w 1
De los miembros de la derecha en la triple igualdad, surge la siguiente ecuacin diferencial:
dw dG
=
w G
dw dG
=
w G
1 1
ln ( w ) = ln G + C
1
(w )
1
=e G C
( w )
= e C G
( w ) G = e C = C 2
w ( ) t
e ,(w ) G = 0
w 1
89
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
w ( )t
Gn ( w; t ) ( w ) = f
e
w 1
w ( ) t
Gn ( w; t ) = ( w ) f e
w 1
Notemos que:
Gn ( w;0 ) = w n
Pn0 ,n ( 0 ) = w n0
n = n0
w ( ) 0
w
Gn ( w;0 ) = ( w ) f
e = ( w )
f w 1
w 1
w
f = w n0
( w )
w 1
Utilicemos una variable auxiliar adicional:
w r
= r wr + r + w = w ( r ) = r w =
w 1 r
w r r
n0
f (r ) = f = w n0 ( w )
=
w 1 r r
w ( )t
Si hacemos r = e obtenemos:
w 1
w w
n0
t
e ( )
( )t
w 1 e
w t w 1
f e ( ) = = G n ( w; t )
w 1 w e ( )t
w ( )t
e
w 1 w 1
90
ESTADSTICA ACTUARIAL PROF. ALBERTO LANDRO
AUTOR: FERNANDO IANOVSKY
Proceso de colas
El tamao de la poblacin representa el nmero de personas que forma una fila de espera.
{n ( t )}; t; t
Pn ,n+1 ( t ; t + t ) = t + o ( t )
Pn ,n1 ( t ; t + t ) = t + o ( t )
Pn ( t ) = ( + ) Pn ( t ) + Pn1 ( t ) + Pn+1 ( t )
( n = 0,1, 2,K ; t 0 )
e wn
Pn ( t ) = ( + ) e wn Pn ( t ) +
n= 0 n= 0
Pn1 ( t )+ e Pn+1 ( t )
w ( n 1) w ( n + 1)
+ew e w
e
n= 0 n= 0
M
= ( + ) M + e w M + e w ( M P0 ( t ) )
t
Si hacemos w = 0:
m = ( + ) + + ( 1 P0 ( t ) )
m = P0 ( t )
debiendo explicitarse la funcin P0(t) para que quede hallada la solucin.
91