Sunteți pe pagina 1din 6

1.

Definir:
a) Serie temporal
Una serie temporal es un conjunto de datos u observaciones que hace referencia a una o
varias variables y que está ordenado cronológicamente.
Cuando la esperanza matemática de dichas variables aleatorias es constante o varía de
manera cíclica, se dice que la serie es estacionaria y no tiene tendencia secular. Muchas
series temporales tienen una tendencia creciente (por ejemplo, el número de automóviles
en uso en casi todos los países durante los últimos cincuenta años) o decreciente (por
ejemplo, el número de personas que trabajan en la agricultura); otras no tienen tendencia
(la luminosidad a horas sucesivas, que varía cíclicamente a lo largo de las 24 horas del
día) y son estacionarias.

b) Test ADF
En estadística y econometría, una prueba de Dickey-Fuller aumentada (ADF) es una
prueba de raíz unitaria para una muestra de una serie de tiempo. Es una versión
aumentada de la prueba Dickey-Fuller para un conjunto más amplio y más complejo de
modelos de series de tiempo. La estadística Dickey-Fuller Aumentada (ADF), utilizada en
la prueba, es un número negativo. Cuanto más negativo es, más fuerte es el rechazo de la
hipótesis nula de que existe una raíz unitaria para un cierto nivel de confianza
c) Test PP
En estadística y econometría, la prueba de Phillips-Perron (el nombre viene de Peter
Phillips y CB Pierre Perron)1 es una prueba de raíz unitaria. Es decir, se utiliza en el
análisis de series de tiempo para probar la hipótesis nula de que una serie de tiempo es
integrada de orden 1. Se basa en la prueba de Dickey-Fuller de que la hipótesis nula es
{\displaystyle \rho =0}{\displaystyle \rho =0} en {\displaystyle y_{t}=\rho y_{t-
1}+u_{t}\,}{\displaystyle y_{t}=\rho y_{t-1}+u_{t}\,}, donde Δ es la primera diferencia del
operador. Al igual que la prueba de Dickey-Fuller aumentada, la prueba de Phillips-Perron
aborda la cuestión de que el proceso de generación de datos para {\displaystyle
y_{t}}{\displaystyle y_{t}} podría tener un orden superior de autocorrelación que es admitido
en la ecuación de prueba - haciendo {\displaystyle y_{t-1}}{\displaystyle y_{t-1}} endógeno
e invalidando así el Dickey-Fuller t-test . Mientras que la prueba de Dickey-Fuller
aumentada aborda esta cuestión mediante la introducción de retardos de Δ {\displaystyle
y_{t}}{\displaystyle y_{t}} como variables independientes en la ecuación de la prueba, la
prueba de Phillips-Perron hace un no-paramétricos corrección a la estadística t-test. El
ensayo es robusto con respecto a no especificado autocorrelación y heterocedasticidad en
el proceso de alteración de la ecuación de prueba.
d) Estacionaridad
una serie temporal es estacionaria cuando la media y la variabilidad se mantienen
constantes a lo largo del tiempo, es decir, no es en función del tiempo; y además, no
presenta tendencia.
Porque, en la mayoría de modelos y análisis de series temporales, es indispensable que
éstas sean estacionarias, parten bajo éste supuesto. Cuando no es el caso, el primer
requisito suele ser estacionariedad, lo cual se suele conseguir aplicando logaritmos (para
corregir heterocedasticidad), diferencia regular (eliminar tendencia), diferencia estacional
(eliminar componente estacional), etc. Entonces a partir de aquí, intentar construir modelos
estocásticos para poder predecir la serie.
Hay que tener en cuenta que regresiones con MCO y variables no estacionarias pueden
generar regresiones espurias, esto es, regresiones con estimadores sesgados y doonde se
obtiene un R² alto y altos t-estadísticos; pero en estos casos, el criterio convencional para
juzgar si hay una relación causal entre las variables no es confiable y aunque dichos
estadísticos y R² sean estadísticamente significativos realmente no existe una relación
e) Invertibilidad
El proceso es invertible si las ra´ıces de Θq(B) no estan fuera del cırculo unidad.
Suponemos ademas sin pérdida de generalidad que Φp(B) y Θq(B) no tienen raıces
comunes.
f) Orden de Integración
El orden de indicación hace referencia al numero de veces en la que se va a diferenciar la
variable selecciona
g) Ergodicidad
La ergodicidad es una propiedad muy importante de algunos sistemas mecánicos que
permite justificar ciertos resultados de la mecánica estadística. Un sistema es ergódico si
el único conjunto invariante de medida no nula de la hipersuperficie de energía constante
del espacio de las fases es toda la hipersuperficie de energía constante.

Los sistemas ergódicos tienen el interés de que en ellos el promedio temporal de ciertas
magnitudes pueden obtenerse como promedios sobre el espacio de estados lo cual
simplifica las predicciones sobre los mismos.
h) Metodología Box Jenkins
En el análisis de series de tiempo, la metodología de Box-Jenkins, nombrada así en honor
a los estadísticos George E. P. Box y Gwilym Jenkins, se aplica a los modelos
autorregresivos de media móvil ARMA o a los modelos autorregresivos integrados de
media móvil (ARIMA) para encontrar el mejor ajuste de una serie temporal de valores, a fin
de que los pronósticos sean más acertados
i) Descomposición de Wold
El Teorema de Descomposición de Wold enuncia que un proceso aleatorio general puede ser descrito
como suma de dos procesos,
x(n) = xp(n) + xr(n)
donde xr(n) es un proceso aleatorio regular y xp(n) un proceso predecible, siendo xr(n) ortogonal a xp(n),
E{xr(m)xp*(n)} = 0
Como corolario de este teorema, se obtiene que la forma general para el espectro de potencia de un
proceso estacionario en sentido amplio es

donde Sxc(ejw) es la parte continua del espectro correspondiente al proceso regular y la suma de los
impulsos ponderados representa la parte predecible del proceso.
PARTE IV: INVESTIGAR
a) Modelo ARMA
En estadística, los modelos autorregresivos de media móvil (en inglés AutoRegressive
Moving Average models, abreviados ARMA), también llamados Modelos Box-Jenkins, se
aplican a series temporales de datos.
Dada una serie temporal de datos Xt, el modelo ARMA es una herramienta para entender
y, aún más, para predecir futuros valores de la serie. El modelo está formado por dos
partes, una parte autorregresiva (AR) y otra de media móvil (MA). El modelo se conoce
con el nombre de modelo ARMA (p,q), donde p es el orden de la parte autorregresiva y q
es el orden de la parte de media móvil.
Un modelo autorregresivo es esencialmente un filtro de respuesta infinita al impulso IIR,
con determinada interpretación adicional.
Se debe tener en cuenta que es necesario imponer ciertas restricciones a los valores de
los parámetros de este modelo para que funcione correctamente (proceso estacionario).
Por ejemplo, en un modelo AR(1), si |φ1| > 1 el modelo no tendrá un buen
comportamiento.
b) Modelo ARIMA
En estadística y econometría, en particular en series temporales, un modelo autorregresivo
integrado de promedio móvil o ARIMA (acrónimo del inglés autoregressive integrated
moving average) es un modelo estadístico que utiliza variaciones y regresiones de datos
estadísticos con el fin de encontrar patrones para una predicción hacia el futuro. Se trata
de un modelo dinámico de series temporales, es decir, las estimaciones futuras vienen
explicadas por los datos del pasado y no por variables independientes.
El modelo ARIMA necesita identificar los coeficientes y número de regresiones que se
utilizarán. Este modelo es muy sensible a la precisión con que se determinen sus
coeficientes.

Se suele expresar como ARIMA(p,d,q) donde los parámetros p, d y q son números enteros
no negativos que indican el orden de las distintas componentes del modelo —
respectivamente, las componentes autorregresiva, integrada y de media móvil. Cuando
alguno de los tres parámetros es cero, es común omitir las letras correspondientes del
acrónimo — AR para la componente autorregresiva, I para la integrada y MA para la media
móvil. Por ejemplo, ARIMA(0,1,0) se puede expresar como I(1) y ARIMA(0,0,1) como
MA(1).
El modelo ARIMA puede generalizarse aún más para considerar el efecto de la
estacionalidad. En ese caso, se habla de un modelo SARIMA (seasonal autoregressive
integrated moving average).
El modelo ARIMA (p,d,q) se puede representar como:
c) Modelo SARIMA
A partir de la definici ´on de los modelos SARIMA hay dos posibles modelos para una serie
con componente estacional:
1. Modelos con componente determin´ıstica, es decir, el modelo de descomposici ´on.
2. Modelos no estacionarios, integrados estacionalmente, es decir,
SARIMA(p,d,q)(P,D,Q)[s],
con d 6= 0 y D 6= 0.
Sin embargo, un modelo de la forma SARIMA(p,0,q)(P,0,Q)[s], equivalente a un
ARMA(p+P,q+Q), podr´ıa ser tanto estacionario como mostrar caracter´ısticas
estacionales. Por
tanto, un tercer modelo es el anterior, que se denomina un modelo “estacionario
estacional”.
d) Modelo ARFIMA

e) Error Cuadrático Medio


En estadística, el error cuadrático medio (ECM) de un estimador mide el promedio de los
errores al cuadrado, es decir, la diferencia entre el estimador y lo que se estima. El ECM
es una función de riesgo, correspondiente al valor esperado de la pérdida del error al
cuadrado o pérdida cuadrática. La diferencia se produce debido a la aleatoriedad o porque
el estimador no tiene en cuenta la información que podría producir una estimación más
precisa.1

El ECM es el segundo momento (sobre el origen) del error, y por lo tanto incorpora tanto la
varianza del estimador así como su sesgo. Para un estimador insesgado, el ECM es la
varianza del estimador. Al igual que la varianza, el ECM tiene las mismas unidades de
medida que el cuadrado de la cantidad que se estima. En una analogía con la desviación
estándar, tomando la raíz cuadrada del ECM produce el error de la raíz cuadrada de la
media o la desviación de la raíz cuadrada media (RMSE o RMSD), que tiene las mismas
unidades que la cantidad que se estima; para un estimador insesgado, el RMSE es la raíz
cuadrada de la varianza, conocida como la desviación estándar.
f) Coeficiente de Theil
Frecuentemente se cita el coeficiente U de Theil como una medida de la exactitud del
pronóstico. Pero hay que señalar que existe cierta confusión acerca del coeficiente,
debido a que Theil (1966) propuso dos coeficientes diferentes en épocas diferentes,
pero con el mismo símbolo.
Primero, Theil definió una medida estadística de la exactitud de los pronósticos
mediante:
U1 =
Donde es el pronóstico para . Esta estadística varía entre 0 y 1, correspondiendo 0 a
un pronóstico perfecto. Desafortunadamente, el coeficiente U no proporciona una
buena clasificación de los pronósticos.

S-ar putea să vă placă și