Documente Academic
Documente Profesional
Documente Cultură
ActualidadyNuevasTendencias
Ao3,Vol.II,N5
ISSN:18568327
37
FiltrosconAprendizajedeParmetrosparaOptimizar
ModelosdeRedesNeuronalesenlaPrediccindeSeries
dePrecipitaciones
(FilterswithParametersLearningforOptimizingNeuralNetworkModels
inPredictingRainfallSeries)
SabaInfante,FernandoCedeo,JosOrtega
PalabrasClave:RedesNeuronales;FiltrodeKalmanExtendido;FiltrodePartculas;Seriesde
Precipitaciones.
KeyWords:NeuralNetworks;KalmanExtendedFilter;ParticleFilter;PrecipitationSeries
RESUMEN
ABSTRACT
In this study it was used a neural network
model (NN) to predict rainfall levels in
Venezuela.Thestudyisbasedonaseriesof
monthly total rainfall in the period 1971
2000 from 36 meteorological stations. One
determine the embedding dimension of the
data and the delay time, the number of
backwardstepsnecessarytopredictafuture
value, two standard techniques of
dynamical systems, the Average Mutual
Information (AMI)andtheFalseNeighbors
Nearest(FNN).Afterdeterminingtheinput
variables, were used the predictive model
was designed in terms of statespace
models. To estimate the weights of the
network we used two learning algorithms,
the Extended Kalman Filter (FKE) and a
Particle Filter or Sequential Importance
Infanteetal.FiltrosconAprendizajedeParmetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieraIndustrial.
ActualidadyNuevasTendencias
Sampling(PForSIR).WeusedtheBayesian
information criterion (BIC) to select the
number of neurons inthe hiddenlayerand
we proposed two methods to measure
goodnessoffitofthemodelsaccuracy.The
results show that the fitted model is useful
in predicting monthly rainfall levels with
highaccuracyandreliability.
INTRODUCCIN
Ao3,Vol.II,N5
ISSN:18568327
38
Infanteetal.FiltrosconAprendizajedeParmetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieraIndustrial.
ActualidadyNuevasTendencias
Ao3,Vol.II,N5
ISSN:18568327
39
Infanteetal.FiltrosconAprendizajedeParmetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieraIndustrial.
ActualidadyNuevasTendencias
Ao3,Vol.II,N5
ISSN:18568327
40
respuesta estimada,
Infanteetal.FiltrosconAprendizajedeParmetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieraIndustrial.
ActualidadyNuevasTendencias
vectorderuidodelaecuacindeestado;
es un vector de ruido de la ecuacin
de observacin y T es una matriz de
constantes conocidas. Es ampliamente
conocido que el modelo RN tiene la
capacidad de aproximar cualquier
funcin continua, con la precisin
deseada
independientemente
del
tamaodelared,Cybenko(1989).
Los supuestos del modelo son los
siguientes: es un ruido blanco con
media cero y matriz de varianza
covarianza , tambin es
unruidoblancoconmediaceroymatriz
de varianza covarianza ,
y , para todo y . Los
ruidos y se consideran no
correlacionadosconlospesosdelaredy
lascondicionesiniciales.Laevolucinde
los estados corresponden a proceso de
Markov de primer orden con
probabilidad inicial y una
probabilidad de transicin dada por
. Las observaciones se
consideran
condicionalmente
independientedadolosestados,esdecir;
,
donde:
y ,
(vaseHarvey,1970).
En la ecuacin (2) se muestra la
distribucinconjuntadelosestadosylas
observaciones,queseobtieneusandola
regla de la cadena de probabilidad, es
decir; vienedadapor:
(2)
Ao3,Vol.II,N5
ISSN:18568327
41
EntoncesusandolastcnicasBayesianas,
se puede estimar la densidad a
posteriori de . En muchas
aplicaciones, el inters recae en la
estimacin de las marginales, tambin
llamada densidad filtrada .
Conociendo la densidad, se pueden
calcularvariosestimadoresdelospesos
de la red, como la media, mediana,
varianza e intervalos de confianza. Para
obtener el estimador filtrado
se requiere conocer de una distribucin
a priori y de una distribucin a
posteriori en el tiempo
. Entonces el estimador filtrado se
estima recursivamente en dos pasos
denominadosprediccinyactualizacin:
1. Prediccin:
(3)
donde:
=
(4)
denota un punto de masa de la
funcinDeltadeDiracy
.
2. Actualizacin
(5)
donde:
Infanteetal.FiltrosconAprendizajedeParmetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieraIndustrial.
ActualidadyNuevasTendencias
(6)
y
(7)
Las relaciones dadas por las ecuaciones
(3) y (5), constituyen la solucin formal
del problema de estimacin recursiva
mediantelosmtodosBayesianos.
La solucin ptima de la ecuacin (5)
exige
calcular
integrales
multidimensionales, lo que hace
imposibleobtenerunasolucinanaltica.
Entonces para obtener aproximaciones
de las integrales se usan mtodos
numricos o mtodos de simulacin
MonteCarlo.
En este artculo se realizan dos
propuestas alternativas para estimar los
pesos delmodelo de RN basadas enlos
algoritmos de aprendizajes: filtro de
Kalmanextendidoyfiltrodepartculas.
El objetivo final es encontrar valores
para los pesos del modelo que
minimicen la suma de cuadrados del
error (SCE). Finalmente se seala, para
simplificar el trabajo no se trata el
problema de estimar los parmetros de
los ruidos blancos , dadas las
observaciones .
1. Algoritmo de Aprendizaje Filtro de
KalmanExtendido(FKE)
Considrese el sistema dinmico no
linealenformadeespacioestado,dado
en(1.a)y(1.b),conlashiptesisusuales;
Ao3,Vol.II,N5
ISSN:18568327
42
esto es, , y
. El objetivo del FKE es
estimar los estados no observados
basndose en las
observaciones . El algoritmo
permite obtener una aproximacin del
estimadorptimo.Lanolinealidadenla
segunda ecuacin dada en (1.b) es
aproximadaporunaversinlinealizada
alrededor del ltimo estado estimado,
esto esaproximadapor:
...(8)
Infanteetal.FiltrosconAprendizajedeParmetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieraIndustrial.
ActualidadyNuevasTendencias
43
(16)
(17)
donde:
Ao3,Vol.II,N5
ISSN:18568327
esdadapor:
#####################################
Algoritmo1:FKE
#####################################
Paso1Semuestrea de:
(18)
(13)
LasecuacionesdelajustelinealdeBayes,
estndadaspor:
Paso2Semuestrea de:
(19)
Paso3Semuestrea de:
(14)
(20)
#####################################
Infanteetal.FiltrosconAprendizajedeParmetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieraIndustrial.
ActualidadyNuevasTendencias
Ao3,Vol.II,N5
ISSN:18568327
44
esdecir; esdadapor:
(24)
Porlotantogenerandomuestras de
)(21)
donde: representalamuestrausada
, se aproxima el valor esperado
para aproximar la distribucin a
medianteelestimadordado:
posterioriy esunpuntodemasade
la funcin delta de Dirac. La ecuacin
(21)permiteaproximarladistribucina
posteriori. El valor esperado de algn
(25)
funcional de los pesos, es dado por la
donde: es el cociente de
ecuacin(22):
importancianormalizadodadopor:
=
(22)
(26)
(23)
(27)
Paracalcularunestimadorsecuencialde
ladistribucinaposteriorienuntiempo
sin modificar los estados simulados
seconsideralasiguientedensidad
deprobabilidadpropuesta:
Infanteetal.FiltrosconAprendizajedeParmetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieraIndustrial.
ActualidadyNuevasTendencias
Ao3,Vol.II,N5
ISSN:18568327
45
* (28)
y
Si se considera que los estados
corresponden a un proceso de Markov
deprimerorden,ylasobservacionesson
condicionalmente independiente dado
losestados,setieneque:
(29)
y
(30)
Sustituyendolasecuaciones(28),(29),y
(30) dentro de la ecuacin (23), se
obtiene el estimador recursivo para los
pesosdeimportanciacomosigue:
(33)
3. Lafuncindeverosimilitudviene
dadapor :
(36)
IngenieraIndustrial.
ActualidadyNuevasTendencias
estadossimulados y
las observaciones . La funcin de
importancia sugerida por Doucet et al.
(2000)esdadapor:
46
Ao3,Vol.II,N5
ISSN:18568327
(39)
(40)
(37)
Entonces el estimador de se
compara con un umbral prefijado .
doscapasocultas,seresume:
ylosdatos .La
funcin de importancia sugerida por
#####################################
Doucetetal.(2000)esdadapor:
Algoritmo2:FPoSIR
(38)
La ecuacin (38) ha sido usada por
Avitzour,(1995);BeadleyDjuric,(1997);
Gordon et al., (1993); Isard y Blake,
(1996); Kitagawa (1996); Berzuini et al.,
(1997); Doucet (1998); y Liu y Chen
(1998),entreotros.
Debido a que la degeneracin del
algoritmo FP es inevitable, entonces se
introduce la idea del remuestreo que
consiste en eliminar las trayectorias que
tienenpesosdeimportanciapequeosy
seseleccionanlastrayectoriasconpesos
grandes.
Unamedidaadecuada para solventar el
problema es calcular el tamao de
muestraefectiva introducidoen
Kongelat.(1994)yLiu(1996),yquese
definecomo:
#####################################
P1.Muestreodeimportancia
x
cociente
de
(41)
x
(42)
Infanteetal.FiltrosconAprendizajedeParmetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieraIndustrial.
ActualidadyNuevasTendencias
x
(43)
x
(44)
3Determinacindelaexactitud.
Paraevaluarlacalidaddeprediccindel
modelo, se utilizan las siguientes
medidasdebondaddeajuste:
1.
,entoncessehace:
Si
, entonces se
Si
remuestreaunnuevondicedel
conjunto de pesos y estados
discretos estimados previamente
yalmacenadosen:
.
Luegosehaceque:
y
]}*100(50)
(51)
(46)
(45)
P2.EtapadeRemuestreo
#####################################
47
Ao3,Vol.II,N5
ISSN:18568327
Infanteetal.FiltrosconAprendizajedeParmetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieraIndustrial.
ActualidadyNuevasTendencias
Ao3,Vol.II,N5
ISSN:18568327
48
propuestoporNychkaetal.(1992),
quesedefinecomosigue:
(52)
cual
est acotada en un rango
(53)
(54)
4Transformacindelosdatos
Los datos utilizados para mostrar la
metodologa provienen de las series de
lluvia total mensual del perodo
comprendido entre 19712000 de 36
estacionesdelserviciometeorolgicode
la Fuerza Area de Venezuela, y se le
realizlasiguientetransformacin:
1.
Infanteetal.FiltrosconAprendizajedeParmetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieraIndustrial.
ActualidadyNuevasTendencias
Ao3,Vol.II,N5
ISSN:18568327
49
Infanteetal.FiltrosconAprendizajedeParmetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieraIndustrial.
ActualidadyNuevasTendencias
50
Ao3,Vol.II,N5
ISSN:18568327
Figura 1: Serie de la estacin Maracay, para la muestra de entrenamiento
Figura2:SeriedelaestacinMaracay,paramuestradevalidacin
Tabla1:Resumendetestdevalidacin,estacinMaracay
Infanteetal.FiltrosconAprendizajedeParmetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieraIndustrial.
ActualidadyNuevasTendencias
51
Ao3,Vol.II,N5
ISSN:18568327
De 1999. La arquitectura de la red
seleccionada est compuesta por 6
variables de entradas, 5 neuronas en la
capaocultayunasalida.Enelgrficose
observa que los totales mensuales de
precipitacionessimuladosporelmodelo
deRNajustadoporlosalgoritmosFKEy
FP son comparables con los totales
mensuales
de
precipitaciones
observados; adicionalmente se incluyen
medidas exactitud de 99.414% y
99.198%, respectivamente cuando se
utiliza la muestra de entrenamiento.
Para la muestra de validacin la
exactitud es de 98.844% y 98.945%,
respectivamente. Tambin se clculo la
RECM para los dos conjuntos de datos
Figura3:SeriedelaestacinMaiqueta,paralamuestradeentrenamiento
Infanteetal.FiltrosconAprendizajedeParmetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieraIndustrial.
ActualidadyNuevasTendencias
52
Ao3,Vol.II,N5
ISSN:18568327
Figura4:SeriedelaestacinMaiqueta,paralamuestradevalidacin
Tabla2:Resumendetestdevalidacin,estacinMaiqueta
CONCLUSIONES
Infanteetal.FiltrosconAprendizajedeParmetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieraIndustrial.
ActualidadyNuevasTendencias
considerados
como
tcnicas
de
optimizacin global en las cuales se
puedenestimarconjuntamentelospesos
delaredylaincertidumbredelmodelo
en
tiempo
real,
mediante
la
caracterizacin de distribuciones de
probabilidad. El FKE permite obtener
mejores resultados que las tcnicas de
estimacinconvencionales,debidoaque
hace uso de los estadsticos de segundo
orden (covarianzas) que son esenciales
para propagar el error sobre las
predicciones;adems,muestraexcelente
convergencia en los parmetros
estimados debido a las exigencias de
memoria y precisin computacional. El
algoritmo FP o SIR permite que los
parmetros se actualicen en forma
Ao3,Vol.II,N5
ISSN:18568327
53
Agradecimientos
Agradecemos al servicio de meteorologa de la Fuerza Area de Venezuela, por proveer los datos que
sirvierondeinsumoparaestetrabajo,yalosrevisoresannimosporloscomentariosysugerenciasque
ayudaron a mejorar el manuscrito. Esta investigacin fue parcialmente financiada por el Consejo de
Desarrollo Cientfico y Humanstico, proyecto CDCH2006003 y la partida 407 ao 2009 de la Facultad
ExperimentaldeCienciasyTecnologadelaUniversidaddeCarabobo.
Infanteetal.FiltrosconAprendizajedeParmetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieraIndustrial.
ActualidadyNuevasTendencias
REFERENCIAS
Abarbanel, H. (1996).Analysis of observed data.
NewYork:SpringerVerlag.
Avitzour, D. (1995). A stochastic simulation
Bayesian approach to multitarget tracking,
Proc.Inst. Elect. Eng., Radar, Sonar, Navig, vol.
142,2,4144.
Beadle, E. R. y Djuriac, P. M. (1997). Fast
weighted boodstrap filter for nonlinear state
estimation,IEEETrans.Aerosp.Elect.Syst,vol.
33,338343.
Bishop, C. M. (1995). Neural Networks for
pattern Recognition. New York: Oxford
UniversityPress.
Bustami,R.,Bessaih,N.,Bong,C.ySuhaili,S.
(2007). Artificial neural network for
precipitation and water level predictions of
bedup river. IAENG International journal of
computerscience,34,2,228233.
Caldern, G. y Prez, P. (2006). Estudio de
seriestemporalesdecontaminacinambiental
mediante tcnicas de redes neuronales
artificiales. Revista Chilena de Ingeniera, Vol.
14,3,284290.
Casdagli, M. (1989). Nonlinear prediction of
chaotictimeseries.PhysicaD,35,335356.
Cheng, B. y Titterington, D. (1994). Neural
Networks a review from a statistical
perspective with discussion. Statistical Science,
9,254.
De Freitas, J., Niranjan, M., Gee, A. H. y
Doucet, A. (1998). Sequential Monte Carlo
methods to optimization of Neural Network
Models.TechnicalreportCued/FInfeng/Tr328.
Ao3,Vol.II,N5
ISSN:18568327
54
Infanteetal.FiltrosconAprendizajedeParmetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieraIndustrial.
ActualidadyNuevasTendencias
Ao3,Vol.II,N5
ISSN:18568327
55
Mitchell,T.(1997).MachineLearning,McGraw
hillpressinternationaleds.
Morais,H.,FragadeCampos,H.yEinstein,E.
(2008). Data assimilation: particle filter and
artificialneuralnetworks.JournalofPhysics:
conferenceSeries135012073.
Kong,A.,Liu,J.yWong,W.(1994).Sequential
Imputations and Bayesian Missing Data
Problems. Journal of the American Statistical
Association,89,278288.
Infanteetal.FiltrosconAprendizajedeParmetrosparaOptimizarModelosdeRedesNeuronales,p.3756
IngenieraIndustrial.
ActualidadyNuevasTendencias
Ao3,Vol.II,N5
ISSN:18568327
56
Autores
Saba Infante. Profesor Asociado a Dedicacin Exclusiva, Departamento de Matemticas,
FacultadExperimentaldeCienciasyTecnologayCentrodeAnlisis,ModeladoyTratamiento
de Datos (CAMYTD), Universidad de Carabobo, Valencia, Venezuela. 2005, Doctor en
Estadstica,UniversidadSimnBolvar,Venezuela.
Email:sinfante@uc.edu.ve
Fernando Cedeo. Profesor Instructor a Dedicacin Exclusiva, Departamento de Matemticas,
FacultadExperimentaldeCienciasyTecnologayCentrodeAnlisis,ModeladoyTratamiento
de Datos (CAMYTD), Universidad de Carabobo, Valencia, Venezuela. 2008, Licenciado en
Matemticas,UniversidadCarabobo,Venezuela.
Email:fjcedeno@uc.edu.ve
JosOrtega.ProfesorTitularaDedicacinExclusiva,DepartamentodeMatemticasFacultadde
Ciencia y Tecnologa y Centro de Anlisis, Modelado y Tratamiento de Datos (CAMYTD),
UniversidaddeCarabobo,Valencia,Venezuela.2006,DoctorenCiencias,UniversidadCentral
deVenezuela.
Email:jortega@uc.edu.ve
Recibido:22/10/2010Aceptado:27/12/2010
Infanteetal.FiltrosconAprendizajedeParmetrosparaOptimizarModelosdeRedesNeuronales,p.3756