Sunteți pe pagina 1din 2

Universidad Central del Ecuador

Control Automático

Nombre: Erika Daniela Ormaza Velásquez


Fecha: 31-07-2018

Tema: Input quality aware convolutional LSTM networks for virtual marine sensors

Aplicaciones o Propuestas
Para comprender los ecosistemas marinos y cómo proteger el medioambiente, se realiza
el manejo de los recursos sostenible; para lograr esto, requiere una serie de sensores que
deben cumplir ciertos requisitos de robustez debido a las duras condiciones ambientales.
Tienen que lidiar con eventos extremos como tormentas, agua salada y el desgaste
diario de las mareas. En caso de mal funcionamiento, es posible que los operadores no
puedan reparar o reemplazar los sensores por períodos prolongados, lo que reduce la
calidad general de una matriz de sensores.
Algoritmo matemático
Debido a la naturaleza desafiante de los datos marinos, se pueden dar: valores atípicos,
derivas y datos faltantes, ambos conjuntos de datos requieren un preprocesamiento
extenso. Se utilizaron capas de larga memoria a corto plazo (LSTM) con un método único
de reducción de la dimensionalidad del tiempo denominado aproximación exponencial
del agregado por partes (exPAA) para reducir el tiempo de cálculo y los errores de
predicción. Este modelo de referencia solo permite predicciones puntuales, que pueden
ser insuficientes para la decisión de la fiabilidad de los resultados del modelo.
Una red consta de una capa de entrada, varias capas ocultas y una capa de salida. La
estructura de las capas ocultas puede ser diversa, pero la capa clásica totalmente
conectada y densa se define como:

Con vector de entrada:

Con vector de salida:


Matriz de peso: W
Vector de derivada: b
Función de activación: ᶲ
Tiempo: t ∈ (1, . . . , n ) ,
Número de patrones: n
Al principio y al final de una serie colocamos valores cero.

La forma de esta matriz de peso es el número de entradas por el número de salidas o


neuronas, que también es la longitud del vector de polarización. Para la siguiente capa, la
salida de corriente yt se redefina como entrada xt mientras se usan diferentes W y b. Para
la regresión, una capa de salida a menudo emplea una capa densa con activación lineal
φlin (xt) = xt, mientras que el número de neuronas corresponde a los objetivos de regresión
yt = (y1, ..., yd’) T ∈ Rd’. El modelo final f puede predeterminar el vector de salida
desconocido yt’ para un vector de entrada no visto previamente xt’: f (xt’) = yt’ = yt’ + ϵ,
con un error ϵ que queremos minimizar durante el entrenamiento. El entrenamiento de la
red significa que se optimiza una función de pérdida, p. LMSE = 1 / n ∑𝑛𝑡=1(𝑦̂ 𝑡 - y) 2 con
pendiente de gradiente, para obtener pesos óptimos.
Para garantizar una función de ruido mayor que cero (xtj), aplicamos la activación de
softplus. El número de ejecuciones de Monte Carlo M es de 150. Implementamos
TensorFlow y Keras como frameworks de Deep Learning para aprovechar el paralelismo
de la GPU. Implementamos qDrop y ex-capa PAA en estos marcos también.
Figura1. Algoritmo

Fuente: Oehmcke Stefan& col. Input quality aware convolutional LSTM networks for
virtual marine sensors; Neurocomputing 275 (2018) 2603–2615
Las dos salidas de capas están conectadas. La longitud del kernel de uno ayuda a reducir
la dimensionalidad y agrega, más no linealidad, mientras que una longitud de kernel de
tres crea características dependientes del tiempo.
Luego, detectamos los cambios para obtener puntos de referencia para la corrección de
deriva al buscar saltos repentinos en los datos en el momento del mantenimiento. Por
último, las derivas se vuelven a alinear mediante la adición de una desviación lineal en
descomposición entre dos turnos. Este desplazamiento es la diferencia entre el siguiente
cambio y el medio de los últimos valores que no se cambiaron. Los últimos valores antes
de un cambio obtienen el desplazamiento completo agregado, mientras que poco después
de un cambio, este desplazamiento adicional es más pequeño. Esto sigue la intuición de
que los valores más precisos están presentes después de una limpieza y el sensor crece
lentamente.
Bibliografía
• Oehmcke Stefan& col. Input quality aware convolutional LSTM networks for
virtual marine sensors; Neurocomputing 275 (2018) 2603–2615

S-ar putea să vă placă și