Documente Academic
Documente Profesional
Documente Cultură
Resumen—El siguiente artículo presenta la implementación (de pronto quitar)En el proceso de entrenamiento se ha
de tres tipos de redes neuronales usadas en diferentes dispuesto de dos bases de datos con el fin de reforzar nuestras
aplicaciones. Dos de las redes están destinadas a obtener el conjeturas respecto a la viabilidad de representar un sistema tan
modelo del comportamiento de la temperatura de una casa complejo con una red neuronal monocapa. La primera es una
(thermal model of a house), una de ellas es monocapa base cuyos datos debido al ruido introducido se encuentran
aplicada con el algoritmo LMS y la otra red consiste en una dispersos dentro del rango definido, y la segunda solo incluye
multicapa tipo perceptron. La red faltante es tipo perceptron la información libre de ruido y sin el controlador on-off dada su
con bolsillo, cuyo fin es dar un diagnóstico (evaluación de condición de introducir variaciones bruscas dentro de la nube
malignidad) en personas con cáncer.
de datos. (creo que lo voy a quitar)
Palabras clave—Algoritmo, Perceptron, Red neuronal, Umbral, La selección de la tasa de aprendizaje (µ) se hizo con base a
Entrenamiento, Prueba, Validación. la realización de varios entrenamientos previos; con valores
como µ=1, 0.1, se observó que el programa arroja números
I. INTRODUCCCION tipo NaN, lo cual me indica que tales magnitudes no me
ofrecen la resolución adecuada para llegar al mínimo local de
Para el desarrollo de este trabajo se hace uso de las redes
la superficie. Por tal razón se usó una tasa de aprendizaje
neuronales con el fin de afianzar conocimientos y adquirir
µ=0.01 con el inconveniente de que vuelve un poco más lento
destrezas en el entrenamiento de diferentes tipologías de red.
el proceso de entrenamiento y no queriendo decir que este sea
Con base en los resultados arrojados por cada una de las redes
el más optimo.
implementadas, se podrá realizar análisis, comparaciones y
sacar conclusiones, sobre cuál de las tipologías es más viable Otro parámetro de diseño que se tuvo en consideración fue
utilizar, dependiendo del sistema a controlar. el número de iteraciones que se usaron para buscar el peso que
ofrezca el error mínimo, a medida que se aumenta este valor se
Las redes neuronales aquí desarrolladas se aplican sobre el
logra disminuir el error, solo que se observa claramente un
sistema que ya se ha implementado en el trabajo anterior de
sobreentrenamiento, fenómeno que se presenta ya que al no
lógica difusa, en el cual se controla la temperatura interna de
cumplirse la condición de parada el algoritmo sigue entrenando
un casa en función de las variables externas que la afectan
hasta consumirse las iteraciones que se le han asignado.
directamente. Las entradas de las redes neuronales van a ser la
variable flujo calórico escalado por 1e+8 y la temperatura Ya definidos estos parámetros se ha procedido al
externa, la salida por su parte será la temperatura de la casa. entrenamiento, del que se puede hacer las siguientes
También se usa una de las redes neuronales (la tipo perceptron observaciones; dada la gran dispersión de la información donde
con bolsillo) en un aplicativo médico cuyo fin es diagnosticar no se puede distinguir grupos de datos, la red no se acomoda a
si un cáncer es benigno o maligno, según una serie de datos de estos, si no, a una sola zona que es lo único que es capaz de
entrada que constan de una lista de pacientes con sus separar una red neuronal monocapa, desde aquí se empieza a
respectivos resultados. visualizar que este tipo de red no está en capacidad de
representar el modelo térmico de la casa. Al entrenar la red se
II. RED NEURONAL MONOCAPA lograba obtener un error entre el 10.0% y el 20.0% pero no
siempre el mismo y con la posibilidad de que este valor se
A. Parámetros de diseño y entrenamiento saliera de este rango en ocasiones.
De acuerdo a la necesidad de modelar el comportamiento
térmico de la casa, implementamos una red neuronal tipo B. Prueba y conclusiones
monocapa, la cual tiene una función o discriminador lineal a su Partiendo de los entrenamientos realizados se hicieron
salida dado a que es la que más se acomoda para cuando se varias pruebas con los pesos que se lograban obtener, en la
requiere representar el comportamiento de un sistema Fig. 1 se puede observar el resultado de una prueba con el error
dinámico; respecto a las entradas tenemos los valores de flujo Figura 1. Salida red neuronal monocapa.
calórico, de temperatura externa y la entrada ficticia con valor
en uno. Para la obtención de los pesos se ha usado el algoritmo
de entrenamiento iterativo conocido como LMS. de entrenamiento más pequeño que se logró obtener; los demás
resultados no difieren en gran parte de la imagen mostrada. De
Resultados
µ Iteraciones Error de Error de Pesos obtenidos
entrenamiento prueba [w0; w1; w2]
0.1 5000 - - -