Sunteți pe pagina 1din 3

REDES NEURONALES

Sujeimar Arroyave Restrepo Juan Camilo Gallego pineda


Universidad de Antioquia Universidad de Antioquia
Medellín, Colombia Medellín, Colombia
Sujeimar@hotmail.com jcamilo_20@hotmail.com

Resumen—El siguiente artículo presenta la implementación (de pronto quitar)En el proceso de entrenamiento se ha
de tres tipos de redes neuronales usadas en diferentes dispuesto de dos bases de datos con el fin de reforzar nuestras
aplicaciones. Dos de las redes están destinadas a obtener el conjeturas respecto a la viabilidad de representar un sistema tan
modelo del comportamiento de la temperatura de una casa complejo con una red neuronal monocapa. La primera es una
(thermal model of a house), una de ellas es monocapa base cuyos datos debido al ruido introducido se encuentran
aplicada con el algoritmo LMS y la otra red consiste en una dispersos dentro del rango definido, y la segunda solo incluye
multicapa tipo perceptron. La red faltante es tipo perceptron la información libre de ruido y sin el controlador on-off dada su
con bolsillo, cuyo fin es dar un diagnóstico (evaluación de condición de introducir variaciones bruscas dentro de la nube
malignidad) en personas con cáncer.
de datos. (creo que lo voy a quitar)
Palabras clave—Algoritmo, Perceptron, Red neuronal, Umbral, La selección de la tasa de aprendizaje (µ) se hizo con base a
Entrenamiento, Prueba, Validación. la realización de varios entrenamientos previos; con valores
como µ=1, 0.1, se observó que el programa arroja números
I. INTRODUCCCION tipo NaN, lo cual me indica que tales magnitudes no me
ofrecen la resolución adecuada para llegar al mínimo local de
Para el desarrollo de este trabajo se hace uso de las redes
la superficie. Por tal razón se usó una tasa de aprendizaje
neuronales con el fin de afianzar conocimientos y adquirir
µ=0.01 con el inconveniente de que vuelve un poco más lento
destrezas en el entrenamiento de diferentes tipologías de red.
el proceso de entrenamiento y no queriendo decir que este sea
Con base en los resultados arrojados por cada una de las redes
el más optimo.
implementadas, se podrá realizar análisis, comparaciones y
sacar conclusiones, sobre cuál de las tipologías es más viable Otro parámetro de diseño que se tuvo en consideración fue
utilizar, dependiendo del sistema a controlar. el número de iteraciones que se usaron para buscar el peso que
ofrezca el error mínimo, a medida que se aumenta este valor se
Las redes neuronales aquí desarrolladas se aplican sobre el
logra disminuir el error, solo que se observa claramente un
sistema que ya se ha implementado en el trabajo anterior de
sobreentrenamiento, fenómeno que se presenta ya que al no
lógica difusa, en el cual se controla la temperatura interna de
cumplirse la condición de parada el algoritmo sigue entrenando
un casa en función de las variables externas que la afectan
hasta consumirse las iteraciones que se le han asignado.
directamente. Las entradas de las redes neuronales van a ser la
variable flujo calórico escalado por 1e+8 y la temperatura Ya definidos estos parámetros se ha procedido al
externa, la salida por su parte será la temperatura de la casa. entrenamiento, del que se puede hacer las siguientes
También se usa una de las redes neuronales (la tipo perceptron observaciones; dada la gran dispersión de la información donde
con bolsillo) en un aplicativo médico cuyo fin es diagnosticar no se puede distinguir grupos de datos, la red no se acomoda a
si un cáncer es benigno o maligno, según una serie de datos de estos, si no, a una sola zona que es lo único que es capaz de
entrada que constan de una lista de pacientes con sus separar una red neuronal monocapa, desde aquí se empieza a
respectivos resultados. visualizar que este tipo de red no está en capacidad de
representar el modelo térmico de la casa. Al entrenar la red se
II. RED NEURONAL MONOCAPA lograba obtener un error entre el 10.0% y el 20.0% pero no
siempre el mismo y con la posibilidad de que este valor se
A. Parámetros de diseño y entrenamiento saliera de este rango en ocasiones.
De acuerdo a la necesidad de modelar el comportamiento
térmico de la casa, implementamos una red neuronal tipo B. Prueba y conclusiones
monocapa, la cual tiene una función o discriminador lineal a su Partiendo de los entrenamientos realizados se hicieron
salida dado a que es la que más se acomoda para cuando se varias pruebas con los pesos que se lograban obtener, en la
requiere representar el comportamiento de un sistema Fig. 1 se puede observar el resultado de una prueba con el error
dinámico; respecto a las entradas tenemos los valores de flujo Figura 1. Salida red neuronal monocapa.
calórico, de temperatura externa y la entrada ficticia con valor
en uno. Para la obtención de los pesos se ha usado el algoritmo
de entrenamiento iterativo conocido como LMS. de entrenamiento más pequeño que se logró obtener; los demás
resultados no difieren en gran parte de la imagen mostrada. De
Resultados
µ Iteraciones Error de Error de Pesos obtenidos
entrenamiento prueba [w0; w1; w2]
0.1 5000 - - -

0.01 5000 18.2% 100% [13.20; 1.96; -0.05]

0.01 5000 17.14% 100% [13.24; 2.08; 0.01]

0.01 10000 11.16% 100% [13.34; 1.47; -0.01]

0.01 10000 10.8% 100% [13.16; 1.67; 0.01]

aquí se corrobora lo anteriormente mencionado y es que la red


se está entrenando sólo para separar dos grupos de datos,
perdiendo generalización y mostrando que este tipo de red es B. Análisis de resultados
muy simple para emular un comportamiento que de hecho es La tabla muestra los mejores resultados obtenidos para cada
complejo. Agregando además el hecho de que en la salida halla peso, es decir después de varias iteraciones sobre el mismo
una función lineal nos limita en gran parte, ya que el sistema peso, estos son los mejores resultados obtenidos. A partir de
físico es de un orden mayor a 1. esto se puede ver claramente que para los pesos inicializados
en 100, aunque su convergencia haya sido la menos aceptable,
En la tabla I, se puede observar unos datos que se
tienen los mejores porcentajes de error, indicando que solo
obtuvieron en el entrenamiento y prueba.
hubo 10 fallos de 615 posibles en entrenamiento y solo 2 de 68
en prueba. En este caso los pesos que generaron dichos
III. PERCEPTRON CON BOLSILLO resultados son los siguientes: w = [445;-17;-15;-18;-13;-7;-
23;-26;-8;-27], donde 445 es el peso correspondiente a la
A. Parámetros de Diseño y Entrenamiento entrada ficticia(bias). La variación del error con respecto al
Se decidió resolver el problema (realizar un diagnóstico número de iteraciones se puede ver en la Fig. 2.
médico a partir de un grupo de datos) a través de una red
Aunque la tasa de aprendizaje es un parámetro muy
perceptron con bolsillo; se escogió de esta forma dado que la
importante que ayuda a mejorar el error del sistema, hay que
memorización del mejor peso, que ayuda a mejorar la
convergencia del sistema, y la mejor separabilidad de los datos tener cuidado a la hora de hacer su escogencia, se decidió
que ofrece esta tipología, hacen de esta más confiable que la trabajar con un valor de 1, porque para otros valores entre 0 y
perceptron simple. Además con el algoritmo usado se tiene la 1 no arrojan valores diferentes a los ya obtenidos, y para
facilidad de clasificar las entradas en casos positivos y valores superiores a 1 como 10, 15, y 20, afectan seriamente la
negativos y nos permite a su vez entregar una salida binarizada, convergencia del sistema, haciendo más lento el proceso de
ideal para este problema, ya que la clase 1 representa un caso encontrar un peso óptimo y esto conllevaba tener un criterio
positivo para cáncer benigno y la clase -1 cáncer maligno. El de convergencia de error más alto, para que el sistema
sistema es de tipo supervisado pues se cuenta con las salidas respondiera adecuadamente.
que deben arrojar los datos de entrada. Finalmente se puede concluir que el método del bolsillo es
mucho más eficiente en cuanto a convergencia se trata, ya que
La topología del sistema es muy simple, se entrena solo una
neurona cuya función de activación es el limitador duro, que el perceptron sencillo necesitaría más de 5000 iteraciones para
nos brindará la salida binaria deseada. Las condiciones encontrar el peso adecuado debido a su falta de memoria,
generales para el funcionamiento del sistema fueron mientas que el perceptron con bolsillo solo necesito de
seleccionadas de forma arbitraria, los pesos iniciales tienen un alrededor de 270 para encontrarlo.
valor de 0, la tasa de aprendizaje µ tiene un valor de 1 y la
condición de convergencia del sistema está pensada para un
error que no sea superior al 2%. Además buscando una mejor TABLE II. ERRORES Y CONVERGENCIA

clasificación de los datos y disminución el error se añade al Resultados


Pesos
sistema la entrada ficticia (bias). Los datos así obtenidos no son iniciales Error de Convergencia
Error de prueba
los mejores por eso se empezaron a modificar las condiciones entrenamiento (segundos)
iniciales. Se decidió trabajar con pesos de valores 1,10 y 100, 0 1.95% 7.35% 4.18
no se cambian ni el criterio de convergencia ni la tasa de
1 1.95% 4.41% 4.45
aprendizaje. Los resultados se muestran en la tabla II.
10 1.95% 4.41% 2.83
TABLE I. ERRORES Y PESOS 100 1.78% 2.94% 10.2
Resultados
µ Iteraciones Error de Error de Pesos obtenidos
entrenamiento prueba [w0; w1; w2]
1.0 5000 - - -
[1] G. Eason, B. Noble, and I. N. Sneddon, “On certain integrals of
Lipschitz-Hankel type involving products of Bessel functions,” Phil.
Trans. Roy. Soc. London, vol. A247, pp. 529–551, April 1955.
(references)
[2] J. Clerk Maxwell, A Treatise on Electricity and Magnetism, 3rd ed., vol.
2. Oxford: Clarendon, 1892, pp.68–73.
[3] I. S. Jacobs and C. P. Bean, “Fine particles, thin films and exchange
anisotropy,” in Magnetism, vol. III, G. T. Rado and H. Suhl, Eds. New
York: Academic, 1963, pp. 271–350.
[4] K. Elissa, “Title of paper if known,” unpublished.
[5] R. Nicole, “Title of paper with only first word capitalized,” J. Name
Stand. Abbrev., in press.
[6] Y. Yorozu, M. Hirano, K. Oka, and Y. Tagawa, “Electron spectroscopy
studies on magneto-optical media and plastic substrate interface,” IEEE
Transl. J. Magn. Japan, vol. 2, pp. 740–741, August 1987 [Digests 9th
Figura 1. Error de entrenamiento Annual Conf. Magnetics Japan, p. 301, 1982].
[7] M. Young, The Technical Writer's Handbook. Mill Valley, CA:
University Science, 1989.

S-ar putea să vă placă și