Documente Academic
Documente Profesional
Documente Cultură
0
PROGRAMA DE INGENIERÍA MECATRÓNICA Periodo 2018-2
Redes Neuronales
Beltran Cobos Luis Ernesto, Pérez Ospina Juan Luis Jesús
{u1802179, u1802649}@unimilitar.edu.co
Profesor: Andrés Mauricio Castro Pescador
Resumen: Este artículo muestra cómo se entrena una red Una neurona consta de un cuerpo celular (soma) de entre 10 y
neuronal por dos métodos, el primero a partir de Toolbox con 40 80 mm, del que surge un denso árbol de ramificaciones
patrones y 10 caracteres diferentes. El segundo método se (dendritas) y una fibra tubular (axón) de entre 100 mm y un
implementa por cogido haciendo uso del algoritmo Back- metro.
Propagation el cual tiene que cumplir con un mínimo de 2 capas
y reconocer los 10 caracteres. Para ambos casos las imágenes
patrones serán tomadas por una cámara digital.
Ramón y Cajal (1888) descubrieron la estructura celular “El modelo de Rumelhart y McClelland (1986) define un
(neurona) del sistema nervioso. Defendió la teoría de que las elemento de proceso (EP), o neurona artificial, como un
neuronas se interconectaban entre sí de forma paralela, y no dispositivo que, a partir de un conjunto de entradas, xi (i=1...n)
formando un circuito cerrado como el sistema sanguíneo. o vector x, genera una única salida y.
INFORME DE PRÁCTICA DE LABORATORIO Versión 1.0
PROGRAMA DE INGENIERÍA MECATRÓNICA Periodo 2018-2
ℎ𝑖 (𝑡) = Ʃ 𝑤𝑖𝑗 𝑥𝑗
C. RED Neuronal Artificial:
También se usa a menudo la distancia euclídea entre ambos
vectores: Una red neuronal artificial (RNA) se puede definir como un
grafo dirigido con las siguientes restricciones:
ℎ𝑖 (𝑡) = Ʃ (𝑥𝑗 . 𝑤𝑖 )2
Los nodos se llaman elementos de proceso (EP).
Existen otro tipo de reglas menos conocidas como la distancia
de Voronoi, de Mahalanobis, etc. Los enlaces se llaman conexiones y funcionan como
caminos unidireccionales instantáneos
La función de activación no suele tener en cuenta el estado
anterior de la neurona, sino sólo el potencial h i(t). Suele ser Cada EP puede tener cualquier número de
una función determinista y, casi siempre, continua y monótona conexiones.
creciente. Las más comunes son la función signo (+1 si Todas las conexiones que salgan de un EP deben
hi(t)>0, -1 en caso contrario), la función semilineal y las tener la misma señal.
funciones sigmoides:
Los EP pueden tener memoria local.
INFORME DE PRÁCTICA DE LABORATORIO Versión 1.0
PROGRAMA DE INGENIERÍA MECATRÓNICA Periodo 2018-2
Fig. 5. Red Multicapa Unidireccional Competitivo: Sólo aprenden las neuronas que se
acercan más a la salida deseada.”[1]
INFORME DE PRÁCTICA DE LABORATORIO Versión 1.0
PROGRAMA DE INGENIERÍA MECATRÓNICA Periodo 2018-2
“Es un método de cálculo del gradiente utilizado Entre las neuronas de la capa de salida existen conexiones
en algoritmos de aprendizaje supervisado utilizados para laterales de inhibición (peso negativo) implícitas. Cada una de
entrenar redes neuronales artificiales. El método emplea un estas neuronas va a tener cierta influencia sobre sus vecinas.
ciclo propagación – adaptación de dos fases. Una vez que se
ha aplicado un patrón a la entrada de la red como estímulo, El valor que se asigne a los pesos de las
este se propaga desde la primera capa a través de las capas conexiones feedforward entre las capas de entrada y salida
siguientes de la red, hasta generar una salida. La señal de durante el proceso de aprendizaje de la red va a depender
salida se compara con la salida deseada y se calcula una señal precisamente de esta interacción lateral.
de error para cada una de las salidas.
La influencia que una neurona ejerce sobre las demás es
Las salidas de error se propagan hacia atrás, partiendo de la función de la distancia entre ellas, siendo muy pequeña
capa de salida, hacia todas las neuronas de la capa oculta que cuando están muy alejadas.” [4]
contribuyen directamente a la salida. Sin embargo, las
neuronas de la capa oculta solo reciben una fracción de la
señal total del error, basándose aproximadamente en la
contribución relativa que haya aportado cada neurona a la
salida original. Este proceso se repite, capa por capa, hasta que
todas las neuronas de la red hayan recibido una señal de error
que describa su contribución relativa al error total.
J. Arquitectura de Kohonen:
la salida objetivo de este patrón de entrenamiento y se realiza El algoritmo cuenta con un proceso iterativo general con
la propagación del error hacia atrás, de forma que se calculan funciones que se actualizan por iteración causando
sensibilidades, y cambios en las matrices para actualizarlas, convergencia a una posición final de las neuronas, estas
intentando que en la siguiente actualización, la red se acerque funciones son la función de aprendizaje y la función de
más al objetivo de entrenamiento. vecindad:
𝑐
Cada vez que se recorran todos los patrones de entrenamiento, 𝜎 = 𝜎0 ∗ 𝑒 −𝑡1
se habrá completado una época, con lo cual se calcula el error 𝑑^2
de época, siendo un error cuadrático medio de todos los ℎ = 𝑒 −2∗ 𝜎^2
𝑐
errores de iteración, el cual se convertirá en un criterio de 𝜇 = 𝜇0 ∗ 𝑒 −𝑡2
parada del proceso. Que corresponden a la función gaussiana, vecindad y
aprendizaje respectivamente, donde t1 es una constante de
Se obtuvieron resultados satisfactorios con la red neuronal tiempo definida por:
implementada por el algoritmo, usando dos capas ocultas con 1000
35 y 10 neuronas respectivamente. 𝑡1 =
log 𝜎0
T2 es una constante de tiempo definida por usuario, 𝜇0 y 𝜎0
Para la implementación de la interfaz, se tuvieron botones,
Son valores iniciales, siendo sigma igual al número de
cajas de texto y sliders que permitían controlar el coeficiente
neuronas de la red.
de aprendizaje, las épocas, y las neuronas por capas, de forma
que se realizaba el entrenamiento de la red y posteriormente se
Dentro de cada iteración, el algoritmo pasa por una etapa
usaba la cámara, la interfaz contaba con dos displays que
competitiva, en la cual se elige la neurona cuyos pesos sean
mostraban la imagen de la cámara y después la imagen
más similares a la entrada (o punto) elegido, posteriormente,
procesada junto con tablas que permitían ver la clasificación
siendo esta la neurona ganadora, pasa por un proceso
de cada letra que se mostraba a la cámara:
cooperativo, donde las neuronas que dentro del vector de
pesos estén más cercanas a la ganadora, se verán
recompensadas causando que la actualización de pesos las
acerque más a el punto al que se parece la neurona ganadora.
V. REFERENCIAS
[1] http://avellano.fis.usal.es/~lalonso/RNA/index.htm
[2]Inteligencia%20Artificial/Teoria/Segundo%20Corte/Lab%202.1%20-
%20Identificaci%C3%B3n%20de%20caracteres.pdf
[3]https://elvex.ugr.es/decsai/computational-
intelligence/slides/N2%20Backpropagation.pdf
[4] http://thales.cica.es/rd/Recursos/rd98/TecInfo/07/capitulo6.html