Documente Academic
Documente Profesional
Documente Cultură
NEURONA BIOLOGICA
Y
ARTIFICIAL
INTRODUCCION
El presente artculo tecnico tiene la siguiente estructura: estado del arte, resultados y conclusiones.
El estado del arte se define en las 5 primeras secciones:
Seccion1: Neurona biologica y artificial, describe
la estructura neuronal.
Seccion2: Funciones de activacion o trasnferencia, se realiza una comparacion de las funciones
de activacion mas utilizadas.
Seccion3: Funciones satlin y satlins, describe la
aplicacion de estas funciones.
Seccion4: Redes neuronales de hopfield, describe
la arquitectura de una red de hopfield.
Seccion5: Diseno de una red de Hopfield, describe el diseno de la red de hopfield.
Resultados del ejercicio practico:
En En 1943 McCulloch and Pitts presentaron un modelo abstracto y simple de una neurona artificial. El
modelo esta compuesto por un vector de pesos w =
(w1 , ..., wd ) equivalente a las conexiones sinapticas en
una neurona real, w0 es el umbral de accion o activacion, el vector x es la entrada, y el escalar y la sal-
y = f ( wi xi + w0 )
i=1
FUNCIONES DE ACTIVACION
O TRANSFERENCIA
Una neurona artificial tiene diferentes estados de activacion, que pueden ir desde 2 estados (al igual que
una neurona biologica) hasta varios estados comprendidos en un rango determinado. La funcion de activacion calcula el estado de actividad de una neurona,
transformando la entrada global (a excepcion del umbral) en un valor de activacion, cuyo rango generalmente va de 0 a 1 , o de -1 a 1. Estos valores indican
que una neurona puede estar totalmente inactiva (0 o
1), o activa (1) (Matich, 2001).
Existen diversos tipos de funciones de transferencia,
entre estos tenemos (Buitrago and Munoz, 2000):
4.1.1
FUNCIONES SATLIN Y
SATLINS
4.2
4.1
Ejemplo
a = satlin(n) = 0, i f n <= 0
(1)
n, i f 0 <= n <= 1
(2)
1, i f 1 <= n
(3)
SATLINS
SATLIN
Se caracteriza porque la entrada a la funcion de transferencia es del tipo real, y la salida es real y lineal pero limitada al intervalo de 0 a 1. Es decir,
se satura cualquier valor por encima o debajo de los
lmites(ESCOM, 2009).
Ejemplo
(4)
n, i f 1 <= n <= 1
(5)
1, i f 1 <= n
(6)
Se puede crear una red estandar que use satlins utilizando el comando newhop que crea una red neuronal
de hopfield.
REDES NEURONALES DE
HOPFIELD
Ai = {T};
[Y,Pf,Af] = net(cell(1,2),{},Ai);
Y{2}
La red de hopfield es de tipo recurrente y completamente iterconectada, pues la salida de dicha red es
dinamica, lo que indica que despues de aplicar una
nueva entrada, la salida es calculada y realimentada
DE UNA RED DE
DISENO
HOPFIELD
6.1
Ai = {T};
[Y,Pf,Af] = net(cell(1,2),{},Ai);
Y{2}
Diseno(Newhop)
Dado un conjunto de puntos de equilibrio destino representados como una matriz T de vectores, newhop
devuelve pesos y umbrales para una red recursiva. La
red esta garantizada para tener puntos de equilibrio
estable en los vectores objetivo, pero podra contener
otros puntos de equilibrio falsos tambien. El numero
de estos puntos no deseados se hace tan pequeno
como sea posible por el metodo de diseno(Demuth
and Hagan, 2008).
-1
-1
1
Por lo tanto, una condicion original cerca de un
punto de diseno hizo converger a ese punto.
Esto es, por supuesto, el deseo para todas esas
entradas. Desafortunadamente, incluso los disenos
mas conocidos de Hopfield ocasionalmente incluyen
puntos estables falso no deseados que atraen la
solucion.
RECONOCIMIENTO DE
DIGITOS
IMPARES CON
HOPFIELD
nVeces = 100;
Alteramos el cuarto dgito para simular la presencia
de ruido:
D4ruido=
Arreglos de 10*7
[1
1
1
1
1
1
1
1
1
1
el valor 1 para las celdas de color blanco. Cada arreglo de 10*7 debera luego transformarse a un vector
de 70*1. Los vectores de nuevas dimensiones se denominaran como: DI1, DI2, DI3, DI4, DI5, respectivamente.
7.1
RESULTADOS
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1]
D1=
1 1
1 1
1 1
1 1
1 1
1 1
1 1
1 1
1 1
1 1
1
1
1
1
1
1
1
1
1
1
DI4ruido=reshape(D4ruido,70,1);
DI4ruido = DI4ruido ;
[1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1]
CONCLUSIONES
En el ejemplo de reconocimiento de dgitos impares, una vez que finaliza la etapa de aprendizaje,
REFERENCIAS
Bonifacio, M. (2007). Redes neuronales y Sistemas Borrosos. Alfa y Omega., 2da edicion edition.
Buitrago, M. and Munoz, C. (2000). Tutorial sobre redes neuronales aplicadas en ingeniera electrica y su
implementacion en un sitio web. Universidad Tecnologica de Pereira.
Demuth, H. and Hagan, M. (2008). Neural network
toolboxTM 6. Users guide.
ESCOM (2009). Funciones de matlab en redes hopfield.
escuela superior de computo. mexico.
M. Galipienso, M. Q. and Ortega, M. (2003). Inteligencia artificial: modelos, tecnicas y a reas de aplicacion.
Editorial Paraninfo.
Matich, D. (2001). Redes Neuronales: Conceptos Basicos
y Aplicaciones. Catedra de Informatica Aplicada a la
Ingeniera de ProcesosOrientacion I.
McCulloch, W. and Pitts, W. (1943). A logical calculus of
ideas immanent in nervous activity.bulletin of mathematical biophysics.
BIOGRAFIA