Sunteți pe pagina 1din 5

Funcin de transferencia Hardlim y Hardlims

El presente artculo trata de las funciones de transferencia, Hardlim y Hardlims, sta funcin
se utiliza en el Perceptrn para crear neuronas las cuales toman decisiones de clasicacin, de
acuerdo a los datos de entrada y salida de la funcin, adems se presenta un ejemplo prctico
utilizando matlab como lenguaje de programacin.
Introduccin
Funcin de Transferencia
Existen cuatro funciones de transferencia tpicas que de-
terminan distintos tipos de neuronas:
La funcin escaln nicamente se utiliza cuando las sali-
das de la red son binarias. La salida de una neurona se activa
slo cuando el estado de activacin es mayor o igual a cierto
valor umbral.
El modelo de neurona articial denida por la
funcin de transferencia hardlim se conoce como el
Perceptrn.(UniversidadDeGuadalajara, n.d.)
Figure 1. Red Neuronal
Una regla de aprendizaje, es un procedimiento para mod-
icar los pesos y bias de una red y tambin se le conoce
como algoritmo de entrenamiento. EL propsito de la regla
de aprendizaje es estrenar a la red para realizar una tarea.
Existen diversos tipos de algoritmos, pero en general caen en
tres categoras:
1. Inicializacin de los pesos y del umbral. Habitual-
mente se asignan valores aleatorios que se encuentren
en un rango equivalente al de las entradas y salidas.
2. Presentacin de un par de aprendizaje (patrn de en-
trada, salida esperada)
3. Clculo de la salida del perceptrn
4. Adaptacin de los pesos segn la regla de aprendizaje
Hebbiana.
Como factor de aprendizaje (o ganancia) se establece
un valor mayor que cero y menor o igual a uno. Cuanto
Aprendizaje reforzado, es parecido al aprendizaje
supervisado, excepto que en lugar de dar un conjunto de
salida deseada u objetivo, se le da un grado omedida, que
est asociado a el desempeo de la red. Generalmente se
usa en sistemas de control.
Algoritmo general de Apredizaje El perceptrn utiliza un
aprendizaje supervisado Hebbiano. Las etapas principales
que conlleva este proceso son:
Las funciones que representan a las redes neuronales arti-
ciales son: de propagacin, activacin y transferencia, stas
ltimas se aplican al valor devuelto por las funciones de acti-
vacin, una de las funciones de transferencia es la de tipo Es-
caln la cual es empleada en redes de perceptrn. Hardlims
o Hardlim sonlas funciones de transferencia mas utilizadas
para stas redes, su uso depende del valor de salida que se
espera obtener de la red, stas funciones crean neuronas que
clasican las entradas en dos categoras, en el presente artc-
ulo se explicar su funcionamiento.
Palabras clave: Neurona Aritficial/ Funcin de transferencia/ Red Neuronal / Perceptrn
Funcin escaln
Funcin lineal y mixta
Sigmoidal
Funcin gaussiana
Johana Carpio Cecibel Chamba
Aprendizaje supervisado, en este tipo de algoritmos se
proporcionan ejemplos denominado set de entrenamiento
(training set) y el conjunto de respuestas que estamos es-
perando a la salida denominamos set de salida objetivo
(target set). El algoritmo se usa para ajustar los pesos y los
bias para ajustar la respuesta de la neurona a lo que se desea
obtener. La regla que usa la red perceptrn es un caso tpico
de este tipo de algoritmo.
Aprendizaje no supervisado, en este caso los pesos y los
bias se ajustan solamente con las entradas, ya que no se
cuenta con los set de salidas es- peradas. Parecera no tener
sentido, pero casi todas las redes queusan esta tcnica usan
alguna tcnica de agrupamiento. Aprenden a clasicar en
un nmero nito de clases. til enla cuantizacin vectorial.
Reglas de aprendizaje generalizado para una red percep-
trn.
1 Estudiante de Ingenieera en Sistemas Universidad Nacional de Loja
2 Docente de Inteligencia Artificial, Universidad Nacional de Loja

Ing. Henry Paz


Tutor2
Estudiante1 Estudiante1
6Wi =a*y *(di - y) regla delta
d valor desalida deseado para laneurona ui
a: factor deaprendizaje (regula lavelocidad deaprendizaje)
.aw ..un.r odifi .< d J
6w = Viii - "'ji : ro cacion e peso "'ji
d(Y error que seproduce en laneurona ui
ti _ { I s , 11 ;> O }
- 0s , .. <0
.. 6MIlfl(n.
F.. "ci61!1 d. T,am .... da
100..., .
...1IIt.rdIim(Wp.bo)
(""'aela a"'" H,lIro".
E &<>1n
Nombre R~llId6n reono Funcl6n
EnrradlllS.lIda
Urnilador Fuerte
Q =0 ti <o
G 9
hardtim
~, ' 0
Li mi t ado.- Fuert e a = - n<U
~
h { l f v l l l m .f
Simtrico
a :Hn>.O
j _ : _ _ _ : _ i : _ .
? + O

-.-+
t
L _ .
Figure 2
ms pequeo sea , ms pequeos sern los incremen-
tos de los pesos, por lo que se llegar a la solucin ms
despacio. Pero tambin de forma ms segura.
5. Repeticin de los pasos anteriores hasta que todos los
patrones de entrada produzcan la salida esperada.
Funcin de Transferencia Hardlim y hardlims
Esta funcin se utiliza en el Perceptrn para crear neu-
ronas las cuales toman decisiones de clasicacin y tiene dos
tipos de salida que son:
Hardlim, con salidas 1, 0
Hardlims, con salidas 1, -1 (Matworks, n.d.-b)
La funcin hardlims es ms utilizada que hardlim ya que
el tener un cero multiplicando algunas de los valores resul-
tantes del producto de las entradas por el vector de pesos,
ocasiona que estos no se actualicen y que el aprendizaje sea
ms lento.
Sirven para solucionar problemas Linealmente separables
Funcin de Transferencia Hardlim
Funcin de transferencia Limitador Fuerte. Esta funcin
de transferencia acerca la salida de la red a cero, si el argu-
mento de la funcin es menor que cero y la lleva a uno, si este
argumento es mayor que uno. Esta funcin crea neuronas que
clasican las entradas en dos categoras diferentes.
Sintaxis:
A = hardlim (N, FP)
Table 1
N Matriz de S-por-Q de la entrada neta (columna) vectores
FP Struct de parmetros de la funcin (ignorado
Algoritmo de hardlim:
hardlim(n) =1, si n> = 0 hardlim(n) =0, si n <0
para una capa de neuronas con una matriz de N entradas con
umbral 0.
hardlim (N,): Obtiene una matriz de vectores de salida para
una capa de neuronas con una matriz de N entradas con
umbral .
hardlim(code): devuelve informacin til para cada cadena
de cdigo,
hardlim( deriv ): Nombre de la funcin derivada.
hardlim( name): Nombre completo.
hardlim( output): Rango de salida.
hardlim( active): rango de entrada activa.
Funcin de Transferencia Hardlims
Funcin de transferencia Limitador fuerte simtrica. Esta
funcin de transferencia proporciona el valor de la salida de
una neurona igual a 1 si la entrada supera un valor umbral, y
si no lo supera la salida toma el valor -1.
Sintaxis A = hardlims (N, FP) (Matworks, n.d.-a)
Algoritmo de Hardlims
2
Limitador Fuerte, Limitador fuerte simtrico
Figure 2. Funcin linealmente separable
No solucionan problemas linealmente no separables:
Figure 3. Funcin linealmente no separable
(Matworks, n.d.-b)
hardlim (N): Obtiene una matriz de vectores de salida
3
N Matriz de S-por-Q de la entrada neta (columna) vectores
FP Struct de parmetros de la funcin (ignorado
Table 2
hardlims(n) = 1, si n> = 0
hardlims(n) = -1, si n <0
hardlims (N): Obtiene una matriz de vectores de salida
para una capa de neuronas con una matriz de N entradas con
umbral 0.
hardlims (N,) Obtiene una matriz de vectores de salida para
una capa de neuronas con una matriz de N entradas con um-
bral .
Cdigo
Figure 3. Cdigo botn Aceptar
4
References
Matworks. (n.d.-a). Hardlim. Redes Neuronales. doi:
http://www.mathworks.com/help/nnet/ref/hardlim.html
Matworks. (n.d.-b). Hardlims. Redes Neuronales. doi:
http://www.mathworks.com/help/nnet/ref/hardlims.html?nocookie=true
UniversidadDeGuadalajara. (n.d.). Hardlim,
hardlims. Redes Neuronales. doi:
http://proton.ucting.udg.mx/posgrado/cursos/idc/neuronales2/ReglaP.htm
5
Figure 5. Pantalla de ingreso de datos
Figure 6. Grca
Figure 4. Cdigo botn aceptar
Ejemplo utilizando aplicacinFunciones de transferencia
Entrada: [-1 -2 -3; 3 2 0]
Salida: [1 0 1]

S-ar putea să vă placă și