Sunteți pe pagina 1din 7

EL PERCEPTRN El caso ms sencillo de Red Neuronal (RN) es el que presenta una sola neurona de cmputo.

A esta estructura se le denomina perceptrn y su estudio resulta obligado antes de profundizar en redes neuronales ms complejas.

En este caso se ha omitido el segundo subndice (correspondiente a la neurona destino), puesto que solamente tenemos una neurona de cmputo. Las neuronas representadas en forma de rectngulo pertenecen a la capa de entrada. Estas neuronas son parte del formalismo de la red. Se encargan de recibir y distribuir los datos del exterior, sin realizar cmputos sobre los mismos. Anlisis: En el caso ms simple (N=2)

Esto significa que el resultado de la neurona va a tomar uno de los valores previstos en la funcin escaln (p.e. -1 y 1). El valor de salida depender de si es mayor o menor que el umbral.

Por lo tanto nos proporciona la base para calcular la salida. Puesto que la frmula anterior se corresponde con la de una recta en la que pretenderemos asignar valores a los pesos, despejando se tiene:

Como se puede observar, segn se cambien los valores de los pesos y el umbral, se obtendrn diversas respecto al origen. inclinaciones y desplazamientos

En el caso (habitual) de trabajar con mltiples dimensiones, nos encontramos con un hiperplano de separacin, que clasifica los patrones de entrada en un espacio multidimensional. Puesto que un perceptrn solamente puede realizar separacin lineal mediante su hiperplano asociado, este modelo slo resuelve problemas de clasificacin en los que las clases sean separables geomtricamente. Las funciones lgicas AND y OR son separables linealmente, por lo tanto pueden implementarse con un perceptrn. La funcin XOR no presenta esta caracterstica.

Se puede tratar de confiar labores complejas a un perceptrn, pero en general se necesitan redes neuronales con varias capas y varias neuronas por capa para

resolver problemas reales. Hay que tener en cuenta que habitualmente, no se presentan situaciones que admiten separabilidad lineal. APRENDIZAJE El perceptrn utiliza un aprendizaje supervisado Hebbiano. principales que conlleva este proceso son: Las etapas

1. Inicializacin de los pesos y del umbral. Habitualmente se asignan valores aleatorios que se encuentren en un rango equivalente al de las entradas y salidas. 2. Presentacin de un par de aprendizaje (patrn de entrada, salida esperada) 3. Clculo de la salida del perceptrn 4. Adaptacin de los pesos segn la regla de aprendizaje Hebbiana.

regla delta di: valor de salida deseado para la neurona ui : factor de aprendizaje (regula la velocidad de aprendizaje) : modificacin del peso wji di-yi: error que se produce en la neurona ui Como factor de aprendizaje (o ganancia) se establece un valor mayor que cero y menor o igual a uno. Cuanto ms pequeo sea , ms pequeos sern los incrementos de los pesos, por lo que se llegar a la solucin ms despacio. Pero tambin de forma ms segura.
5. Repeticin de los pasos anteriores hasta que todos los patrones de entrada produzcan la salida esperada.

Para detallar este proceso iterativo, a continuacin se presenta un problema de ejemplo prctico y sencillo, en el que se seguirn las etapas explicadas. En primer lugar se proporcionan los datos necesarios y el formato de respuesta que emplearemos. A continuacin se incluye la solucin con los comentarios necesarios para ilustrar este apartado. UN CASO DE ESTUDIO Disponemos de un perceptrn de 2 entradas, y deseamos que implemente la funcin lgica AND

Se utilizar un mecanismo de aprendizaje Hebbiano , que tambin se aplica al umbral , que tambin se aplica al umbral . La secuencia del aprendizaje vendr marcada por el orden de los datos de entrada: 00->01->10->11->00->01-> etc. Esta secuencia se aplica hasta que se alcanza la solucin (la red converge). Se parte de los siguientes valores iniciales aleatorios: W1=2.2, W2=1.2, y . Se pide: indicar las diferentes combinaciones de que se obtienen en el proceso de aprendizaje, dibujando las rectas de separacin que determinan cada una de las combinaciones halladas. Especificar los valores numricos de corte de cada recta con los ejes X1 y X2.

Partiendo de comenzamos a realizar los clculos del perceptrn con los pares de entrenamiento correspondientes a la funcin AND:

Error=(salida deseada salida obtenida ), Error= (0-1)=-1

Aprendizaje Hebbiano:

Ahora se procede con el aprendizaje, siguiendo la secuencia de los datos de entrada tal y como se especifica en el planteamiento de este caso prctico.

Puesto que ha habido un error, se prosigue probando los pares de entrada. El proceso terminar cuando la red converja en una solucin, es decir, cuando el error sea nulo (las salidas obtenidas coinciden con las deseadas en todos los pares de entrada).

Una vez comprobada la ausencia de errores en todos los pares de entrada, se puede afirmar que la red ha aprendido y separa de forma adecuada las clases matemticas 0 y 1 de la funcin AND de dos entradas. La evolucin del aprendizaje se puede observar representando las rectas de separacin de clases en el plano bidimensional de los parmetros de entrada (X1 y X2). La recta: funcin NET: . nos genera la

Con los siguientes puntos de corte en los ejes X1 y X2:

S-ar putea să vă placă și