Documente Academic
Documente Profesional
Documente Cultură
=
N
j
j j i
x wi s
Entrada do neurnio escondido 2:
17 , 0 ) 17 , 0 ( 1 42 , 0 0
0
= + = =
=
N
j
j j i
x wi s
Sada do neurnio escondido 1:
634135591 0
1
1
1
1
55 , 0
,
e e
y
i
s
i
=
+
=
+
=
Sada do neurnio escondido 2:
457602059 0
1
1
1
1
17 , 0
,
e e
y
i
s
i
=
+
=
+
=
Figura 3.2: Perceptron do exemplo
ESCOLA POLITCNICA DA UNIVERSIDADE DE SO PAULO
Departamento de Engenharia de Computao e Sistemas Digitais
Inteligncia Artificial Redes Neurais Multi-Camadas
- Pgina 11 -
Desta forma, a sada do sistema obtida ser:
643962658 0 643962658 0 0
643962658 0
1
1
1
1
592605124 , 0 81 , 0 457602059 0 35 , 0 634135591 , 0
592605124 , 0
0
, , E Erro
,
e e
y
. x wi s
i
s
i
N
j
j j i
= = =
=
+
=
+
=
= + = =
=
Agora, iniciaremos o Back-Propagation. Para este caso, o novo valor de cada peso
ser dado por
i j ji ji
y y E z w w + , onde w
ji
o peso, a taxa de aprendizado,
z a sada da rede, E o erro na sada da rede, y
j
a sada do n que origina a transio
referente ao peso e y
i
a sada do n no qual a transio termina.
Considerando a matriz de pesos nmero 2 (entre a camada escondida e a camada
de sada), temos respectivamente:
(i)
i j ji ji
y y E z w w +
[ ]
326593362 0 ) 023406638 , 0 ( 35 , 0
) 643962658 0 1 ( 643962658 0 634135591 0 ) 643962658 0 ( 25 0 35 , 0
, w
, , , , . w
ji
ji
= + =
+ =
(ii)
i j ji ji
y y E z w w +
[ ]
793109407 0 ) 016890593 0 ( 35 , 0
) 643962658 0 1 ( 643962658 0 457602059 0 ) 643962658 0 ( 25 0 35 , 0
, , w
, , , , . w
ji
ji
= + =
+ =
Por fim, para a matriz de pesos nmero 1 (entre a entrada e a camada escondida),
temos:
(i)
i j ji ji
y y E z w w +
[ ] 62 , 0 ) 634135591 0 1 ( 634135591 0 0 ) 643962658 0 ( 25 0 62 , 0 = + = , , , . w
ji
(ii)
i j ji ji
y y E z w w +
[ ] 42 , 0 ) 457602059 0 1 ( 457602059 0 0 ) 643962658 0 ( 25 0 42 , 0 = + = , , , . w
ji
(iii)
i j ji ji
y y E z w w +
[ ]
512648936 , 0 ) 037351064 , 0 ( 55 , 0
) 634135591 0 1 ( 634135591 0 0 ) 643962658 0 ( 25 0 55 , 0
= + =
+ =
ji
ji
w
, , , . w
(iv)
i j ji ji
y y E z w w +
[ ]
209958271 0 ) 039958271 0 ( 17 , 0
) 457602059 0 1 ( 457602059 0 0 ) 643962658 0 ( 25 0 17 , 0
. , w
, , , . w
ji
ji
= + =
+ =
O mesmo procedimento deve ser aplicado para os prximos valores de
aprendizado, mas agora utilizando os pesos novos.
ESCOLA POLITCNICA DA UNIVERSIDADE DE SO PAULO
Departamento de Engenharia de Computao e Sistemas Digitais
Inteligncia Artificial Redes Neurais Multi-Camadas
- Pgina 12 -
4. Concluso
As redes neurais possibilitam multicamadas apresentam uma evoluo no poder
computacional em relao s redes de camada nica devido sua maior capacidade de
representao, esta explicada pelo uso de camadas escondidas e de funes de ativao
no-lineares. Embora nas multicamadas o erro no seja to evidente, ele possvel de
ser calculado atravs de tcnicas como o Back-Propagation, permitindo assim o
aprendizado por treinamento, principal caracterstica das redes neurais.
Observou-se as diversas aplicaes nas quais possvel utilizar esta tcnica de
Inteligncia Artificial e tambm a analogia entre as RNNs e a mquina de Turing.
ESCOLA POLITCNICA DA UNIVERSIDADE DE SO PAULO
Departamento de Engenharia de Computao e Sistemas Digitais
Inteligncia Artificial Redes Neurais Multi-Camadas
- Pgina 13 -
Referncias
[1] RUSSEL, S. J.; NORVIG, P. Artificial Intelligence: A Modern Approach. 2 edio. New Jersey:
Prentice Hall, 2002. 1132 p.
[2] http://neurovision.sourceforge.net/ (acessado em 10/11/2008).
[3] http://sourceforge.net/projects/smith-project/ (acessado em 10/11/2008).
[4] CYBENKO, G. V. Approximation by Superpositions of a Sigmoidal function. Mathematics of Control,
Signals and Systems, vol. 2 no. 4 pp. 303-314. 1989.
[5] HYOTYNIEMI, H. Turing Machines are Recurrent Neural Networks. 1996.
[6] RUMELHART, D. E.; HINTON, G. E.; WILLIAMS, R. J. Learning Internal Representations by Error
Propagation. In Parallel Distributed Processing: Explorations in the Microstructure of Cognition, Vol.
1: Foundations, D. E. Rumelhart and J. L. McClelland, Eds. Mit Press Computational Models Of
Cognition And Perception Series. MIT Press, Cambridge, MA, 318-362. 1986.
[7] SIEGELMANN, H. T. Neural and Super-Turing Computing. Minds Mach. 13, 1, 103-114. 2003.
[8] SIEGELMANN, H. T. The Simple Dynamics of Super-Turing Theories. Theor. Comput. Sci. 168, 2,
461-472. 1996.
[9] http://binds.cs.umass.edu/anna_cp.html (acessado em 10/11/2008).
[10] BODEN, M. A. Artificial Intelligence. 1st. Morgan Kaufmann Publishers Inc. 1996.
[11] NILSSON, N. J. 1998 Artificial Intelligence: a New Synthesis. Morgan Kaufmann Publishers Inc.
1998.