Documente Academic
Documente Profesional
Documente Cultură
r
A. Réseau monocouche
C'est la structure d'interconnexion la plus générale. Chaque neurone est connecté à tous
les neurones du réseau et à lui-même. Entrée w Sortie
net1
,,,��
oel2 ,"���
'X2 ù}<>l�� 1
�t11of.
EnJrée roucbe cacbt!e Sonie
X y s
" Les neurones sont arrangés par couche et l'information se propage de couche en couche.
E1 0 0 0 Il n'y a pas de connexion entre neurones d'une même couche, et les connexions ne se font
E2 0 1 -1 qu'avec les neurones de couches avales.
E3 1 ' 0 If " On appelle couche d'entrée l'ensemble des neurones d'entrée, couche de sortie
E4 1 1 0 l'ensemble des neurones de sortie. Les couches intermédiaires n'ayant aucun contact avec
l'extérieur sont appelées couches cachées.
4
J
Apprentissage supervisé Exercice : Déterminer la fonction réaliser par ce réseau
Il s'agit d'un mode d'apprentissage qui est guidé. Pour chaque entrée, on fournit
au réseau une sortie désirée, qui permet de mesurer l'erreur commise en sortie,
afin de modifier le comportement du réseau pour diminuer cette erreur.
0 1-.:, 1 x2
�=L
proches en réponse à des valeurs d'entrée similaires (de même nature). Durant la phase d'apprentissage, le réseau adapte sa structure (le plus souvent,
les poids des connexions) afin de fournir sur ses neurones de sortie les valeurs
désirées. L' apprentissage nécessite des échantillons d'apprentissage ainsi qu'un
�=
algorithme d'apprentissage.
Après initialisation des poids du réseau (en général des valeurs aléatoires), il y a
0::- présentation des exemples au réseau et calcul des sorties correspondantes. Une
valeur d'erreur ou de correction est calculée et une correction des poids est
appliquée.
[�-rés_ _;_a_u�rr-1�-s _o
rt_ieo
_ _b e _ _ _e�
_tnu
Au niveau des algorithmes d'apprentissage, il existe deux grandes classes selon
que l'apprentissage est dit supervisé ou non supervisé.
B 6
J
Projet 1: Le tableau ci-dessous représente des données provenant d'un
microphone, représentant les valeurs sonores d'une voix d'une personne. Exemple d'algorithme d'apprentissage supe rvisé d'un neuroneformel:
On essaie alors de reconnaître les sons représentant effectivement la voie de la
personne(+1) de celle d'une autre(-1). 1/ Initialisation des poids W et du seuil S à des valeurs(petites) choisies au
hasard.
61 62 d 1. Initialisation: w"' [w1, w2 , wi] = [0.75, 0.5, -0.6], µ=(+0.2). 2/ Présentation d'une entrée E1 = (e1, ... en) de la base d'apprentissage.
1.0 1.0 1 2.X1::=sign(0.75x1 + 0.5x1 - 0.6x1)::sign(.65)::1; 3/ Calcul de la sortie obtenue x pour cette entrée : a = L (wi . ei) - S
9.4 6.4 -1 l!.w::: 0.2(1-1)X= O; donc w est inchangé.
x = signe (a)( si a> 0 alors x = +1 sinon a-,:; 0 alors x = -1 )
2.5 2.1 1
7.7
4/ Si la sortie x du Perceptron est différente de la sortie désirée d1 pour cet
8.0 -1 500. w= [-1.3, -1.1, +10.9]. exemple d'entrée
0.5 2.2 1
Équation de la ligne séparant les données: -1.3x 1 + -1.1x2+10.9 = O.
7.9 8.4 -1
E1 alors modification des poids :
7.0 7.0 -1 wi(t+1) = wi(t) + µ. ((d1 - x).ei), avec(µ le pas de modification)
2.8 0.8 1 (d1 - x) est une estimation de l'erreur.
1.2 3.0 1
5/ Tant que tous les exemples de la base d'apprentissage ne sont pas traités
7.8 6.1 -1 correctement, retour à l'étape 2.
Algorithme de rétro-propagation du gradient Application : Déterminer l'ensemble des poids Qui réalise la classification suivante :
Base d'apprentissage
e1 e;, d
1 (1) { l;d)
-
-1 -1 (2)
-1 -1 -] (3)
-1 -1 (4)
(-1.-l)
Avec les conditions initiales
w1= (-0.2), w2=(+0.1), S=(+0.2), µ:::(+0.1).
12 10
Exercice:
Soit un réseau multicouche (3 2 3), avec 3 neurones dans la couche d'entrée, 2
neurones dans la couche cachée et 3 neurones dans la couche de sortie.
Pour une entrée X1 = 0.9, X2 = 0.1 et X3 = 0.9, doivent correspondre les sorties
Y1 = 0.1, Y2 = 0.9 etY3 = 0.9.
Les poids sont initialisés de manière aléatoire comme le montre la figure ci
dessous:
X1
X2
Remarques:
./ Les poids du réseau doivent être initialisés à de petites valeurs aléatoires.
14