Documente Academic
Documente Profesional
Documente Cultură
th
5 International Conference: Sciences of Electronic,
Technologies of Information and Telecommunications
March 22-26, 2009 – TUNISIA
Résumé: Le présent travail présente un outil de planification des réseaux de communications longues distances basé sur
les performances des réseaux bayésiens. La première partie consiste à modéliser ce réseau à l’aide des algorithmes
d’apprentissage de structures et de paramètres des réseaux bayésiens. Dans un premier temps, nous avons construit les
graphes des réseaux bayésiens en utilisant les algorithmes d’apprentissage de structure K2, GS, et MWST. Ensuite, nous
avons déterminé les tables de probabilités conditionnelles (CPT) de chaque nœud du graphe du réseau bayésien en
utilisant l’algorithme de maximum de vraisemblance. Dans la deuxième partie de notre travail, nous avons optimisé la
structure du réseau.
Mot clé: Réseaux Bayésiens, Modélisation, Apprentissage, Inférence, Planification.
-1-
SETIT2009
[PEA 88] et Junction Tree [JEN 90] qui exploitent les connecté, et lorsqu’une indépendance conditionnelle
indépendances conditionnelles contenues dans les est détectée, l’arc correspondant est retiré.
réseaux et donnent à chaque inférence les probabilités
Le principe de l’algorithme de recherche gloutonne
a posteriori exactes. Le deuxième comprend les
(Greedy Search GS) [FRA 03] est de prendre un
méthodes approchées (Markov Chain Monte Carlo et
graphe de départ, définir un voisinage de ce graphe,
les méthodes variationnelles).
puis associer un score à chaque graphe du voisinage.
L’algorithme de Pearl [PEA 88] est limité aux Le meilleur graphe est alors choisi comme point de
arbres. Il s’agit d’une architecture à passage de départ de l’itération suivante. L’algorithme s’arrête
message. Dans cette technique, à chaque nœud est lorsque le graphe obtenu réalise un maximum local de
associé un processeur qui peut envoyer des messages la fonction de score.
de façon asynchrone à ses voisins jusqu’à ce qu’un
[COO 1992] ont ont proposé l’algorithme K2. Le
équilibre soit atteint.
principe de cet algorithme est de simplifié l’espace de
L'algorithme de l’arbre de jonction est dit JLO, du recherche en ordonnant les noeuds. Un nœud ne peut
nom de ses auteurs: [JEN 90]. Il s'applique à des alors être parent d’un autre que s’il précède ce dernier
réseaux ne comprenant que des variables à valeurs dans l’ordre fixé. L’espace de recherche devient alors
discrètes. L'algorithme comporte deux phases: une l’ensemble des réseaux bayésiens respectant cet ordre
phase de construction et une phase de propagation. d’énumération. L’algorithme K2 permet aussi de
maximiser la probabilité de la structure sachant les
1.3. Apprentissage des paramètres données .
L'apprentissage des paramètres correspond à SBD (B, D) = p(B, D) = p(B).p(B\D)
l'estimation des probabilités à partir d'un certain
nombre de mesures (base d’exemples) après avoir n qi (ri − 1)! ri
= p (B ) ∏ ∏ ∏ N ijk ! (4)
trouvé la structure du réseau bayésien. Comme pour i =1 j =1 ( N ij + ri − 1)!k =1
tout problème d’apprentissage, différentes techniques
sont possibles selon la disponibilité de données pour le Puisque l’algorithme K2 maximise la probabilité
problème à traiter, ou d’experts du domaine. de la structure sachant les données p(B\D) donc
l’expression à maximiser extraite est noté :
L’estimation de distributions de probabilités à
partir de données est un sujet très vaste et complexe. n qi (ri − 1)! ri
Nous décrivons ici la méthode la plus utilisée dans le g (C i ) = ∏ ∏ ∏ N ijk ! (5)
i =1 j =1 ( N ij + ri − 1)!k =1
cadre des réseaux bayésiens. Dans le cas où toutes les
variables sont observées, la méthode la plus simple et
la plus utilisée est l’estimation statistique. Il s’agit Où Ci les nœuds constituant l’ensemble des
d’estimer la probabilité d’un événement par la parents de la variable Xi
fréquence d’apparition de l’événement dans la base de Il est possible d’utiliser le score BIC [AKA 73] et
données. Cette approche, appelée Maximum de [AKA 79] ou le score bayésien (BD Bayesian
Vraisemblance (MV) [BEC 99], nous donne alors : Dirichlet [COO 1992]).
N i , j ,k l’algorithme K3 [BOU 93] est une variante de
p ( X i = x k \ Parent ( X i ) = x j ) = θ iMV
, j ,k = (2) l’algorithme K2 en remplaçons le score BD par le
N i, j
score MDL.
1.4. Apprentissage de la structure [CHO 68] ont proposé une méthode dérivée de la
recherche de l’arbre de recouvrement de poids
La structure du réseau bayésien dans certaines
maximal (MWST, Maximum Weight Spanning Tree).
situations, est fournie a priori par un expert. Par
Cette méthode associe un poids à chaque arête
contre, la détermination de cette structure à partir
potentiel Xi-Xj de l’arbre. Ce poids peut être
d’une base d’exemples n’est pas simple,
l’information mutuelle entre les variables Xi et Xj
principalement à cause du fait que l’espace de
comme proposé par [Chow 1968], ou encore la
recherche est de taille super-exponentielle en fonction
variation du score local lorsqu’on choisit Xj comme
du nombre de variable. [ROB 1977] a montré que le
parent de Xi. Une fois cette matrice de poids définie, il
nombre de structures différentes pour un réseau
suffit d’utiliser un des algorithmes standards de
bayésien possédant n nœuds, est donné par la formule
résolution du problème de l’arbre couvrant de poids
de récurrence suivante :
maximum comme l’algorithme de Kruskal ou celui de
n n! Prim, et d’orienter l’arbre non dirigé obtenu en
r(n) = ∑ (-1)i+1 2i(n -1)
r(n - i)
choisissant une racine puis en parcourant l’arbre par
i =1 i! (n − i )! une recherche en profondeur.
(3)
L’algorithme PC a été introduit par [SPR 00]. Cette 2. Modélisation et planification des
méthode utilise un test statique pour estimer s’il y a réseaux
indépendance conditionnelle entre deux variables. En
pratique, on démarre avec un graphe complètement La première étape de notre travail consiste à
choisir la topologie du réseau. Dans cette topologie la
-2-
SETIT2009
-3-
SETIT2009
(a) (b)
em rec
em rec
court
court nbn
nbn
pba
nba pba
nba
dir
dir
(c) (d)
-4-
SETIT2009
em em
(a) (b)
em
em
nbn
nbn
pba
court
(c) (d)
em rec em rec
court nbn
pba nba
nbn dir
nba court
dir pba
REFERENCES
[AKA 93] H. AKAIKE, “Information theory and extension
of the maximum likelihood principle”. Proceedings of
the 2nd International Symposium of Information Theory,
: Nœud Akademiai Kiado, Budapest, pp. 267–281, 1973.
: Arc [AKA 79] H. AKAIKE, “A bayesian extention of the
minimum AIC procedure of autoregressive odel”.
Figure 5, Réseaux avant et après mise à jour Biometrika, vol 66(1), pp. 237–242, 1979.
-6-
SETIT2009
-7-