Documente Academic
Documente Profesional
Documente Cultură
et Yoav Freund en 1995 [1][3]. Cette approche est la drive dAdaboost do il y a eu lapparition de plusieurs variantes
la plus partique de la mthode du Bossting qui vise stimuler telles que Adaboost.M1, Adaboost.M2 Gentle Adaboost , etc.
la performance de lalgorithme dapprentissage. En effet, il existe plusieurs drivs de lapproche Adaboost
Adaboost consiste transformer, dune manire efficace, un qui optimisent diffremment la pondration (Wi).
classifieur faible en un classifieur fort en rduisant les GML AdaBoost Matlab Toolbox est un ensemble de
taux derreur. Lalgorithme dAdaboost, appelle chaque fonctions en Matlab qui implmente un ensemble dalgorithme
itration, un algorithme dapprentissage qui entranent les de classification et du Boosting savoir: Real AdaBoost,
instances classifier. Par la suite, Adaboost dfinit une Gentle AdaBoost et Modest AdaBoost qui sont utiliss dans ce
nouvelle distribution de probabilit pour les instances travail [5].
dapprentissage en fonction des rsultats de lalgorithme
litration prcdente tout en augmentant le poids des C. Lapproche Real Adaboos
instances qui ne sont pas correctement classes. A la fin, Real AdaBoost a t mis en uvre en 1999 par Freund and
Adaboost combine les donnes faibles par un vote pondr Schapire [6]. Real Adaboost est une amlioration de la
pour en dduire un classifieur fort. mthode dorigine ou il faut ajouter une fonction qui mesure le
Dans cette optique, AdaBoost essaye, de trouver un degr de confiance en manipulant des donnes
classifieur optimal partir de la combinaison dun ensemble dapprentissage soi-disant faible . La particularit de cette
de donnes dapprentissage faible. Lalgorithme dAdaboost mthode rside dans la classe de probabilit estime qui
est comme suit [4]. convertit les taux de logarithme en une valeur rel dchelle
Etant donn: [7]. Cette valeur est utilise afin dobserver les contributions
S= ( x1 , y1 ) ,...., ( xm , ym ) avec m lensemble des des sorties du modle en question. De plus, Real Adaboost
mesure la probabilit quune donne dapprentissage
chantillons et yi Y = {1,..., k} avec Y est appartient une classe donne alors que Adaboost consiste,
lensemble des tiquettes. tout simplement, classifier les donnes et calculer lerreur
Lalgorithme dapprentissage dits faible pondre. En gnrale, Real AdaBoost tend minimiser eyF(x)
WeakLearner. afin de mieux trouver la classification optimale gnrer par le
modle utilis [4].
T est le nombre des itrations.
Dautre part, la mthode Real Adaboost accorde un taux de
Initialiser Dt (i ) = 1 . confiance aux classifieurs faible [8][9] qui transforme
m lensemble des instance X et la prdiction boolenne en un
Faire pour t = 1, 2,....., T : espace relle R. Lalgorithme est comme suit [10].
1. Appeler WeakLearner qui fournit la distribution Dt. Etant donn:
2. Calculer lhypothse: ht : X Y . S= ( x1 , y1 ) ,...., ( xM , yM ) , avec m lensemble
3. Calculer lerreur de:
des chantillons et ( xi , yi ) X {1,1} , est
hx : t = Dt (i ) (1) lensemble des tiquettes
i = ht ( xi ) yi Lalgorithme dapprentissageWeakLearner.
T est le nombre des itrations.
Si t f 12 Alors T = t 1 et sortir. Initialiser la distribution Dt (i ) = 1 .
m
4. Dfinir t =
t Pour t = 1, 2,....., T :
(1 t ) 1. Pour chaque instance faire:
5. Mise jour de la distribution Dt : a. Partitionner X en un bloc spar ( xM , yM ) .
b. Pour chaque distribution Dt calculer
D (i ) t if ht ( xi ) = yi
Dt +1 (i ) = t
Z t 1 Sinon Wl j = P(xi X j , yi = l) =
i:x,eX ,^ yi 1
D(i)
(2) . (4)
Avec Zt est un facteur de normalization.
6. L hypothse finale: avec l = 1
1 c. Dfinir lhypothse h pour chaque Xj as:
h fin ( x) = arg max log
t
.
1 W+1j +
t :ht ( x ) = y
x X , h( x) = ln
2 W1j +
(3)
Les fondateurs de cette mthode, Schapire et Freund, ont (5)
essay tout au long de leurs travaux doptimiser lalgorithme Avec une petite constante positive.
e-STA copyright 2011 by see
Volume 8, N1, pp 53-60
Et normalisation de Dt+1 .
4. Lhypothse finale H : E. Lapproche Modest Adaboost
T
Modest AdaBoost [5] a t inspire par Vezhnevets et Al en
H ( x) = sign ht ( x) b 2005.
t 1 . (7) Cette variation dAdaboost vise a amlior la gnralisation
des erreurs pendant la classification. Cette approche tend
avec b est le seuil (par dfaut=0). donner des rsultats meilleurs que ceux calculs par Gentle
La fonction de confiance de est dfinie par : adaboost. Dans ce but, Vezhnevets et Al avaient utilis une
distribution inverse : w = 1 w . Cette distribution a permis,
Conf x ( x ) = h ( x) b
t t
(8) donc, de fournir aux donnes dapprentissage correctement
classifies des poids levs.
Nanmoins, il a y eu lapparition des nouvelles versions Lalgorithme de Modest Adaboost algorithm que
dAdaboost qui leurs performances dpassent souvent Real A.Vezhnevets et Al ont propos est comme suit[5].
Adaboost. Friedman and Al. [11] ont propos une extension de Given:
cette approche appele Gentle AdaBoost.
S= ( x1 , y1 ) ,...., ( xN , yN )
D. Lapproche Gentle Adaboost Initialiser la distribution D0 (i ) = 1 .
Gentle AdaBoost [11] est considre comme autant une N
extension du Real adaboost. Cette approche est plus 1. Pour m = 1, 2,...., M et tant que 0 .
performante que Real adaboost tant donn sa stabilit et sa m
robustesse quand il sagit des donnes bruites et aux a. Entraner lalgorithme dapprentissage hm ( x) en
aberrants [5].
Gentle Adaboost minimise la fonction exponentielle de perte utilisant la distribution Dm (i ) par la moindre carre
dAdaboost en utilisant les tapes de Newton [7]. pondre.
Dautre part, Gentle Adaboost est une variation de b. Calculer la distribution inverse
lapproche Real Adaboost qui stimule la performance de cette
dernire en appliquant une rgression par la mthode des Dm (i) = (1 Dm (i)) Z m (10)
moindres carres pondres. . En outre, Gentle Adaboost et
Real adaboost ne normalisent pas lensemble des apprenants
pondrs de la mme manire, puisque la fonction de c. Calculer:
normalisation de Real adaboost est donne par Pm+1(x) = PDm ( y =+1hm(x))
Fm(x)=Pw(y=1|x)-Pw(y=-1|x), alors que pour Gentle Adaboost, (11)
1
la mise jour de la classe de probabilit pondre est donne P ( x) = PDm ( y = 1 hm ( x))
m (12)
par la fonction suivante : 1
1 P ( y = 1| x) P ( x) = PDm ( y = 1 hm ( x))
m
(13)
f m ( x) = log w [11]. Lalgorithme du Gentle
2 Pw ( y = 1 | x) 1
P ( x) = PDm ( y = 1 hm ( x))
m (14)
Adaboost est comme suit [12].
Etant donn:
d. Dfinir:
Les poids Wi = 1 , i = 1,.., N et F ( x ) = 0 +1 1
N f m ( x) = ( Pm+1 (1 Pm ) Pm1 (1 Pm ))( x) (15)
1. Faire pour m = 1, 2,..., M . e. Mise jour de la distribution:
a. Estimer f m ( x) en utilisant les moindres carres
Dm (i)exp( yi fm ( xi ))
pondres de y x. Dm+1 (i) =
b. Mise jour de F ( x) F ( x) + f m ( x) . Zm (16)
2. Lhypothse finale:
e-STA copyright 2011 by see
Volume 8, N1, pp 53-60
0.6
Taux d"erreur
compltes par leurs paramtres variationnels respectifs qui 0.5
coefficients MFCC du signal permet dextraire des Fig 3. Evolution du taux derreur du systme de RCP avec validation de la
caractristiques de celui-ci autour de la Transforme de base de test.
Fourrier (FFT) et de la Transforme en Cosinus Directe
(DCT), convertis sur une chelle de Mel. Le principal 5 Validation croise
Taux d"erreur
ventuellement amliorer et de renforcer les caractristiques
du signal vocal par la prise en compte des paramtres
0.3
0.32
Taux d"erreur
0.2
Ainsi, nous avons utilis ces deux mthodes pour la
classification de nos bases de donnes afin de mieux Fig 5. Evolution du taux derreur du systme de RCP avec validation de la
comparer, par la suite, la performance de chaque mthode. base de test.
Le nombre ditration a t fix T= 100 et nous avons dfini
K=5 groupes (folds) pour la mthode de la validation croise.
5 Validation croise
0.4
Real AdaBoost
0.38
0.34
0.26
0 10 20 30 40 50 60 70 80 90 100
Iterations
A. Application de lapproche Real Adaboost Fig 6. Evolution du taux derreur du systme de RCP avec validation croise
Avec les Coefficients MFCC
e-STA copyright 2011 by see
Volume 8, N1, pp 53-60
0.4
73,60%. 0.32
0.45 0 10 20 30 40 50 60 70 80 90 100
Real Adaboost AdaBoost
0.4
Fig 10. Evolution du taux derreur du systme de RCP avec validation croise
0.35
0.3
0.25
observ litration 90 de lordre de 73, 66%.
0.2
Avec Les Coefficients MFCC et Delta
0.15
0.1 0.5
0 10 20 30 40 50 60 70 80 90 100 Gentle AdaBoost
Iterations
0.45
5 Validation croise
Taux d"erreur
0.35 0.35
Real AdaBoost
0.3
0.3
0.25
0.25
Taux d"erreur
0.2
0.2 0 10 20 30 40 50 60 70 80 90 100
Iterations
0.15
Fig 11. Evolution du taux derreur du systme de RCP avec validation de la
base de test
0.1
0 10 20 30 40 50 60 70 80 90 100 5 Validation croise
0.45
Iterations
Gentle AdaBoost
Fig 8. Evolution du taux derreur du systme de RCP avec validation croise 0.4
0.35
Taux d"erreur
par base de test avec 36 coefficients (MFCC+Delta+ Delta- Fig 12. Evolution du taux derreur du systme de RCP avec validation croise
Delta) a donn de meilleur rsultat. Cependant ce systme se
stabilise partir de litration 83 avec un taux derreur, Daprs les figures 11 et 12, le meilleur taux de
relativement, lev par rapport celui du deuxime systme. reconnaissance est trouv avec une validation par la base de
test pour les 24 coefficients (83,33% litration 66).
B. Application de lapproche Gentle Adaboost
Avec Les Coefficients MFCC Avec Les Coefficients MFCC, Delta et Delta-Delta
0.3
Gentle AdaBoost
0.28
0.5
Gentle AdaBoost 0.26
0.48
0.24
0.22
Taux d"erreur
0.46
0.2
Taux d"erreur
0.44
0.18
0.42 0.16
0.14
0.4
0.12
0.38 0.1
0 10 20 30 40 50 60 70 80 90 100
Iterations
0.33
Taux d"erreur
0.3
0.32
0.31
Taux d"erreur
0.25
0.3
0.29
0.2
0.28
0.27
0 10 20 30 40 50 60 70 80 90 100
0.15 Iterations
0.1
Fig 17. Evolution du taux derreur du systme de RCP avec validation de la
base de test
0.05 5 Validation croise
0 10 20 30 40 50 60 70 80 90 100
0.38
Iterations
Modest AdaBoost
Fig 14. Evolution du taux derreur du systme de RCP avec validation croise
0.36
0.34
0.32
Daprs les figures 13 et 14, les taux derreurs ont nettement 0.3
Taux d"erreur
diminus. Les meilleurs taux sont observs litration 5 de 0.28
0.2
coefficients. Fig18. Evolution du taux derreur du systme de RCP avec validation croise
C. Application de lapproche Modest Adaboost Nous observons, galement pour cette experience, quen
appliquant une validation croise avec 24 coefficients, nous
Avec Les Coefficients MFCC
avons obtenu le meilleur taux de reconnaissance (81, 61%).
0.5
Modest AdaBoost
0.44
0.28
0.42 0.26
0.24
Taux d"erreur
0.4
0.22
0.38 0.2
0.18
0.36
0 10 20 30 40 50 60 70 80 90 100
Iterations
0.16
0.14
0.12
Fig 15. Evolution du taux derreur du systme de RCP avec validation de la 0 10 20 30 40 50
Iterations
60 70 80 90 100
base de test
Fig 19. Evolution du taux derreur du systme de RCP avec validation de la
base de test
5 Validation croise
0.34
Modest AdaBoost
0.33 5 Validation croise
0.5
0.32 Modest AdaBoost
0.45
0.31
0.4
Taux d"erreur
0.3
0.35
0.29
Taux d"erreur
0.28 0.3
0.27 0.25
0.26 0.2
0.25
0 10 20 30 40 50 60 70 80 90 100 0.15
Iterations
0.1
Fig 16. Evolution du taux derreur du systme de RCP avec validation croise 0 10 20 30 40 50
Iterations
60 70 80 90 100
Fig 20. Evolution du taux derreur du systme de RCP avec validation croise
Daprs les figures 15 et 16, nous constatons que les meilleurs
taux de reconnaissance sont trouvs avec une validation Daprs les figures 19 et 20, nous observons quen premier
croise de la base dapprentissage (74,01% ). test, le systme sest vite stabilis (ds litration 26).
Nanmoins, lapplication dune validation croise a donn le
Avec Les Coefficients MFCC et Delta
meilleur taux de reconnaissance (88, 02%).
D. Etude Comparative
e-STA copyright 2011 by see
Volume 8, N1, pp 53-60