Sunteți pe pagina 1din 100

Système automatique de tri par vision

REPUBLIQUE DU REPUBLIC OF CAMEROON


CAMEROUN UNIVERSITY OF DOUALA
UNIVERSITE DE DOUALA *******
******** FACULTY OF INDUSTRIAL ENGINEERING
FACULTE DE GENIE INDUSTRIEL www.fgi-ud.org
www.fgi-ud.org

MINISTERE DE L’ENSEIGNEMENT SUPERIEUR


UNIVERSITE DE DOUALA
UNIVERSITY OF DOUALA

--------------------------------------------
FACULTE DE GENIE INDUSTRIEL FGI
--------------------------------------------
BP 2701 Douala Tél : (237) 694187374/699325800/699325552 SITE Web : www.fgi-ud.org
****************************

DEPARTEMENT DE ROBOTIQUE INDUSTRIELLE (ROI)

Mémoire présenté en vue de l’obtention du Diplôme d ’Ingénieur de la


Faculté de Génie Industriel

SPECIALITE : Robotique Industrielle


$

OPTION : Système Intelligent, Vision Et Robotique

THEME :
SYSTEME AUTOMATIQUE DE TRI
PAR VISION

Mémoire Rédigé par : Sous la supervision de Dr.


ESSIMAGEL AOUDOU YEREMOU TAMTSIA Aurélien
Chef du département de Robotique industriel à
Emmanuel la Faculté de Génie
MATRICULE : 13G15871 Industriel de l’université de Douala

Année académique :2017/2018


Système automatique de tri par vision

SOMMAIRE
REMERCIEMENTS .................................................................................................................................... iv
RESUME ....................................................................................................................................................v
ABSTRACT ................................................................................................................................................ vi
LISTE DES FIGURES :................................................................................................................................ vii
LISTE DES TABLEAUX : ............................................................................................................................. ix
NOTATION ................................................................................................................................................x
LISTE DES SIGLES ET ABREVIATIONS ........................................................................................................ xi
INTRODUCTION GENERALE ..................................................................................................................... 1
Chapitre I : GENERALITE ET HISTORIQUE SUR LES SYSTEME DE VISION ET ROBOTIQUE ........................ 3
INTRODUCTION ....................................................................................................................................... 3
I-DEFINITIONS ET GENERALITES .............................................................................................................. 3
I.1-SYSTEME DE VISION ....................................................................................................................... 3
I.2-SYSTEME ROBOTIQUE .................................................................................................................... 4
II-HISTORIQUES ET DOMAINES D’APPLICATION DES SYSTEMES DE ROBOTIQUE ET DE VISION ............. 5
II.1-HISTORIQUES ET DOMAINE D’APPLICATION DES SYSTEMES DE VISION ...................................... 5
II.2-HISTORIQUES ET DOMAINE D’APPLICATION DES SYSTEMES ROBOTIQUES ................................. 7
III-PROBLEMATIQUES ET CAHIER DE CHARGE ....................................................................................... 11
III.1-PROBLEMATIQUE ....................................................................................................................... 11
III.2-ANALYSE FONCTIONNELLE ET CAHIER DE CHARGE.................................................................... 12
CONCLUSION ......................................................................................................................................... 16
Chapitre II : ASPECT METHODOLOGIQUE.............................................................................................. 17
INTRODUCTION ..................................................................................................................................... 17
I-METHODOLOGIE DE MODELISATION DES SYTEME DE VISION ........................................................... 17
I.1-PRESENTATION DES TECHNOLOGIES DE VISION .......................................................................... 17
I.2-LES METHODES DE MODELISATION ............................................................................................. 29
I.3-LES METHODES DE TRAITEMENT D’IMAGE .................................................................................. 35
II-METHODOLOGIE DE MODELISATION DES ROBOTS (SYSTEMES MECANIQUES ARTICULES).............. 39
II.1-ELEMENTS CONSTITUTIFS ET TYPES DE ROBOT .......................................................................... 39
II.2-METHODOLOGIE DE MODELISATION DES ROBOTS MANIPULATEURS SERIES ........................... 45
II.3-LES METHODES DE COMMANDE ET LES CONTRAINTES AFFERANTES ........................................ 49
CONCLUSION ......................................................................................................................................... 55
Chapitre III : SOLUTION ; RESULTATS ET INTERPRETATIONS................................................................. 56
INTRODUCTION ..................................................................................................................................... 56
I-LES SOLUTIONS.................................................................................................................................... 56

i
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

I.1-SOLUTIONS DU SYSTEME DE VISION ............................................................................................ 56


I.2-SOLUTIONS DU SYTEME DE BRAS ROBOTISE ............................................................................... 58
II-RESULTATS ET INTERPRETATIONS ...................................................................................................... 63
II.1-RESULTATS ET INTERPRETATIONS DE LA SIMULATION DU SYSTEME DE VISION ....................... 63
II.2-RESULTATS ET INTERPRETATIONS DE LA SIMULATION DU SYSTEME ROBOTIQUE .................... 64
III-ESTIMATION DU COÛT TOTAL DU PROJET ........................................................................................ 67
CONCLUSION ......................................................................................................................................... 68
CONCLUSION GENERALE ET PERSPECTIVES .......................................................................................... 69
Glossaire ................................................................................................................................................ 70
Références ............................................................................................................................................. 71
ANNEXE : ............................................................................................................................................... 73
ANNEXE 1 : Dessin de la SAM du système et les caractéristiques .................................................... 73
ANNEXE 2 : caractéristiques du système FHA-17C PR et son variateur associé ............................... 75
ANNEXE 3 : Les étapes du cycle en V ................................................................................................ 77
ANNEXE 4 : Les sous-groupes de la simulation du SAM .................................................................... 78
ANNEXE 5 : Algorigramme et conception préliminaire détaillée du système................................... 80
ANNEXE 6 : caractéristiques du MicroHAWK ID-30 .......................................................................... 84
ANNEXE 7 : Diagramme FAST du système ......................................................................................... 86

ii
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Je dédie ce mémoire à :
Mon père M. NINGA Fernand, qui peut être fier et trouver ici le résultat de longues années
de sacrifices et de privations pour m'aider à avancer dans la vie. Puisse Dieu faire en sorte que
ce travail porte son fruit ; Merci pour les valeurs nobles, l'éducation et le soutient permanent
venu de toi.
Je le dédie également à toute la famille NARMA NINGA et à tous mes amis pour leurs
patience et compréhension à mon égard.

iii
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

REMERCIEMENTS
Notre gratitude va à l’endroit du DIEU tout puissant qui nous a accordé la faculté de
mener à bien nos projets, d’arriver à notre souhait et d’atteindre notre objectif.

Cette gratitude va également à l’endroit du doyen de la FACULTE DU GENIE


INDUSTRIEL DE DOUALA Pr. Robert NZENGWA ; au chef du département de
Robotique industrielle Dr. YEREMOU TAMTSIA Aurélien qui nous ont permis de
poursuivre avec quiétude les études au sein de leur école et leur département bien que
ce fut ardu. Elle va également à l’endroit des membres du jury, chargés d’examiner ce
travail avec rigueur.

Et enfin elle va à l’endroit de tous les êtres dont un jour nous avons fait la
connaissance ; ici trop nombreux pour être cités mais qui tout de même ont contribué à
faire de nous la personne que nous sommes et même celle que nous deviendrons demain.
Merci encore !

iv
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

RESUME
Le monde aujourd’hui est un village planétaire ; ce qui implique qu’un produit fait au
Canada par exemple peut facilement être vendu en Afrique et ceux grâce aux progrès de
l’industrie. Ce domaine est de nos jours fortement occupé par les systèmes robotisés
actuellement dits de génération 4.0 ; mais les coûts d’acquisition de ces systèmes restent encore
inaccessibles pour les industries Africaines en général et Camerounaises en particulier encore
fortement embryonnaires. Le contrôle qualité de la plupart des produits issus de ces industries
accentue le fait de la non-compétitivité de ces derniers ; car les produits ne sont très souvent
pas uniformes à cause du contrôle qui est encore manuellement. Nous avons fait ce constat lors
de nos multiples stages d’imprégnation et visites d’entreprise effectuées au cours de notre
cursus scolaire et post-graduation. Pour remédier à ce problème, nous proposons la conception
d’un SYSTEME AUTOMATIQUE DE TRI PAR VISION afin d’assurer le contrôle qualité des
produits. Pour mener à bien ce travail, nous avons utilisé le cycle de conception en V dans
lequel l’analyse du besoin nous a permis de segmenter notre système en trois parties : un
dispositif d’acquisition d’image chargé de prélever les informations sur le processus ; un
logiciel de traitement et de reconnaissance de forme hébergé dans un PC (Personal Computer)
chargé d’assurer le contrôle qualité en fonction des critères imposés par l’utilisateur et enfin
d’un système mécanique articulé chargé d’exécuter l’action préconisée par le sous-système de
décision. Cette analyse s’est faite à l’aide du logiciel Visio 2013. Au niveau de la conception et
de la modélisation nous avons utilisé le logiciel SolidWorks pour la conception du SAM. Pour
la modélisation du système de vision nous avons utilisé le logiciel Matlab. Pour la commande
du SAM, nous avons utilisé les logiciels Matlab, Stateflow, Simulink et Simscape. Des outils
matériels parmi lesquels Un PC HP compaq core i3 ; une BOX WIFI Yoomee qui nous ont
permis de faire des recherches et de simuler notre système. Les résultats de la simulation
globale de notre système ont confirmé l’atteinte de nos objectifs à 90% de ceux fixés par le
cahier de charges.
Mots clés : système ; tri ; Automatique ; vision

v
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

ABSTRACT
The world today is a global village; which implies that a product made for example in
Canada may be sold easily in Africa because of the progress of the industry. This domain is
nowadays greatly occupied by the robotics systems currently said to be generation 4.0; but the
costs of acquirement of these systems remain in general even inaccessible for the African
industriousness and Cameroonian in particular again greatly embryonic. The control quality of
most products descended of these industries accentuates the fact of the non-competitiveness of
these lasts; because their products are not very often uniform because of the control that is again
handmade. We made this report of it at the time of our multiple practicums of impregnation and
visits of enterprise done during our school degree course and post-graduating. To remedy this
problem, we propose the conception of an (AUTOMATIC SYSTEM OF SORTING BY
VISION) in order to assure the control quality of the products. To carry through this work, we
used the cycle of conception in V in which the analysis of the need allowed us to segment our
system in three parts: a device of picture acquirement assigned to appropriate the information
on the process; a software of treatment and recognition of shape sheltered in a PC (Personal
Computer) charged to assure the control quality according to the criterias imposed by the user
and at the end of a articulate mechanical system assigned to execute the action recommended
by the subsystem of decision. This analysis made itself with the help of the software Visio 2013.
To the level of the conception and the modelling we used the software SolidWorks for the
conception of the SAM. For the modelling of the vision system we used the software Matlab.
For the order of the SAM we used the Matlab software, Stateflow, Simulink and Simscape. The
material tools used are a PC HP compaq core i3; a BOX WIFI Yoomee that allowed us to make
searches for them and to simulate our system. The output of the global simulation of our system
confirmed the attack of our objective is promising to 90% of those desired by the notebook of
load.

Key words: Automatic; System; Sorting; Vision

Discipline : Sciences de l’Ingénieur

vi
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

LISTE DES FIGURES :

Figure 1.1: synoptique du système de vision ............................................................................. 4


Figure 1.2: synoptique du système robotique............................................................................. 5
Figure 1.3: soudage à l'arc [7] .................................................................................................... 8
Figure 1.4: L'ébavurage [7] ........................................................................................................ 9
Figure 1.5: La palettisation [7] ................................................................................................... 9
Figure 1.6: Le pick-and-place [7] ............................................................................................. 10
Figure 1.7: Laparoscopie [7] .................................................................................................... 10
Figure 1.8: Robot pour personne handicapé [7] ....................................................................... 11
Figure 1.9: bête à corne ............................................................................................................ 12
Figure 1.10: Diagramme pieuvre ............................................................................................. 13

Figure 2.1: Eclairage frontal directionnel [8] ........................................................................... 19


Figure 2.2: Eclairage frontal rasant [8] .................................................................................... 19
Figure 2.3: Eclairage frontal diffus [8]..................................................................................... 20
Figure 2.4: Eclairage diascopique [8] ...................................................................................... 20
Figure 2.5: Lumière structuré [8] ............................................................................................. 21
Figure 2.6: Lumière collimatée [8]........................................................................................... 21
Figure 2.9: Le diagramme de KRUITHOFF [9] ...................................................................... 23
Figure 2.10 : Objectif de vision [8] .......................................................................................... 25
Figure 2.11 : illustration du comportement de l'objectif [8] .................................................... 26
Figure 2.12 : Les nombres d'ouverture les plus utilisées [8] .................................................... 27
Figure 2.13 : Processus d'intégration chez les CMOS [8] ........................................................ 28
Figure 2.14 : Structure d'un capteur CMOS [10] ..................................................................... 29
Figure 2.15 : Modèle sténopé [11] ........................................................................................... 29
Figure 2.16 : Modèle extrinsèque de la caméra [11] ................................................................ 30
Figure 2.17: Modèle intrinsèque de la caméra [11]................................................................. 31
Figure 2.18: Enchaînement des temps de l'acquisition dans le cas d'une carte d'acquisition avec
mémoire d'images [13] ............................................................................................................. 34
Figure 2.19: Système d'acquisition fonctionnant à 25 images par seconde [13]...................... 35
Figure 2.20: Méthode de gradient simple [15] ......................................................................... 35
Figure 2.21: Méthode du gradient de Robert [15] .................................................................... 36

vii
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Figure 2.22: filtres de Prewitt [15] ........................................................................................... 36


Figure 2.23: Filtre de Sobel [15] .............................................................................................. 36
Figure 2.24:Processus chronologique du filtre de Canny [15] ................................................. 37
Figure 2.25: Principe du filtre de Canny [15] .......................................................................... 37
Figure 2.26: classification des points en fonction des valeurs propre de la matrice Harris-
Stephens [16] ............................................................................................................................ 38
Figure 2.27: Principaux constituants d’un SAM [19] .............................................................. 40
Figure 2.30: Exemple de moteur pour la robotique [19] .......................................................... 42
Figure 2.31: Exemple de robot mobil [19] ............................................................................... 43
Figure 2.32: Exemple de Robot humanoïde [20] ..................................................................... 43
Figure 2.33: Exemple d’un robot manipulateur à corde [19] ................................................... 44
Figure 2.34: exemple de robot manipulateur parallèle [19] ..................................................... 44
Figure 2.35: Exemple de robot manipulateur séries [19] ......................................................... 45
Figure 2.36: Schéma de commande classique de type PID [19] .............................................. 50
Figure 2.37: Illustration de la trajectoire d'un robot [19] ......................................................... 50
Figure 2.38: Architecture logiciel d’une application de contrôle-commande multitâche [21] 52
Figure 2.39: structure d’un état [26]......................................................................................... 54
Figure 2.40: Structure d’une transition [26] ............................................................................. 54

Figure 3.1: La caméra MicroHAWK ID-30 [29] ..................................................................... 56


Figure 3.2:Interface graphique du système .............................................................................. 57
Figure 3.3: Exemple de SAM proposé ..................................................................................... 59
Figure 3.4: Moteur FHA-17C-PR de Harminic Drive [31] ...................................................... 62
Figure 3.5: Différentes parties du processus de simulation ..................................................... 62
Figure 3.6: Résultat de simulation du système de vision…………….……………………..…63
Figure 3.7 : Paramètre de hough du model………………………….…………….……..……64
Figure 3.8 : Paramètre de hough de l’objet à inspecter……………….………….…………...64
Figure 3.9 : Visualisation de la consigne et de la position effectivement suivi par le bras
En degré ………………………………………………………………………………………65
Figure 3.10: visualisation de la vitesse des articulations……………….……………………..65
Figure 3.11 : Evolution de la tension dans les moteurs du bras………………………………66
Figure 3.12: Evolution du courant dans les moteurs………………………………………….66

viii
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

LISTE DES TABLEAUX :

Tableau 1.1: Caractérisation des fonctions de service ............................................................. 13

Tableau 2.1: Tableau des longueurs d'onde en fonction de la couleur perçue par l’homme
…….……………………….
......................................................................................................... 18
Erreur ! Signet non défini.
Tableau 2.2: Tableau de KRUTTHOFF des températures en fonction des couleurs ............... 23
…….……………………….
Tableau 2.3: les différentes résolutions standard ........................... 25
.Erreur ! Signet non défini.
Tableau 2.4:Tableau comparatif des différents actionneurs électriques les plus utilisés ......... 42

Tableau 3.1: Tableu des caractéristiques du MicroHAWK ID-30 ........................................... 57


Tableau 3.2: Tableau des caractéristiques du SAM ................................................................. 59
Tableau 3.3: tableau de DH du SAM ....................................................................................... 60
Tableau 3.4: Caractéristiques de la carte du SAM ................................................................... 61
Tableau 3.5: Caractéristique du moteur FHA-17C-PR ............................................................ 61
Tableau 3.6: Paramètre des correcteurs PID ............................................................................ 67
Tableau 3.7:Devis estimatif du projet ...................................................................................... 67

ix
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

NOTATION
𝑅𝑖 Repère N°I quelconque.
𝑖
𝑅𝑖 𝑗 Rotation du repère i vers j exprimé dans le repère 𝑅𝑖
𝑖
𝑀𝑖 𝑗 Matrice homogène de passage du repère i vers j exprimé dans le repère 𝑅𝑖
𝑖
𝑀𝑖 𝑗 . 𝑖 𝑀𝑖 𝑗 : Produit matriciel

x
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

LISTE DES SIGLES ET ABREVIATIONS

2 J
2D Deux Dimensions JPL ............................................Jet Propulsion Laboratory
2D 1/2.......................................... Mélange de la 2D et 3D

M
3
Matlab ................................................. MATrix LABoratory
3D Trois Dimensions MCI....................................le Model Cinématique Indirect
MD ....................................................... Model Dynamique
MGD ...................................... Model Géométrique Direct
C MGI .................................... Modèle Géométrique Inverse
MSMC ..................Modélisation Simulation des machines
CCD ............................................... Charge Coupled Device Cybernétiques (Brenier, 2001)
CID ............................................. Charge Injection Device
CMOS ........ Complementary Metal Oxide Semiconductor
N
D N&B.............................................................. Noir et Blanc

DART . Design Approach for Real-Time Systems (GOMAA,


1984) P
DH Denavit Hartenberg
PC Personal Computer, Personal Computer
PID .............................. Proportionnelle Intégrale Dérivée
F
FAST ............................. Function Analysis System Technic R
RDF ....................................... Reconnaissance Des Formes
G
GRAFCET.....................Graphe Fonctionnel de Commande S
Etape/Transition
SAM .... Système Mécanique Articulé, Système Mécanique
Articulé
I SA-RT Structured Analysis Real Time (Ward-Mellor, 1984
; Pirbhaï-Hatley, 1986)
IFR ............................ International Federation of Robotic SDL Specification and Description Language (CCITT, 1988)
STR dure..................................... Système temps réel dure
STR mou ..................................... Système temps réel mou

xi
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

INTRODUCTION GENERALE
Compte tenu des changements technologiques rapides et la présence accrue des
économies émergentes sur le marché mondial de la fabrication, les entreprises sentent la
pression sur plusieurs fronts. Pour cela, les entreprises à tous les niveaux de la chaîne de valeur
ont la possibilité de bien se positionner pour stimuler la croissance grâce à leur expérience
solide dans la fabrication, à un moteur d’innovation robuste, à une réputation pour la qualité et
l’uniformité et à une main d’œuvre qualifiée. Afin d’améliorer la position concurrentielle de
chaque pays et d’augmenter sa viabilité à long terme, il est indispensable d’envisager des
changements des méthodes de fabrication. Cela nous emmène à réfléchir aux futures usines qui
puissent tirer parti des progrès dans le secteur manufacturier et d’autres grandes tendances
émergentes dans l’industrie.
De nos jours, l’utilisation des machines dans l’industrie où la recherche est de plus en
plus importante. En effet, l’automatisation des systèmes permet une conception plus rapide et
plus sûre que certains ouvrages. Les chiffres parle d’eux même :
En 2015 les ventes de robot ont augmenté de 15% dans le monde pour un volume record de
253750 unités pour une valeur marchande estimé à 11.1 milliards $ US plus 35milliard $ US si
on considère tous les autres domaines autre que l’industrie.
La chine est le marché le plus important avec 27% de ce volume mondial (68600 unités) et est
talonné par l’Europe avec 19.74% soit un volume de (50100 unités).
La chine produit 30% de tout le volume mondial des robots industriels.
En Europe, L’Allemagne possède le plus grand nombre de robot à savoir 50000 unités suivit de
l’Italie avec 6657 unités. La France quant à elle à un volume estimé à 3045 unités.
Les densités de robot dans le monde (nombre de robot pour 10000 ouvriers) sont en moyenne
de 92 en Europe ;86 en Amérique et 57 en Asie.
Le japon leader mondial à une densité de 1272 et suivi par la Corée du sud (1218) qui sont au
coude à coude avec les USA. Seul l’Afrique n’est pas dans cette mouvance [1]. C’est la raison
pour laquelle la production est plus abondante et de qualité dans ces régions qu’en Afrique.
Les plus importantes sociétés productrices de robot dans le monde sont les suivant :
Au Etats unis nous avons : Adept technology ; ST.Robotics ; Intelitek ; …etc. En Suisse :
Staübli ; ABB ; …etc. En Allemagne : Bosch ; Cloosgmbh ; Festo ; …etc. Au Japon : Yaskawo-
motoman ; … etc.
En Afrique ; Rien à signaler. [2]

1
Système automatique de tri par vision

Au niveau des couts des systèmes robotique d’après le site de vente d’Alibaba.com, le
Robot cartésien chine professionnel industriel 6 axes couteraient 50000$US (25000000Fcfa) ;
le CNC manipulateur ou le HWASHI couterais 23000$US (11500000Fcfa) ; Le robot
BOXLINE quant à lui couterais 300000$US (150000000Fcfa).
De leurs côtés les solutions de vision ne sont pas en reste. Par exemple le model CV-A de la
société KEYENCE France peut coûter dans les 20000 à 25000$US.
Ces coûts étant très élevés pour les faibles industries Africaines en générale et camerounaise en
particulier.
C’est de ce constat que nous nous sommes lancés dans la conception d’un système
robotique automatique de tri par vision. Pour mener à bien nos objectifs nous avons subdivisés
notre travail en trois chapitres qui se présente comme suit :
Dans le premier chapitre nous allons faire une présentation générale de la robotique et
plus précisément des systèmes de vision et de la robotique industrielle ; de leurs architectures
de leurs contributions dans l’industrie et les domaines dans lesquels ils sont utilisées puis nous
finirons par un cahier de charge après avoir effectué l’analyse du besoin.
Le deuxième chapitre sera dédié à la présentation des lois et méthodes de modélisation
utilisé dans le domaine de la robotique ; depuis les lois de la physique des onde (la lumière) en
passant par les filtres de Canny et bien d’autre jusqu’à la méthode DENAVIT-HARTENBERG.
Et dans le troisième chapitre nous conclurons l’étude expérimentale de notre système,
en définissant les solutions Hardware proposé ; de la simulation système à l’aide du logiciel
MATLAB ; SIMULINK ; STATEFLOW et SOLIDWORKS.
Pour parafer notre projet nous ferons une conclusion qui présente le bilan de ce travail,
et les perspectives envisagées ainsi qu’une bibliographie et des annexes qui aiderons à
comprendre ou vérifier les méthodes de modélisations.

2
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Chapitre I : GENERALITE ET HISTORIQUE SUR LES SYSTEME DE


VISION ET ROBOTIQUE

INTRODUCTION
Ce chapitre se focalise sur la présentation du concept de Robotique et vision ; il réalise
aussi nue étude détaillée de l’existant en s’appuyant sur l’historique ayant marqué la vie de cette
discipline scientifique. Il présente aussi une Analyse fonctionnelle de notre système et le cahier
de charge qui en découle en conformité avec la norme ISO 9946

I-DEFINITIONS ET GENERALITES
I.1-SYSTEME DE VISION
La vision est un processus de traitement de l’information qui utilise des stratégies bien définies
afin d’atteindre ses buts. L’entrée d’un système de vision est constituée par une séquence
d’images. Le système lui-même apporte un certain nombre de connaissances qui interviennent
à tous les niveaux. La sortie est une description de l’entrée en termes d’objets et de relations
entre ces objets.
Deux types de stratégies sont mises en jeu :
Les stratégies ascendantes qui tentent de construire à partir de l’information sensorielle
une représentation la plus abstraite possible (par exemple un ensemble de primitives
géométriques 3D).
Les stratégies descendantes qui déduisent à partir de l’ensemble d’objets connus par le système
une description compatible avec les primitives extraites de l’image [3]
La figure (1.1) suivante permet de mettre en évidence les éléments rentrant dans la chaine d’un
système de vision :

3
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Figure 1.1: synoptique du système de vision

Le capteur : caméra vidéo, CCD, plaque photosensible aux rayonnement (Gama, X, …)


Prétraitement : amélioration de l’image (renforcement du contraste, réduction du bruit …)
Extraction des caractéristiques : contours, régions, angles, segment de droite …
Les caractéristiques ou primitives sont compatibles avec la représentation qui en est donnée
dans la base de connaissances (mémoire)
Système de décision : utilise des méthodes de reconnaissance des formes (RDF) communes à
d’autres disciplines (reconnaissance de la parole, …)
NB : la scène devra préalablement être éclairée convenablement.
I.2-SYSTEME ROBOTIQUE
La robotique est l'ensemble des techniques permettant la conception et la réalisation de
machines automatiques ou de robots.
L'ATILF définit le robot de la manière suivante : « Appareil effectuant, grâce à un système de
commande automatique à base de micro-processeur, une tâche précise pour laquelle il a été
conçu dans le domaine industriel, scientifique ou domestique » [4]
En étymologie : « le mot tchèque robota (travail), un robot est un système mécanique
polyarticulé mû par des actionneurs et commandé par un calculateur qui est destiné à effectuer
une grande variété de tâches » [5].
La robotique industrielle est le contrôle de la fabrication, l’automatisation des chaines de
production et la manipulation des objets. En plus, elle inspecte les produits, rapidement et d’une
manière précise.
On appelle robot industriel un système poly articulé permettant de déplacer et d'orienter un outil
ou "organe effecteur" dans un espace de travail [6].
La figure (1.2) permet de mettre en évidence les éléments rentrant dans la chaine d’action d’un
système robotique d’après [5] .

4
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Figure 1.2: synoptique du système robotique

La carte de commande ou calculateur ou encore ordinateur : C’est le cerveau du SAM ; car il


permet de planifier et réaliser les mouvements du système tout en veillant sur les contraintes
imposées au système. Il réalise très souvent un traitement numérique.
L’interfaceur1 (variateur) : C’est cette unité qui gère les étages de puissance ; c’est-à-dire quitter
des faibles puissances (électronique) vers les fortes puissances(électricité).
Les actionneurs : Il transforme l’énergie électrique ou hydraulique en mouvement
Le système mécanique articulé (SAM) : C’est le corps même du robot qui a pour vocation de
réaliser la tâche (porter les charges). Il doit impérativement alliée trois contraintes majeures à
savoir : légèreté, résistance et être de faible coût.
Les capteurs : Ils ont pour rôle d’informer en permanence le calculateur sur l’état du robot.
On distingue deux types de capteur :
Les capteurs proprioceptifs qui fournissent des informations sur l’état interne du robot
(température des actionneurs, positions articulaires, vitesse articulaire, …etc.).
Et les capteurs extéroceptifs qui informent le robot sur l’état de son environnement (capteur fin
de course, détecteur d’obstacle, …etc.).

II-HISTORIQUES ET DOMAINES D’APPLICATION DES SYSTEMES


DE ROBOTIQUE ET DE VISION

II.1-HISTORIQUES ET DOMAINE D’APPLICATION DES SYSTEMES DE


VISION
Historique

1
Elément permettant de faire correspondre un signal électronique à une puissance électrique de plus grande
amplitude dans le but d’effectuer une action.

5
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

1973 : SHIRAI et INOUE réalisent une Tâche de saisie d'un objet cubique. La caméra était
fixe et observe la scène avec une Période d'asservissement de 10s
 1979 : HILL et PARKS réalisent une Tâche de suivi, de saisie et de déplacement par rapport à
une scène à l’aide d’une Projection d'un marqueur lumineux pour reconstruire la profondeur et
l'orientation avec Étude des effets dynamiques.
1979 : PRAJOUX Utilise une caméra pour anticiper le mouvement d’une cible. La tâche de
suivi de cible est à 2 degrés de liberté avec un Temps d'établissement de 1 s.
1984, Weiss réalise le premier asservissement visuel 2D.
1990 : VENKATESAN et ARCHIBALD réalisent un asservissement visuel grâce à la
Projection de marqueurs lumineux à l'aide de 2 scanners LASER. La Commande se faisait
suivant 5 degrés de liberté avec une bande passante de la boucle fermée de 4.5 Hz.
1991 : PAPANIKOLOPOULOS réalise un système d’estimation de ma mesure par flot optique
et une tâche de suivi de cible
1992 : ESPIAU, CHAUMENE et RIVES formalise de la commande 2D par l'utilisation de la
notion de fonction de tâche. Le système était stabilité et la validation expérimentale s’est faite
grâce à la tâche de suivi de cible
1996 : WILSON réalise un asservissement 3D avec filtrage de Kalman de la mesure. Le test du
système était une tâche de suivi de cible à 5 degrés de liberté et la fréquence de l'asservissement
était de 60 Hz
1996 : PETER CORKE réalise un asservissement visuel en Prenant en compte le modèle
dynamique du manipulateur pour la synthèse du correcteur. Le système fut testé sur une tâche
de suivi de cible à 2 degrés de liberté avec une Fréquence d'asservissement égale à 60 Hz
 1998 : JACQUE GANGLOFF et al. Ont réalisé le Modèle dynamique d'un asservissement
visuel à 6 DDL à 120 Hz
1999 : MALIS ET CHAUMENE crée l’asservissement visuel 2D 1/2 pour une tâche de suivi
de cible.
1999 : NAKABO utilise la vision chip pour la Première fois dans une Tâche de suivi de cible
avec une caméra orientable (2 degrés de liberté) à une fréquence de 1000 Hz
2005 : GINHOUX ET AL. Réalisent un asservissements visuels dynamiques pour le médical
avec une boucle de vision à 500Hz et Commande répétitive pour le suivi des mouvements du
cœur.
Domaine d’application
Il y a Trois principaux domaines domaine :

6
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Imagerie aérienne et spatiale (Image satellite ; analyse des ressources interne du globe ;
cartographie automatique ; analyse météo…etc.).
Technologies biomédicales (Image scanner échographie ; imagerie à résonnance magnétique
« IRM » ; reconnaissance automatique de cellules ou de chromosomes ; comptage de cellule ;
ostéodensitométrie2 « examen médical qui permet de mesurer la densité de l’os » … etc.).
Robotique (Assemblage de pièces ; contrôle qualité ; robotique mobile ; stéréovision « pour la
reconstruction 3D » …etc.).
Les autres domaines non exhaustifs dans lesquelles on emplois la vision : l’astronomie, la
physique nucléaire, l’armement, la télésurveillance …etc.
II.2-HISTORIQUES ET DOMAINE D’APPLICATION DES SYSTEMES
ROBOTIQUES

Historique
Le mot Robot a été introduit par le tchèque Karel Capek en 1921 dans une scène de théâtre.
A cette occasion, le terme robot est inspiré du mot slave rabota qui signifie main d'œuvre
exécutive.
En 1947 apparait le Premier manipulateur électrique téléopéré3. Mais ce n’est qu’entre 1950-
1970 que la robotique industrielle connait un essor. Elle a vu le jour en 1954 lorsque Georges
DEVOL a pu réaliser son brevet sur la robotique. Dans ce brevet Devol a conçu un robot qu’il
a intitulé Unimate.
En 1961, le premier Unimate fut utilisé dans les usines de GENERAL MOTORS.
En 1966, l’entreprise Unimation continue de développer des robots et élaborent notamment
des robots permettant de faire d’autres tâches, comme des robots de manipulation matérielle
ou encore des robots conçus pour la soudure ou pour d’autres applications de ce genre.
En 1978 un nouveau robot est conçu par Unimation Inc avec l’aide de General Motors.
Ensemble ils conçurent le robot PUMA 500. Le robot PUMA (Programmable Universal
Machine for Assembly) a été conçu par Vic Schienman et fut financé par General Motors et
par The Massachussets Institute of Technology au milieu des années 70. Le système de ce
robot est composé d’un bras manipulateur permettant d’assembler des composants industriels
et de son ordinateur de commande. Ce robot est le robot d’assemblage le plus rependu dans
l’industrie des années 70.

2
Examen médical qui permet de mesurer la densité osseuse
3
Opération à distance

7
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

En 1985, Reymond Clavel a imaginé le Robot Delta qui possède un bras de manipulation formé
de 3 parallélogrammes. Son brevet tombe dans le domaine public en 2007 et différents
constructeurs devraient alors sortir leur propre robot delta. Le Jet Propulsion Laboratory (JPL)
développe un robot industriel hexapode (à 6 pattes) du nom de Lemur. Lemur aura pour mission
de monter, assembler et réparer des installations spatiales. Pesant moins de 5 kg, il offre la
possibilité innovante d’adapter différents outils sur chacun de ses membres.
Selon l’étude robotique de la Fédération Internationale de Robotique (IFR) en 2012, il y a au
moins 1153000 robots industriels opérationnels fin 2011 dans le monde.
Les robots étaient conçus pour remplacer les ouvriers dans les tâches pénibles, répétitives ou
dangereuses (peinture, soudure… etc.).
Aujourd’hui avec le développement de l’électronique, de l’informatique, de la mécanique et
aussi de l’automatique, la technologie robotique a progressé. La recherche dans le domaine de
la robotique est dirigée vers le développement de robots dévoués à des tâches bien différentes
que celles demandées par l’industrie. Par exemple des robots travaillant en mode automatique
ou semi-automatique et qui ont souvent pour objectif d’interagir avec des humains et de les
aider dans leurs tâches (surveillance, manutention d’objets lourds…). Ils sont dotés d’une
intelligence qui leur donne une certaine autonomie.
Ainsi donc, le développement important de l’intelligence artificielle et de la robotique qui font
que de nouveaux robots apparaissent constamment et l’utilisation de systèmes robotiques
apparait aujourd’hui dans plusieurs domaines d’activité : la médecine, la défense, la recherche
etc.…
Domaine d’application
Dans l’industrie de l’automobile :
Le soudage à l’arc ; par point et la pose de peinture.

Figure 1.3: soudage à l'arc [7]

8
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Le polissage et l’ébavurage

Figure 1.4: L'ébavurage [7]

Dans l’industrie agroalimentaire : les robots de palettisation

Figure 1.5: La palettisation [7]

9
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Le pick-and-place

Figure 1.6: Le pick-and-place [7]

Dans le domaine médical :


Chirurgie robotisée (laparoscopie4)

Figure 1.7: Laparoscopie [7]

4
Chirurgie via les Robots médicaux

10
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Assistance aux personnes handicapées

Figure 1.8: Robot pour personne handicapé [7]


Et dans plusieurs autres domaines tel que : L’aéronautique, sculpture, découpage au laser,
collage, pliage, scellement, …etc. [7].

III-PROBLEMATIQUES ET CAHIER DE CHARGE

III.1-PROBLEMATIQUE
Aux vues du contexte qui est le nôtre (Afrique en général et Cameroun en particulier) à
savoir :
 Production des biens faible et ne respectant pas les critères de compétitive
international
 Les coûts d’investissement dans le domaine de la robotisation élevé
 La difficulté à assurer la maintenance de ces systèmes car l’expertise proviendrai
de l’étranger
 La rentabilité très élevée du secteur de la robotique.
C’est donc fort de ce constat que nous Proposons nôtre systèmes Et la problématique qui
s’en dégage d’une part est la suivante :
Comment acquérir les informations visuelles d’un système de production industriel
dynamique ; en extraire les caractéristiques et prendre une décision en fonction de la
conformité désirée par l’utilisateur ?
D’autre part comment extraire les pièces défectueuses sans compromettre le système de
production et ceux à moindre coût ?

11
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

C’est dans cette optique que nous effectuons l’analyse fonctionnelle et rédigé le cahier de
charge suivant.
III.2-ANALYSE FONCTIONNELLE ET CAHIER DE CHARGE

Analyse fonctionnelle

C’est une approche scientifique qui raisonne en termes de fonctions devant être assuré par le
produit. L’analyse fonctionnelle est de deux sorte : L’Analyse fonctionnelle interne et
externe.

Analyse fonctionnelle externe


Elle décrit l’aptitude du produit à satisfaire le besoin de l’utilisateur en lui rendant
service. Elle se fait elle aussi en deux étapes : L’analyse du besoin et l’analyse fonctionnelle
du besoin
Analyse du besoin : Elle définit l’action du système en termes de finalité pour répondre aux
besoins c’est-à-dire les fonctions devant être assuré par le produit. Elle recherche la formulation
du besoin pour notre système
Pour cela nous nous sommes posé les trois questions suivantes : A qui le système rend-t-il
service ? ; Sur quoi agit-il ? Et dans quel but existe-t-il ? Nous avons donc obtenu le diagramme
Bête à corne suivant :

Figure 1.9: bête à corne

12
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

L’analyse fonctionnelle du besoin : Il s’agit ici pour nous de procéder à la détermination des
interactions que réalisent le système avec son environnement. Le graphe d’interaction ci-
dessous nous donne les différents éléments du milieu extérieur qui agissent sur notre système.
La figure (1.10) suivante nous présente le diagramme pieuvre de notre système.

Figure 1.10: Diagramme pieuvre

Caractérisation des fonctions de service

Tableau 1.1: Caractérisation des fonctions de service

Fonctions de service Critère Niveau Flexibilité Coût


$
FP : Soustraire les pièces Charge maximale Kg ±%
défectueuses du processus de Précision ɛ ≤ 5% pour ± 2.3%
fabrication de manière (erreur « ɛ ») une consigne
satisfaisante ≥ 98%
La rapidité (temps de Tm ≤ 1.5s à ± 0.01%
monté « Tm ») 5% de la
consigne
Répétabilité

13
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

FC1 : Ne pas interrompre le Force d’interaction Fcp ≤ 0.025N ± 0.005N


processus de fabrication ou maximale avec le
de traitement de par son convoyeur du
intervention processus (Fcp)
FC2 :Dois faire une Coefficient de Réglable
distinction entre pièces conformité
conformes et non conforme Force d’interaction Fav ≤ 0.025N ± 0.005N
en fonction des critères et avec le bac d’Object
coefficient de conformité avarié (Fav)
voulu par l’utilisateur

FC3 :Doit satisfaire aux Perturbation optique Pv ≤ lux ± lux


contraintes d’exploitations pour le système de
industrielles vision (pv)
Perturbations Pem ≤ tesla ± tesla
électromagnétiques
(pem)
Température de Tfn є[ ,] degré ± degré
fonctionnement Celsius Celsius
normal (Tfn)
Perturbation peme ≤ tesla ± tesla
électromagnétique
émise (peme)
FC4 : Veiller sur la sécurité Interface homme Ergodique
des utilisateurs et machine (IHM)
maintenanciers ;interagir Système de sécurité Tout Ou Rien
avec l’utilisateur (TOR)

FC5 : Doit être rigidement Jeux 0 ± 0%


fixé au support
(sol ;plafond ...)

14
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

FC6 : Le système doit être Tension de phase d’un V ±V


alimenté en continu par les système triphasé
sources d’alimentation Intensité de phase d’un A ±A
triphasé et monophasé des système triphasé
industrie suivant les norme Facteur de puissance ±
Tension monophasé [100 ,240] V ± 5%
Intensité monophasé [3.4,7] A ±5%
Fréquence 50 Ou 60 hz ±0

CAHIER DE CHARGE
Du travail précédent et en accord avec la norme ISO 9946 il en ressort que le robot de notre
système doit posséder les caractéristiques suivantes :
• Espace de travail : (l’espace des situations que l’organe terminal peut atteindre. Il est
défini par les limites imposées par le nombre de degré de liberté, les débattements
articulaires, les longueurs des segments)
Charge utile : 5kg (charge maximale transportable par le robot)
Vitesses et accélérations maximales : ERII4, Robotique industrielle 15
Performances :
Exactitude ±𝟎. 𝟎𝟕𝒎𝒎 (écart entre situation commandée et moyenne des situations atteintes),
Répétabilité :±𝟎. 𝟎𝟔𝒎𝒎 (dispersion des situations lorsqu’on commande la même situation)
Résolution : minimum de 2000𝑝𝑜𝑖𝑛𝑡𝑠/𝑡𝑜𝑢𝑟𝑠 (qui correspond à la petite modification de la
configuration du robot à la fois observable et contrôlable par le système de commande)
Et le système de vision :
Débit maximum : Entre 10 et 13Mo/s (taille en termes de capacité mémoire pouvant être
transmit par unité de temps)
Frame rate > 4frame/s (nombre de frame pouvant être transmit par unité de temps)
Cadence d'acquisition≥25 hz (nombre d’image par unité de temps)
Temps d'intégration ≤ 20 ms (temps durant lequel le capteur de la caméra est soumis au
stimuli)
Résolution= 1280 × 960 (taille du capteur ou nombre de pixel se trouvant sur le capteur)
Type d’encodage : Codé sur 8 bits

15
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

CONCLUSION
Ce chapitre a été conçu pour nous familiariser avec les systèmes de robotique et de
vision et aussi pour présenter les caractéristiques que nous désirons implémenter lors de la
conception de notre système.
Le chapitre suivant attaquera une étude approfondie des méthodes scientifiques de
conception et modélisation des systèmes de vision et de robotique.

16
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Chapitre II : ASPECT METHODOLOGIQUE

INTRODUCTION
Dans ce présent chapitre, nous commençons par présenter les technologies qui structurent
notre système puis nous présentons les méthodes de modélisation et les postulats de commande
employé.

I-METHODOLOGIE DE MODELISATION DES SYTEME DE VISION


Les systèmes de vision industrielle capturent et analysent des informations visuelles et
sont utilisés pour automatiser des tâches pour lesquelles il faut « voir ». Comme cité ci haut il
va depuis son processus d’éclairage jusqu’ au principe de décision Dans cette partie nous allons
parler des méthodes de conception des systèmes de vision industrielle. Tout d’abord nous
faisons une étude sur la technologie d’acquisition, puis sur les méthodes de traitement d’image
et les techniques d’éclairages à utiliser dans les systèmes de vision en passant par les
applications et des logicielles nécessaire pour réaliser nos études.

I.1-PRESENTATION DES TECHNOLOGIES DE VISION

VUE GENERALE SUR LES DIFFERENTES TECHNOLOGIES DE VISION


Un système de vision est caractérisé par les éléments suivants :
Le système d’éclairage : il définit les caractéristiques de la lumière qui éclaire l’objet à
contrôler et doit être parfaitement maîtrisé.
Types de lumière
La lumière est un ensemble d’ondes électromagnétiques (radiations) caractérisées par
leur longueur d’onde (comme une onde radio) et produites par la propagation de
particules lumineuses, les photons.
La longueur d’onde λ se mesure en mètre (m) avec :
𝑪
𝛌=𝑭 (2.1)

où F est la fréquence exprimée en Hertz (Hz) et C, la vitesse de la lumière (C = 300000 Km/s).

17
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Le nanomètre (nm) est souvent utilisé pour exprimer une longueur d’onde.
A chaque longueur d’onde correspond une couleur perçue par l’œil humain et le tableau (2)
suivante présente les principales longueurs d’onde de la lumière visible perçue par l’homme.

Tableau 2.1 : Tableau des longueurs d'onde en fonction de la couleur perçue par l’homme [8]

Suivant sa composition, la lumière peur être : monochromatique (constitué d’une seule


longueur d’onde) ou polychromatique (constitué d’une plusieurs longueurs d’onde).
Suivant sa nature elle peut être : naturelle (soleil, flamme) ou artificielle (ampoules, lampes
halogènes, tubes fluorescents, DEL « diode électroluminescente » … etc.).
Suivant sa Densité spectrale d’énergie relative (ou spectre) qui représente la quantité d’énergie
produite par une source lumineuse par intervalle de longueur d’onde et normalisée de telle sorte
à obtenir 100% d’énergie pour la longueur d’onde 560 nm elle peut être : continu (ampoules à
incandescence, bougies soleil), discontinu (lampes à décharge) ou mixte (tubes fluorescents)
ou de raies (laser, DEL).
Suivant la température de couleur on a des lumières chaudes et froides.
Techniques d’éclairage
En ce qui concerne les techniques d’éclairage on en distingue plusieurs dont les plus importent
sont :
Éclairage frontal ou épiscopique (front light)

18
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Figure 11: Eclairage frontal directionnel [8]

Éclairage directionnel (bright field)


Les avantages de cette technologie d’éclairage sont les suivant :
Avec un bon contraste et une image nette, il permet de réaliser du contrôle de présence
et de la mesure. En réflexion spéculaire, il permet de détecter des défauts de surface
En réflexion diffuse, il permet de contrôler les surfaces brillantes de métaux polis ou en
plastique
Les inconvénients :
Génère des contours, des ombres et des reflets (sauf AOL) Avec un AOL, l’épaisseur
du miroir peut produire une image double mais il permet d’éclairer de petite cavité
• Ne convient pas pour les pièces transparentes ou translucides
• Effet de perspective possible

Figure 12: Eclairage frontal rasant [8]


Éclairage rasant (dark field)
Avantages :
Permet une très bonne détection de défauts sur surfaces planes opaques ou translucides
Inconvénient :

19
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Nécessite une source lumineuse très puissante


Éclairage diffus :

Figure 13: Eclairage frontal diffus [8]


Avantages :
Éclairage uniforme peu ou pas d’ombres et de reflets. Il existe aussi en DAOL (Diffuse
On Axis Lighting)

Inconvénient :
Contours flous ; faible contraste.
Rétro-éclairage ou éclairage diascopique (backlight)

Figure 14: Eclairage diascopique [8]


Avantages : Mise en évidence de la silhouette (contraste maximum entre le fond, blanc et la
forme, noire). Permet le contrôle dimensionnel et l’absence ou la présence de trous.
Permet de contrôler les matériaux transparent et translucide (verre, tissu, circuit imprimé).

Inconvénient : Les détails de la surface sont perdus.

Mise en forme

20
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Lumière structurée : La lumière projetée sur l’objet à observer présente une structure
parfaitement définie. Cette structure représente un motif connu qui se déforme si la surface de

Figure 15: Lumière structuré [8]


L’objet observé présente un relief
Avantages : Mesure de distances par rapport à une ligne de référence ; Analyse de forme des
objets ; Mesure de hauteur par triangulation ; Différentes formes à projeter
Inconvénient : N’éclaire pas l’objet ; Nécessite parfois une mécanique de déplacement du
faisceau ; Les autres éléments permettant de réaliser un bon éclairage sont donnée de manière
non exhaustive dans la liste suivante :
Les filtres d’éclairage qui créent une lumière polarisée permettant de séparer réflexions
spéculaire et diffuse (la réflexion directe est minimum lorsque les filtres sont croisés). Les filtres
peuvent être couleur, UV et IR.
NB : L’effet de filtrage demande une intensité d’éclairage accrue.
La lumière des sources d’éclairage peut être :
Collimatée (ou télécentrique ou à raies parallèles)

Figure 16: Lumière collimatée [8]


Focalisée : les rayons lumineux incidents sont concentrés sur une surface de petite dimension

21
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Figure2.7 : Lumière focalisée [8]


Stroboscopique : Il consiste à émettre un flash de lumière de forte intensité pendant un
temps très court afin de geler le mouvement d’une pièce en déplacement. Il convient pour les
objets en mouvement très rapide.

Figure 2.8: Stroboscope [8]


Choix de l’éclairage et couleur
La caméra a une sensibilité qui varie en fonction de la longueur d’ondes donc Les
grandeurs physiques sont utilisées pour évaluer certaines caractéristiques physiques de la
lumière déterminante pour la sensation visuelle.
Flux lumineux : Il caractérise la puissance lumineuse de la source rapportée à la
sensibilité du camera, de façon à ne considérer qu’une puissance susceptible de provoquer
la sensation visuelle. L’unité de mesure est le lumen (lm).

Intensité lumineuse : Elle caractérise l’importance du flux lumineux émis dans une
direction donnée. L’unité de mesure est la candela (cd).
Calcul de la luminance
𝑰
𝑳= (𝟐. 𝟐)
𝑺. 𝒄𝒐𝒔𝜽

22
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

I : intensité lumineuse (cd), S : la surface (m²) et θ : angle d’inclinaison Relation entre la


luminance et l’éclairement d’une surface. Lorsqu’une surface reçoit un certain éclairement, elle
réfléchit de la lumière et présente ainsi une luminance. Il s’agit de la loi de Lambert :
𝜷.𝑬
𝑳= (2.3)
𝝅

Avec β : facteur de diffusion de lumière, E : éclairement reçu en (lux)


Flux lumineuse total :
𝑬. 𝑺. 𝒅
𝑭= (𝟐. 𝟒)
𝜼. 𝑼t
Avec : d (facteur destiné à l’empoussièrement), η (Rendement), Ut (Indice de local)
Choix de couleur :
Le diagramme de KRUITHOFF permet de déterminer si la température utilise est dans
la zone ambiance confortable ou pas. Elle met en relation la température de couleur en kelvin
et l’éclairage en lux afin de déterminer la zone de confort. La figure (2.9) ci-dessous noue le
présente.

Figure2.9: Le diagramme de KRUITHOFF [9]

Le tableau suivant donne la répartition des températures de couleur.

Tableau 2.2: Tableau de KRUTTHOFF des températures en fonction des couleurs [9]
Température de Tc ≤ 3 300 K 3 300 K < Tc ≤ 5 000 K Tc > 5 000 K
couleur
Types de couleurs Teintes chaudes Teintes intermédiaires Teintes froides

Le capteur d’images : Constitué d’une caméra et d’un objectif qui permet de faire

23
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Converger la lumière sur le capteur. Ce dernier qui, sensible à la lumière la transforme en un


signal électrique analogique.
La caméra est l’élément qui permet de capturer l’image d’une scène réelle.
Elle est composée : d’un capteur constitué d’éléments photosensibles (tube, CCD, CMOS,
N&B, couleur) qui convertissent l’énergie lumineuse (photon) en une énergie électrique
(électron) et qui sont disposés sous forme matricielle ou linéaire et de composants électroniques
permettant la mise en forme du signal image.
Les caractéristiques du capteur sont les suivant :
Le temps d’intégration : Temps pendant lequel le capteur doit être exposé à la lumière.
La sensibilité : Variation électrique pour un éclairement donné Intensité lumineuse minimale
que la caméra peut détecter
Gain : Facteur multiplicatif permettant d’amplifier le signal image avant qu’il ne soit numérisé.
L’offset : C’est un facteur additif permettant d’obtenir une réponse du capteur pour des niveaux
de luminosité inférieurs au niveau minimum.
La fonction de transfert : C’est le lien entre le signal lumineux et le signal électrique.
La sensibilité spectrale : C’est la région du spectre dans laquelle est sensible la caméra.
Le rapport signal/bruit : C’est le rapport entre la puissance du signal de sortie et le niveau du
bruit présent en absence de signal.
La fréquence d’acquisition : C’est le nombre d’images par seconde que peut acquérir la
caméra.
Température de fonctionnement : Qui représente la température lumineuse à laquelle le
fonctionnement du capteur est optimal.
Résolution : C’est le nombre de pixels du capteur.
Voici un tableau qui présente les différentes résolutions.

24
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Tableau 2.3: les différentes résolutions standard [8]

L’OBJECTIF
L’objectif est constitué d’un ensemble de lentilles permettant de projeter une scène réelle
sur un même plan (capteur) en faisant converger (ou diverger) les rayons lumineux.
Ses éléments de réglage sont :
La focale : elle permet de voir les objets plus ou moins grands. Elle peut être fixe ou
automatique (zoom ou varifocale5).
La mise au point (focus) : elle permet d’obtenir une image nette en déplaçant les lentilles.
Le diaphragme (ou ouverture ou iris) : Le réglage de son ouverture permet de jouer sur la
quantité de lumière atteignant le capteur. La figure suivante présente un objectif de vision :

Figure 2.10 : Objectif de vision [8]

En adoptant les conventions suivantes illustré par la figure suivante :

5
Objectif à focale variable

25
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Figure 2.11 : illustration du comportement de l'objectif [8]



D : la distance entre l’objet et l’objectif (distance de travail)
d : la distance entre l’objectif et le capteur
f : la distance focale (distance entre l’objectif et le point focal)
H : la taille du champ visualisé (champ de vision)
C : la taille du capteur (longueur ou largeur)
α : l’angle de vue ou angle de champ
En appliquant les lois de :
𝟏 𝟏 𝟏
Descartes +𝑫=𝒇 (2.5)
𝒅

𝑪/𝟐 𝒅
et Thalès =𝑫 (2.6)
𝑯/𝟐

On obtient le grandissement m (magnification) est le rapport entre la taille du champ de


vision et celle du capteur dans une direction donnée
𝑪/𝟐 𝑪 𝒅
𝒎 = 𝑯/𝟐 = 𝑯 = 𝑫 Ce qui implique que

𝑫×𝒅 𝑫×𝒅 𝒅
𝒇 = 𝑫+𝒅 = 𝒅 = 𝟏+𝒎 (2.7)
(𝟏+ )×𝑫
𝑫

Dans le cas où l’objet en suffisamment éloigné du capteur on admet l’hypothèse suivant la


𝑫×𝒅 𝑪×𝑫
quelle (𝐝 ≪ 𝑫) : Alors : 𝐃 + 𝐝 ≈ 𝐃 ; 𝐟 ≈ ≈ 𝐝 et 𝐟 = (2.8)
𝑫 𝑯

Le nombre d’ouverture, NO ou (F-number) correspond à la quantité de lumière pouvant


passer dans l’objectif. Il se calcule en divisant la focale f de l’objectif par le diamètre Φ du
diaphragme
𝒇
𝐍𝐎 = Φ (2.9)

26
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Les valeurs du nombre d’ouverture les plus utilisées sont : 1, 1.4, 2.8, 4, 5.6, 8, 11, 16, 22 et se
notent f/1, f/1.4, …, f/22.

Figure 1.12 : Les nombres d'ouverture les plus utilisées [8]


Le nombre d’ouverture est un multiple de √2
Plus généralement, l’objectif agit comme un filtre passe-bas par rapport aux fréquences
spatiales. Il atténue les hautes fréquences. Des lignes épaisses largement espacées (basse
fréquences spatiales) donnent un meilleur contraste que des lignes fines très rapprochées
(hautes fréquences spatiales), ce qui définit la MTF (modulate transfert function ou fonction de
transfert de modulation en français) de l’objectif. Le choix de la MTF de l’objectif dépend donc
de la taille des pixels du capteur utilisé. Et les distorsions de l’objectif sont corrigées en
appliquant un modèle inverse afin de garantir la qualité des mesures.
Les différents types de caméras sont les suivantes :
Au niveau du capteur utilisé :CCD (charge-coupled device), CMOS (Complementary
Metal Oxide Semiconductor), tubes ou encore les CID (Charge Injection Device)
Au niveau du mode de transmission de l’image : Entrelacée ou progressive.
Au niveau de la sensibilité spectrale : Monochrome ou couleur (multispectrale,
infrarouge…)
Analogique ou numérique
Au niveau de la géométrie du capteur : Matricielle ou linéaire
Au niveau de la qualité du capteur : Haute résolution ou basse résolution
Au niveau de la fréquence de travail : Haute cadence ou faible cadence.
Par la suite, nous nous intéresserons aux caméras intégrants la technologie CMOS car c’est elle
que nous avons choisi pour l’implémentation notre système car elle offre plus de possibilité que
les autres capteurs.

PRESENTATION DE LA TECHNOLOGIE CMOS

27
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Le capteur CMOS (Complementary Metal Oxyde Semiconductor) est un composant basé


sur une technologie de composants à semi-conducteur Constitué d’un ensemble de photosites6
(cellule photosensible de 5 à 30 µm) alimenté électriquement pour accumuler des charges. Son
fonctionnement est le suivant : L'arrivée de photons sur le silicium va créer des charges
électriques, qui vont s'accumuler dans le silicium durant un certain temps, appelé temps
d'intégration ; puis ces charges vont être transformé en tension et ceux grâce aux amplificateurs
qui sont de nos jours cachés sous les photosites du capteur permettant ainsi d’augmenter la
sensibilité du capteur et le rendre plus compétitif que les CCD. La figure suivante met en
exergue ce phénomène

Figure 2.13 : Processus d'intégration chez les CMOS [8]


Une matrice CMOS est formée de Y lignes de X colonnes, chaque pixel mesure
quelques microns, et est composé d'une partie photo réceptrice et de transistors jouant le rôle
d'interrupteurs. Un maillage en X et Y permet en fermant les transistors voulus de lire la tension
du pixel. Cette tension est proportionnelle à l'intensité reçue.
On distingue deux familles de capteurs CMOS, ceux avec pixels passifs, et ceux avec
pixels actifs. On peut voir notamment que le capteur CMOS a une sensibilité non négligeable
dans l'infrarouge. Par conséquent, un filtre infrarouge est souvent utilisé pour éviter de saturer
le capteur durant la prise d'image.
Les avantages qu’il y a à utiliser les capteur CMOS sont les suivant :
Dans la fabrication de circuit à base de technologie CMOS : réduction des coûts technologie
CMOS à une consommation d’environ 100 fois moins que celle de la technologie CCD ;On a
Accès et ceux de manière aléatoire aux pixels comme sur une mémoire RAM
Pas d'effet smear (apparition d’une ligne verticale dans l’image du au déplacement des
charges « généralement dans la technologie CCD».)Possibilité de réaliser des fonctions

6
Semi-conducteur sensible à la lumière

28
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

évoluées sur le même substrat : filtrage, générateur d'adresse, conversion analogique-


numérique, ...etc.
Mais cette technologie présente aussi quelques inconvénients à savoir :
Des bruits sur les pixels (qui tendent à diminuer) avec un facteur de remplissage moyen ; La
figure (2.14) nous présente la structure d’un capteur CMOS.

Figure 2.14 : Structure d'un capteur CMOS [10]

I.2-LES METHODES DE MODELISATION

METHODE DE MODELISATION SPATIALE


La modélisation spatiale de la caméra se fait grâce aux méthodes de calibrage qui se fera
par la suite avec le modèle linéaire permettant la représentation d'une caméra. On
l’appelle également le modèle sténopé ou encore modèle à projection centrale car il est basé
sur ce principe de projection comme illustré par la Figure (2.15) suivante.

Figure 2.15 : Modèle sténopé [11]

29
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Modèle extrinsèque :
Cette transformation exprime le passage du repère objet (RO) au repère de la caméra
(RC) par une translation du repère objet vers le centre du repère de la caméra suivie d'une
rotation permettant de faire correspondre l'un des axes du repère translaté avec la direction de
l'axe optique de l’objectif figure (2.16).

Figure 2.16 : Modèle extrinsèque de la caméra [11]

Ainsi, les coordonnées (xo ;yo ;zo)t d'un point dans le repère objet s'expriment dans le
repère de la caméra (xc ;yc ;zc)t à l'aide du formalisme des matrices homogènes :
𝑥𝑐 𝑥0
𝑦 𝑅 𝑇𝑐𝑜 𝑦0
(𝑧𝑐 ) = ( 𝑐𝑜 ) . (𝑧 ) (2.10)
𝑐 0 1 0
1 1
La matrice (Rco) est une matrice (3×3) qui représente la rotation de mise en
correspondance du repère (Ro) avec le repère (Rc) définie soit par les angles d'Euler (θx ; θy ;
θz) ; soit au moyen d'un vecteur de rotation dont direction est l'axe de rotation et dont la norme
est l'angle de rotation. La matrice (Tco) est la translation entre le centre du repère objet (Ro) et
celui du repère caméra (Rc) [12].
Modèle interne :
Dans un premier temps, cette transformation exprime le passage du repère de la caméra
au repère du plan image situé à la distance focale f du repère caméra. Puis il est complété en
passant du plan image au repère du système de visualisation par un recalage et une mise à
l'échelle figure (2.17).

30
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Figure 2.17: Modèle intrinsèque de la caméra [11]

Les coordonnées du point dans le repère de la caméra s'expriment dans le plan image en
tenant compte de la relation liant ces deux points et la focale de l'objectif employé. Les
coordonnées dans le repère image s'expriment dans le repère de visualisation en effectuant une
translation tenant compte de l'image du centre du plan image dans le repère de visualisation
(u0 ;v0) et une mise à l'échelle qui permet d'exprimer ces coordonnées en pixels (u :v). Le
modèle interne est alors défini par la relation :
𝑥𝑐
𝑢= . 𝑓. 𝑒𝑢 + 𝑢0
𝑧𝑐
{ 𝑦𝑐 (2.11)
𝑣 = . 𝑓. 𝑒𝑣 + 𝑣0
𝑧𝑐
Comme il est impossible de dissocier la focale f des facteurs de mise à l'échelle (eu ;ev)on
effectue alors le changement de variables suivant :
𝑘𝑢 = 𝑓. 𝑒𝑢
{ (2.12)
𝑘𝑣 = 𝑓. 𝑒𝑣
Ainsi, le vecteur des paramètres du modèle de la caméra est (tx , ty , tz , θx , θy , θz ,ku , kv,
u0 ,v0). En effectuant le produit du modèle intrinsèque par le modèle extrinsèque on obtient le
modèle global du capteur qui exprime le passage du repère objet (R0)(3D) au repère de
visualisation (2D):
𝑥0
𝑢. 𝑠 𝑘𝑢 0 𝑢0 0
𝑅 𝑇𝑐𝑜 𝑦
(𝑣. 𝑠 ) = ( 0 𝑘𝑣 𝑣0 0) ( 𝑐𝑜 ) . ( 𝑧0 ) (2.13)
𝑠 0 1 0
0 0 1 0 1
Qui se généralise de la façon suivante :
𝑥0 ℎ11 ℎ12 ℎ13 ℎ14 𝑥0
𝑢. 𝑠 𝑢. 𝑠
𝑦
(𝑣. 𝑠 ) = (𝐻). ( 𝑧0 ) =≫ (𝑣. 𝑠 ) = (ℎ21 ℎ22 ℎ23 ℎ24 ) . (𝑦0
0 𝑧0 ) (2.14)
𝑠 𝑠 ℎ31 ℎ32 ℎ33 ℎ34
1 1

31
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

En utilisant la Méthode des moindres carrés pour un point de calibrage, la donnée (2D)
associée à son point (3D) conduit à deux équations linéaires indépendantes où les 12 inconnues
sont les paramètres de la matrice (H) :
(ℎ11− ℎ31 . 𝑢)𝑥0 + (ℎ12− ℎ32 . 𝑢)𝑦0 + (ℎ13− ℎ33 . 𝑢)𝑧0+ (ℎ14− ℎ34 . 𝑢) = 0
{ (𝟐. 𝟏𝟓)
(ℎ21− ℎ31 . 𝑣)𝑥0 + (ℎ22− ℎ32 . 𝑣)𝑦0 + (ℎ23− ℎ33 . 𝑣)𝑧0+ (ℎ24− ℎ34 . 𝑣) = 0
En normalisant h34 à une valeur de 1 (ou en divisant les deux équations par h34), le
nombre de paramètres à déterminer pour le modèle global n'est plus que de 11. Le système
peu alors s'exprimer sous la forme matricielle suivante :
𝐀. 𝐗 = 𝐁 (𝟐. 𝟏𝟔)

Avec le vecteur des 11 paramètres recherchés :


𝑋 = (ℎ11 ℎ12 ℎ13 ℎ14 ℎ21 ℎ22 ℎ23 ℎ24 ℎ31 ℎ32 ℎ33 )𝑡 (𝟐. 𝟏𝟕)
La matrice A indexée par apport aux n points de calibrage :
𝑥01 𝑦01 𝑧01 1 0 0 0 0 −𝑢1 𝑥01 −𝑢1 𝑦01 −𝑢1 𝑧01
0 0 0 0 𝑥01 𝑦01 𝑧 1 −𝑣1 𝑥01 −𝑣1 𝑦01 −𝑣1 𝑧01
… … … … … … …01 … … … …
… … … … … … … … … … …
𝑥0𝑖 𝑦0𝑖 𝑧0𝑖 1 0 0 0 0 −𝑢𝑖 𝑥0𝑖 −𝑢𝑖 𝑦0𝑖 −𝑢𝑖 𝑧0𝑖
𝐴= 𝑥0𝑖 𝑦0𝑖 𝑧0𝑖 (𝟐. 𝟏𝟖)
…0 0
… 0
… 0
… … … … 1 −𝑣…
… 𝑖 𝑥0𝑖 −𝑣𝑖 𝑦0𝑖

−𝑣𝑖 𝑧0𝑖

… … … … … … … … … … …
𝑥0𝑛 𝑦0𝑛 𝑧0𝑛 1 0 0 0 0 −𝑢𝑛 𝑥0𝑛 −𝑢𝑛 𝑦0𝑛 −𝑢𝑛 𝑧0𝑛
( 0 0 0 0 𝑥0𝑛 𝑦0𝑛 𝑧0𝑛 1 −𝑣𝑛 𝑥0𝑛 −𝑣𝑛 𝑦0𝑛 −𝑣𝑛 𝑧0𝑛 )
Donc 𝐀. 𝐗 = 𝐁 Et le vecteur B :
𝐵 = (𝑢1 𝑣1 … … 𝑢𝑖 𝑣𝑖 … … 𝑢𝑛 𝑣𝑛 )𝑡 (𝟐. 𝟏𝟗)
Il faut donc un minimum de 6 points de calibrage afin de pouvoir estimer les paramètres
du modèle global. Pour des raisons de non dégénérescence du système, les points de calibrage
ne doivent pas être tous définis dans le même plan ou se trouver sur le même rayon visuel.
La résolution se fait par une technique minimisant un écart quadratique des distances de
projection qui n'est autre qu'un calcul de pseudo inverse :
𝐗 = (𝑨𝒕 . 𝐀)−1 . 𝑨𝒕 . 𝑩 (𝟐. 𝟐𝟎)
Soit :
𝐗 = pseudoinverse(𝐀). 𝐁
Une fois les paramètres du modèle global déterminés, il est possible de dissocier les
paramètres du modèle interne et ceux du modèle externe. Pour que cette méthode soit
suffisamment fiable, le nombre de points de calibration doit être d'une douzaine au moins

32
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

(marge nécessaire par rapport aux six points minimum), et l'incertitude sur la position des points
la plus faible possible.
Voilà donc présenté la modélisation spatiale maintenant passons à la modélisation temporelle.
[11]

METHODE DE MODELISATION TEMPORELLE


Cette partie est destinée à étudier la chronologie des différents éléments intervenant dans le
processus de vision destiné à effectuer une tâche de tri de pièces ou d'asservissement visuel
durant les phases d'acquisition d'images ; de traitement informatique des images ; et l'action qui
en résulte.
Du point de vue temporel, les temps à prendre sont au nombre de cinq.
Le temps d'intégration du capteur : Durant cette période, la scène est figée sur le plan image
formé par le capteur.
Le temps de transfert de l'image depuis la caméra vers la carte d'acquisition d'images. Dans
le cas d'un système d'acquisition analogique, ce temps est fixe et est égal à 40 millisecondes.
Le temps de transfert de la carte d'acquisition d'images vers la mémoire du processeur. Ce
transfert est assuré par le circuit de DMA (Direct Memory Acces). Une carte de bonne qualité
effectue des transfert DMA sur bus PCI à un débit de 100 méga octets par seconde. Dans ce
cas, le transfert d'une image couleur au format CCIR (3x768x576=1.26 méga octets) prend
environ 14 millisecondes.
Le temps de transfert de la mémoire du processeur vers la mémoire applicative. Il s'agit ici
de recopier l'espace mémoire image, rempli par le circuit de DMA, dans un espace
mémoire image, propre au programme applicatif. Cette recopie permet au programme
de travailler sur un espace mémoire image, sécurisé vis à vis du DMA et avec un accès
plus rapide (par exemple en mémoire cache). Ce temps est assez court. Pour une image
couleur au format CCIR, il est de l'ordre de 6 millisecondes.

33
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Le temps de traitement correspond à l'analyse de l'image, ainsi qu'à l'action qui en


résulte. C'est le temps le plus difficile à évaluer, puisqu'il dépend du programme applicatif et
du la vitesse de traitement de la machine sur laquelle il va fonctionner [13]. La figure (2.18)
suivante illustre la chronologie de ces différents temps

Figure 2.18: Enchaînement des temps de l'acquisition dans le cas d'une carte
d'acquisition avec mémoire d'images [13]

Ces cinq temps et leur enchaînement sont maintenant définis et spécifient l'analyse
d'une image. Il faut à présent étudier comment la machine de vision enchaîne ces tâches
élémentaires, et réalise l'analyse du flux d'images. Du point de vue de l'automatique, on cherche
à avoir la machine de vision la plus robuste possible. Pour cela, deux paramètres sont optimisés.
La fréquence de travail est maximale. Un système d'acquisition analogique travaille à
25 images par seconde.
Le délai entre la prise d'images (temps d'intégration) et l'action (temps de traitement)
est minimum. La figure (2.19) illustre les contraintes temporelles imposées par le flux d'images
dans le cas d'un système constitué d'une carte d'acquisition analogique sur un bus PCI. On

34
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

[14]

Figure 2.19: Système d'acquisition fonctionnant à 25 images par seconde [13]

I.3-LES METHODES DE TRAITEMENT D’IMAGE


Cette partie est destinée à présenter les différentes méthodes de traitement qui peuvent
affecter une image dans le d’appliquer une méthode de reconnaissance de forme.
LES TYPES DE TRAITEMENT (LE TRAITEMENT PAR DETECTION DE
CONTOUR)
La détection des contours d'une image ou sa segmentation permettent de préparer le terrain
pour des traitements de plus haut niveau tel que la reconnaissance de formes.
La détection de contours s’appuie sur plusieurs méthodes parmi lesquelles :
Le gradient Simple : Qui est une méthode utilisant deux filtres (ou masques de
convolution) pour mettre en évidence les contours (primitives). La figure (2.20) suivante illustre
son principe.

Figure 2.20: Méthode de gradient simple [15]

35
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Le gradient de Roberts : Utilise deux filtres pour mettre en évidence les contours. La
figure (2.21) permet d’illustrer son principe

Figure 2.21: Méthode du gradient de Robert [15]

Le filtres de Prewitt : qui lui aussi est composé de deux filtres illustrés par la figure (2.22).

Figure 2.22 : filtres de Prewitt [15]


Le Filtre de Sobel : Son principe est illustré par la figure (2.23) suivant :

Figure 2.23: Filtre de Sobel [15]

36
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Le filtre de Canny : Qui se basé sur les critères suivants :


Un critère de bonne détection garantissant une réponse forte en sortie du filtre même en
présence de faibles contours sur l'image d'entrée.
Un critère de bonne localisation du contour.
Un critère d'unicité de la réponse permettant d'assurer une seule détection pour un contour et
ainsi d'éviter les effets de rebond.
Les figures (2.24) et (2 .25) suivantes illustrent son principe :

Figure 2.24:Processus chronologique Figure 2.25: Principe du filtre de Canny [15]


du filtre de Canny [15]
Pour limiter le temps de traitement lié à la reconnaissance des formes nous avons
extraire les points d’intérêt sur lesquelles nous appliquerons les outils de reconnaissance des
formes. Plusieurs méthodes s’offrent à nous parmi lesquelles :
La transformée de HOUGH qui consiste à faire correspondre à des points de contour du
plan image des points d’un espace de paramètres. Elle peut s’étendre pour détecter des courbes
de forme quelconque en conservant ses dimensions so principe est le suivant :
Considérons un point de contour du plan image Ce point est caractérise par sa
position dans l’image [xi yi] et par son orientation αi On peut donc définir une droite qui passe
par ce point et qui a la direction du contour :
𝒙𝒊 𝐬𝐢𝐧 𝜶𝒊 + 𝒚𝒊 𝐜𝐨𝐬 𝜶𝒊 = 𝒅𝒊 (𝟐. 𝟐𝟏)
A chaque point-contour du plan image correspond donc un point dans le plan d Soient
n points-contour colinéaires On aura α1=…=αn et d1=…= dn. A tous ces points colinéaires il
correspond le même point dans le plan des paramètres Afin d’utiliser pratiquement cette
technique nous devons discrétiser le plan des paramètres en N×M cellules A chaque point-
contour du plan image correspond donc une cellule du plan d De plus on associe un compteur

37
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

à chaque cellule Chaque fois qu’une cellule reçoit un "vote" de l’image on incrémente son
compteur. Des points de contour colinéaires voterons pour la même cellule le compteur
correspondant contiendra par conséquent une valeur élevée par rapport au compteur d’une
cellule qui ne correspond pas à des points de contour colinéaires. [15]

Les points de Harris-Stephens (1988) qui Calculer le changement induit par une
translation (u,v) sur une fenêtre décrite par le domaine x,y dans toute les directions non plus
seulement dans deux comme dans celle de MORAVEC. L’équation (équation de Harris-
Stephens) présente son principe de calcul.

𝟐 𝒖 𝑰𝟐𝒙 𝑰 𝒙 𝑰𝒚
𝑽(𝒙;𝒚) ≈ ∑𝒇𝒆𝒏ê𝒕𝒓𝒆(𝒖𝑰𝒙 + 𝒗𝑰𝒚 ) =≫ 𝑽(𝒙;𝒚) ≈ (𝒖 𝒗)𝑴 ( ) 𝐚𝐯𝐞𝐜 𝐌 = [ ] (𝟐. 𝟐𝟐)
𝒗 𝑰𝒙 𝑰𝒚 𝑰𝟐𝒚

λ1 et λ2 étant les propres de M.V égale une constante. , la Classification des points en utilisant
les valeurs propres se fait comme le présente la figure (2.26)

Figure 2.26: classification des points en fonction des valeurs propre de la


matrice Harris-Stephens [16]
Une fois ces points extraits nous passons au processus de reconnaissance des formes.
Les processus de reconnaissance de forme sont nombreux et sont reparti en deux grande
familles à savoir l’apprentissage supervisé (La méthode des K plus proches voisins ; a méthode
CART « Classification And Regression Tree » ; Matching by Correlation …etc.) et non
supervisé (Algorithme simple et classique de clustering ; L’apprentissage non-supervisé à rétro
propagation ; L’apprentissage Hebbien non-supervisée ; Les K-means …etc.).
Nous nous attarderons un peu plus sur le Matching by Correlation (Mise en
correspondance par corrélation) qui est une méthode de classification supervisé statique basé
sur des notions statistique qui pour deux images f(x,y) et w(x,y) cherche à établir une corrélation

38
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

entre les places de qui se ressemblent fortement dans les deux images F(x,y) étant l’image à
reconnaitre et w(étant le masque ou référence ou encore model) la valeur de cette corrélation
est comprise entre [-1 1] une fois le coefficient de corrélation déterminé on peut le comparer à
un seuil et prendre une décision par rapport à l’image à examiner. La formule de corrélation est
donnée par l’équation (Calcul du coefficient de corrélation entre deux images) :

̅ ] [𝒇(𝒙 + 𝒖 , 𝒚 + 𝒗) − 𝒇̅𝒙,𝒚 ]
∑𝒖,𝒗[𝒘(𝒔, 𝒕) − 𝒘
𝜸(𝒙, 𝒚) = (𝟐. 𝟐𝟑)
𝟐
̅ ]𝟐 ∑𝒖,𝒗[𝒇(𝒙 + 𝒖 , 𝒚 + 𝒗) − 𝒇̅𝒙,𝒚 ]
√∑𝒖,𝒗[𝒘(𝒖 , 𝒗) − 𝒘

où 𝒇̅𝒙,𝒚 est la valeur moyenne des pixels dans l’image à examiner et 𝒘


̅ est celui du model ;et le
vecteur (u,v) représente le pas de calcul de la corrélation .
Voilà donc ainsi fini la méthode de modélisation de notre système de vision. [17]

II-METHODOLOGIE DE MODELISATION DES ROBOTS (SYSTEMES


MECANIQUES ARTICULES)

II.1-ELEMENTS CONSTITUTIFS ET TYPES DE ROBOT

ELEMENTS CONSTITUTIFS DES ROBOTS


Un robot manipulateur est constitué généralement par deux sous-ensembles distincts :
un organe terminal qui est le dispositif destiné à manipuler des objets, et une structure
mécanique articulée (SMA), constituée d’un ensemble de solides reliés entre eux (corps),
généralement les uns à la suite des autres où chaque solide est mobile par rapport au
précédent grâce à un actionneur (moteur). Cette mobilité s’exprime en termes de degrés de
liberté (d.d.l) qui est par définition le nombre de mouvements indépendants possibles d’un
solide par rapport au solide qui lui est directement relié. La mesure des mouvements et de l’état
du robot est réalisée par des capteurs.
Une structure mécanique articulée peut être représentée par une architecture composée
de plusieurs chaînes de corps rigides assemblés par des liaisons appelées articulations. Les
chaînes peuvent être dites soit ouvertes ou en série dans les quelles tous les corps ont au plus
deux liaisons, ou bien arborescentes où au moins l’un des corps a plus de deux liaisons. Les
chaînes peuvent aussi être fermées dans lesquelles l’organe terminal est relié à la base du
mécanisme par l’intermédiaire de plusieurs chaînes. [18]

39
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

La figure (2.27) suivante met en évidence les différents constituants.

Figure 2.27: Principaux constituants d’un SAM [19]


Articulation ou Axe lie deux corps successifs en limitant le nombre de
degrés de liberté l’un par rapport à l’autre. On appelle mobilité de l’articulation le
nombre de degré de liberté 0≤m≤ 6. Lorsque m=1, l’articulation est soit rotoïde7 soit
prismatique8
Organe terminal : tout dispositif destiné à manipuler des objets (dispositifs de serrage,
dispositifs magnétiques, à dépression, …), ou à les transformer (outils, torche de soudage,
pistolet de peinture, …). En d'autres termes, il s'agit d'une interface permettant au robot
d'interagir avec son environnement
L’effecteur ou outil est l’élément directement en contact avec le processus à modifier.
Les capteurs permettent de gérer les relations entre le robot et son environnement. Ils
peuvent être proprioceptifs lorsqu'ils mesurent l'état interne du robot (positions et vitesses des
articulations ; température interne des moteurs …) et extéroceptifs lorsqu'ils recueillent des

7
Désignation de mouvement de rotation en robotique
8
Désignation du mouvement de translation en robotique

40
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

informations sur l'environnement (détection de présence, de contact, mesure de distance, vision


artificielle …). Les figures (2.28) et (2.29) suivante présentent quelques capteurs

Figure 2.28: exemple de codeur absolu [19] Figure2.29 : exemple de codeur incrémental [19]

Le corps ou segment est la partie solide du robot généralement fait en matériaux


métallique, il a la responsabilité de supporter la charge que le robot doit déplacer et ceux sans
rompre tout en étant le plus léger possible pour ne pas fatiguer les actionneurs et avoir une
longueur bien définie.
Les actionneurs : C’est un ensemble généralement constitué de moteurs le plus souvent
avec des transmissions (les réducteurs à train d’engrenage, épicycloïdal, Harmonic drive ; les
transmissions à courroies crantées).
Les actionneurs utilisent fréquemment des moteurs électriques à aimant permanent, à courant
continu, à commande par l'induit (la tension n'est continue qu'en moyenne car en général
l'alimentation est un hacheur de tension à fréquence élevée ; bien souvent la vitesse de régime
élevée du moteur fait qu'il est suivi d'un réducteur, ce qui permet d'amplifier le couple moteur).
On trouve de plus en plus de moteurs à commutation électronique (sans balais), ou, pour de
petits robots, des moteurs pas à pas.
Pour les robots devant manipuler de très lourdes charges (par exemple, une pelle
mécanique), les actionneurs sont le plus souvent hydrauliques, agissant en translation (vérin
hydraulique) ou en rotation (moteur hydraulique).
Les actionneurs pneumatiques sont d'un usage général pour les manipulateurs à cycles
(robots tout ou rien). Un manipulateur à cycles est un S.M.A. avec un nombre limité de degrés
de liberté permettant une succession de mouvements contrôlés uniquement par des capteurs de
fin de course réglables manuellement à la course désirée (asservissement en position difficile
dû à la compressibilité de l'air).
Les moteurs fréquemment utilisé en robotique sont les suivant :
Les moteurs à courant continu (MCC)

41
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Les moteurs synchrones autopiloté (MS) exemple : DC brushless


Les moteurs asynchrones à commande vectorielle (MA)
Les caractéristiques propres des moteurs pour la robotique sont :
Le bobinage statorique à faible constante de temps électrique (L/R)
Le rotor à faible constante de temps mécanique (J/F)
Où J est l’inertie rotorique ; L est l’inductance rotorique ; R est la résistance rotorique : F les
frottements visqueux rotorique.
Ce qui donne une forme particulière aux moteurs pour la robotique. La figure (2.30)
présente quelques exemples de moteurs pour la robotique.

Figure 2.30: Exemple de moteur pour la robotique [19]


Certain des différents actionneurs électriques utilisé pour la robotique ont des
rendements mitigés en fonction du critère d’examinassions. Le tableau (2.4) suivant en donne
un bref aperçu.
Tableau 2.4: Tableau comparatif des différents actionneurs électriques les plus utilisés [19]

LES TYPES DE ROBOT


On distingue trois grandes familles de robot de nos jours à savoir :

42
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Robots mobiles : Ce sont des robots capables de se déplacer dans un environnement comme
le montre la figure (2.31) ; Ils sont équipés ou non de manipulateurs suivant leur utilisation, (les
robots explorateurs, les robots de services …).

Figure 2.31: Exemple de robot mobil [19]


Les Robots humanoïdes : ce sont des robots dotés d’une apparence humaine. Ils sont eux
aussi utilisé dans les mêmes domaines que ceux des robots mobiles. La figure (2.32) nous en
montre un exemple.

Figure 2.32: Exemple de Robot humanoïde [20]


ET les robots manipulateurs : Ce sont des robots ancrés physiquement à leur place de travail
et généralement mis en place pour réaliser une tâche précise répétitive, (tels que les robots
industriels, médicaux…etc.). Cette famille de robot est aussi divisée en trois sous-groupes en
fonction de leurs structures. On distingue :

43
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Le groupe des robots à corde : caractérisé par le fait que l’organe terminale est mu par des
câble. Ces robots sont généralement utilisés dans l’audiovisuel pour la retransmission des
évènements sportif, les grands concerts de music …etc. La figure (2.33) illustre parfaitement
ce type de robot

Figure 2.33: Exemple d’un robot manipulateur à corde [19]


Les robots parallèles : caractérisés par le fait que plus d'une chaîne cinématique assure
la liaison entre la base fixe et l'organe terminal mobile. Ces robots sont très utilisés dans
l’industrie de l’agro-alimentaire ; …. La figure (2.34) illustre à suffisance ce type de robot

Figure 2.34: exemple de robot manipulateur parallèle [19]

Et en fin les robot séries ; caractérisés par le fait qu'une seule chaîne cinématique relie
la base fixe à l'organe terminal mobile. Ces robots sont très utilisés dans l’industrie de
l’automobile ; l’agro-alimentaire ; …etc. La figure (2.35) illustre à suffisance ce type de robot

44
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Figure 2.35: Exemple de robot manipulateur séries [19]


Dans nos travaux nous nous sommes attardés sur ce dernier type de robot que nous avons
choisi pour notre système et c’est lui que nous allons modéliser. [21]

II.2-METHODOLOGIE DE MODELISATION DES ROBOTS


MANIPULATEURS SERIES

PRESENTATION DES DIFFERENTES METHODES DE MODELISATION


Les méthodes de modélisation des robot séries sont nombreuses ; parmi celles d’entre elle
on peut citer :
La méthode Khalil et Kleinfinger qui permet la description homogène, et avec un nombre
minimum de paramètres, des robots manipulateurs séries. Elle consiste à réalise quatre
mouvements alternés de rotation et translation suivant des axes précis.
Sa matrice de transformation définissant le repère Rj dans le repère Rj-1 est donnée par

𝑻𝒋−𝟏 𝒋 = 𝐑𝐨𝐭(𝒙𝒋−𝟏 , 𝜶𝒋 )𝐓𝐫𝐚𝐧𝐬(𝒙𝒋−𝒊 , 𝒅𝒋 )𝐑𝐨𝐭(𝒛𝒋−𝟏 , 𝜽𝒋 )𝐓𝐫𝐚𝐧𝐬(𝒛𝒊−𝟏 , 𝒓𝒋 ) (𝟐. 𝟐𝟒)

Cette méthode est très efficace mais est encore faiblement rependus dans le domaine
industriel [18]
La méthode Denavit-Hartenberg qui permet la description homogène, et avec un
nombre réduit de paramètres, des robots manipulateurs séries. Elle consiste à réalise quatre
mouvements une rotation ; deux translations et une rotation. [22]
Sa matrice de transformation définissant le repère Ri dans le repère Ri-1 est donnée par

45
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

𝑴𝒊−𝟏 𝒊 = 𝐑𝐨𝐭(𝒛𝒊−𝟏 , 𝜽𝒊 ) 𝐓𝐫𝐚𝐧𝐬(𝒛𝒊−𝟏 , 𝒅𝒊 )𝐓𝐫𝐚𝐧𝐬(𝒙𝒊 , 𝒂𝒊 )𝐑𝐨𝐭(𝒙𝒊 , 𝜶𝒊 ) (𝟐. 𝟐𝟓)


Cette méthode est très utilisée dans le domaine industriel car très satisfaisante. [23]
LA METHODE DENAVIT-HARTENBERG
La convention de Denavit et Hartenberg (DH 1955) est une méthode systématique. Elle
permet le passage entre articulations adjacentes d’un système robotique. Elle concerne les
chaînes cinématiques ouvertes où l’articulation possède uniquement un degré de liberté, et les
surfaces adjacentes restent en contact. Le choix adéquat des repères dans les liaisons facilite le
calcul des matrices homogènes de DH et permet d’arriver à exprimer rapidement des
informations de l’organe terminal vers la base ou l’inverse.
Les étapes à suivre pour cette technique sont les suivantes :
1. Numérotation des segments constitutifs du bras manipulateur de la base vers l’élément
terminal. On associe le référentiel zéro à la base de celui-ci, et l’ordre n à l’organe terminal
(effecteur) ;

2. Définition des axes principaux de chaque segment : Si zi et zi-1 sont colinéaires on choisit xi
dans le plan perpendiculaire à zi+1.

3. Fixer les quatre paramètres géométriques : ai, αi, di et θi (voir la figure Systèmes de
coordonnées et les paramètres de Denavit et Hartenberg) pour chaque articulation tel que :

di coordonnée de l’origine oi sur l’axe zi-1 . Pour une glissière di est une variable et pour une
charnière di est une constante.

θi est l’angle que l’on obtient par vissage de xi-1 vers xi autour de l’axe zi-1. Pour une glissière
θi est une constante et pour une charnière θi est une variable.

ai est la distance entre les axes zi et zi-1 mesurée sur l’axe xi négatif à partir de son origine
jusqu’à l’intersection avec l’axe zi-1.

αi est l’angle entre zi et zi-1 obtenu en vissant zi-1 vers zi autour de xi .

46
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Si zi et zi-1 ne se coupent pas et on choisit xi de manière à être la parallèle avec l’axe


perpendiculaire à zi et zi-1

On a enfin la matrice de transformation homogène de DH. La partie supérieure gauche (3x3)


définit la matrice de rotation Rii-1, et le vecteur droit pour la translation dii-1.

𝒄𝜽𝒊 −𝒔𝜽𝒊 𝒄𝜶𝒊 𝒔𝜽𝒊 𝒔𝜶𝒊 𝒂𝒊 𝒄𝜽𝒊


−𝒄𝜽𝒊 𝒔𝜶𝒊 𝒂𝒊 𝒔𝜽𝒊
= [𝒔𝜽𝒊 𝒄𝜽𝒊 𝒄𝜶𝒊
𝑴𝒊−𝟏 𝒊 ] (𝟐. 𝟐𝟔)
𝟎 𝒔𝜶𝒊 𝒄𝜶𝒊 𝒅𝒊
𝟎 𝟎 𝟎 𝟏
Comme la matrice précédente le passage d’un repère (i-1) à un repère (i) pour aller
repère de base R0 au repère de l’effecteur Rn il suffit de multiplier la matrice dans l’ordre suivant
𝑴𝟎 𝒏 = 𝑴𝟎 𝟏 × 𝑴𝟏 𝟐 × … × 𝑴𝒊−𝟏 𝒊 × … × 𝑴𝒏−𝟏 𝒏 (𝟐. 𝟐𝟕)
Une fois cette multiplication faite ; Les trois premières lignes de la quatrième colonne
de la matrice 𝑀0 𝑛 représentent le Model Géométrique Direct du robot (MGD) qui permet de
déterminer la position de l’effecteur connaissant les positions des variables articulaires.
En appliquant : [19]
La méthode de Paul qui traite séparément chaque cas particulier et convient pour la
plupart des robots industriels ; ou la méthode de Pieper qui permet de résoudre le problème
pour les robots à six degrés de liberté possédant trois articulations rotoïdes d'axes concourants
ou trois articulations prismatiques ; ou la méthode générale de Raghavan et Roth [Raghavan
90], donnant la solution générale des robots à six articulations à partir d'un polynôme de degré
au plus égal à 16. [22]
Ou encore par des relations évidentes de simplification géométrique sur le MGD On arrive
donc à trouver le Modèle Géométrique Inverse (MGI) qui permet de donner si elles existent les
valeurs des variables articulaires connaissant la position de l’effecteur.
Mais il faut déterminer la condition de non singularités et les points singulier qui varient en
fonction de la structure du robot
Pour déterminer le Model Cinématique Direct (MCI) on peut passer par la méthode des
dérivées ou par celle des systèmes récursifs
Méthode des dérivées
𝟎 −𝝎𝒛 𝝎𝒚
𝒅𝑹𝟎 𝒏
𝐴𝑺(𝜴𝟎 𝒏 ) = [ 𝝎𝒛 𝟎 −𝝎𝒙 ] = × 𝑹𝒏 𝟎 (𝟐. 𝟐𝟖)
−𝝎𝒚 𝝎𝒙 𝟎 𝒅𝒕

47
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

𝝎𝒙
Avec 𝜴𝟎 𝒏 = (𝝎𝒚 ) = 𝑱. 𝒒̇ (𝟐. 𝟐𝟗)
𝝎𝒛
Où Ω représente la vitesse linéaire de l’effecteur ; J la matrice du jacobien et 𝑞̇ les vitesses
articulaires du robot [19].
L’autre est la méthode des systèmes récursifs
𝑱 = [𝑱𝟏 𝑱𝟐 … 𝑱𝒏 ] (𝟐. 𝟑𝟎)
Où Ji = [0zi-1 x (R0 i-1.i-1On) 0z
i-1]
t (2.31)
Si l’axe est rotoïde et
Ji = [0zi-1 03]t (2.32)
Si l’axe est prismatique
Une fois le MCD déterminé, on peut trouver aisément le Model Cinématique Inverse
(MCI) qui donne la vitesse articulaire en fonction de la vitesse linéaire de l’effecteur
Par le calcul de la pseudoinvers du jacobien qui se présente comme suit :
𝑱+ = (𝑱𝒕 . 𝐉)−1 . 𝑱𝒕 (𝟐. 𝟑𝟑)
Et 𝒒̇ = 𝑱+ 𝜴𝟎 𝒏 (𝟐. 𝟑𝟒)
Une fois le MCI déterminé nous passons directement au Model Dynamique Direct MD
qui est une modélisation de n équation différentielles d’ordre 2 ; reliant les dérivées première
et seconde des n coordonnées articulaires par rapport au temps aux n efforts articulaires
développé par les actionneurs. Avec n le nombre d’articulation.
Pour cela nous prenons le modèle d’EULEUR LAGRANGE encore appelé méthode TOP-
DOW (haut vers le bas) car elle part de la modélisation de l’énergie du système afin de
modéliser les actionneurs. Elle est caractérisée par la relation suivante.
𝒅 𝝏𝑳 𝝏𝑳
− = 𝝉𝒊 (𝟐. 𝟑𝟓)
𝒅𝒕 𝝏𝒒̇𝒊 𝝏𝒒𝒊
Avec L=K-V : Le lagrangien du système
K : L’énergie cinétique du système
V : L’énergie potentielle du système ; qi ièem coordonnée généralisé du système ; τi : force ou
coule moteur appliqué à l’articulation i
𝒏 𝟏 𝟏
𝑲=∑ ( 𝒎𝒊 𝒗𝒊 𝒕 𝒗𝒊 + 𝝎𝒕𝒊 𝑰𝒊 𝝎𝒊 ) (𝟐. 𝟑𝟖)
𝒊=𝟏 𝟐 𝟐

48
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Avec Ii : Le tenseur d’inertie du corps i pris par rapport à son centre de gravité ; mi : masse du
corps i ; vi vitesse linéaire du centre de gravité du corps i et ωi : vitesse angulaire de rotation
du corps i

Et 𝑽 = − 𝟎𝒈𝒕 ∑𝒏𝒊=𝟏 𝟎𝑶𝒈𝒊 𝒎𝒊 (𝟐. 𝟑𝟗)

Avec 0gt représente l’accélération de la pesanteur et oOgi le centre de gravité du corps i par
rapport au référentiel R0. [22] [19] [24]
Notre robot ainsi étant modélisé on peut passer à la commande

II.3-LES METHODES DE COMMANDE ET LES CONTRAINTES


AFFERANTES

LES TYPES DE COMMANDE


La commande consiste à envoyer des impulsions au actionneurs pour qu’ils suivent le plus
précisément possible la consigne. La commande des robots-manipulateurs a fait l'objet de
nombreux travaux. Les principales approches utilisées sont :
la commande classique de type PID (commande proportionnelle, intégrale et dérivée) ;
la commande par découplage non linéaire ;
La commande passive ;
La commande fondée sur une fonction de Lyapunov ;
La commande adaptative ;
La commande robuste à structure variable (modes glissants).
Dans la suite de nos travaux seule la commande classique de type PID fera l’Object de notre
étude pour des raisons de facilité et coût d’implémentation.
Les équations du modèle dynamique du robot -manipulateurs dont la forme générale, pour
un robot à n degrés de liberté, est la suivante :
̇
𝜞 = 𝑨(𝒒) + 𝑪(𝒒, 𝒒̇ )𝒒 + 𝑸(𝒒) + 𝒅𝒊𝒂𝒈(𝒒̇ )𝑭𝒗 + 𝒅𝒊𝒂𝒈(𝒔𝒊𝒏𝒈𝒏(𝒒̇ ))𝑭𝒔 (𝟐. 𝟒𝟎)
Où : Γ est le vecteur (nx1) des couples/forces articulaires, A(q) est la matrice (nxn) d'inertie
du robot, C (q, dq/dt) dq/dt est le vecteur (nx1) représentant les forces centrifuges et les forces
de Coriolis, Q(q) est le vecteur des forces de gravité, Fv et Fs sont les vecteurs des paramètres
de frottement respectivement visqueux et sec.

49
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Le schéma de la commande classique de type PID est donné par la figure (2.36)

Figure 2.36: Schéma de commande classique de type PID [19]

La loi de commande est donnée par l’équation (équation de la loi de commande)


𝒕 ̇
𝒅
𝜞 = 𝑲𝒑 (𝒒 − 𝒒) + 𝑲𝒅 (𝒒𝒅̇ − 𝒒̇ )+𝑲𝑰 ∫ (𝒒𝒅 − 𝒒) 𝒅𝝉 (𝟐. 𝟒𝟏)
𝒕𝟎

où 𝒒̇ 𝒅 (𝒕) et 𝒒𝒅 (𝒕)désignent les vitesse et position désirées dans l'espace articulaire et où Kp,
Kd et KI sont des matrices diagonales définies positives, de dimension (n x n), dont les éléments
génériques sont respectivement les gains proportionnels Kpj, dérivés Kdj et intégraux KIj . [22]
Pour réaliser les tâches désirées, il est important que le mouvement du robot soit fluide
pour cela nous avons besoin de planifier sa trajectoire. Et pour illustrer le comportement
temporel du mouvement nous allons nos servir de la figure (2.37) :

Figure 2.37: Illustration de la trajectoire d'un robot [19]


Avec : iAmax l’accélération maximale de l’axe i ;
iV
max la vitesse maximale de l’axe i ;
iq
A : la position initiale de l’axe i ;
iq
B la position finale de l’axe i
Il est donc facile de montrer que le temps de cycle pour chaque axe est :

50
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

𝒊 𝒊 𝟐
𝒊 𝑽𝒎𝒂𝒙 𝒒𝑩 − 𝒊𝒒𝑨 𝒊 𝒊
𝒊
𝑽𝒎𝒂𝒙
𝒕𝒄 = 𝒊
+ 𝒊
𝒔𝒊 𝒒𝑩 − 𝒒𝑨 > 𝒊
𝑨𝒎𝒂𝒙 𝑽𝒎𝒂𝒙 𝑨𝒎𝒂𝒙
𝟐 (𝟐. 𝟒𝟐)
𝒊 𝒊
𝒊 𝒒𝑩 − 𝒊𝒒𝑨 𝒊 𝒊 𝑽𝒎𝒂𝒙
𝒕𝒄 = 𝟐√ 𝒊
𝒔𝒊 𝒒𝑩 − 𝒒𝑨 ≤ 𝒊
{ 𝑨𝒎𝒂𝒙 𝑨𝒎𝒂𝒙

Et le temps de cycle pour tout le système est : 𝑻𝒄 = 𝒎𝒂𝒙{ 𝒊𝒕𝒄 } ; c’est-à-dire le temps
de cycle le plus long des articulations. Et à partir de Tc on recalcule l’accélération maximale ou
la vitesse maximale de tous les autres axes et ceux grâce aux formules suivantes :

𝒊 𝟐
𝒊 𝒒𝑩 − 𝒊𝒒𝑨 𝒊 𝒊
𝒊
𝑽𝒎𝒂𝒙
𝑨= 𝟒 𝒔𝒊 𝒒𝑩 − 𝒒𝑨 ≤
𝑻𝒄 𝟐 𝒊
𝑨𝒎𝒂𝒙
(𝟐. 𝟒𝟑)
𝒊 𝟏 𝟐
𝑽 = [ 𝒊𝑨𝒎𝒂𝒙 𝑻𝒄 − √( 𝒊𝑨𝒎𝒂𝒙 𝑻𝒄 ) − 𝟒( 𝒊𝒒𝑩 − 𝒊𝒒𝑨 ) 𝒊𝑨𝒎𝒂𝒙 ]
{ 𝟐

Voilà donc ce qu’il en est de la modélisation de commande nous pouvons donc nous
poser la question de savoir comment et quelles sont les contraintes liées à son implémentation.

LES CARACTERISTIQUES ET CONTRAINTES TEMPS REEL DE


COMMANDE DU ROBOT
La commande d’un robot obéis à des contraintes rigoureuses tel que : Les trajectoires fluide
(Mouvement simultané et synchrone) ; le contrôle permanant de ses paramètres interne et
externes… etc. pour cela un système classique ne suffirait à assurer ces fonctions ; il nous faut
un système temps-réel (STR).
Un système temps-réel (STR) est une application qui doit répondre à des stimuli fournis par
un environnement externe (via des capteurs) afin de contrôler un processus (actionneur).
Il est caractérisé par la justesse des calculs et le temps nécessaire pour fournir le résultat. Il
interagit avec un environnement extérieur en évolution et prend en compte les contraintes
temporelles imposées à ceux-ci. Si dans un STR les fautes temporelles sont tolérables, on dit
que on dit que les contraintes temporelles sont lâches, relative ou mou « STR mou » ; dans le
cas contraire il est strict ou dure « STR dure ».
Un STR peut avoir les qualificatifs suivants : embarqué9 (Le dispositif de commande est
directement implanté dans le système à contrôler.) ; dédié (Les architectures matériel ou

9
Qui est intégré de féçon indissociable à un matériel

51
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

logiciel sont spécifique à une application) ou réparti/distribué (architecture à plusieurs


processeurs reliés entre eux par un bus ou un réseau)
Pour mener à bien ses objectifs il les divise le processus en tâches « système multitâche
» pour émuler un parallélisme (programmation concurrentielle). La tâche est une entité
d’exécution et de structuration de l’application. La figure (2.38) nous permet de visualiser
l’architecture logiciel d’un système multitâche.

Figure 2.38: Architecture logiciel d’une application de contrôle-commande multitâche [21]

On distingue dans cette figure les tâches de communication qui gèrent des messages
(recevoir, envois) à travers plusieurs réseaux et les tâches de sauvegarde qui stockent l’état du
système à un instant fixe. Cette sauvegarde peut être utilisée à postériori pour analyser le
fonctionnement de l’application ou d’une reprise d’exécution à une étape précédente.
Les relations entre les tâches sont de type ;
Synchronisation qui gère les relations de précédence d’exécution entre les tâches
La communication qui est une relation de précédence et de transfert de données entre les tâches
Les partage de ressource qui assure la mise en commun au niveau du système comme les zones
mémoires ; carte entrée/sortie ; carte réseaux.
Pour gérer ces différentes tâches qui peuvent avoir des relations complexe et multiples
nous avons besoin d’un système informatique capable de gérer l’enchainement des
concurrences des tâches en optimisant l’occupation du processus (ordonnancement qui es
garante du respect des contraintes temporelles imposé à l’exécution de l’application). Ces
systèmes sont de deux sorte synchrone (Une tâche ne commence que si la précédente est
terminée ; les tâches doivent être non préemptible) ou asynchrone (L’occurrence de tous

52
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

évènement est immédiatement pris en compte par le système pour tenir compte de l’urgence ou
e l’importance ; les tâches sont préemptible10).
Une tâche préemtible est une tâche qui peut être interrompu à n’importe quel instant.
Le système informatique doit donc posséder un noyau temps réel dont le rôle est de gérer
l’enchainement et la concurrence des tâches en optimisant l’unité central (gestion des
entrées/sorties ; ordonnancer les tâches ; gérer les relations entre les tâches.)
Le cycle de développement d’une application temps réel après l’analyse du besoin et la
rédaction du cahier de charge suit trois étapes à savoir :
La spécification globale qui décrit ce qu’on a à faire ou le « quoi ? ». C’est une mise en forme
plus ou moins formelle du cahier de charge.
La conception préliminaire et détaillée qui réalise la description du « comment ? ». C’est une
modélisation de l’architecture logicielle de l’application (Modules, Tâches, Object « MTO »).
La programmation qui consiste à traduire dans un langage exécutable l’architecture logiciel de
l’application. Cette partie doit tenir compte de la plateforme hôte (celle sur laquelle on réalise
l’application temps réel) ; la plateforme cible (environnement d’exécution « noyau temps
réel ») ; du temps de masquage des interruption (temps pendant lequel les interruptions sont
masquées et ne peuvent donc pas être pris en compte.) et du temps de réponse (temps entre
l’occurrence d’une interruption et l’exécution de la tâche réel).
Les méthodes appliquées au développement des application STR sont de trois sorte pour
le moment :
La méthode fonctionnelles et structurée (flots de données) elle procède par découpage
fonctionnelle et utilise peut les outils de conception suivant : JSD ; SA-RT ; DART ; SDL ;
MSMC … etc. L’un des logiciels professionnels sur les quelle on peut implémenter cette
méthode est LabVIEW
La méthode machine à état qui repose sur des bases formelles. Elle peut utiliser les outils de
conceptions suivant : LE SIGNAL ; LES REXEAUS DE PETRI ; LE GRAFCET ; LE
STATECHARTS ; LE LANGAGES REACTIFS SYNCHRONE ; LE LUSTRE [caspi,19914] ;
L’ETEREL … etc. L’un des logiciels professionnels sur les quelle on peut implémenter cette
méthode est la bibliothèque stateflow de Matlab. Nous nous appesantirons sur cette méthode en
utilisant l’outil state charts dans les prochains paragraphes.

10
Qui peut être interruptible en fonction des priorités

53
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

La méthode orienté Object qui met en avance les données et leurs structurations. Les outils de
conception pouvant être utilisé sont : L’UML ; LE HOOD … etc. Lun des logiciels sur lesquels
on peut implémenter cette méthode est Eclipse (java). [25]
Le statecharts
Il s’agit d’un diagramme servant à représenter automatiquement les systèmes d’état fini
sous forme de graphe d’état. Il décrit le changement d’état d’un Object ou d’un composant en
réponse aux interactions avec d’autre objets ; composantes ou acteurs.
Il est régi par quatre grands concepts à savoir ;
Les états : Qui est une condition ou interaction dans la vie d’un Objet pendant laquelle
il satisfait certaine conditions (exécuter une action ; attendre un évènement). Un état peut être
dans des conditions statique ou dynamique (une activité se déroule). D’après la norme OMG
2.0 un état est une situation dans laquelle quelques conditions sont invariant.
Un état peut être simple (non décomposable) ; composite (comportant plusieurs régions) ou
sous-système (encore appelé sous machine. La figure (2.39) nous présente la structure d’un état.

Figure 2.39: structure d’un état [26]


Dans cette figure on peut voir qu’un état est représenté par un rectangle à trois
compartiments à savoir : Nom qui est un compartiment facultatif mais très important afin de
désigner un état de manière unique ; Activités qui permet de spécifier ce qui se déroule durant
l’état et le sous-état on y distingue aussi deux états spéciaux (initial et final) qui figurent
toujours dans cette modélisation et qui marquent le début et la fin du programme.
Les transitions : C’est le passage d’un état vers un autre. Elle est déclenchée par un
évènement et elle est automatique si on ne précise pas l’évènement qui la déclenche. La
transition permet une hiérarchisation des états afin d’éviter une explosion combinatoire d’état.
La figure (2.40) nous présente la structure d’une transition.

Figure 2.40: Structure d’une transition [26]

54
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Comme on peut le constater une transition peut avoir trois parties : Le nom de l’événement qui
permet de spécifier la transition ; la condition de garde qui est une condition devant être vérifié
avant de réaliser la transition et l’action qui décrit ce qu’on doit faire pendant qu’on franchi la
transition.
Les actions qui s’exécute à l’intérieur des états en fait il en existe quatre : entry (qui
s’exécute à l’entrée de l’état) ; exit (qui s’exécute à la sortie de l’état) ; on evenement (qui
s’exécute à chaque fois que l’évènement cité survient) et do (qui es l’action récurrent ou
significatif exécuté dans l’état.).
Les évènements : C’est un fait remarquable. Les catégories d’évènement sont : Une condition
devient vraie ; la réception d’un signal explicite venant d’un objet (asynchrone) ; réception d’un
call pour une opération pour un objet (synchrone) ; la fin d’une période de temps après la
production d’un évènement. [27]

CONCLUSION
Ce chapitre non seulement permis de comprendre les différentes étapes nécessaires à la
conception d’un système de vision et de robotique mais aussi de de nous familiariser avec les
notions théoriques utile à la bonne conception ingénieuse de notre système.
Dans le dernier chapitre qui suivra, Nous présenterons les différents résultats obtenus
en fonction des différentes méthodes utilisé et que nous avons expliqués plus haut et nous les
interpréterons.

55
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Chapitre III : SOLUTION ; RESULTATS ET INTERPRETATIONS

INTRODUCTION
Les chapitres précédents ont porté sur l’étude des parties de notre système et sur les théorie
mathématiques et physique de celui-ci.
Dans ce dernier chapitre nous présenterons tous les solutions proposées et ainsi que les résultats
issus de la conception de notre système. Le cycle de conception que nous préconisons pour
notre système est le cycle en V « Consulter l’annexe (Les étapes du cycle en V) pour
comprendre ses étapes. » [28] .

I-LES SOLUTIONS
Les solutions proposées proviennent de l’Analyse fonctionnelle interne qui détaille en
plusieurs niveaux la réalisation de nos fonctions de services présenté au chapitre1. L’outil
employé est le diagramme FAST (Function Analysis System Technic) qui ordonne les fonctions
de service et les compose logiquement pour aboutir aux solutions techniques en partant d'une
fonction de service choisit et le choix des composants résulte d’une analyse multicritère.
I.1-SOLUTIONS DU SYSTEME DE VISION
Nous avons choisi les technologies MICROSCAN (MicroHAWK ID-30) car ils proposent des
solutions allant depuis le système d’éclairage à la carte de transfert d’image en passant par la
caméra et les câbles de connexion. La figure (3.1) suivante nous le présente.

Figure 3.1: La caméra MicroHAWK ID-30 [29]


Le tableau (6) suivant présente ses caractéristiques les plus important.

56
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Tableau 3.1: Tableu des caractéristiques du MicroHAWK ID-30 [29]

considérations Vitesse Capteur electri focus Temps couleur


CMOS que d’exposition

MicroHAWK 10 SXGA 5V; 50-300 2.5µs variable QSXGA


ID-30 frames/s 1.2MP 600m mm
1280x960 A
Les résultats de la modélisation mathématiques sont les suivant
Matrice de calibrage : déterminé lors de la procédure de réglage
Luminance : variable en fonction de l’application
Température : variable en fonction de l’application
Flux lumineux total : variable. Pour plus d’information consultez l’annexe (Caractéristiques du
MicroHAWK ID-30)
Au niveau du PC qui hébergera le logiciel dédié nous avons choisi un Laptot 4 cœurs
(acer ou HP).
L’interface graphique du système :

Figure 3.2:Interface graphique du système

La figure (3.2) présente l’interface graphique du système qui après avoir filtré les bruits
grâce au filtre médian ; détecte les contours avec soit le filtre de canny ou prewitt ou encore
celui de sobel ; puis extrais les point d’intérêt par la méthode d’Harri-stephens extrais les

57
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

paramètres de Hough puis une comparaison entre chacun des deux image est fait par la méthode
Matching by Correlation et lorsque les résultat de chacune des comparaisons est inférieur au
seuil de conformité fixé par l’utilisateur le pièce est rejeté.
Les parties numérotées assurent les fonctions suivantes :
1 permet de choisir le type de filtre utilisé pour la détermination des contours. Il peut prendre
trois valeurs (canny ; prewitt et sobel).
2 permet de déterminer la finesse du contour à détecter. Il prend des valeurs comprises entre 0
et inférieur à 1.
3 permet de lancer l’enregistrement du model de référence
4 permet de visualiser la finesse des contours à prendre en compte pour la détection
automatique
5 permet de régler taux de conformité du produit au modèle de référence ses valeurs son fixe
dans le programme à un intervalle de 50% à 100% pour éviter de mauvaises interprétations
accidentelles.
6 permet de lancer le processus de détection automatique.
7 permet de visualiser le système en temps réel et de le superviser au besoin
8 permet de binariser afin d’améliorer la visualisation
L’algorigramme de cette interface est donné en annexe (Algorigramme conception préliminaire
détaillée du système).

I.2-SOLUTIONS DU SYTEME DE BRAS ROBOTISE

Au niveau du SAM :

58
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

La solution proposée est la conception d’un SAM dans SolidWorks et celui présenté dans la
figure (3.3) en est un exemple.

Figure 3.3: Exemple de SAM proposé


Le tableau suivant présente les caractéristique en prévisions de notre système : 0.91872L2=
0.752m et L3= 0.404m sous une envergure de base 𝜱= 0.6096m pour une épaisseur de corps
e= 0.06m , une largeur l= 0.3m fait en aluminium AA380.0-F Matrice(2760kg/m3) pour sa
légèreté et son faible coût(2.461$ US/ Kg) ce qui fait coût total de :1100$ (550000 Fcfa) US
pour le matériau et la fabrication de la structure du robot pour plus d’information consulter
l’annexe (1) [25].Le tableau (3.2) en donne les caractéristiques.
Tableau 3.2: Tableau des caractéristiques du SAM

corps Longueu Volume Masse Épaisseur Materiaux Prix$ US


r (m) (m3) (kg) ou diameter
(m)

1 0.91872 ≤ 0.3 ≤ 78 𝜱= 0.6096 aluminium


AA380.0-F Matrice
2 0.752 ≤ 0.0134 ≤ 37 e= 0.06 aluminium
AA380.0-F Matrice
3 0.404 ≤ 7.25 𝑒 −3 ≤ 20 e= 0.06 aluminium
AA380.0-F Matrice

59
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Total ≤ 135 𝐾𝑔 1100


(550000 cfa)

Les résultats de la modélisation mathématiques de Denavit Hartenberg sont les suivant


Le tableau de DH11 obtenu est le suivant :
Tableau 3.3: tableau de DH du SAM

Corps(i) ai αi di θi

1 0 π/2 L1 θ1
2 L2 0 0 θ2
3 L3 0 0 θ3

MGD (Model Géométrique Direct) :

𝒄𝟏 𝒄𝟐𝟑 −𝒔𝟏 𝒔𝟐𝟑 𝒔𝟏 𝒄𝟏 (𝑳𝟑 𝒄𝟐𝟑 + 𝑳𝟐 𝒄𝟐 )


𝟎 𝒔 𝒄 −𝒔𝟏 𝒔𝟐𝟑 −𝒄𝟏 𝒄𝟏 (𝑳𝟑 𝒄𝟐𝟑 + 𝑳𝟐 𝒄𝟐 )
𝑴𝟎𝟑 = [ 𝟏 𝟐𝟑 ] (𝟑. 𝟏)
𝒔𝟐𝟑 𝒄𝟐𝟑 𝟎 𝑳𝟑 𝒔𝟐𝟑 + 𝑳𝟐 𝒔𝟐 + 𝑳𝟏
𝟎 𝟎 𝟎 𝟏
MGI (Model Géométrique Inverse) :

𝜽𝟏 = 𝒂𝒓𝒄𝒕𝒂𝒏𝟐(𝑷𝒚 , 𝑷𝒙 ) (𝟑. 𝟐)

𝜽𝟐 = 𝒂𝒓𝒄𝒕𝒂𝒏𝟐 [(𝑳𝟑 𝒔𝟑 √𝑷𝒙 𝟐 + 𝑷𝒚 𝟐 ) − (𝑷𝒛 − 𝑳𝟏 )(𝑳𝟑 𝒄𝟑 + 𝑳𝟐 ) , (𝑷𝒛 − 𝑳𝟏 )𝑳𝟑 𝒔𝟑 −

(𝑳𝟑 𝒄𝟑 + 𝑳𝟐 )(√𝑷𝒙 𝟐 + 𝑷𝒚 𝟐 )] (𝟑. 𝟑)

(𝑷𝒛 − 𝑳𝟏 )𝟐 + 𝑷𝒙 𝟐 + 𝑷𝒚 𝟐 − 𝑳𝟐 𝟐 − 𝑳𝟑 𝟐
𝜽𝟑 = ±𝒂𝒓𝒄𝒐𝒔 ( ) (𝟑. 𝟒)
𝟐𝑳𝟐 𝑳𝟑
Avec
(𝑷𝒛 − 𝑳𝟏 )𝟐 + 𝑷𝒙 𝟐 + 𝑷𝒚 𝟐 − 𝑳𝟐 𝟐 − 𝑳𝟑 𝟐
𝑫= (𝟑. 𝟓)
𝟐𝑳𝟐 𝑳𝟑
Et |𝐷| ≤ 1 La condition de non singularité.

11
Tableau de Denavit Hartenberg

60
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

MCD (Model Cinématique Direct) :


−𝒔𝟏 (𝑳𝟑 𝒄𝟐𝟑 + 𝑳𝟐 𝒄𝟐 ) −𝒄𝟏 (𝑳𝟑 𝒔𝟐𝟑 + 𝑳𝟐 𝒔𝟐 ) −𝑳𝟑 𝒄𝟏 𝒔𝟐𝟑
𝑱 = [ 𝒄𝟏 (𝑳𝟑 𝒄𝟐𝟑 + 𝑳𝟐 𝒄𝟐 ) 𝒔𝟏 (𝑳𝟑 𝒔𝟐𝟑 + 𝑳𝟐 𝒔) −𝑳𝟑 𝒔𝟏 𝒔𝟐𝟑 ] (𝟑. 𝟔)
𝟎 𝑳𝟑 𝒄𝟐𝟑 + 𝑳𝟐 𝒄𝟐 𝑳𝟑 𝒄𝟐𝟑
MCI (Model Cinématique Indirect).
𝑱+ = (𝑱𝒕 . 𝐉)−1 . 𝑱𝒕 (𝟑. 𝟔)

Au niveau de la carte de commande :


Tableau3.4 : Caractéristiques de la carte du SAM [30]

considérations Intel core i7-7700K

Cadence du processeur à 4.20GHz(4cores)


mémoire cache L14x32KB/L24x256KB/L31x8MB
mémoire d’instruction L14x32KB/L24x256KB/L31x8MB
température optimum de fonctionnement +68 degré Celsius
puissance consommée 91w
Système d’exploitation VxWorks

Au niveau des moteurs (Actuateurs) ; capteur et réducteur : Nous avons préféré les
technologie HARMONIC DRIVE LLC au brushless Maxon car cette société combine en plus
du moteur : le réducteur harmonic drive qui est faiblement brouillant ; les codeurs absolus ou
incrémentaux qui permettent de détermine l’accélération, la vitesse et la position de
l’articulation. Et il possède des variateurs spécialement conçus pour chaque modèle nous avons
choisi le modèle FHA-17C-PR et le tableau (3.5) :
Tableau3.5 : Caractéristique du moteur FHA-17C-PR [31]
Considérations Poids Inertie Moment max de Couple Vitesse Prix
charge admissible moteur

FHA-17C-PR 2.8kg 0.83kg.m2 2.9KN [42,67] Nm [30,90]


Pour d’information consulté l’annexe (2)

61
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

La figure (3.4) suivante présente le moteur FHA-17C-PR d’Harmonique Drive

Figure 3.4: Moteur FHA-17C-PR de Harminic Drive [31]

D’après leurs catalogue le variateur qui lui est attribué pour une alimentation de 200V
est le : HA-800*3C-200
Au niveau de la simulation du SAM avec le logiciel Simulink ; Staflow et simscape nous
avons :
La figure (3.5) qui présente model des différentes parties de notre SAM à savoir la consigne
en bleu ; la mesure en orange ; la partie carte de commande qui émule le comportement du
SAM ; la partie Groupe moteur/réducteur qui émule le comportement du variateur, moteur et
réducteur de vitesse et enfin la partie bras qui émule le mouvement du bras.

Figure 3.5 : Différentes parties du processus de simulation

62
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Pour plus d’information sur les sous-systèmes consulter l’annexe (Les sous-groupe de
la simulation du SAM). Pour la composition de chaque sous- système et la deuxième partie de
l’annexe (Algorigramme et conception préliminaire détaillée)
Le FAST qui résulte de ce système est donné à l’annexe (Diagramme FAST du système)

II-RESULTATS ET INTERPRETATIONS
Pour un objet à inspecter situé à 0,7m suivant l’axe des abscisses ; 0,6m suivant celui des
ordonnés et à 0,5 m de profondeur on obtient les résultats suivant :

II.1-RESULTATS ET INTERPRETATIONS DE LA SIMULATION DU


SYSTEME DE VISION
La figure (3.6) présente les résultats de détection de notre sous-système de vision.

Figure 3.6: Résultat de simulation du système de vision

Où on arrive à distinguer les différentes étapes de traitement :


1 est l’image du model tel que vue par l’opérateur
2 est la forme extraite de l’image et les points verts sont les points d’intérêt de la forme
3 trois est l’image de l’objet à inspecter en temps réel
Et 4 représente également sa forme et point d’intérêt

63
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Les figures (3.7) et (3.8) permettent de visualiser les paramètres de chaque objet (du model ou
de l’objet à inspecter)

Figure 3.7 : Paramètre de hough du model Figure 3.8 : Paramètre de hough de l’objet à
inspecter
En fonction de la corrélation entre chacun de ces trois critères nous décidons en comparant au
taux de corrélation fixé par l’utilisateur avec un minimum de corrélation de 50% d’accepter ou
de rejeter une pièce.
II.2-RESULTATS ET INTERPRETATIONS DE LA SIMULATION DU
SYSTEME ROBOTIQUE
Le temps de cycle obtenu est 𝑇𝑐 = 5,5 𝑠
Au niveau de la position :
Les positions désirées calculées par le système sont les suivant : 𝜃𝑑1 = 150°; 𝜃𝑑2 =
−180° 𝑒𝑡 𝜃𝑑3 = 35°
Et la figure (3.9) permet de visualiser visualise les positions des différentes articulations du bras
au cours du temps de simulation. Entre 0 et 1,5s, le système est en phase d’initialisation comme
présenté à l’annexe Diagramme état transition principal du robot. Et le reste du temps de
simulation la loi de commande présenté dans l’annexe comportement de marche (i).

64
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Figure 3.9 : Visualisation de la consigne et de la position effectivement suivi par le bras en


degré

On y constate que le système converge de manière satisfaisante.


Au niveau de la vitesse :
Les vitesses désirées calculées par le système sont les suivant :

𝜃̇𝑑1 = 35°⁄𝑠 ; 𝜃̇𝑑2 = 45°⁄𝑠 ; 𝜃̇𝑑3 = 8°⁄𝑠


Et la figure (3.10) permet de visualiser visualise les vitesses des différentes articulations du bras
au cours du temps de simulation.

Figure 3.10: visualisation de la vitesse des articulations

65
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Dans cette figure nous voyons que les vitesses de consigne son atteinte rapidement et ceux de
manière satisfaisante. Et diminuer progressivement lors que les positions sont en train d’être
atteinte.
Au niveau de la tension des moteurs :
La figure (3.11) nous présente l’évolution de la tension dans chaque moteur. Ce schéma suit
parfaitement le comportement programmer et atteint rapidement les valeurs nominale fixé par
le constructeur proposé dans l’annexe caractéristiques du systèmeFHA-17C PR

Figure 3.11 : Evolution de la tension dans les moteurs du bras

Au niveau des courants :


La figure (3.12) nous présente les courant qui circulent dans les bobinages de chaque moteur

Figure 3.12: Evolution du courant dans les moteurs

66
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Ces courant sont supportable d’après le même constructeur


Les paramètre Kp ; Ki et Kd des correcteurs PID utilisés pour la simulation sont donnée dans le
tableau (3.6).

Tableau 3.6 : Paramètre des correcteurs PID


Correcteur Kp Ki Kd

1 10 0.2 0.1
2 10 0.2 0.1
3 10 0.2 0.1
Avec les résultats suivants ;
Temps de réponse à 5% est de 0,3 s ; Temps de monté à 80% est de 0,25 s et une robustesse de
0.6 ;
On constate que les mouvements sont stables avec une précision bonne.

III-ESTIMATION DU COÛT TOTAL DU PROJET


Le tableau suivant présente une estimation des coûts de chaque élément de notre projet

Tableau 3.7: Devis estimatif du projet

N Désignation Model Prix unitaire Qnt PT (F.cfa) Sources


°

1 Caméra+ MICRO 1225$US 1 1 225 $US www.barcodesinc.com

éclairage + HAWK ID- (673 750)


carte 30
2 Moteurs FHA-17C- 1199,90$US 3 3 599,7 $US www.eday.com/itm.HARMONICDRIV
E
synchrones PR (1 979 835)
3 Variateurs HA- 425 $US 3 1 275 $US www.eday.com/itm.HARMONICDRIV
E
800*3C- (701 250)
200
4 Carte de Intel core (303+647) 3 2 850 $US www.alibaba.com/products

commande i7.7700K 950 $US (1 567 500)

67
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

5 Poste de Laptop 4 378 $US 1 378 $US www.jumia.cm/ardinateurs-portable

commande core HP ou (207 900)


acer
6 Cage de 445 $US 1 445 $US
contôle (244 750)
optique
7 SAM constructeur 1 100 $US 1 1 100 $US DASSAULT SYSTEMES

(605 000)
8 Cage de 560 $US 560 $US
sécurité (308 000)
SAM
9 Câbles + 300$US 1 300 $US
connectiques (165 000)
10 transport 2000$US 1 2 000 $US
(1 100 000)
11 Divers 1775$US 1 2 060 $US
(1 133 000)
Main d’œuvre 30% 4 738 $US (2 369 000 F.cfa)
Prix total HT 20 530,51 $US (10 265 255 F.cfa)
TVA 19.25% 3 953 $US (1 976 500 F.cfa)
Prix total TTC 29 221,51$US (14 610 755 F.cfa)

CONCLUSION
Dans ce chapitre nous avons modélisés conçu notre système de tri à l’aide des logicielles
SOLIDWORK ainsi que MATLAB et ses bibliothèques. Les résultats sont concluants en
fonction des objectifs que nous nous sommes fixés. Excepté l’asservissement des moteurs 2 et
3 qui nous ont posé quel problème de précision cela peut être due au logiciel utilisé. Nous y
avons également effectué une estimation des coûts de réalisation de ce système grâce aux
solutions technologiques proposée.

68
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

CONCLUSION GENERALE ET PERSPECTIVES


Ce rapport rédigé dans le cadre de notre projet de fin d’étude à la Faculté de Génie
Industriel de l’Université de Douala en vue de l’obtention du diplôme d’ingénieur manager,
nous a donné l’occasion de concilier la théorie et la pratique de la modélisation. Ainsi, nous
avons appliqués les connaissances acquises lors de notre formation. L’introduction génnérale
de ce rapport a mis en exègue d’une part L’ apport des systèmes robotiques dans le domaine de
la production industriel dans le monde et d’autre part les difficultés qu’éprouvent les industries
Africaines en générales et Camerounaises en particulier à être compétitif sur le plan nationale
et international ;car n’ayant pas les capacités financières de s’arrimer aux nouvelles
technologies industrielles. Dans le premier chapitre Nous avons présenté les système de vision
et de robotique et les domaines de ces dernier. Nous y avons aussi spécifier l’objectif principal
de notre travail à savoir concevoir et la modélise un système automatique de tri par vision.
Dans le deuxième chapitre, nous avons présenté les méthodes de modélisation des éléments qui
constitu notre système où nous étudier les model de Houhg, Harris-Stephens et et d’autres
encore au niveau du système de vision, et la modélisation de Denavit-Hartenberg pour la
modélisation du robot. Et dans le troisième chapitre nous avons donc modéliser les systèmes de
vision et de robotique et ceux grâce aux logiciels logiciels Matlab, Simulink, Simscap,
stateflow et Solidworks. Les résultats de simulation on été satifaisant à 90% des charges que
nous nous sommes fixées au premier chapitre puisque le système arrive efficacement à acquérir
l’image, isole les formes qui se trouvent dans son champ d’action ; extrait les caractéristiques
propres aux objets ; les compare. Puis le SAM acquière la position désirée à son entrée, suit
parfaitement le comportement qui est décrit à l’annexe (5 - comportement marche ’i’) et met
les moteurs ainsi que les segments du bras en mouvement en prenant en compte les contraintes
temps-réel liées à la génération de trajectoire et la suit de manière satisfaisante. Ce système
parait très utile car il peut être facilement associée aux chaines industrielles et booster ainsi la
production comme industrielle.
En perspective pour améliorer le fonctionnement de notre système nous proposons
d’intégrer un système de contrôle intelligent basé sur les algorithmes du clustering (les cartes
de Kohonen ou des K-means) pour le sous-système de vison.
Et pour ce SAM nous proposons d’implémenter la commande adaptative

69
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Glossaire

Répétabilité : Selon la définition ISO9283, la répétabilité est définie comme étant l’étroitesse de
l’accord entre les positions atteintes pour la même commande, répétée n fois suivant la même direction.
n doit être suffisamment grand pour être significatif. La norme ISO préconise de choisir n 30 ; on parle
communément du rayon maximal de la sphère contenant les points. La répétabilité de trajectoire est
définie d’une manière simplifiée pour une trajectoire répétée " n " fois comme étant le diamètre maxi du
" tube " contenant les trajectoires atteintes
Exactitude : Selon la définition ISO 9283, l’exactitude représente l’écart entre une commande
et la moyenne atteinte lorsque commande est atteinte suivant la même direction. En d’autres termes, elle
correspond à la différence entre une commande et le barycentre du nuage des points atteints.
L’exactitude de trajectoire représente l’écart entre une trajectoire commandée et la ligne moyenne des
trajectoires atteintes.
Densités de robot : nombre de robot pour 10000 ouvriers

70
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Références

[1] «www.thedisruptory.com/fr/2017/04/tendances-robotiques-2016-lol-1-la-robotique-
industrielle/,» 2017. (consulté le 6 Novembre 2018 à 15h04 mm),» [En ligne]..
[2] www.fr.m.wikipedia.org/wiki./Robotique-industrielle. (consulté le 18 Juillet 2018 à
08h45 mm),» [En ligne]..
[3] O. M. Radu Horaud, Vision par ordinateur : outils fondamentaux.
[4] «www.atilf.fr., ressources-grand public,» (consulté le 11 Juin 2018 à 20h15 mm),» [En
ligne]..
[5] J.G.E.3.M.I.C..Robotique,«
http://icubeavr.unistra.fr/fr/img_auth.php/a/a4/Cours_rob_intro.pdf .,» 2017. [En ligne].
[6] « http://www.gralon.net/index.htm/Articles > Matériel et Consommables > Matériels
Industriels > Robots industrie,» (consulté le 12 Juiv 2018 à 16h45 mm),» [En ligne]..
[7] ChapI Introduction àla Robotique.
[8] «http://www.visionindustrielle.org/visionwhat (consulté le 10 Octobre 2018 à 08h45
mm),» [En ligne].
[9] D. Y. T. Aurelien, Cours d'asservissement visuel, 2018.
[10] U. d. M. I. M. EEA/RA, Calibrage de caméra et stéréovision, Monpellier, 2008/2009.
[11] J. GANGLOFF, COMMANDE PAR LA VISION, Strasbourg, 2017.
[12] H. Mathieu, « (herve.mathieu@inrialpes.fr)».
[13] M. E. (FGI), Cours de traitement des images, DOUALA, 2017.
[14] R. C.Gonzalez et R. E. a. Eddins, Digital ImageProccessing.
[15] C. Merouane, « Modélisation cinématique d’un robot manipulateur à chaine continue
ouverte », UNIVERSITE KASDI MERBAH OUARGLA Option Maintenance
Industrielle,,» 2013.
[16] JACQUEGANGLOFF, «cours de robotique».
[17] «http://coursenligne1s6.fr/si-terminale-moteur-pas-a-pas.html,» [22 octobre 2018].
[18] W. K. e. E. DOMBRE, Bases de la modélisation et de la commande des robots-
manipulateurs de type série, 2012.
[19] R. MERZONKI, Robotique Industriel ROBOT KHEPERA II, Lille, 2010/2011.
[20] D. Y. AURELIEN, «cours de robotique,» 2015.
[21] F. C. E. Grolleau, SYSTÈMES TEMPS RÉELDE CONTRÔLE-COMMANDE
Conception et implémentation.
[22] Cour UML : Diagrammes d’état (statechart) Modéliser les vues dynamiques d'un système.
[23] I. LIEBGOTT, Modélisation et simulation des systèmes multi-physiques, Nice.
[24] catalogue MICROSCAN.
[25] L. S. D. S. 2017.

71
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

[26] «www;VxWorks-Wikipedia?htm,» 20 08 2018. (consulté le 21 Octobre 2018 à 07h35


mm),» [En ligne]..
[27] «w w w. H a r m o n i c D r i v e . n e t,» 20 08 2018. (consulté le 22 Octobre 2018 à
08h45 mm),» [En ligne]..
[28] ChapI Introduction à la robotique FGI ,Douala 2015.
[29] N. Vandenbroucke, Cours de vision Industrielle.
[30] D. Y. T. Aurelien, Cours d'acquisition des images FGI, Douala, 2015.
[31] M. NLEMBA, Cours de visio, 2017.
[32] S. K. e. al., Introduction à commande des robots humanoïdes.
[33] N. L.T., UML: Diagrammes d'états (Statechart), THIONVILLE.

72
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

ANNEXE :
ANNEXE 1 : Dessin de la SAM du système et les caractéristiques
4 3 2 1
F F

E E

D D

C C
B B
A NOM : ESSIMAGEL AOUDOU EMMANUEL TITRE : 40-10_NF-61 A

Langue : fr MATERIAU : AA380.0- No. DE PLAN 4


F Matrice A4
E2A
1/12/2018
MASSE : ECHELLE : 1/8 FEUILLE 1/ 1
4 3 2 1

73
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

74
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

ANNEXE 2 : caractéristiques du système FHA-17C PR et son variateur associé

75
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

76
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

ANNEXE 3 : Les étapes du cycle en V

77
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

ANNEXE 4 : Les sous-groupes de la simulation du SAM


La carte de commande dans stateflow :

Le groupe moteur/réducteur

78
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Lle bras (SAM)

79
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

ANNEXE 5 : Algorigramme et conception préliminaire détaillée du système


Algorigramme principal du sous-système de vision.

initialisation

paramètrage

Acquisition du
masque

Filtrage et
extraction des
primitives

Non
Contours évalués
satisfaisant

oui

Démarrer
processus de
contrôle

80
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Algorigramme de contrôle de processus

Acquérir signal

Filtrage

Extraction des
contours

Extraction des
points d intérêt et
caractèristiques

Mise en corrélation

Non Résultat de
Rejetter corrélation
appartient [γ;1]

oui

Accepter

81
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Diagramme état transition principal du robot ;

Etape1 Après 1.5s Etape2


Initialisation Marche

Sous étape Marche

Marche

Etape1
Marche1

Etape2
Marche2

Etape3
Marche3

82
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

Comportement de marche (i)

Marche(i) Si toute les températures des moteurs inférieures à T alerte/3


Si une des températures des moteurs supérieur ou égale à T alerte
Si température
Si différence entre de l un des
1 angle désiré et moteurs
effectif supérieur à

Etape1 2 Etape2 1 alerte Etape2


Correction de
Attente Sécurité
2 position

Si différence
proche de 0
Si une des températures des
moteurs supérieur ou égale à T
alerte
Si pas d alerte
2 1

83
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

ANNEXE 6 : caractéristiques du MicroHAWK ID-30

84
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

85
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

ANNEXE 7 : Diagramme FAST du système


Fonctions de services Fonctions techniques Solutions techniques

En ayant une SAM


FP12: SAM conçu sur SOLIDWORKS
efficiente

Gérant la température
FP11:
interne du SAM

En acquérant les Groupe moteur réducteur +


FP13: positions articulaires capteur « HD »
instantanément FHA-17C-PR
Assurant le
FP1: En transformant
déplacement
FP14: l énergie électrique en
énergie mécanique

En interfaçant le
système de Interfaceur hacheur « HD » :
FP15:
commande et de HA-800*3C-200
puissance du SAM
Carte de commande temps
Soustraire les pièces En traitant les réel +correcteur PID intel
défectueuse de la chaine données et gérant les core i7-7700K+système
FP: VxWorks
de production en assurant FP16: consignes et
la qualité de la production coordonnant le
mouvement du SAM Laptot 4 cœurs(acer ou HP)
En traitant le flux +Logiciel temps réel
vidéo provenant du dédié(conçu)+Bureau de
FP21: travail
dispositif
d acquisition

En favorisant Carte d acquisition vidéo


Observant la
FP2: FP22: l efficience de MICROSCAN (MicroHAWK
scène
l acquisition ID-30)
En ayant un dispositif Camera de vision
FP23: d acquisition d image MICROSCAN(MicroHAWK
performant ID-30)

En ayant un système Dispositif d éclairage


FP24:
d éclairage adapté MICROSCAN

86
Système automatique de tri par vision

Ne pas interrompre le
En y afférant un effecteur adapté Ventouse() ou
FC1: processus de production FC11:
aux activités de l entreprise Pince()
de l entreprise

Cage de protection +
Veiller sur la sécurité En privant le système d énergie
Interrupteur de sécurité dans
FC4: des utilisateurs et FC41: électrique si un individu se
la chaine énergétique du
maintenanciers retrouve dans l espace de travail
système

En réalisant nue liason


Kit de fixation suivant les
FC51: d encastrement entre le système
FC5: Fixer au support normes ISO:
et le support

Compatibilité En possédant des élément


d alimentation avec les d interfaçage lui permettant de Kit d installation électrique
FC6: FC61:
installations suivant la recevoir l énergie provenant de industriel + outil électricien
norme: ISO... l installation industriel

87
Rédigé et soutenu par ESSIMAGEL AOUDOU Emmanuel
Système automatique de tri par vision

88

S-ar putea să vă placă și