Documente Academic
Documente Profesional
Documente Cultură
U.F.R. de Sciences
École doctorale Structure, Information, Matière et Matériaux
Thèse
présentée par
François Angot
en vue de l’obtention du
Segmentation d’images 2D et 3D ;
application à la quantification d’images histologiques
et cytologiques obtenues par microscopie
Thèse
présentée par
François Angot
en vue de l’obtention du
Segmentation d’images 2D et 3D ;
application à la quantification d’images histologiques
et cytologiques obtenues par microscopie
à Marinette Revenu, Professeur à l’ISMRA de Caen, pour m’avoir accueilli au sein de son
équipe et pour avoir dirigé et encadré cette thèse,
à François Sichel, Professeur à l’Université de Caen, pour ses conseils et pour avoir jugé
mon travail,
à Daniel Bloyet, pour m’avoir donné l’opportunité d’effectuer cette thèse dans le cadre du
pôle Traitement et Analyse d’Images de Basse-Normandie,
à Paulette Herlin, pour ses conseils dans les domaines de la microscopie et de la biologie,
à Régis Clouard, pour son aide précieuse dans l’approche des problèmes,
à Alexandre, Bruno, Christophe, Cyril, Jalal, Nicolas, Nicolas, Sébastien, Serge, Sophie,
pour l’ambiance qu’ils apportent dans l’équipe,
IV.2.5. Perspectives........................................................................................................................155
IV.3. Architecture de transformation cellulaire : test SHE .......................................................................157
IV.3.1. Contexte biologique............................................................................................................157
IV.3.2. Traitement des images ........................................................................................................158
IV.3.3. Résultats ............................................................................................................................162
Conclusion ...................................................................................................................................................165
1. Acquisition des images..................................................................................................................168
2. Traitement des images...................................................................................................................168
3. Applications..................................................................................................................................168
Références ...................................................................................................................................................171
Publications .................................................................................................................................................185
Annexes........................................................................................................................................................189
1. Les formats d’images ZEISS .........................................................................................................191
1.1. Images de volumes .............................................................................................................191
1.2. Images de reliefs.................................................................................................................193
2. La bibliothèque PANDORE..............................................................................................................194
2.1. Structure des fichiers images ..............................................................................................194
2.2. Structure de graphe.............................................................................................................195
2.3. Exemple d’opérateur PANDORE ...........................................................................................197
2.4. Liste des opérateurs PANDORE 2D.......................................................................................199
2.5. Liste des opérateurs PANDORE 3D.......................................................................................203
3. Exemple de plan de résolution de problème ...................................................................................206
4. Préparation des cultures cellulaires ................................................................................................209
Introduction
Introduction 3
Depuis une vingtaine d’années, les progrès constants des techniques mathématiques et des
moyens informatiques de calcul ont eu de nombreuses répercussions sur les avancées dans les
domaines de l’acoustique, de la médecine, des télécommunications, de l’astrophysique, de
l’imagerie, etc. En particulier, le traitement et l’analyse d’images se sont développés sur des
thèmes aussi variés que les images aériennes, les images biomédicales, les images
industrielles ou artistiques. Bien que très différents, ces domaines ont cependant de nombreux
points communs en termes de traitement d’images, tels que la localisation et la caractérisation
des objets présents dans les images.
Généralement, les scènes ou les objets observés dans des images proviennent du monde
tridimensionnel (3D) qui nous entoure. Le plus souvent, l’information que l’on cherche à
extraire peut être obtenue sur une image en deux dimensions (2D) mais un nombre
grandissant de problèmes nécessitent d’appréhender la scène observée en trois dimensions,
afin de déduire des caractéristiques volumiques des objets présents dans cette scène.
Pour atteindre un tel objectif, un grand nombre de techniques d’acquisition d’images ont
été mises au point et peuvent se répartir en deux grandes catégories. Le premier type
d’acquisition consiste à reconstruire une image 3D à partir d’une vision stéréoscopique de la
scène. Il nécessite de nombreux calculs afin de reconnaître les objets dans les deux images 2D
et de déterminer leurs positions relatives dans l’espace 3D. Le second type d’acquisition
d’images permet d’obtenir des informations sur chaque point de l’espace observé et de
construire une image 3D de la scène. Ce procédé est notamment mis en œuvre dans des
appareils comme le microscope confocal.
4 Introduction
Dans l’observation d’objets 3D, une des grandes limitations de l’imagerie 2D est de ne
pouvoir fournir que l’image d’une projection de l’échantillon observé. Ainsi, si on imagine
(figure 1a) un volume dans lequel deux objets de même taille sont présents l’un au-dessus de
l’autre, une projection de l’ensemble du volume laisse apparaître un objet qui n’a rien à voir
avec la réalité (figure 1b). Si on choisit de réaliser une coupe très fine du volume, l’image
obtenue présente deux objets dont les tailles ne correspondent pas à la taille des objets de
départ (figure 1c).
a b c
Figure 1 : limitation de l’imagerie 2D pour l’observation d’un volume 3D.
a : volume présentant deux objets disjoints, de même taille, l’un au-dessus
de l’autre. b : image de la projection du volume ; apparition d’un objet
inexistant. c : image d’une coupe fine du volume ; non-respect de la taille
des objets.
Introduction 5
catégories d’opérations, en fonction de leur mode d’accès aux données manipulées : les
opérations de visualisation, les opérations de manipulation point par point, les opérations
faisant intervenir la notion de voisinage, les opérations de caractérisation. Pour chacune de ces
catégories, nous comparons les opérations applicables aux images vues sous un angle
classique, en tant que grilles de points, et dans le contexte de la théorie des graphes de
voisinage. Nous montrons ainsi qu’un grand nombre d’opérations simples de manipulation
des images peuvent être généralisées aux graphes mais aussi que ces derniers offrent de
nouvelles possibilités.
Dans ce travail, nous examinons donc les différentes étapes nécessaires pour l’analyse
d’images de microscopie cellulaire 3D : l’acquisition des images grâce au microscope
confocal, les stratégies de traitement d’images, l’implantation des opérations de traitement
d’images sous forme d’une bibliothèque, la quantification d’images. Nous illustrons ainsi les
possibilités du microscope confocal et l’efficacité de notre méthodologie de développement
d’applications de traitement d’images.
Chapitre I : Microscopie confocale
Chapitre I : Microscopie confocale 9
Cette technique permet d’améliorer la résolution par rapport aux autres microscopes
optiques ; un objet ponctuel donne une image ponctuelle. Selon [BRAKENHOFF 1985],
l’amélioration est d’un facteur 1,4 dans toutes les directions. Elle autorise également
10 Chapitre I : Microscopie confocale
l’observation d’objets épais selon plusieurs plans optiques indépendamment ; il est possible
d’éliminer les informations provenant de points hors du plan focal de l’appareil.
En 1968, Mojmir Petráñ [PETRÁÑ 1968] met au point un système permettant de réaliser
en même temps, sur un échantillon immobile, le balayage de tous les points de cet échantillon,
et la mise en correspondance de l’illumination et de la détection. Il utilise une amélioration du
disque décrit par Paul Nipkow en 1884, un disque opaque percé de trous fins, situés le long
d’une spirale d’Archimède, permettant le balayage d’un objet par un point de lumière
(figure 3a). Le disque utilisé par Petráñ présente deux spirales de trous, symétriques par
rapport à l’axe de rotation. Un point de l’échantillon éclairé à travers un trou du disque est
observé à travers le trou symétrique. On parle à ce moment de « tandem scanning confocal
microscope ». Ce principe sera adapté par Gordon Kino en 1987 pour que l’observation se
fasse à travers le trou servant à l’éclairement (figure 3b).
Chapitre I : Microscopie confocale 11
a b
Figure 3 : a : disque mis au point par Nipkow en 1884 pour effectuer le
balayage d’un échantillon. b : amélioration faite par Kino en 1987 dans son
microscope confocal.
Dès le début des années 1980, Brakenhoff (1979) utilise l’idée de balayage pour mettre au
point une nouvelle solution pour l’illumination des points d’un échantillon. La source
lumineuse est constituée d’un faisceau laser et deux miroirs mobiles dévient ce faisceau afin
de balayer l’échantillon selon deux axes (X et Y). La lumière est ensuite focalisée par un
diaphragme d’illumination et par l’objectif. C’est la naissance du microscope confocal à
balayage laser (« confocal laser scanning microscope » ou CLSM).
Chaque point de l’échantillon illuminé fournit alors une réponse lumineuse vers l’objectif
et ce signal est dirigé vers un détecteur (photomultiplicateur) à travers un diaphragme
d’acquisition. La réponse de chaque point permet de constituer l’image plane d’une coupe
optique de l’échantillon.
Le principe optique du microscope confocal à balayage laser est présenté sur la figure 4.
12 Chapitre I : Microscopie confocale
De tels microscopes ont alors été commercialisés par des compagnies comme Sarastro,
Biorad, Olympus, Zeiss, Leitz. Ils sont plus faciles à réaliser et à entretenir que les
microscopes construits autour d’un disque de Nipkow, mais ils ont le défaut d’être plus lents.
Le microscope confocal à balayage laser apporte enfin un autre avantage par rapport aux
autres microscopes confocaux : la possibilité d’utiliser le phénomène de fluorescence.
• excitation des atomes par des photons de longueur d’onde λ1 ; l’atome passe
d’un état d’énergie S0 à un état S1,
Les faisceaux laser permettent d’éclairer l’échantillon avec une longueur d’onde bien
particulière. Nous pouvons ainsi exploiter en microscopie confocale les principaux types de
fluorescence utilisés pour l’observation d’objets biologiques [BRYON 1995] :
Dans le domaine de l’imagerie microscopique, les entités que l’on veut observer sont
marquées par des agents spécifiques, sur lesquels des molécules fluorescentes
(fluorochromes) se fixent facilement [TSIEN 1990]. Le développement récent des techniques
de « chromosome painting » a amené de nombreux fluorochromes sur le marché mais les plus
utilisés sont :
En utilisant ce phénomène, les images obtenues présentent des objets clairs (présence d’un
signal) sur un fond sombre. Cette technique permet en particulier de distinguer des objets qui
ne seraient pas séparables par d’autres types d’observation au microscope (par exemple,
l’observation en lumière blanche transmise).
Lors de l’acquisition au microscope, deux filtres sont ajoutés sur le trajet optique afin
d’optimiser la détection des photons émis par fluorescence au niveau de l’échantillon
(figure 6). Comme on veut détecter la lumière émise à la longueur d’onde λ2 suite à une
excitation λ1, la lumière de la source est sélectionnée afin de n’envoyer que la raie
d’excitation λ1. Divers fluorochromes peuvent alors être excités donc la lumière émise par
l’échantillon est à nouveau filtrée pour éliminer les contributions des fluorochromes émettant
à une longueur d’onde différente de λ2.
Chapitre I : Microscopie confocale 15
En épifluorescence classique, tous les points illuminés renvoient un signal lumineux et sont
vus par le détecteur, même les points en dehors de la zone de mise au point. Il apparaît alors
un flou sur les images. Grâce au microscope confocal, les informations sont sélectionnées et
chaque image 2D est nette.
I.2.1.1. Grandissement
Il représente le facteur multiplicatif apporté entre la taille de l’objet observé et celle de
l’image obtenue. L’étude de l’ensemble d’un tissu ou d’une colonie peut nécessiter un faible
grandissement (5× ou 10×) alors qu’on préférera un grandissement plus élevé (63× ou 100×)
pour une étude intracellulaire. Le grossissement d’un microscope est en général la
combinaison du grandissement de l’objectif et du grossissement de l’oculaire.
Nous verrons plus loin que l’ouverture numérique d’un objectif fixe également sa
résolution.
I.2.1.4. Transmittance
La transmittance représente le pourcentage de lumière transmise à travers l’objectif et elle
peut varier en fonction de la longueur d’onde de la lumière. Ce critère peut être dominant dans
le choix d’un objectif, en particulier dans le cas d’utilisation aux limites comme avec une
illumination en ultraviolet proche (350nm).
Chapitre I : Microscopie confocale 17
I.2.1.5. Corrections
La sphéricité des lentilles constituant les objectifs apporte un certain nombre de défauts
appelés aberrations. La correction de ces aberrations permet de s’approcher des
caractéristiques théoriques des objectifs, caractéristiques fixées par les lois de la physique et
de l’optique.
L’aberration sphérique est un défaut de concentration des rayons lumineux par la lentille.
Les points image d’un même point objet se regroupent sur l’axe de l’objectif mais pas en un
même point. L’aberration chromatique provoque une focalisation différente des points selon
leur couleur.
Les objectifs « achromat » ont intégré une correction de l’aberration chromatique pour les
couleurs bleue et rouge. Les objectifs « planachromat » sont en plus corrigés contre
l’aberration sphérique. Enfin, les objectifs « planapochromat » sont des objectifs
« planachromat » corrigés pour la couleur verte.
I.2.1.7. Universalité
L’universalité d’un objectif représente sa capacité à être utilisé en combinant plusieurs
types d’observation (multimodalité) : transmission, contraste de phase, contraste
interférentiel, fluorescence.
I.2.2.1. Microscope
Le microscope est un modèle LSM 3 de la société ZEISS (Oberkochen, Germany). Il est
construit autour d’un bloc principal constitué d’une platine porte-lames motorisée dans les
trois directions, d’une tourelle d’objectifs motorisée et d’oculaires pour l’observation directe.
L’illumination de l’échantillon peut être assurée par une source de lumière blanche
stabilisée, par une lampe à vapeur de mercure (lampe HBO) ou par des sources laser (Argon
488nm ou Hélium-Néon 543nm).
I.2.2.2. Objectifs
Plusieurs objectifs sont disponibles afin de répondre aux contraintes de grossissement et de
milieu de préparation :
I.2.2.3. Ordinateur
L’ensemble du microscope est connecté à un micro-ordinateur de type PC construit autour
d’un processeur Intel Pentium cadencé à 75MHz. Il fonctionne sous le système d’exploitation
MS-DOS avec l’interface graphique Microsoft-Windows 3.11.
Il est équipé d’un disque dur de 700Mo, d’un lecteur de disques magnéto-optiques d’une
capacité de 2×281Mo et d’une connexion au réseau local et à Internet.
La visualisation est effectuée sur un écran 15” pour le contrôle du fonctionnement et sur un
écran 20” à haute définition pour la visualisation des images.
Chapitre I : Microscopie confocale 19
Dans le premier mode, l’illumination de l’échantillon est assurée par des sources de
lumière stabilisées (lumière blanche ou vapeur de mercure). Ce mode est utile pour une
localisation rapide de la zone à étudier. Il permet de travailler en fond clair, en contraste de
phase ou en contraste interférentiel, en réflexion, en épifluorescence.
Dans son second mode de fonctionnement, le microscope peut ne pas utiliser la propriété
de confocalité. Le micro-ordinateur acquiert alors des images correspondant au mode
conventionnel. En mode confocal, deux types d’acquisition sont possibles : la réflexion (pour
des objets métalliques par exemple) et la fluorescence (qui est en fait une sorte de réflexion
améliorée).
En complément des objectifs, le microscope possède un jeu de miroirs internes qui définit
un zoom optique (de 0.8 à 8). Cette particularité permet de modifier la fréquence
d’échantillonnage des images acquises, de manière physique, et non de manière logicielle.
Selon la dimension des images (256×256 pixels, 512×512 pixels, etc.), l’objectif utilisé (10×,
63×, etc.) et le zoom opéré, la surface d’échantillon représentée par chaque pixel varie. On
retiendra qu’elle est de l’ordre de 0,1×0,1µm2 à 50×50µm2.
Enfin, plusieurs types d’acquisition d’images sont possibles. Bien entendu, le logiciel de
commande autorise l’acquisition d’une série de coupes optiques, parallèles au plan focal du
microscope, afin de reconstruire une image volumique, constituée de voxels. C’est le
fonctionnement le plus utilisé dans le cas d’échantillons épais contenant des objets.
Cependant, le logiciel permet d’acquérir des images perpendiculaires au plan focal, afin
d’obtenir, par exemple, des coupes transversales des échantillons. Il fournit également la
possibilité d’acquérir des images de reliefs, en détectant automatiquement le point de plus fort
signal sur une verticale donnée. Les images ainsi obtenues sont des images 2D dans lesquelles
chaque pixel contient l’altitude de l’échantillon à cet endroit précis (Annexe 1).
20 Chapitre I : Microscopie confocale
i (x) = o( x) ⊗ h( x) + n( x)
Les fonctions o(x), h( x) , n( x) et i ( x) représentent respectivement l’objet observé, la
réponse du système, le bruit d’acquisition et l’image acquise.
Pour mesurer ce phénomène, nous avons utilisé une préparation contenant des billes
fluorescentes calibrées : des billes de polystyrène de 10µm de diamètre (figure 8). En utilisant
un grossissement moyen (63×) nous pouvons mesurer une hauteur apparente de 20µm et une
déformation des billes.
Cette déformation de l’image est appelée « fonction d’étalement du point » (ou « point
spread function », PSF en anglais). Elle provient du fait que l’illumination n’est pas faite de
manière ponctuelle mais que la lumière est émise à l’intérieur d’un cône (dont la taille est liée
à l’ouverture angulaire de l’objectif).
On retiendra que pour réduire la déformation des objets dans les images acquises, il faut
limiter l’ouverture du diaphragme du microscope, travailler de préférence à des faibles
longueurs d’ondes, choisir des objectifs de forte ouverture numérique.
22 Chapitre I : Microscopie confocale
I.3.1.2. Résolution
La résolution d’un appareil optique est définie comme la distance minimale devant séparer
deux objets pour que leurs images soient distinctes. Dans le cas de l’ œ il, on parle de pouvoir
séparateur. Deux objets distincts doivent former leurs images sur deux éléments différents de
l’ œ il (séparés de 4,5µm). Placés à la distance minimale de l’ œ il (25mm), ces objets doivent
alors être séparés d’au moins 60µm.
Dans le cas du microscope confocal, deux termes de résolution ont été définis : la
résolution radiale qui fait référence à des objets situés dans le même plan (plan focal de
l’objectif) et la résolution axiale qui s’intéresse aux objets d’une même verticale (axe optique
de l’objectif). Plusieurs paramètres influent sur ces résolutions (ouverture du diaphragme,
longueur d’onde, etc.) et plusieurs critères existent pour les quantifier.
Dans le plan focal de l’objectif, le cône de lumière se projette selon des anneaux
concentriques (disques d’Airy). On peut tracer la courbe de l’intensité lumineuse selon un
diamètre de ces anneaux (figure 9) et la caractériser.
1,22 ⋅ λ 0,61 ⋅ λ
∆r = = .
2n ⋅ sin α NA
Chapitre I : Microscopie confocale 23
λ
∆z = .
α
2n ⋅ sin 2
2
α 1
Pour de petites ouvertures angulaires, en faisant l’approximation sin ≈ sin α , on
2 2
obtient une écriture plus simple :
2λ 2nλ
∆z ≈ = .
n ⋅ sin α NA2
2
À partir de ces formules, R. Delorme [DELORME 1997] propose les valeurs théoriques
des résolutions radiales et axiales, pour plusieurs longueurs d’ondes et plusieurs ouvertures
numériques. Pour une longueur d’onde moyenne (530nm, vert-jaune) et une ouverture
numérique raisonnable (NA=1,2), les ordres de grandeur de la résolution radiale et de la
résolution axiale sont respectivement 0,25µm et 0,50µm.
Une deuxième mesure est fournie par la largeur de la courbe à mi-hauteur (« full width at
half maximum » ou FWHM en anglais). Elle permet de caractériser la résolution radiale et, de
la même manière, la résolution axiale :
0,37 ⋅ λ 0,32 ⋅ λ
∆r = et ∆z = .
n ⋅ sin α α
n ⋅ sin 2
2
Plusieurs propositions ont été faites pour expliquer cette atténuation. Elle résulte
principalement de la combinaison de deux phénomènes. D’une part, la lumière d’excitation et
la fluorescence sont atténuées lors de la traversée de l’échantillon, entre l’objectif du
microscope et le plan focal, et sur le trajet inverse, entre le plan focal et l’objectif. D’autre
part, et dans une moindre mesure, les fluorochromes utilisés se décolorent sous l’effet de
l’excitation.
Pour corriger cet effet, il a été proposé de tracer la courbe de l’intensité moyenne de
chaque plan en fonction de la profondeur et de corriger chacun de ces plans pour supprimer la
décroissance de cette courbe. Cette technique n’est malheureusement valable que pour des
images dont les plans sont statistiquement identiques, c’est à dire une image dont chaque plan
possède le même type d’information (la même quantité d’objets et la même portion de fond).
Ce n’est visiblement pas le cas de l’image de la figure 10. Des méthodes plus avancées ont
donc été proposées.
1
I z = I0 ⋅ ζ
z
1+
Z
I −I
log 0 z = ζ ⋅ log ( z ) − ζ ⋅ log (Z )
Iz
Chapitre I : Microscopie confocale 25
Pour déterminer ces coefficients, l’intensité moyenne I z de chaque plan est prise en
compte. Cependant, cette intensité dépend du contenu de l’image et ne peut donc pas fournir
de résultat valable dans le cas général. En conséquence, plusieurs images sont prises en
compte pour déterminer une intensité moyenne I z à une profondeur z. Enfin, plusieurs
approximation linéaire.
Pour une image d’une cinquantaine de microns d’épaisseur, J.-P. Rigaut a déterminé la
valeur du rapport entre I z et I 0 :
ζ
I0 50
= 1+ ≈ 3 .
I 50 Z
Une autre formulation a été proposée par A. Liljeborg [LILJEBORG 1995] et M. Czader
[CZADER 1996] :
I z = I0 ⋅ k z .
Pour s’abstenir de la variation de contenu des différents plans d’une image 3D, les auteurs
proposent une méthode (« histostack ») comparant deux à deux les plans adjacents. Pour
chaque couple de plans voisins, un histogramme 2D des niveaux de gris des points est calculé.
Sur la figure 11, on localise plusieurs types d’objets clairs sur un fond sombre : le fond, les
objets présents dans un seul des plans et les objets présents dans les deux plans.
26 Chapitre I : Microscopie confocale
Les objets présents dans deux plans voisins sont projetés sur l’histogramme dans une zone
au-dessus de la bissectrice puisque les points sont moins intenses dans le plan inférieur. En
considérant la pile de tous les histogrammes construits pour tous les plans de l’image, les
objets présents dans l’image se projettent le long d’une courbe dont les caractéristiques
fournissent le coefficient k.
D’autres auteurs ont proposé des solutions plus complexes en modélisant le faisceau
lumineux (d’excitation ou d’émission) comme une onde sphérique contenue dans un cône. La
portion du cône de lumière perçue par l’objectif dépend alors de la profondeur du point
observé. Roerdink utilise une déconvolution (transformée de Fourier) pour restaurer l’image
[ROERDINK 1993]. F. Margadant intègre la contribution de nombreux cônes très fins issus
du point observé [MARGADANT 1996].
Afin d’éliminer cette incertitude, on cherche à utiliser des fluorochromes dont les spectres
d’émission ne se recouvrent pas. Si cela n’est pas possible, il est préférable d’effectuer des
acquisitions successives (une pour chaque fluorochrome) plutôt qu’une acquisition simultanée
des réponses de tous les fluorochromes. Dans ce cas, il est indispensable que la motorisation
de la platine du microscope soit totalement fiable. Nous avons constaté que le déplacement se
fait avec une incertitude de 0,25µm en x et en y et de 0,75 µm en z.
Une autre interrogation concerne la linéarité des informations entre les objets à observer
(molécules, etc.), les fluorochromes qui leur sont associés, et le niveau de gris dans l’image
acquise. Pour le second point, il a été proposé d’observer des sources fluorescentes calibrées
ou d’intercaler des filtres d’atténuation sur le trajet optique et de mesurer les niveaux de gris
correspondants. Au niveau du degré de fixation des fluorochromes sur les molécules étudiées,
plusieurs facteurs biologiques interviennent (température, pH, etc.) et rendent l’évaluation
difficile.
Malgré les limites de la microscopie confocale, on peut tout de même acquérir des images
et les exploiter selon les modes de fonctionnement et de visualisation du microscope utilisé.
Sur un exemple de préparation biologique, on peut voir les avantages de la microscopie
confocale par rapport à la microscopie optique classique.
En déplaçant l’échantillon observé par rapport au plan focal du microscope, il est facile
d’obtenir une série de coupes optiques cohérentes (dans lesquelles les pixels de chaque image
se correspondent exactement). La figure 13 représente 16 coupes optiques séparées de 1µm.
Chapitre I : Microscopie confocale 29
En effet, il est nécessaire de tenir compte de certains détails afin de mettre au point des
stratégies de traitement de ces images.
• Les images sont déformées. En effet, les objets présents dans les préparations
ne forment pas une image de forme identique dans les acquisitions. Il est
nécessaire de choisir rigoureusement les milieux de préparations et les objectifs
utilisés pour chaque type d’application afin de réduire le plus possible ce
phénomène au moment de l’acquisition.
• Les images ne sont pas homogènes. Pour des images comportant un grand
nombre de plans, il faut tenir compte de l’atténuation de l’intensité en fonction de
la profondeur. Il nous faut alors choisir la correction des images entre
l’acquisition et les traitements ou la prise en compte de cette inhomogénéité au
sein de traitements.
Pour toutes ces raisons, la manipulation des images de microscopie confocale ne peut pas
faire appel à des techniques et des stratégies tridimensionnelles directement généralisées à
partir des approches bidimensionnelles connues. Nous sommes par conséquent contraints de
développer des méthodes adaptées à ce type d’acquisition.
Chapitre I : Microscopie confocale 31
Nous présentons dans les chapitres suivants des opérations de traitement et d’analyse
d’images, en deux dimensions et en trois dimensions, ainsi que des stratégies adaptées au
traitement des images de microscopie confocale.
Chapitre II : Images de microscopie cellulaire
et méthodologie d’analyse
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 35
Ce chapitre a pour but de présenter les concepts des traitements d’images que nous avons
mis en place dans le contexte de la microscopie cellulaire tridimensionnelle. Les problèmes
auxquels nous voulons apporter une réponse sont de deux ordres :
• sélectionner les objets ou les cellules sur lesquels on veut faire des mesures, en
exploitant leur organisation au sein des tissus.
Les structures de données et les traitements présentés dans ce chapitre répondent à ces
deux préoccupations. Nous souhaitons disposer d’une large palette d’opérateurs, de façon à
constituer un environnement d’expérimentation de techniques de traitement d’images,
adaptées en particulier à la biologie cellulaire. Au début de ce travail, le laboratoire disposait
d’une bibliothèque d’opérateurs de traitements bidimensionnels. Pour répondre à nos
premières préoccupations, nous avons implanté, en trois dimensions, les opérateurs de
traitements usuels ainsi que d’autres opérateurs plus adaptés aux images de microscopie
cellulaire. Pour le second type de problèmes, l’étude des regroupements perceptuels,
implicitement utilisés par les biologistes pour sélectionner les entités remarquables, nous
avons privilégié la structure de graphes de voisinage. Sur cette structure, que l’on peut
indifféremment considérer en 2D ou en 3D, nous avons généralisé, quand cela a un sens, les
opérateurs habituellement définis sur les images vues comme des grilles régulières.
• Chacun des objets présents dans les images étudiées possède une réalité
biologique. Cette réalité fournit des connaissances a priori sur la forme des objets
(réguliers, convexes), sur leur contraste (frontières aux transitions lentes) ou sur
leur contenu (texture, etc.). Nous présentons plus loin les différentes catégories
d’opérations de traitement adaptées à ces propriétés.
• Une image contient une ou plusieurs populations d’objets, organisés les uns par
rapport aux autres en fonction de la nature de l’échantillon biologique observé.
Afin de tenir compte de ces relations entre les différents éléments d’une image,
nous avons développé une représentation complémentaire des images, exploitant
la structure de graphe.
Nous présentons dans cette section les différentes représentations des images répondant à
nos besoins.
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 37
II.1.1.1. Définitions
De la même façon qu’en imagerie bidimensionnelle un élément d’image est appelé pixel
(« picture element » en anglais), l’élément de volume est dénommé voxel en imagerie
tridimensionnelle. De manière générale, pour ne pas faire référence à une dimension
particulière des images (2D ou 3D) lorsque les approches sont équivalentes, nous avons choisi
de parler de points et non de pixels ou de voxels.
Deux aspects interviennent dans la définition d’une image numérique en tant que signal
discret multidimensionnel : la numérisation et l’échantillonnage. La numérisation consiste à
représenter la couleur du point observé par une grandeur quantifiée. Les dégradés de gris ou
les nuances des trois composantes rouge, verte et bleue sont en général codés sur 256 niveaux.
L’échantillonnage d’une image consiste à représenter par un point une information non
ponctuelle. Le problème n’est pas simple et de nombreuses grilles d’échantillonnage ont été
mises au point et comparées pour les images 2D et 3D [SRIHARI 1981], [MEYER 1992]. En
deux dimensions, les maillages carré, triangulaire ou hexagonal sont utilisés et ont été étendus
à la troisième dimension de manière non isotrope (parallélépipède, prisme triangulaire, prisme
hexagonal). Parmi les polyèdres réguliers (tétraèdre, cube, octaèdre, dodécaèdre et icosaèdre
comptant respectivement 4, 6, 8, 12 et 20 faces), seul le cube permet de paver l’espace de
façon isotrope (figure 15a). Cependant, le gros reproche fait au maillage cubique est son
faible nombre de voisins équidistants d’un point donné : seulement six (figure 16a). D’autres
structures ont alors été développées en s’inspirant de structures atomiques cristallines : la
maille cubique centrée qui permet de passer à huit voisins équidistants, et la maille cubique à
faces centrées qui en compte douze. Les figures 15 et 16 illustrent respectivement les
améliorations de la maille cubique et les positions relatives de voisins équidistants d’un point.
a b c
Figure 15 : représentation des structures régulières pour l’échantillonnage
des images 3D. a : structure cubique. b : structure cubique centrée. c :
structure cubique à faces centrées.
38 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse
a b c
Figure 16 : positions relatives des voisins équidistants dans les structures de
la figure 15. Au centre des huit cubes en trait fin, un point est relié à ses
voisins par des traits épais. a : 6-voisinage de la maille cubique. b : 8-
voisinage de la maille cubique centrée. c : 12-voisinage de la maille cubique
à faces centrées.
Le choix de la grille d’échantillonnage étant en général fixé par les appareils utilisés lors
de l’acquisition, des solutions ont été proposées pour passer d’une grille à une autre et pour
disposer d’un maillage régulier et suffisamment dense. Par exemple, il est possible de
reconstruire une grille tridimensionnelle régulière et isotrope en interpolant les données
acquises sous forme de coupes 2D [MEYER 1992].
Dans le cas du microscope confocal, une image 3D est construite en rassemblant plusieurs
plans 2D. En raison du balayage laser, chacun de ces plans est échantillonné par une grille
carrée et l’image 3D est composée de parallélépipèdes rectangles (plutôt que de cubes à cause
de l’anisotropie de l’acquisition). Nous avons choisi de conserver cette grille
d’échantillonnage parallélépipédique proposée par le matériel d’acquisition. Le parcours de
cette structure de voisinage est en outre le plus rapide à mettre en œuvre au cours de
traitements informatisés. Il faut cependant garder à l’esprit la possibilité de changer de grille
pour effectuer des traitements particulièrement précis (par exemple, des opérations de
morphologie mathématique nécessitant un élément structurant isotrope).
En complément, d’autres choix doivent être effectués avant de pouvoir manipuler des
images de points en trois dimensions.
Dans un second temps, il faut remarquer l’absence en 3D d’un codage analogue au codage
de Freeman afin de numéroter les voisins d’un point. En 2D, la numérotation des 8 voisins
d’un pixel possède la propriété suivante : des pixels de codes consécutifs sont voisins en 4-
connexité. Pour étendre ce codage à la troisième dimension, nous avons choisi certaines
propriétés afin de définir une numérotation des 26 voisins d’un voxel :
• les voxels vi pour i ∈ [0;12] sont vus avant le voxel courant dans un balayage
• pour ces deux ensembles pris séparément, les voxels de numéros consécutifs
sont voisins en 6-connexité.
Les deux premières propriétés ne sont pas vérifiées par le codage de Freeman. En
conséquence, le parcours en 3D des premiers points ne se fait pas dans le sens
trigonométrique, comme c’est le cas en deux dimensions. Nous définissons ainsi une
numérotation (figure 17) particulièrement intéressante pour l’accès aux voxels lors des
traitements (masques de balayage pour l’étiquetage, parcours des deux voisins dans les 13
directions, etc.).
Nous disposons ainsi d’une représentation d’une image sous la forme d’une grille régulière
de points, avec une identification invariable des voisins d’un point.
40 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse
• des relations « intra-image », entre des objets d’une même image (relations de
proximité, de similarité, etc.),
S = {pi } et A = {ki , j } où ki , j = ( p i , p j ) .
extrémités d’une même arête, est une relation d’équivalence. Elle est à la base de tous les
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 41
traitements sur les graphes. C’est aussi la source de la définition des arbres (graphes sans
cycle).
Grâce à ces définitions, un graphe permet de représenter simplement une image dont la
grille est irrégulière. Une image est un ensemble de points associé à des règles de passage
d’un point à un autre : la grille d’échantillonnage. Les n œuds d’un graphe sont alors
analogues aux points d’une image et les arêtes remplacent la grille. En suivant la même
analogie, les composantes connexes d’un graphe sont comparables aux régions d’une image.
On peut alors signaler que la dimension d’une image est donnée par la grille
d’échantillonnage : 2D, 3D. Dans un graphe, les nœ u ds peuvent appartenir à un espace de
dimension quelconque. Cette dimension n’a pas d’influence sur la structure de voisinage du
graphe. Par conséquent, considérer un graphe comme une image simplifie le passage de la
deuxième à la troisième dimension, qui pose parfois des problèmes. En effet, l’accès aux huit
voisins d’un pixel est codé différemment de l’accès aux 18 voisins d’un voxel. Dans le cas
d’un graphe, l’accès aux voisins d’un sommet se fait toujours aussi directement, que les
sommets appartiennent à un espace à deux ou à trois dimensions.
Jusqu’à présent, nous avons présenté l’analogie entre les graphes et les images au niveau
de la notion de voisinage. Nous étendons cette analogie aux informations associées aux points
(niveau de gris, étiquettes, etc.). Un attribut numérique est alors associé à chaque sommet de
l’ensemble S. Le graphe et les sommets sont alors dits « attribués » (ou « valués ») par une
fonction V (fonction de valuation) :
V: S →ℜ
p a v( p )
Dans le cas des images 2D, la grille d’échantillonnage introduit le 4-voisinage, le voisinage
hexagonal, le 8-voisinage et des voisinages plus larges. Dans le cas des graphes, les relations
de voisinage ne sont pas limitées dans l’espace. En complément de cet aspect géométrique,
nous utilisons une fonction de pondération des arêtes de A afin de rendre la structure la plus
générale possible :
W: A→ ℜ
k a w(k )
Un graphe ainsi associé à une fonction de pondération est parfois appelé graphe valué
[COCQUEREZ 1995, Annexe A]. Nous parlerons plutôt de graphe « pondéré » pour éviter la
confusion avec la fonction de valuation présentée précédemment.
∀k = ( p, q ) , w(k ) = v( p ) − v(q ) .
D’autre part, on peut inclure l’ensemble S dans un espace métrique. La pondération des
arêtes correspond alors à la distance définie sur les sommets :
∀p, q, s ∈ S , d ( p, p ) = 0 , d ( p, q ) ≥ 0 , d ( p, q ) + d (q, r ) ≥ d ( p, r ) ,
∀k = ( p, q ) , w(k ) = d ( p, q )
Dans tous les cas, nous considérons le poids d’une arête comme une distance entre ses
extrémités. Il pourra s’agir d’une distance métrique (distance géométrique définie dans
l’espace des sommets) ou d’une distance plus générale caractérisant la « différence » entre les
sommets, la différence entre leurs attributs.
Grâce à la fonction de pondération, une structure importante peut être déduite d’un
graphe : l’arbre de recouvrement minimal (« minimum spanning tree » ou MST). Le MST
d’un graphe est l’arbre de recouvrement dont la somme des poids des arêtes est minimum. Un
exemple de graphe et de l’un de ses arbres de recouvrement est présenté sur la figure 19.
a b
Figure 19 : a : exemple de graphe. b : arbre de recouvrement associé.
Cette structure, moins dense que le graphe d’origine, ne contient que les arêtes entre les
sommets les plus proches au sens d’une distance quelconque. L’un des principaux intérêts du
MST est que la suppression de n arêtes de l’arbre permet de séparer la structure en n + 1 sous-
structures. Nous verrons (section II.2.4) que cette propriété est particulièrement efficace pour
la mise en évidence de regroupements dans une population d’objets.
Grâce à la fonction de valuation, d’autres structures peuvent être déduites d’un graphe. Le
graphe d’influence (GI) est obtenu en considérant des sphères (des cercles pour un espace à
deux dimensions) centrées sur les sommets du graphe et dont le rayon est égal à la distance à
leur plus proche voisin. On étudie alors les sphères deux par deux : celles correspondant aux
extrémités de chaque arête (figure 20). Si les sphères ont une intersection non vide, l’arête est
conservée. Dans le cas contraire, l’arête est supprimée. Un graphe d’influence ne possède
alors que des arêtes entre un point et ses plus proches voisins. Il reflète l’aspect général de la
répartition des sommets.
Les α-graphes [WORRING 1992] constituent une série de graphes dépendant d’un
paramètre de densité α. En fonction de ce paramètre, seules certaines arêtes du graphe
d’origine sont conservées. Ces graphes fournissent des informations sur la répartition externe
des arêtes du graphe et ne présentent qu’un faible intérêt pour l’étude de l’architecture d’une
population d’objets.
Les β-graphes sont plus adaptés car ils caractérisent l’organisation interne des sommets du
graphe d’origine. Si nous considérons une arête k = ( p1 , p2 ) du graphe G, nous disposons de
son poids w(k ) . À chaque extrémité ( p1 et p2 ), nous associons une sphère Si dont le centre ci
β β β
ci = 1 − pi + p3 − i et ri = w(k ) .
2 2 2
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 45
Comme pour le graphe d’influence, les arêtes sont conservées en fonction de l’intersection
des sphères (figure 21). Si l’intersection contient un autre nœud que les extrémités de k,
l’arête est supprimée.
β =0,5
β =1
β =2
La densité des β-graphes décroît avec le paramètre β et certaines valeurs particulières ont
été mises en évidence :
• pour β = 0,5 , nous avons la limite inférieure de contact entre les sphères,
l’intersection est le milieu du segment [ p1 p2 ] ,
Ces deux derniers graphes sont présentés dans [VINCENT 1990] et [RAYMOND 1993]
mais nous proposons ici une définition plus générale puisque toutes les valeurs de β sont
utilisables. En raison de leur densité (leur nombre d’arêtes), ces différentes structures
respectent une propriété d’inclusion illustrée sur la figure 22 :
a b c d e
Figure 22 : propriété d’inclusion des différentes structures de graphe pour
une population d’objets. a : population de points. b : graphe de Delaunay
(GD). c : graphe d’influence (GI). d : graphe des voisins relatifs (GVR). e :
arbre de recouvrement minimal (MST).
Nous verrons ultérieurement (section II.2.4) que les graphes de voisinage ont déjà été
utilisés pour la représentation et la caractérisation d’images. L’intérêt de notre approche est
d’inclure les graphes au c œur même des traitements et de les manipuler comme des images.
Le principe général correspond en fait à un changement de représentation pour passer d’une
image à un graphe, à l’application de traitements sur les graphes, et à la déduction d’une
nouvelle image utilisée pour la suite des traitements.
Pour atteindre de tels objectifs, un certain nombre de transformations sont nécessaires afin
d’obtenir un résultat exploitable à partir d’une image initiale. L’automatisation du traitement
des images est un problème difficile pour plusieurs raisons. En particulier, même si un
observateur semble parvenir simplement au résultat escompté, il est toujours délicat
d’expliciter toutes les informations utilisées et tous les raisonnements mis en œuvre.
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 47
• en fonction des techniques qu’elles mettent en jeu (traitements point par point,
opérations arithmétiques, logiques, géométriques, de convolution, de morphologie
mathématique, etc.).
De manière générale, le traitement d’une image contenant des objets biologiques se fait par
l’enchaînement de plusieurs catégories d’opérations :
C’est seulement après cette segmentation que l’on s’intéresse à la caractérisation des
images et des objets.
II.2.1. Prétraitements
Parfois appelée « restauration », cette étape consiste à améliorer les images que l’on veut
segmenter. Les principaux défauts des images acquises sont la présence d’un biais et d’un
bruit d’acquisition.
Le bruit d’une image est en général atténué par l’utilisation de filtres passe-bas. On peut
distinguer plusieurs catégories dans les opérations de lissage : les filtres linéaires (moyenneur,
gaussien) qui se comportent indépendamment des valeurs des points considérés, les filtres non
linéaires (filtres d’ordre, filtrage par diffusion anisotropique [OSHER 1988]), les filtres
adaptatifs (filtre sigma, filtre de Nagao [NAGAO 1979]) qui modifient la taille et les poids de
leurs masques de convolution en fonction de la portion d’image étudiée.
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 49
I = U Ri et ∀i ≠ j , Ri I Rj = ∅ ,
Les opérations de croissance d’une première catégorie consistent à faire croître des objets
(à partir des germes) tant qu’un critère est respecté et à stopper la croissance dès que ce critère
est mis en défaut. La croissance peut ainsi se terminer alors que certains points de l’image ne
sont affectés à aucune région. Ces opérations sont alors comparables à des méthodes
variationnelles utilisant des contours actifs (modèle de la bulle, etc.).
Pour une autre catégorie d’opérations de croissance, l’objectif est de constituer une
segmentation de toute l’image. Tous les points de l’image doivent dans ce cas être affectés à
une région.
De même que le choix des germes, l’ordre dans lequel est effectuée la croissance est
déterminant quant au résultat. Même si la croissance est effectuée en parallèle autour de
chaque germe, on distingue deux approches.
peut citer en exemple l’opération d’étiquetage qui affecte un même numéro à tous
les points d’un ensemble connexe homogène.
• Dans le second cas, la croissance est gérée par une priorité dépendant d’un
potentiel associé à chaque point de l’image. Par exemple, pour la recherche de la
ligne de partage des eaux [COSTER 1989] lors de la localisation d’objets
homogènes, il est courant des choisir les germes comme les minima de la fonction
gradient et de trier les points selon ce gradient au cours de la croissance.
Dans le cas des images de microscopie cellulaire, les cellules et le fond de l’image sont des
régions homogènes que l’on peut obtenir par croissance autour des points dont la variation
d’intensité, par rapport à leurs voisins, est la plus faible.
À partir d’une segmentation initiale et d’un prédicat P donné, le principe consiste à diviser
chaque région tant que le prédicat n’est pas respecté. Une fois obtenue une segmentation pour
laquelle chaque région vérifie P, on cherche à fusionner les régions dont la réunion respecte
encore P. Il est clair que dans ce cas, la représentation des régions de l’image par un graphe
d’adjacence s’avère très efficace pour optimiser les étapes de fusion.
Plusieurs méthodes ont été proposées, tant au niveau de la division qu’à celui de la fusion
[MONTANVERT 1993], [MATHIEU 1993]. Une solution simple mais coûteuse consiste à
considérer chaque point de l’image comme une région de départ pour la phase de fusion.
Cette solution a été adaptée en proposant une première segmentation dans l’environnement
des partitions de Voronoï : c’est la partition de Voronoï d’une collection de germes qui sert de
segmentation initiale [BERTIN 1994], [MATHIEU 1995].
En ce qui concerne les méthodes de division de régions, il est fréquent de procéder à une
découpe systématique des régions en 2n portions de tailles égales (où n est la dimension de
l’espace : 2 ou 3). Il est alors facile de représenter la décomposition des régions par une
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 51
On remarque ici l’intérêt des graphes de voisinage pour représenter les opérations de
division et de fusion de régions.
associe une suite d’images {I t } [MARR 1982]. L’image I t est le résultat du traitement à
l’échelle t de l’image I 0 : Tt (I 0 )[ p ] = I t [ p ] .
famille d’images {I t } est obtenue par réduction progressive de la résolution. L’analyse multi-
résolution permet ainsi d’accélérer un certain nombre de traitements en travaillant sur des
images plus petites. Cette analyse a été structurée par l’utilisation d’architectures représentant
le passage d’une image à une image I t +1 . C’est en particulier le cas de la représentation par
une structure pyramidale. Chaque point de l’image est associé à un point père dans l’image
52 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse
I t +1 et chaque point de l’image I t +1 possède des fils dans l’image . Dans la pyramide
gaussienne régulière [WILSON 1984], les relations fils→père sont bien définies et le père est
affecté d’une moyenne pondérée des attributs des ses fils. Réciproquement, en redescendant la
hiérarchie vers les résolutions les plus fines, les relations père→fils associent les attributs du
père à chacun de ses fils. D’autres structures existent comme la pyramide reliée [MOTT 1986]
dans laquelle plusieurs structures sont imbriquées. Un n œud de la pyramide est alors associé à
plusieurs pères et la meilleure relation père→fils est sélectionnée pour déterminer les attributs
du fils. On peut encore citer la pyramide reliée pondérée [HONG 1984] dans laquelle les
attributs d’un n œ ud sont déduits d’une combinaison des attributs de ses différents pères.
L’une des premières techniques inspirées de ce principe a été proposée sous le nom de
« snakes » [KASS 1988], [BOUDIER 1997]. Celle-ci utilise une énergie globale, associée à la
courbe en évolution, qu’il s’agit de faire décroître pour faire coïncider la courbe avec les
contours de l’objet étudié. En général, cette énergie possède un terme d’énergie externe,
déformant la courbe en fonction des valeurs de l’image (intensité ou gradient des points
54 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse
La technique des snakes fait appel à des calculs matriciels connus et simples et donne des
résultats très proches des véritables contours de l’objet. Cependant, elle nécessite une bonne
initialisation de la courbe et ne peut changer de topologie ; c’est à dire qu’une courbe initiale
ne peut détecter qu’un seul objet.
Il est clair que la méthode des snakes peut être généralisée à la troisième dimension où les
bords des objets sont des surfaces. Cette extension a été introduite par Terzopoulos
[TERZOPOULOS 1988] sous le nom de modèles de surfaces déformables et utilisée par
d’autres auteurs [COHEN 1992]. Comme en deux dimensions, on part d’une surface initiale à
proximité des frontières de l’objet et on essaye de faire évoluer cette surface en minimisant
l’énergie.
Une seconde technique plus générale de segmentation d’objets par modèles déformables
utilise le principe d’évolution des courbes planes décrite par des équations aux dérivées
partielles (EDP) [CASELLES 1993], [MALLADI 1995]. À une courbe initiale C0 décrite par
À chaque instant t, la courbe est déformée dans la direction du vecteur normal en chaque
point, selon l’équation suivante :
∂C (s, t ) r
= f (C (s, t )) ⋅ N .
∂t
∂C (s , t ) r
= g (I ) ⋅ {κ + ν }⋅ N .
∂t
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 55
L’utilisation du terme constant ν permet d’initier l’évolution de la courbe dans le cas d’une
courbure nulle. Le rôle de la fonction g est de ralentir l’évolution de la courbe au voisinage
des fortes variations de niveaux de gris. Une expression courante en est
g (I ) =
1
p
.
1 + grad (I1 )
L’image I1 résulte ici d’un filtrage passe-bas de l’image I. La valeur du paramètre p est
choisie pour moduler l’influence des niveaux de gris de l’image sur l’évolution de la courbe.
On utilise en général p = 1 ou p = 2 .
Dans la formulation eulérienne de l’évolution des courbes planes proposée par Osher
[OSHER 1988], on cherche à utiliser une correspondance entre la courbe en évolution et une
courbe de niveau sur l’ensemble de l’image :
L’un des intérêts de cette formulation est qu’une courbe de niveau n’est pas forcément
connexe. Ainsi, à la différence des snakes, cette approche géométrique accepte les
modifications de topologie : fusions et divisions de courbes au cours de l’évolution.
Pour étendre ces modèles géométriques à la troisième dimension, il suffit de considérer une
famille de surfaces biparamétrées (r et s) évoluant dans le temps à la place des courbes planes.
Il faut alors faire référence à la courbure moyenne H d’une surface en un point. Cependant,
l’approche par les courbes de niveaux reste inchangée :
p ∈ S (r , s, t ) ⇔ u ( p, t ) = 0 .
Malgré la généralité de cette approche, les contours et les surfaces actives présentent deux
difficultés. La première concerne l’initialisation de l’évolution : la détection des frontières
sera améliorée si la forme de départ est localisée suffisamment près. Ainsi, il est courant
d’utiliser l’approche « régions » de la segmentation pour initialiser cette approche
« frontières ». La seconde difficulté réside dans le choix du facteur d’arrêt (la fonction g).
Dans la plupart des cas, le contraste des contours est suffisant mais peut ne pas s’avérer
suffisant si les objets sont caractérisés en termes de niveaux de gris moyens, de texture, etc.
56 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse
Dans un premier temps, leur efficacité à représenter des populations d’objets répartis dans
une image, en deux ou trois dimensions, les a naturellement impliqués dans l’étude de
l’architecture de telles populations. C’est en particulier le cas des images biologiques où de
nombreuses cellules sont organisées les unes par rapport aux autres.
En complément, les graphes et les arbres ont servi à représenter les structures internes de
certaines stratégies de traitement d’images. C’est le cas des représentations pyramidales
manipulées lors de divisions et fusions de régions ou lors des analyses multi-échelles que
nous avons déjà abordées [BERTIN 1994].
Enfin, les graphes présentent une structure de voisinage qui permet de généraliser la notion
d’image en tant que collection structurée de points. Certaines opérations de traitement
d’images ont alors été adaptées aux cas où les points possèdent un nombre quelconque de
voisins, à une position quelconque dans l’espace.
Les principes de regroupements ont été largement étudiés et utilisés dans la vision par
ordinateur et le traitement d’images. Plusieurs approches de l’extraction de propriétés
perceptuelles pertinentes pour la reconstitution d’objets sont présentées dans le travail de
F. Mao [MAO 1995]. La théorie de la Gestalt est un modèle de la perception visuelle humaine
énoncé par Wertheimer dans les années 1920. Elle formalise le regroupement d’objets dans
une scène, selon quelques règles génériques :
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 57
La règle de proximité des objets est par exemple utilisé par Zahn [ZAHN 1971] pour
mettre en évidence des regroupements de points. Une première technique consiste à construire
un graphe de voisinage des points en n’insérant que certaines arêtes. Par exemple, si µ et σ
sont la moyenne et l’écart type des distances entre les points et leur plus proche voisin, il est
proposé de ne pas créer les arêtes de longueur supérieure à µ + 3σ . Un autre exemple proposé
est de ne construire que les arêtes d’un sommet à ses 3 plus proches voisins. On obtient ainsi
plusieurs graphes représentant les regroupements.
Une autre technique proposée par Zahn est d’utiliser l’arbre de recouvrement minimal des
points et de supprimer certaines arêtes. La suppression de n arêtes dans un MST permet ainsi
de constituer n+1 composantes connexes. Pour cela, Zahn utilise la notion d’inconsistance :
une arête est déclarée inconsistante si son poids (sa longueur dans ce cas) est largement
supérieur aux deux moyennes des poids des autres arêtes partant de ses extrémités. Ainsi, sur
la figure 24, l’arête [AB] est déclarée inconsistante puisque son poids (32) est supérieur à la
moyenne des autres arêtes liées à A (11) et à la moyenne des autres arêtes liées à B (12,33).
10 12 11
32
14
11 A B 12 9
8
Ainsi, la suppression de certaines arêtes dans un arbre ou dans un graphe permet de mettre
en évidence des regroupements de points en fonction de leur proximité.
Par exemple, une méthode proposée par C. Dussert [DUSSERT 1987], [DUSSERT 1989]
utilise la longueur des arêtes de l’arbre de recouvrement minimal d’une population de points.
La moyenne µ et l’écart type σ de ces longueurs sont normalisés vis-à-vis du nombre de
points et du volume qu’ils occupent, afin d’obtenir un couple de descripteurs (m, s ) :
N −1 N −1
m= µ et s = σ .
(N ) (N )
1 1
n −1 n −1
V n V n
H ⋅N
V= .
N− f
4π ⋅ Ai
RFi = 2
.
Li
1 1
RFH = et AD = 1 − .
σ σ
1 + RF 1+ A
RFav Aav
De la même manière que les descripteurs (m, s ) vus précédemment, ces deux grandeurs
permettent de comparer des populations de points sur un diagramme à deux entrées.
longueurs de toutes ses arêtes) [VAN DIEST 1992], de la longueur minimale, maximale et
moyenne des longueurs des arêtes, de l’écart type de ces longueurs [DARRO 1993]. On peut
aussi tracer l’histogramme du nombre de sommets à 1, 2, 3 voisins ou plus [MEIJER 1992],
[VAN DIEST 1992].
s′ ∈ B(s, n ) ⇔ d G (s , s′) ≤ n .
La distance entre deux sommets du graphe est le nombre d’arêtes du plus court chemin
entre ces sommets :
Dans notre approche du traitement des images par l’intermédiaire des graphes de
voisinage, l’intérêt des champs de Markov est d’utiliser des définitions de voisinages et de
cliques adaptées à la manipulation de graphes irréguliers [MARCHAND 1997],
[GÉRAUD 1998]. Le voisinage vs d’un site s ∈ S est défini par
s ∉ vs et ∀(s , s′) ∈ S 2 , s ∈ vs ′ ⇔ s′ ∈ vs .
Une clique c d’ordre n est alors définie comme un ensemble de n points tels que deux
points quelconques de c sont voisins. Dans le cas d’un graphe quelconque, on ne peut faire la
liste des configurations possibles des cliques (liste que l’on peut faire pour des grilles
régulières). On peut cependant préciser certaines propriétés. Par exemple, pour un graphe
planaire en 2D, on sait qu’il ne peut exister de clique d’ordre strictement supérieur à 3.
II.2.5. Caractérisation
Avant d’être segmentée, une image peut être caractérisée de manière globale.
L’histogramme des niveaux de gris fournit en général des renseignements sur l’ensemble de
l’image. À l’issue de la segmentation, l’image est composée d’une collection d’objets qui
peuvent être caractérisés, indépendamment les uns des autres. Ceci peut être fait en termes de
niveaux de gris, sur les points de chacun des objets, mais aussi en termes de forme pour ces
objets. Toutefois, il est important de s’interroger sur la validité de la quantification d’une
image vis à vis du contexte dans lequel elle a été acquise.
62 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse
Malgré cette possibilité de caractériser chacun des objets d’une image, la représentation
des images sous forme de grilles régulières ne permet que très difficilement l’analyse de la
répartition de ces objets. Nous verrons que l’utilisation des graphes apporte une réponse à ce
problème.
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 63
II.2.5.3. Échantillonnage
Il est donc possible de déterminer des descripteurs pour l’ensemble d’une image et des
objets qu’elle contient. Cependant, il est nécessaire d’être attentif à la signification de ces
descriptions vis-à-vis de l’ensemble de l’échantillon observé.
Cependant, la nature des images 3D à manipuler ne permet pas toujours d’utiliser de telles
opérations. En particulier, dans le domaine de la microscopie confocale, les images acquises
ne sont que rarement isotropes : les voxels d’une image n’ont généralement pas la même taille
dans les trois dimensions de l’espace. Afin de prendre en compte les inhomogénéités des
images de microscopie confocale, nous avons complété l’utilisation d’opérations
tridimensionnelles par la mise au point de plusieurs stratégies de traitement 2D½.
Il s’agit en fait d’opérer des traitements sur chacun des plans d’une image et de regrouper
les informations afin d’obtenir un traitement sur l’ensemble de l’image 3D. Dans ce cadre,
nous avons distingué deux méthodes.
64 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse
Ces deux stratégies permettent de mettre au point des opérations de traitement des images
mieux adaptées à nos images de microscopie confocale et en général, à toutes les images
obtenues par reconstruction d’acquisition de plusieurs plans.
La figure 26 montre la différence entre le calcul d’un gradient 3D (figure 26b) et d’un
gradient 2D (figure 26c). Le gradient 2D est plus représentatif des variations au niveau des
objets alors que le gradient 3D est plus uniforme. En effet, en raison de la décroissance
globale de l’intensité dans les différents plans, la composante du gradient dans la direction z
est très importante devant les autres composantes et les effets des bords des objets sont
atténués.
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 65
a b c
Figure 26 : illustration de deux types de calcul du gradient sur une image 3D
de microscopie confocale. a : un plan d’une image contenant des cellules
dissociées. b : norme du gradient calculé en 3D pour ce même plan. Une
grande partie de l’information provient de la variation globale d’intensité
d’un plan à un autre. c : norme du gradient calculé en 2D sur le plan
considéré. Les contours des objets sont beaucoup mieux localisés.
Le second exemple de traitement 2D½ d’une image 3D concerne la localisation d’objets sur
un fond. La localisation des régions correspondant à ces objets peut se réaliser par croissance
mais il convient de disposer de points de départ (des germes) pour initialiser la croissance.
Dans le cas où le fond de l’image est connexe, nous avons mis au point une méthode faisant
croître la région correspondant à ce fond. Sur une projection axiale de l’image (dans la
direction z), tous les objets de tous les plans apparaissent et le fond se trouve réduit par
rapport à sa taille réelle dans chaque plan. Nous utilisons cette segmentation pour initialiser la
croissance selon le principe suivant.
• Sur le plan présentant le plus d’objets (plan dont l’intensité moyenne est la plus
élevée), nous opérons une première croissance de la partie du fond segmentée. Les
objets peuvent alors être localisés dans ce plan.
• Une forte érosion de la segmentation d’un plan est alors utilisée comme point
de départ pour une croissance dans ses plans voisins non encore segmentés.
Comme les objets sont continus et qu’ils ne présentent pas de très grandes
variations de taille entre deux plans voisins, cette érosion est suffisante pour
obtenir une approximation du fond.
Sur l’ensemble de l’image 3D, cette technique de segmentation permet de localiser le fond
de l’image et par complément, les objets à détecter. Sur la figure 27, la segmentation de la
projection axiale de l’image (figures 27c et 27f) est utilisée pour initialiser la segmentation du
plan central de l’image et la segmentation est propagée jusqu’aux plans des figures 27a et 27b
(respectivement figures 27d et 27e).
66 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse
a b c
d e f
Figure 27 : exemple de segmentation 3D par propagation de segmentations
2D. a et b : deux plans distants de 7µm dans une image de cellules. c :
projection axiale de l’image 3D. f : segmentation de la projection et mise en
évidence d’une partie du fond de l’image. d et e : résultat de la propagation
de la segmentation de la projection dans deux des plans de l’image.
• Dans un deuxième temps, il faut expliciter les connaissances mises en jeu dans
le raisonnement permettant d’extraire la bonne information. Il est nécessaire de
structurer le savoir-faire des traiteurs d’images.
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 67
• Dans un troisième temps, on doit choisir les stratégies à utiliser ainsi que les
opérations à appliquer. On doit alors faire le lien entre la conception du
programme et le codage informatique des opérations.
• Enfin, dans un quatrième temps, il faut évaluer les résultats. Cette évaluation
concerne la fiabilité et la robustesse de la méthode sur un grand nombre d’images.
Elle doit alors diagnostiquer et corriger les imperfections dans l’approche adoptée.
Au cours de cette mise au point, il a été montré [ZHANG 1995] que l’utilisation d’une
bibliothèque d’opérateurs de traitement d’images est particulièrement efficace. En effet,
l’expert en traitement d’images peut alors enchaîner différentes opérations et évaluer le
résultat du traitement sans avoir recours au codage des algorithmes et sans se soucier des
types de données manipulées. Dans l’élaboration de la solution à un problème particulier,
plusieurs tâches indépendantes peuvent également être distinguées et traitées
individuellement. L’utilisation d’une bibliothèque permet d’optimiser facilement chacune de
ces tâches et d’enchaîner ces solutions partielles pour résoudre le problème complet.
Ainsi, entre la formulation du contexte et des objectifs d’une part et l’évaluation des
résultats d’autre part, le développement d’un programme de traitement d’images se fait par le
choix des opérations à effectuer et par le choix de l’ordre dans lequel elles doivent être
effectuées. Les environnements de développement doivent donc être capables de piloter des
bibliothèques d’opérateurs de traitement d’images. C’est par exemple le cas de la bibliothèque
KHOROS et de son interface de programmation graphique CANTATA [RASURE 1992] qui
permet de définir un graphe orienté, dont les n œuds sont des opérateurs de traitement
d’images et où les arcs représentent les flux des paramètres et des données de ces opérateurs.
Pour être complet, un tel graphe doit également représenter les structures de contrôle (boucles,
tests, etc.) utilisées au cours de l’enchaînement. La figure 28 illustre les possibilités
d’enchaînement d’opérateurs dans l’interface CANTATA de KHOROS.
68 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse
Au niveau intentionnel, le problème à résoudre peut être décrit dans l’approche « tâches-
méthodes-outils » de Valérie Ficet-Cauchard [FICET-CAUCHARD 1998],
[FICET-CAUCHARD 1999]. La décomposition d’une tâche complexe en sous-tâches permet
de résoudre un problème par l’enchaînement de stratégies déjà utilisées pour résoudre d’autres
problèmes. La figure 29 illustre la décomposition hiérarchique d’un problème au niveau
intentionnel de notre approche.
Sélectionner le
fond de l’image
Lissage Maximisation
exponentiel de la variance Binarisation
symétrique interclasse
exposym valvarmax
lpe maxima
• Chaque opérateur est masquable. Il peut ainsi, selon les besoins, travailler sur
l’ensemble des images ou seulement sur certaines parties spécifiées par un
masque. Cette possibilité favorise donc le contrôle au sein des graphes
d’opérateurs en complétant l’enchaînement des opérateurs par une focalisation des
traitements sur certaines parties des images.
Ainsi définis, les opérateurs de la bibliothèque PANDORE offrent une très grande souplesse
d’utilisation. Ils peuvent ainsi être assemblés pour mettre au point des réponses à des
problèmes de traitement d’images. De plus, la bibliothèque reste ouverte vis-à-vis du
développement de nouveaux opérateurs, en fonction des domaines d’applications ou des
stratégies adoptées pour traiter les images.
72 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse
Dans ce chapitre, nous présentons l’implantation choisie pour les opérateurs de traitement
d’images dont le principe a été décrit dans le chapitre précédent. Pour répondre aux besoins
liés à nos applications, nous avons enrichi la bibliothèque PANDORE dans deux directions.
D’une part, nous avons étendu un grand nombre d’opérateurs généraux à la manipulation des
images tridimensionnelles. D’autre part, nous avons adapté ces opérateurs afin de traiter
indifféremment (de façon transparente pour l’utilisateur) les images vues comme des grilles
régulières de points et les graphes de voisinage. Nous complétons ainsi le chapitre précédent
dans lequel nous avons décrit le traitement en termes d’objectifs et de stratégies générales. La
figure 32 propose une organisation générale de la bibliothèque PANDORE. On y trouve la liste
des principaux types de données manipulées et quelques-unes des catégories d’opérations
implantées pour les images 2D, les images 3D et les graphes de voisinage. La liste complète
des opérateurs de la bibliothèque PANDORE est donnée en Annexe 2.
La bibliothèque PANDORE
Nous abordons ici les opérations de traitement des images sous l’angle des techniques
mises en jeu pour leur implantation. Après la présentation des méthodes d’obtention des
graphes à partir des images, ce chapitre comporte cinq sections correspondant à différents
modes d’accès aux données manipulées. Tout d’abord, nous décrivons les outils nécessaires à
76 Chapitre III : Implantation des outils de traitement d’images
la visualisation de ces données. Nous présentons ensuite les opérations traitant les images
point par point puis en fonction du voisinage des points. Nous étendons alors l’exploitation de
ces relations de voisinage pour l’étude des opérations de croissance de régions dans les
images et de composantes connexes dans les graphes. Nous terminons ce chapitre en
proposant des opérations de caractérisation des images, des objets qu’elles contiennent et de
la répartition des objets à l’intérieur des images.
Dans chacune de ces sections, nous opérons un parallèle entre les opérations utilisant la
représentation des images sous forme de grilles régulières et sous forme de graphes de
voisinage. Nous montrons ainsi qu’un grand nombre d’opérations peuvent être généralisées à
cette seconde représentation et que les graphes offrent la possibilité de développer de
nouveaux opérateurs de traitement. Nous fournissons des exemples, sur des images de
synthèse ou sur des images réelles, afin de préciser ou de vérifier le comportement de ces
opérateurs.
Dans le cas d’une image segmentée en régions (figure 33a), les frontières correspondent
aux contacts entre les régions et le graphe d’adjacence (figure 33b) représente ces contacts.
Les attributs des sommets peuvent être utilisés pour enregistrer une large gamme de
caractéristiques des régions comme la moyenne de niveaux de gris ou des paramètres de
forme (direction, élongation, surface, etc.). Les poids des arêtes représentent les propriétés des
frontières comme la différence entre les attributs des régions ou le contraste le long de la
frontière. Des méthodes de segmentation basées sur la fusion de régions peuvent être
grandement simplifiées en manipulant les images par l’intermédiaire des graphes d’adjacence
associés.
Chapitre III : Implantation des outils de traitement d’images 77
A C A C
B
B
E G G
D D E
F F
I K
K I
H H
J J
a b
Figure 33 : a : image segmentée en régions. b : graphe d’adjacence
correspondant.
Dans le cas d’une population d’objets, les relations de voisinage proviennent en général du
diagramme de Voronoï (figures 34a et 34b). Ce diagramme est une partition de l’espace en
fonction d’une collection d’objets {oi } . Dans le cas où ces objets sont réduits à des points, on
est associé à une région vor (oi ) contenant les points plus près de oi que des autres objets :
p ∈ vor (i ) ⇔ ∀j ≠ i , d ( p, pi ) ≤ d ( p, p j )
Plusieurs techniques ont été développées pour construire la partition de Voronoï d’une
population de points. Une première catégorie regroupe les algorithmes récursifs. Ainsi, la
méthode « divide and conquer » [BOWYER 1981], [PREPARATA 1988] procède par
regroupement de plusieurs partitions. Le principal inconvénient d’une telle approche est
d’obliger une reconstruction totale dans le cas d’ajout ou de suppression d’un point. Une
solution est alors d’utiliser un algorithme de construction incrémentale [GREEN 1978],
[BERTIN 1994] qui modifie localement la partition lors de l’ajout d’un point. Ces
algorithmes de construction sont efficaces en deux dimensions mais non exploitables en trois
dimensions parce que très complexes. En conséquence, nous avons choisi de développer une
construction par croissance de régions (inspirée de [VINCENT 1990]) : la croissance isotrope
des objets produit directement la partition de Voronoï, quelle que soit la dimension de
l’espace (2D ou 3D), même si les objets ne sont plus ponctuels.
Le graphe dual du diagramme de Voronoï est appelé le graphe de Delaunay (DG). Dans ce
graphe, chaque arête correspond à une frontière du diagramme de Voronoï et représente une
relation de voisinage entre deux objets ; il s’agit d’un graphe de voisinage. Ce graphe est
parfois appelé triangulation de Delaunay puisque les arêtes ne forment que des triangles dans
78 Chapitre III : Implantation des outils de traitement d’images
un espace à deux dimensions (figure 34c). Les attributs du graphe enregistrent des
informations sur les objets de la population, et les poids caractérisent les relations de
voisinage.
a b c
Figure 34 : a : population d’objets. b : diagramme de Voronoï. c : graphe de
voisinage (graphe de Delaunay).
Les graphes de voisinage et les graphes d’adjacence disposent alors de toutes les études
faites sur les graphes et ils constituent un puissant outil de représentation des images afin d’en
simplifier ou d’en accélérer le traitement.
Dans certains cas, la visualisation de coupes 2D n’est pas suffisante et nous avons besoin
d’une véritable visualisation tridimensionnelle des images pour apprécier les positions
relatives des objets. Alexandre Lenoir [LENOIR 1997] a développé l’outil de navigation 3D
« SurfTool » dans le cadre de son approche surfacique des objets : chaque voxel est constitué
de six facettes appelées des « surfels ». La surface d’un objet binaire est alors représentée par
le graphe des « surfels » séparant l’objet et son complémentaire. Dans un mode de
fonctionnement du logiciel « SurfTool », le niveau de gris des facettes correspond à la
courbure en cet endroit de l’objet et fournit une appréciation de la forme des objets
(figure 36).
80 Chapitre III : Implantation des outils de traitement d’images
Le premier type de visualisation de graphe que nous avons mis au point consiste à
représenter la structure du graphe. Il suffit de dessiner un point pour chaque sommet et de
tracer un segment de droite pour chaque arête. Un exemple d’une telle représentation est
donné par la figure 37.
a b c
Figure 37 : graphe de voisinage associé à une collection de régions. a :
image étudiée (noyau de cellule). b : segmentation de l’image. Le bord de
chaque région est tracé et les frontières paraissent épaisses puisqu’elles sont
constituées de deux bords de régions. c : graphe d’adjacence des régions.
Chapitre III : Implantation des outils de traitement d’images 81
Enfin, les graphes que nous manipulons sont pondérés et il est nécessaire de pouvoir
visualiser les valeurs des arêtes. La première solution consiste à tracer chaque arête avec le
niveau de gris correspondant à son poids (figure 38b). Pour les graphes de régions où les
arêtes sont pondérées par des informations relatives aux frontières, nous proposons une
visualisation complémentaire : les frontières des régions sont tracées en utilisant un niveau de
gris correspondant à ces informations (figure 38c).
a b c
Figure 38 : différents types de visualisation des informations associées à un
graphe. a : régions représentées avec les valeurs des sommets associés (ici,
le niveau de gris moyen de la région). b : arêtes représentées avec leur poids
(ici, la différence entre les valeurs des sommets). c : frontières des régions
représentées avec le poids des arêtes. Les frontières les plus claires
correspondent aux régions les plus différentes.
Ces outils nous permettent donc de contrôler visuellement l’enchaînement des opérations
manipulant des graphes.
la dynamique, etc.), les opérations classiques travaillant sur une image et les opérations
utilisant simultanément deux images.
Le principe est le même pour les opérations de traitement manipulant une image
(binarisation, seuillage, inversion logique, etc.). Puisque les opérations de modification des
valeurs des points d’une image sont indépendantes de la structure de l’image, nous avons très
simplement généralisé les opérations traitant les images de points pour les adapter à la
structure de graphe.
Pour les opérations arithmétiques (addition, différence) ou logiques (ET, OU, etc.)
combinant deux images, une précaution supplémentaire est nécessaire dans le cas des graphes.
Pour pouvoir calculer le résultat d’une opération entre deux points, il faut pouvoir établir une
correspondance exacte entre les deux objets. Il est donc nécessaire d’avoir la même structure
de graphe (les valeurs associées aux sommets pouvant être différentes).
Toutes les opérations traitant les points d’une image de manière isolée sont donc
applicables aux grilles régulières comme aux graphes irréguliers. Les opérateurs de la
bibliothèque PANDORE effectuant ces opérations ont par conséquent été réalisés pour traiter
indifféremment les grilles de pixels et de voxels et les graphes de voisinage. Ils permettent
ainsi d’appliquer des traitements sur les images vues à différentes échelles (points et objets).
a b c
Figure 39 : exemples de masques en deux dimensions. a : 8-voisinage. b :
voisinage d’ordre 2 en 8-voisinage. c : masque d’ordre 2 utilisé dans le
filtrage de Nagao.
Dans les opérations de filtrage, les points d’un masque sont associés à un poids et la valeur
du point de l’image à traiter est remplacée par le résultat d’une convolution (d’une somme
pondérée) entre l’image est le masque.
Nous avons implanté des opérations du même type sur les graphes. Cependant,
contrairement aux grilles de points, les graphes ne peuvent pas fournir de masques avec des
formes particulières. Les seuls voisinages manipulés ne peuvent être définis qu’en terme
d’ordre ou de distance par rapport au point considéré. La figure 40 présente la différence entre
un voisinage du premier ordre pour une grille carrée en 8-voisinage et un voisinage du
premier ordre pour un graphe de points.
a b
Figure 40 : exemple de voisinage du premier ordre. a : dans le cas d’une
grille 2D régulière. b : dans le cas d’un graphe de points.
Parmi les filtres linéaires, on peut citer le lissage moyenneur uniforme pour lequel les
poids du masque sont identiques et dont la somme est égale à 1. Pour les graphes, comme le
nombre de voisins d’un point n’est pas connu a priori, les coefficients doivent être calculés en
fonction de la configuration de chaque sommet (nombre de voisins). L’objectif de cette
normalisation est de ne pas modifier un signal uniforme.
Parmi les filtres non linéaires, le filtre médian (filtre d’ordre) est le plus utilisé. Sa
définition est indépendante de la structure de voisinage et il est par conséquent applicable aux
graphes. Il faut cependant tenir compte du nombre de voisins d’un sommet pour déterminer la
valeur médiane.
Souvent, on essaie d’implanter les filtres de manière séparable. C’est par exemple le cas du
filtre gaussien. Sur une grille régulière, le résultat du traitement peut être obtenu en effectuant
des calculs indépendants dans chacune des directions de l’image. Dans le cas général des
graphes, aucune direction particulière ne peut être mise en évidence. Cette absence interdit de
généraliser l’implantation séparable des traitements.
Dans le cas des graphes, le calcul de dérivées directionnelles n’a pas de sens. En
conséquence, on préfère évaluer les variations des valeurs des sommets par des grandeurs
statistiques. Par exemple, on peut estimer la variation autour d’un sommet par le calcul de la
variance sur son voisinage.
eS ( X ) = XΘS = {x ∈ X , Sx ⊂ X} et d S ( X ) = X ⊕ S = {x ∈ X , Sx ∩ X ≠ ∅}.
Leur implantation est simple puisqu’il s’agit de chercher les valeurs maximale et minimale
de l’image sur un voisinage donné. De plus, leur application à des images binaires donne un
résultat conforme aux opérations ensemblistes définies précédemment.
Nous avons aisément généralisé ces opérations aux graphes en modifiant la notion de
voisinage et d’élément structurant. Les graphes morphologiques proposés par Luc Vincent
[VINCENT 1990] sont traités par de telles opérations mais ils ne contiennent que des valeurs
de niveaux de gris. Dans notre cas, nous pouvons valuer les sommets des graphes avec
n’importe quel type d’informations (surface, distance moyenne aux voisins, etc.) et nous
pouvons opérer les mêmes transformations.
86 Chapitre III : Implantation des outils de traitement d’images
d n (G )( p ) = sup{v(q ), q ∈ Vn ( p )}.
a b
Figure 42 : structure utilisée pour l’illustration des opérations de
morphologie mathématique sur les graphes. a : collection de régions
polygonales. b : graphe d’adjacence des régions.
a b c
Figure 43 : opérations morphologiques sur un graphe binaire. a : graphe
binaire représenté par des polygones noir pour les sommets à la valeur
logique vrai et par des polygones blancs pour les sommets à la valeur faux.
b : érosion d’ordre 1 du graphe. c : dilatation d’ordre 1 du graphe.
Chapitre III : Implantation des outils de traitement d’images 87
a b
Figure 44 : opérations morphologiques sur un graphe binaire. a : ouverture
d’ordre 1 du graphe de la figure 43a. b : fermeture d’ordre 1 du graphe de la
figure 43a.
La combinaison des érosions et dilatations conduit à d’autres opérations utiles. Nous avons
par exemple implanté la reconstruction morphologique par dilatation. Sur une image en
niveaux de gris, cette opération permet de supprimer les maxima régionaux d’intensité. Sur
une image binaire, elle élimine les petits objets, tout en conservant les contours exacts des
plus grands (au contraire de l’érosion qui réduit également les grands objets). Ce type de
localisation est souvent utilisé pour initialiser un processus de croissance de régions ou de
déformation de contours.
Reconstruire un objet X dans un objet Y tels que X ⊂ Y revient à opérer des dilatations de
X tant que le résultat reste inclus dans Y. L’implantation la plus simple de la reconstruction
par dilatation consiste à enchaîner des dilatations de l’objet X, contraintes à l’intérieur de Y,
jusqu’à ce que la transformation soit stable. Puisqu’elle peut être réalisée par la répétition
d’opérations morphologique de base, la reconstruction peut également être appliquée aux
graphes de voisinage. Nous avons ainsi la possibilité d’extraire des maxima régionaux sur les
graphes.
Dans le cas des grilles régulières, tous les points sont connectés et la notion de voisinage
doit être nuancée en ne tenant compte que des voisins dont les valeurs sont égales. La
technique la plus classique d’étiquetage repose sur le parcours séquentiel de l’image. Deux
balayages opposés sont effectués successivement en utilisant deux demi-masques (4 des 8
voisins en deux dimensions). En trois dimensions, nous avons adapté cette technique en
utilisant la numérotation des voisins d’un point définie sur la figure 17. Le premier demi-
masque est constitué des 13 premiers voisins (numéros 0 à 12), le second utilise les 13
derniers points (numéros 13 à 25).
Dans le cas des graphes, nous pouvons utiliser la même notion de voisinage et affecter le
même numéro de composante à deux sommets voisins dont les valeurs sont égales.
Cependant, la structure de graphe nous permet de mettre en place d’autres méthodes de
numérotation.
D’une part, à la différence d’une grille régulière, la connexité d’un graphe peut être
incomplète : un graphe peut être constitué de plusieurs sous-graphes non connectés. Il est
alors immédiat de numéroter les composantes définies par leur véritable structure de
voisinage.
D’autre part, plutôt que d’utiliser la fonction de valuation des sommets d’un graphe, nous
pouvons faire appel au poids de ses arêtes pour modifier fictivement la connexité d’un graphe.
Par exemple, il suffit de ne prendre en compte que les arêtes dont le poids est inférieur à un
seuil pour distinguer plusieurs composantes.
proposons pour cela deux approches complémentaires, applicables aux grilles régulières et
aux graphes de voisinage.
Nous présentons successivement la croissance dans les grilles de points et dans les graphes
de voisinage puis la partition de graphes.
Initialisation :
Les germes sont numérotés (ils constituent l’état initial des composantes en
expansion)
Pour chaque point p de l’image
Si p est un germe ou fait partie d’un germe
Alors insérer p dans la file d’attente
Fin du test
Fin de la boucle d’initialisation
Tant que la file d’attente n’est pas vide
Extraire un point p de la file d’attente
Soit n le numéro de la composante de p
Pour chacun des voisins q de p
Si q n’est pas encore affecté à une composante et si q respecte le
critère d’homogénéité avec la composante n
Alors
Affecter q à la composante n
90 Chapitre III : Implantation des outils de traitement d’images
La structure utilisée ici est une simple file d’attente (FIFO pour « first in first out »)
contenant des points déjà affectés à une composante. Dans ce cas, les points sont examinés
dans un ordre quelconque, dépendant uniquement de l’ordre de parcours des voisins d’un
point. Il s’agit donc d’une croissance géométrique, bien adaptée au calcul de cartes de
distance, et par extension, à la recherche de partitions de Voronoï. Un exemple d’une telle
croissance est proposé sur la figure 45.
a b
Figure 45 : exemple de croissance géométrique autour de germes. a : trois
germes dans une image bidimensionnelle. b : frontières des trois régions
obtenues à l’issue de la croissance.
Afin de gérer une croissance prioritaire, nous avons choisi d’utiliser une structure plus
complexe, autorisant des insertions à n’importe quel endroit de la file d’attente. Chaque point
est alors associé à un potentiel et la file d’attente est maintenue triée selon ces potentiels. À
chaque instant, la file contient ici des points susceptibles d’être affectés à une composante en
croissance. L’algorithme précédent est modifié pour manipuler, à chaque itération, le point le
plus approprié (par exemple, le point de plus faible potentiel) :
Initialisation :
Les germes sont numérotés (ils constituent l’état initial des composantes en
expansion)
Pour chaque point p de l’image
Si p ne fait pas partie d’un germe et si il existe un voisin q de p,
appartenant à un germe numéro n
Alors insérer le couple (p,n) dans la file d’attente, selon le
potentiel de p
Fin du test
Fin de la boucle d’initialisation
Chapitre III : Implantation des outils de traitement d’images 91
Ce type de croissance permet donc de tenir compte du contenu de l’image sur laquelle elle
est appliquée. Il suffit de choisir les germes et la fonction de potentiel pour localiser les objets
présents dans l’image. Par exemple, sur la figure 46, le potentiel utilisé est l’amplitude du
gradient de l’image.
a b c
Figure 46 : exemple de croissance prioritaire autour de germes. Les germes
considérés sont ceux de la figure 45a. a : image d’origine (noyaux de
cellules). Deux germes sont à l’intérieur des objets, le troisième germe est
dans le fond de l’image. b : amplitude du gradient de l’image, utilisée
comme potentiel pour la priorité. c : frontières des trois régions obtenues à
l’issue de la croissance.
En fonction de ce principe général, nous avons mis en place plusieurs cas particuliers de
croissance, sur les grilles de points ou sur les graphes de voisinage.
aucun critère d’homogénéité n’est utilisé. Seul le potentiel des points est utilisé pour fixer
l’ordre dans lequel ils sont affectés à la région d’un de leurs voisins. Ce n’est qu’au moment
où les régions se rencontrent qu’une indétermination peut apparaître.
La ligne de partage des eaux est largement utilisée pour localiser des objets contrastés sur
un fond ou pour séparer des objets collés. Dans le premier cas, les extrema de niveau de gris
(pour les objets et pour le fond) constituent les germes et la norme du gradient de l’image sert
de potentiel. Dans le second cas, les germes sont les érodés ultimes ou les maxima de la
distance à l’intérieur de l’amas d’objets et le potentiel est l’inverse de cette fonction de
distance.
I [ p ] − I [v] ≤ s .
Nous avons également utilisé un critère d’homogénéité global pour chaque région. Un
point v est affecté à une région Ri si sa valeur laisse la moyenne de la région à l’intérieur d’un
intervalle défini d’avance. Pour des régions dont les niveaux de gris ne sont pas uniformes, ce
critère est plus efficace que le précédent. Nous utilisons ici un critère de la forme
À chaque fois qu’un point est affecté à une région, le niveau de gris moyen de celle-ci est
modifié en fonction du point ajouté et la croissance continue avec cette nouvelle valeur.
du premier point de la file et par l’insertion de ses voisins non encore traités, selon le second
algorithme présenté au début de la section (III.5). À chaque itération, un coût est calculé : il
s’agit par exemple de la moyenne des potentiels des points de la file. On évalue ainsi un
contraste sur le contour des objets. En choisissant le module du gradient de l’image comme
potentiel, la fonction de contraste présente une forte variation à chaque fois que les bords des
régions en croissance sont en correspondance avec les contours des objets de l’image.
Lorsque tous les points de l’image ont été numérotés, la phase de simulation est terminée. On
cherche alors la plus forte variation du coût en fonction du nombre d’itérations.
Lorsque la croissance est terminée, on détecte sur la courbe le nombre d’itérations donnant
la meilleure correspondance avec les objets recherchés et on recommence la croissance en
s’arrêtant dès que ce nombre d’itérations est atteint. Actuellement, cette détection est
effectuée visuellement pour chaque image traitée et correspond au premier maximum local
d’amplitude suffisante. Cependant, cette détection pourrait certainement être effectuée
automatiquement.
a b c d
Figure 48 : différentes étapes de la croissance correspondant à la courbe de
coût de la figure 47. La région en croissance est ici représentée en blanc. a :
initialisation avec une partie du fond de l’image (les pixels du bord). b :
arrêt de la croissance lors du premier maximum de contraste. c : après le
premier maximum de la fonction de coût, la région pénètre à l’intérieur d’un
des objets de l’image. d : après le second maximum, les deux objets sont
remplis.
Nous disposons donc d’une panoplie de méthodes de croissance permettant de localiser des
objets dans des grilles de points. En particulier, selon que l’on dispose ou non de germes à
l’intérieur des objets, on choisira de rechercher la ligne de partage des eaux ou de faire croître
une portion du fond de l’image.
Nous présentons ici quelques cas particuliers de la stratégie générale de croissance dans les
graphes. Il s’agit de préciser l’ordre de sélection des sommets à examiner.
La figure 49 illustre ce type de croissance sur un graphe artificiel : des points sont
positionnés aléatoirement dans un espace à deux dimensions et le graphe de voisinage est
calculé par l’intermédiaire de la partition de Voronoï. Puisque le graphe ne représente ici
aucune image de niveaux de gris, nous avons choisi d’appliquer l’opération de croissance sur
des informations géométriques : le potentiel de chaque sommet est donné par la distance
euclidienne à son plus proche voisin (la méthode laisse cependant la possibilité d’utiliser tout
autre potentiel). Comme pour la recherche de la ligne de partage des eaux sur une grille de
points, les sommets dont le potentiel est un minimum local sont choisis pour germes et la
croissance est effectuée autour de ces germes. Sur cet exemple, les germes sont donc les
sommets les plus proches de leur premier voisin. Sur la figure 49b, on voit grâce aux couleurs
que la croissance ne fournit pas le résultat auquel on pouvait s’attendre en termes de
proximité. En effet, les sommets sont traités dans l’ordre croissant de leurs potentiels mais
dans le cas où plusieurs possibilités se présentent, l’affectation d’un sommet à une
composante dépend de l’ordre de parcours des voisins de ce sommet. Ici, cet ordre de
parcours correspond à l’ordre de construction du graphe. On constate donc que la recherche
de ligne de partage des eaux sur un graphe ne peut pas être simplement généralisée de la
recherche sur une grille de points.
96 Chapitre III : Implantation des outils de traitement d’images
a b
Figure 49 : exemple de croissance de composantes connexes à l’intérieur
d’un graphe, en utilisant les valeurs des sommets comme critère de priorité.
a : graphe artificiel utilisé comme support. Chaque sommet est valué par la
distance à son plus proche voisin. Ces valeurs servent de potentiels pour la
croissance. Les germes sont les sommets dont la valeur est un minimum
local. b : résultat de la croissance. Les germes sont représentés par des
points plus gros que les autres sommets.
Cette première croissance utilise une parfaite analogie avec les images de points. La
structure de graphe permet de mettre en œuvre une autre technique, basée sur les poids des
arêtes. En effet, l’ordre de la croissance peut utiliser le poids de l’arête entre un sommet et son
voisin, plutôt que d’utiliser la valeur associée à ce voisin. L’algorithme général de croissance
prioritaire doit alors être modifié puisque dans ce cas, la file d’attente contient des couples de
sommets voisins, triés selon le poids des arêtes qui les relient. Au moment de leur insertion
dans la file d’attente, chacun de ces couples est composé d’un premier sommet déjà affecté à
une composante et d’un second qui n’est pas encore affecté. L’algorithme devient alors :
Initialisation :
Les germes sont numérotés (ils constituent l’état initial des composantes en
expansion)
Pour chaque sommet p affecté à une composante
Soit n le numéro de composante de p
Pour chaque voisin q de p non encore numéroté
Insérer le couple (p,q) dans la file d’attente, selon le
poids de l’arête correspondante
Fin de la boucle
Fin de la boucle d’initialisation
Tant que la file d’attente n’est pas vide
Extraire le meilleur couple (p,q) de la file d’attente
Chapitre III : Implantation des outils de traitement d’images 97
La figure 50 montre le résultat d’une telle croissance sur le graphe de la figure 49a. En
utilisant la longueur des arêtes comme paramètre de priorité, on obtient des composantes
connexes correspondant à la géométrie de la structure. À chaque itération, une seule
composante est proposée pour le sommet étudié et l’ordre de construction du graphe
n’intervient pas.
On constate ainsi que pour certaines opérations de traitement d’images, il n’est pas
immédiat de passer des grilles de points aux graphes de voisinage. Ce dernier type de
croissance est particulièrement adapté à la recherche de regroupements perceptuels où seule la
98 Chapitre III : Implantation des outils de traitement d’images
proximité des objets intervient. Il faut cependant connaître a priori le nombre de composantes
et disposer d’un germe (d’un représentant) pour chacune d’elles.
Nous avons utilisé notre algorithme de croissance prioritaire dans les graphes afin
d’implanter une stratégie de fusion de régions basée sur la méthode de Mumford et Shah
[ACKAH-MIEZAN 1993].
Il s’agit d’une approche d’optimisation globale de la structure manipulée : sur une image I
segmentée en N régions R1 ,… RN , l’objectif est de faire décroître une énergie dont la forme
k =1 p∈ Rk k =1
Dans cette formule, M k représente la moyenne des niveaux de gris des points de la région
On peut également écrire la formule de l’énergie en utilisant les longueurs l (∂ (Ri , Rj )) des
∑ l (∂ (R , R )).
N
E=∑ ∑ I [ p] − M + 2α
2
k i j
k =1 p∈Rk 1≤ i < j ≤ N
Chapitre III : Implantation des outils de traitement d’images 99
par cette fusion. La variation d’énergie peut alors être exprimée en fonction de paramètres
locaux :
card ( Ri ) × card (R j )
× M i − M j − 2α × l (∂ (Ri , R j )) .
2
∆E =
card (Ri ) + card (Rj )
a b c d e
Figure 51 : a : portion d’image de cytologie. On y voit quelques noyaux de
cellules. b : segmentation initiale obtenue par lpe sur le gradient de l’image,
à partir des minima locaux de niveau de gris. c : application de la fusion de
régions inspirée de Mumford et Shah avec α = 0,1 . d : fusion avec α = 2 .
e : fusion avec α = 15 .
100 Chapitre III : Implantation des outils de traitement d’images
Nous avons également appliqué cette technique à l’image de la figure 46 afin de pouvoir
comparer le résultat des différentes approches. La figure 52 illustre le résultat de la fusion
pour différentes valeurs de α.
a b c
d e f
Figure 52 : a : image à segmenter. b : sursegmentation obtenue par lpe. c :
fusion de régions avec α = 0,1 . d : fusion avec α = 1,8 . e : fusion avec
α = 22 . f : fusion avec α = 28 .
Nous avons mis en place une opération de coupure optimale permettant d’exploiter cette
possibilité. À partir d’un ensemble d’objets, nous commençons par construire un graphe de
voisinage. Ses arêtes sont alors pondérées par une grandeur caractéristique des divisions à
opérer. Pour mettre en évidence n groupes, l’algorithme de coupure est le suivant :
Un premier exemple de l’utilité d’une telle opération est la détection de groupes d’objets
au sein d’une image. Sur la figure 53, des regroupements sont facilement identifiables au sein
d’un ensemble d’objets.
102 Chapitre III : Implantation des outils de traitement d’images
a b c
d e
Figure 53 : exemple de coupure de graphe pour mettre en évidence des
regroupements d’objets. a : population d’objets ponctuels dans un espace
2D. b : graphe de voisinage des objets. c : arbre de recouvrement minimum
du graphe (MST), déterminé sur la longueur des arêtes. d : coupure de
l’arête la plus longue dans le MST. e : coupure de la deuxième arête la plus
longue.
En trois dimensions, un tel nuage de points peut par exemple résulter de la représentation
des pixels d’une image en couleurs dans l’espace des trois composantes rouge, verte et bleue.
La représentation de ce nuage par un graphe de voisinage et la partition de ce graphe en
plusieurs composantes permet alors de segmenter l’image par une classification couleur des
points.
segmentation de l’image mettant en évidence les fortes discontinuités (ici, les discontinuités
de niveau de gris moyen).
a b c d
Figure 54 : exemple de coupure de graphe pour mettre en évidence des
régions homogènes. a : image composée de deux régions bruitées, de
moyennes distinctes. b : segmentation de l’image par lpe autour des maxima
de niveaux de gris, en utilisant le gradient. c : coupure du MST en fonction
de la différence des moyennes de niveaux de gris des régions voisines. d :
fusion des régions appartenant à une même composante connexe.
Afin d’évaluer cette méthode de segmentation sur une image naturelle, nous avons à
nouveau utilisé notre image de noyaux cellulaires (figure 55a). Afin de limiter le nombre de
sommets du graphe, notre segmentation initiale est ici le résultat de la fusion de régions de la
section précédente, avec le paramètre α = 0,1 (figures 52c et 55b). La figure 55c présente
l’arbre de recouvrement minimal (MST) du graphe de ces régions, dans lequel chaque arête
est pondérée par la différence de niveaux de gris moyens des régions qu’elle relie.
a b c
Figure 55 : application de la méthode de partition de graphe sur une image
naturelle. a : image de noyaux cellulaires. b : sursegmentation de l’image.
c : arbre de recouvrement minimal du graphe des régions (MST).
104 Chapitre III : Implantation des outils de traitement d’images
d e f
Figure 56 : application de la méthode de partition de graphe sur une image
naturelle. a : la suppression de la première arête coupe l’image en deux
régions (un objet et le fond de l’image). b : la suppression de la deuxième
arête fait apparaître une troisième région (le second objet). c : la quatrième
arête reliait deux portions du même objet.
Pour pouvoir appliquer une telle opération de partition de graphe, il est nécessaire de
connaître a priori le nombre de composantes recherchées. Cependant, en choisissant
correctement les fonctions de valuation et de pondération selon les propriétés à mettre en
évidence dans l’image représentée, cette méthode fournit une bonne localisation des objets.
Toutes ces techniques ne sont bien sûr pas les seules à permettre la segmentation de telles
images mais elles illustrent les possibilités apportées par les opérations sur les graphes de
voisinage.
III.6.1.1. Principe
L’histogramme des niveaux de gris d’un ensemble de points permet de proposer une
caractérisation globale de cet ensemble. Il peut s’agir de tous les points d’une image ou
seulement des points d’une région ou d’un objet.
La moyenne de l’histogramme indique sa position sur la gamme des niveaux de gris. Pour
N points p1 ,… pN de l’image I, le niveau de gris moyen est
1 N
µ= ∑ I [ pi ] .
N i =1
Pour quantifier l’étendue de l’histogramme ou la dispersion des niveaux de gris des points
étudiés, on utilise la variance v (qui est aussi le moment centré d’ordre 2) ou l’écart type σ :
1 N
v = σ = ∑ (I [ pi ] − µ) .
2 2
N i =1
Cette caractérisation globale est par définition applicable aux ensembles de points
structurés par une grille régulière ou par un graphe de voisinage. Dans ce cas, l’avantage des
graphes est que les sommets peuvent être valués par d’autres grandeurs que des intensités et
nous pouvons donc fournir une caractérisation de toutes ces grandeurs : surfaces, orientations,
etc.
Pour un déplacement t, la matrice MCt associée est définie pour tout couple (a, b ) de
{ }
MCt (a , b ) = card ( p, p + t ) ∈ I 2 / I [ p ] = a ⋅ et ⋅ I [ p + t ] = b .
MCt (a , b )
pt (a , b ) = .
∑
a
∑ MCt (a , b )
b
106 Chapitre III : Implantation des outils de traitement d’images
De nombreuses grandeurs ont été définies pour caractériser les matrices de cooccurrence
mais on en retiendra principalement trois [ELMOATAZ 1990] qui renseignent sur le degré
d’homogénéité des points étudiés :
a b
a b
Ces informations permettent par exemple de caractériser les points d’un objet dans une
image en niveaux de gris. Si l’on s’intéresse à des objets texturés, cette analyse peut être
complétée à une échelle différente. Les graphes permettent en effet de représenter le voisinage
des différents éléments de texture et la caractérisation du graphe correspond à une
caractérisation de la texture macroscopique.
Pour un graphe valué G = (S, A,V ) , nous avons utilisé la même définition de la matrice de
cooccurrence mais nous considérons que le déplacement t correspond à une arête (le voisinage
utilisé est donc ici un voisinage du premier ordre) :
MC (a , b ) = card {k = ( p, q ) ∈ A/ v( p ) = a ⋅ et ⋅ v(q ) = b} .
En utilisant cette généralisation, nous avons développé, pour les graphes de voisinage, les
mêmes outils de caractérisation du second degré que pour les grilles de points.
III.6.1.2. Illustration
Afin d’illustrer les possibilités des histogrammes du premier et du second ordre que nous
venons de décrire, nous avons cherché à caractériser la texture de noyaux cellulaires
(figure 57).
Chapitre III : Implantation des outils de traitement d’images 107
a b c
Figure 57 : exemple de noyaux cellulaires texturés. Visuellement, on est en
mesure d’affirmer que la texture est de plus en plus prononcée du noyau a
au noyau c.
Nous avons calculé les histogrammes de niveaux de gris des pixels de ces noyaux (le fond
de l’image a été éliminé par binarisation) et nous obtenons les caractéristiques du tableau 1.
Dans ce cas, on constate que la moyenne des niveaux de gris n’est pas suffisante pour
quantifier la texture mais que la variance augmente lorsque la texture est plus forte.
{ }
MC (a , b ) = card ( p, q ) ∈ I 2 / q ∈ vp ,⋅I [ p ] = a ⋅ et ⋅ I [q ] = b .
v( p ) avec m( p ) = ∑ I [q ] et v( p ) = ∑ (I [q ] − m( p )) .
1 1 1
mv = ∑
2
On constate que ces quatre grandeurs varient de façon monotone avec l’augmentation de la
texture et qu’elles fournissent un bon outil de comparaison.
En complément de cette caractérisation des niveaux de gris, nous souhaitons utiliser les
statistiques du premier et du second ordre pour quantifier d’autres aspects de la texture. La
figure 58 propose une segmentation obtenue par la ligne de partage des eaux, à partir des
minima de niveaux de gris, grâce à la norme du gradient.
a b c
Figure 58 : segmentation des noyaux de la figure 57 par recherche de la
ligne de partage des eaux, à partir des minima de niveaux de gris.
Cette première caractérisation ne semble pas fournir de résultat capable de rendre compte
de la texture des objets. Seul le nombre de régions varie uniformément avec l’importance de
la texture. Nous avons cependant souhaité approfondir cette analyse pour exprimer dans
quelle mesure l’aire des régions peut rendre compte de la texture.
Par analogie avec la matrice de cooccurrence des intensités des points d’une image, nous
avons déterminé la matrice de cooccurrence des aires des régions et mesuré son moment
d’ordre 2, son contraste et son entropie (nous utilisons pour cela les définitions données
précédemment). Chaque élément MC (a , b ) de la matrice contient alors le nombre de régions
voisines d’aires respectives a et b. Si la plus grande de ces régions compte n pixels, cette
matrice est de dimension n 2 et est très largement remplie de 0. Pour chaque région de l’objet
étudié, nous avons également mesuré, toujours afin d’étudier les mêmes grandeurs que pour la
caractérisation des niveaux de gris, la variance des niveaux de gris des pixels qui compose
cette région et nous avons calculé la moyenne de ces variances pour chaque noyau. Il s’agit de
la même approche que pour la caractérisation des niveaux de gris sauf que dans le cas des
aires des régions, les variances ne sont plus calculées sur 8 pixels mais sur un nombre variable
de pixels. Ces résultats sont résumés dans le tableau 4.
Nous remarquons que les mesures faites sur cette matrice n’ont plus réellement de réalité
physique (par exemple, on ne peut pas parler de contraste pour des aires). Cependant,
l’utilisation, dans le contexte des graphes, de ces grandeurs bien connues nous permet de
110 Chapitre III : Implantation des outils de traitement d’images
caractériser facilement une population de valeurs : nous constatons que le moment d’ordre 2
et que l’entropie des matrices ci-dessus varient de façon monotone avec la texture.
Afin de confirmer les résultats obtenus sur ces trois objets nous avons cherché à évaluer ce
type de caractérisation sur un plus grand nombre de cas. Il n’est cependant pas utile de
distinguer un plus grand nombre de niveaux de textures dans des noyaux cellules
(« faiblement » et « fortement » texturés sont en général des qualificatifs suffisants pour les
applications). Nous avons donc choisi de considérer un échantillon de 16 noyaux (figure 59)
donc le niveau de texture est visuellement identifiable. En accord avec les experts du
domaine, 6 de ces noyaux sont qualifiés de « faiblement texturés » (figure 60a) et 6 sont
« fortement texturés » (figure 60b). 4 noyaux possèdent une texture intermédiaire et ont été
affectés à une troisième catégorie (figure 61). Nous avons alors utilisé la caractérisation par
les graphes pour en proposer une classification automatique.
a b
Figure 60 : classification visuelle des noyaux selon leur texture. a : noyaux
faiblement texturés. b : noyaux fortement texturés.
Nous présentons dans un premier temps une représentation graphique des moments d’ordre
2 et des contrastes des matrices de cooccurrence des niveaux de gris (figure 62). On vérifie
ainsi qu’en moyenne, les valeurs sont bien distinctes pour les noyaux de textures extrêmes.
a b
Figure 62 : caractérisation des histogrammes du second ordre des niveaux
de gris. Les trois séries de noyaux correspondent aux trois séries verticales
de points. De gauche à droite figurent les noyaux faiblement texturés, les
noyaux de texture intermédiaire et les noyaux fortement texturés. a :
moment d’ordre 2. b : contraste.
112 Chapitre III : Implantation des outils de traitement d’images
a b
Figure 63 : caractérisation des histogrammes du second ordre des aires des
éléments de texture. a : moment d’ordre 2. b : entropie.
Ces deux graphiques présentent cependant un cas particulier qu’il est nécessaire de
signaler. Le noyau le moins texturé (deuxième noyau de la figure 60a) n’a pas été segmenté ;
il n’est composé que d’une région. Le moment d’ordre 2 et l’entropie sont par conséquent
nuls. Cependant, si on traite cette situation à part, ces résultats confirment que les valeurs du
moment d’ordre 2 et de l’entropie permettent de faire la distinction entre les différentes
catégories de texture.
Nous mettons donc en évidence la possibilité de mesurer de nombreuses grandeurs sur des
objets composés de plusieurs éléments. Ceci montre encore une fois l’intérêt des graphes pour
des études qui ne peuvent être faites sur des grilles de points.
Pour cela, nous utilisons différentes notations. L’enveloppe convexe d’un objet X est
notée co( X) . Pour un objet en deux dimensions, l’aire et le périmètre sont respectivement
surface sont V( X) et S( X) .
En deux dimensions, l’enveloppe convexe d’un objet est obtenue grâce à la méthode des
tangentes : le contour de l’objet est parcouru jusqu’à ce que la tangente en un point intersecte
l’objet en un second point (figure 64).
Cette méthode construit alors un objet convexe, enveloppant l’objet initial (figure 65). Le
défaut de cette méthode est que l’objet obtenu est largement enveloppant mais en contrepartie,
son obtention est très rapide.
À titre d’exemple, nous avons construit l’enveloppe convexe de trois objets artificiels : une
boule pour simuler l’étude d’un noyau cellulaire, un cube (parallèle aux axes de l’image) pour
sa simplicité et sa particularité et la réunion de trois boules ressemblant à un amas de cellules.
Pour le cube, l’enveloppe est identique à l’objet de départ. Pour les boules, les résultats sont
proposés sur les figures 66 et 67.
Dans un premier temps, nous avons très simplement généralisé l’indice de concavité (égal
à 1 pour un objet convexe et inférieur à 1 pour un objet concave) :
A( X)
IC( X) = en deux dimensions,
A( co( X))
V( X)
IC( X) = en trois dimensions.
V( co( X))
Chapitre III : Implantation des outils de traitement d’images 115
4πA( X)
IP( X) = 1 − .
P ( X)
2
Nous avons gardé les mêmes propriétés pour proposer une expression de IP ( X ) en 3D.
IP ( X ) est alors nul pour une boule et égal à 0,93 pour un cube :
9πV( X)
2
IP( X) = 1 −
2S( X)
3
Bien d’autres grandeurs caractéristiques ont été définies en deux dimensions : l’indice
d’écart au cercle inscrit (nul pour un disque et proche de 1 pour un objet allongé), l’indice
d’allongement utilisant le rayon géodésique, etc. Il est évident que les formules associées
peuvent être transformées et adaptées à la troisième dimension.
Afin de valider notre méthode de calcul d’enveloppe convexe, nous avons calculé ces deux
grandeurs (indice de concavité et indice de déficit isopérimétrique) sur nos objets artificiels.
Les mesures utilisées sont présentées sur le tableau 5 (en nombre de voxels).
Nous disposons donc de différents attributs permettant de caractériser des objets, en deux
ou en trois dimensions, selon leur contenu en niveaux de gris ou selon leur forme.
D’une part, les différentes structures de voisinage constituent une famille de descripteurs
visuels pour l’organisation d’une population d’objets. La figure 68 présente le graphe de
Delaunay, le graphe d’influence, le graphe des voisins relatifs et l’arbre de recouvrement
minimal (calculé sur la longueur des arêtes) pour une collection de points.
Chapitre III : Implantation des outils de traitement d’images 117
a b c d e
Figure 68 : série de descripteurs pour une population d’objets. a : population
d’objets ponctuels. b : graphe de Delaunay (GD). c : graphe d’influence
(GI). d : graphe des voisins relatifs (GVR). e : arbre de recouvrement
minimal (MST).
On remarque sur cet exemple que le graphe de Delaunay est le plus dense (il est aussi le
plus simple à obtenir), que le graphe d’influence est le plus proche des contours de la
population et que l’arbre de recouvrement minimal renseigne sur la structure interne de la
population. Plusieurs travaux exploitant ces structures pour caractériser une population
d’objets ont été présentés dans la section II.2.4.
D’autre part, les graphes sont utilisés pour fournir des informations sur la répartition d’une
population d’objets au sein d’une autre. Ce problème se pose par exemple dans des images de
microscopie contenant des cellules biologiquement marquées et des cellules n’ayant pas
répondu au marquage. Nous étudions ce problème dans l’application de la section IV.1.
Les graphes de voisinage offrent une réponse efficace à ce type de question : il s’agit de
caractériser un graphe dont les sommets sont de deux types (type A et type B). Nous avons
pour cela développé deux outils.
Dans les deux cas, afin de nous libérer des effets liés au bord de l’image (même s’il a été
montré que celui-ci est faible pour de grandes images [MEIJER 1996]), nous avons choisi de
ne pas caractériser les sommets dont la zone d’influence touche le bord de l’image (par
exemple, le sommet numéro 2 de la figure 69). Par contre, ces sommets sont pris en compte
s’ils font partie du voisinage (régions en gris foncé) d’un sommet à caractériser.
a b
Figure 69 : représentation des différentes catégories de zones d’influences
de sommets. a : les sommets de type A sont en noir. b : les sommets qui ne
doivent pas être caractérisés sont en gris clair (dont le sommet numéro 2
puisqu’il touche le bord de l’image), les voisins directs de ces sommets en
gris foncé, les autres sommets sont en blanc.
La seconde approche peut être complétée par l’analyse du graphe de distance. Il s’agit
d’associer à chaque sommet de type B le nombre d’arêtes le séparant du plus proche sommet
de type A. La forme de l’histogramme de ces distances permet alors de renseigner sur la
répartition des sommets [RAYMOND 1993].
Les médecins, les biologistes, les pathologistes et tous les experts en biomédecine sont
aujourd’hui confrontés au besoin grandissant de fonder des diagnostics quantitatifs et
objectifs sur des préparations toujours plus nombreuses et variées. Le développement de
nouveaux capteurs et de moyens de calcul numérique performants ont autorisé l’essor des
techniques d’acquisition et de traitement d’images dans bien des domaines et tout
naturellement dans celui de l’imagerie biomédicale. Cependant, la description de l’image
d’une préparation biologique dépend de l’élaboration de cette préparation, des connaissances
liées au spécimen observé et de l’observateur lui-même. En effet, la reproductibilité des
descriptions n’est pas totale entre plusieurs experts en pathologie, et même pour un même
expert décrivant plusieurs fois la même préparation. L’automatisation des traitements et la
reproductibilité des résultats font du traitement d’images un puissant outil d’investigation et
d’analyse.
En imagerie biomédicale, comme dans tous les domaines du traitement d’images, les
objectifs sont très variables. Dans l’exemple de l’étude du cancer, l’analyse automatique
d’images peut servir au dépistage, au diagnostic ou au pronostic [HERLIN et al. 1997].
Depuis 1950, de gros efforts ont été faits dans la préparation des échantillons biologiques,
dans la rigueur des acquisitions d’images, de l’automatisation de la segmentation, de la
caractérisation. De nombreux travaux dans ces domaines ont été résumés par F. Cloppet-Oliva
[CLOPPET-OLIVA 1996].
• L’étude de la réflexion d’un signal sur l’objet à observer. Ce principe est utilisé
en imagerie ultrasonore, en échographie mais beaucoup moins en microscopie.
IV.1.1. L’histologie
L’histologie s’attache à étudier les cellules organisées en des entités plus vastes et plus
complexes que sont les tissus biologiques. Elle est intimement liée à la sociologie cellulaire
qui se propose d’analyser les relations existant entre les fonctions biologiques des cellules et
leur organisation spatiale. En complément des caractéristiques cytologiques, l’histologie
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 123
clinique vise à apprécier les arrangements topographiques des cellules afin de caractériser la
bénignité ou la malignité des lésions.
La réalisation d’un outil de mesure par analyse d’images, dédié à la pratique quotidienne
en oncologie, impose par exemple d’être à même d’identifier et d’apprécier la proportion
relative des structures marquées et non marquées, de limiter cette analyse aux massifs de
cellules tumorales en faisant abstraction du stroma nourricier et inflammatoire et enfin
d’analyser la topographie du marquage.
La figure 70 propose un exemple d’image histologique 2D. Il s’agit d’une coupe fine
contenant des acini de tissu mammaire normal. L’architecture d’un tissu normal est
caractérisé par des couronnes de cellules entourant chacune une lumière. L’image contient
également quelques cellules en prolifération, marquées en brun par immunohistochimie. Il
s’agit dans ce cas du taux normal de cellules en duplication.
au point une application de traitement d’images visant à caractériser la répartition des cellules
en prolifération dans des coupes histologiques. Cette application en deux dimensions est un
exemple de l’efficacité de notre méthodologie de développement de programmes de
traitement d’images. Elle illustre également la puissance de l’approche faisant intervenir les
graphes de voisinage au cours du traitement des images.
IV.1.2.1. Matériel
L’étude réalisée porte sur des coupes histologiques de carcinomes mammaires (canalaire
infiltrant et mixte) et de tissu mammaire normal, fixées au formol et incluses en paraffine. Ces
préparations sont effectuées par les équipes de recherche du Centre François Baclesse.
Les images sont acquises au grossissement ×33 à partir d’un microscope Olympus BH2,
grâce à une caméra tri-CCD (JVC KY-F30) à une résolution de 768×576 pixels (soit un pixel
d’environ 0,8µm de côté). Ces images sont ensuite décomposées en trois plans couleur et
réduites à 750×573 pixels pour n’en conserver que la partie significative. La composante verte
permet d’obtenir une image en niveaux de gris proche de l’image d’origine en raison de la
couleur des noyaux dans la préparation. Ceux-ci forment des objets sombres sur un fond clair
et homogène.
Les noyaux qui forment un regroupement ont en général des tailles voisines mais la taille
moyenne peut varier d’un groupement à un autre. De plus, les regroupements peuvent être
elliptiques avec la présence éventuelle d’une lumière au centre, ils peuvent être très massifs
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 125
ou composés d’une série de noyaux rangés en lignes les uns à coté des autres, etc. Les
regroupements peuvent enfin être composés d’un nombre très variable de noyaux (figure 71).
Il est donc nécessaire de disposer d’algorithmes robustes pour tenir compte de la variabilité de
cette classe d’images.
a b
Figure 71 : exemples d’images de coupes histologiques. a : travées
tumorales bien différenciées d’un carcinome canalaire infiltrant du sein,
marqué au 1A6, ×33. b : travées tumorales en files indiennes d’un
carcinome canalaire mixte du sein, marqué au MiB1, ×33.
L’objectif final est de calculer la proportion de noyaux marqués par rapport aux noyaux
non marqués, uniquement à l’intérieur des massifs tumoraux. Nous présentons dans les
sections suivantes les deux parties de notre travail :
a b
Figure 72 : objectif de la segmentation de l’image 71b. a : segmentation
initiale des cellules. b : tracé manuel des contours des massifs. Seules les
cellules intérieures à ces massifs doivent être conservées.
Nous cherchons donc à délimiter des structures composées de plusieurs éléments plus
petits : des regroupements de cellules. Deux étapes sont nécessaires à deux échelles
différentes.
• Dans un premier temps, les pixels de l’image doivent être regroupés selon
plusieurs critères pour représenter des objets correspondant aux noyaux des
cellules tumorales. Cette étape peut être réalisée grâce à différentes techniques.
Nous avons choisi d’utiliser la ligne de partage des eaux sur les niveaux de gris de
l’image [ELMOATAZ 1997]. Les germes sont obtenus à partir de l’image lissée
par un filtre exponentiel symétrique (coefficient 0,40). Nous retenons d’une part
tous les pixels du fond de l’image par une binarisation (par rapport au seuil 176,
choisi par expérimentation sur une dizaine d’images de cette classe), et d’autre
part les centres des noyaux cellulaires par une détection des minima locaux.
• Dans un second temps, un autre regroupement doit être opéré à une échelle
supérieure pour associer les cellules qui constituent les massifs. Nous sommes
contraints pour cela d’utiliser une autre représentation de l’image que la grille de
pixels et de tenir compte des relations de voisinage entre des objets non
strictement adjacents. La manipulation d’un ensemble d’objets et de leurs
relations de voisinage se fait idéalement en représentant l’image par la structure
de graphe.
Nous savons a priori que les cellules possèdent une taille minimale. Pour le grossissement
utilisé sur le microscope, cette taille est de l’ordre de 40 pixels. Tous les objets de taille
inférieure ne doivent pas être pris en compte (bruit d’acquisition, débris, lymphocytes, etc.).
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 127
D’autre part, en accord avec les pathologistes, nous avons déterminé qu’au-delà d’une
quinzaine de pixels de distance, deux cellules ne doivent plus être considérées comme
appartenant au même regroupement perceptuel. Enfin, nous avons décidé de supprimer les
petits regroupements d’objets correspondant par exemple aux amas résiduels de lymphocytes
du stroma ou aux cellules isolées. Nous considérons que les regroupements dont la surface
totale est inférieure à 5 fois la surface d’une cellule tumorale (5×40 pixels) ne doivent pas être
conservés.
Aux plus hauts niveaux, le problème se décompose selon l’arborescence de la figure 73. Le
plan de résolution correspondant à la détection des massifs tumoraux est présenté en
Annexe 3.
Sélectionner les
cellules tumorales
regroupées en massifs
Nous avons choisi d’utiliser cette distance entre objets comme critère de coupure des arêtes
dont les extrémités sont « éloignées ». Comme nous l’avons déjà signalé dans la
section III.5.3, la suppression de certaines arêtes du graphe permet d’obtenir le même résultat
qu’une opérations de croissance de composantes connexes. Dans la présente situation, il est
plus efficace de supprimer toutes les arêtes dont le poids est supérieur à un seuil plutôt que
d’opérer une croissance contrainte aux autres arêtes. Nous obtenons alors plusieurs sous-
graphes correspondant chacun à un regroupement perceptuel de noyaux. Bien que la théorie
de la Gestalt que nous avons évoquée précédemment (section II.2.4.1) définisse plusieurs
règles de regroupement, nous avons choisi le critère de proximité puisqu’il semble être, avec
le principe de similarité, le plus important. Notre approche nous laisse cependant libre
d’utiliser d’autres critères de séparation des regroupements.
L’enchaînement des opérateurs correspondant à ce traitement est présenté sur le script ci-
dessous. Les lignes commençant par le symbole « # » sont des lignes de commentaires. Le
nom des images est composé de la lettre « m » (pour Massifs) et d’un numéro à trois chiffres.
L’image m001 de départ est la carte de régions des cellules initiales. Les valeurs critiques
(taille minimale d’un noyau, distance inter-nucléaire maximale des noyaux à regrouper et
taille minimale d’un regroupement) sont actuellement choisies par l’utilisateur en fonction de
ses connaissances a priori concernant l’image.
surface 1 40 m001 m002
# elimination des petits objets.
# le parametre 1 signifie que les regions de surface superieure
# au deuxieme parametre seront conservees.
# le parametre 40 correspond au nombre de pixels d’une cellule
# tumorale.
voisins m002 m003 m004 m005
# calcul de la partition de Voronoi et du graphe de Delaunay.
# m003 est la carte de distances, m004 est la carte de Voronoi,
# m005 est le graphe. les aretes sont ponderees par la
# demi-distance entre les germes.
gcoupe 0 8 m005 m006
# segmentation du graphe en sous-graphes.
# les aretes de poids compris entre les deux seuils sont
# conservees. 8 correspond a la moitie des 15 pixels
# minimum separant des noyaux de deux massifs.
gisole m006 m007
# suppression des sommets n’ayant plus de voisins.
gmarquage2 m007 m008
# etiquetage des sous-graphes.
grtaille2 m002 m008 m009
# mesure du nombre de pixels de chaque regroupement.
seuillage 200 65535 m009 m010
# suppression des petits groupes d’objets.
# les composantes de taille comprise entre 200 pixels (5 objets
# de 40 pixels) et la surface maximale (entiers codes sur
# 16 bits) sont conservees.
gisole m010 m011
# suppression des aretes attachees aux sommets qui viennent
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 129
# d’etre supprimees.
gmarquage2 m011 m012
# etiquetage des sous-graphes.
resreg m002 m012 | im2rg - m013
# construction de l’image resultat.
Les figures 74 et 75 illustrent les différentes étapes du traitement réalisé à partir d’une
image d’une coupe histologique dans un carcinome canalaire infiltrant dont les cellules
tumorales sont organisées en groupements massifs. La figure 76 permet de comparer les
cellules sélectionnées dans le cas de la délimitation manuelle et de la délimitation automatique
des massifs. Les figures 77 et 78 présentent les résultats obtenus sur deux autres types
d’images de cancers mammaires : celle de cordons tumoraux bien différenciés et celle, plus
difficile, d’une organisation cellulaire en files indiennes.
a b
Figure 74 : étape de localisation des noyaux cellulaires au cours du
traitement d’une image histologique de cordons massifs dans un carcinome
canalaire infiltrant du sein, marqué au 1D5, ×33. a : composante verte de
l’image couleur à traiter. b : individualisation et sélection des cellules
tumorales.
130 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale
a b
c d
Figure 75 : étape de localisation des regroupements cellulaires pour une
image de carcinome canalaire infiltrant du sein. a : partition de Voronoï
associée à la population de noyaux. b : graphe de Delaunay correspondant.
c : segmentation du graphe. d : utilisation de la localisation des cellules de
départ (figure 74b) pour visualiser les différents regroupements.
a b
Figure 76 : comparaison entre la sélection manuelle des cellules et la
sélection automatique. a : cellules à l’intérieur des contours manuels. b :
cellules à l’intérieur des massifs détectés automatiquement.
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 131
a b
Figure 77 : résultat pour une image histologique de travées tumorales bien
différenciées dans un carcinome canalaire infiltrant du sein, marqué au 1A6,
×33. a : image initiale. b : résultat du traitement.
a b
Figure 78 : résultat pour une image histologique de travées tumorales en
files indiennes dans un carcinome canalaire mixte du sein, marqué au MiB1,
×33. a : image initiale. b : résultat du traitement.
132 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale
Afin d’évaluer la robustesse de notre méthode, nous avons appliqué le même traitement, à
partir d’une segmentation initiale obtenue avec les mêmes paramètres (0,4 et 176), en utilisant
les mêmes valeurs limites de taille (40 et 200) et de distance entre les objets (8), sur 5 images
dont la localisation des massifs a été faite par un expert du domaine d’application. Deux de
ces images ont déjà été présentées (figures 74a et 78a) et les trois autres apparaissent sur la
figure 79.
a b c
Figure 79 : allure des images utilisées pour l’évaluation de notre méthode de
localisation des massifs de cellules tumorales.
Nous avons ensuite comparé le nombre de cellules conservées dans le cas manuel et dans
le cas automatique, la surface totale de l’ensemble de ces cellules et la proportion de
recouvrement des deux résultats. Les tableaux 7 et 8 présentent ces mesures pour la sélection
des cellules à partir des contours manuel et automatique des massifs.
L’analyse de ces résultats nous permet de considérer que notre méthode de segmentation
fournit des cellules très proches des cellules conservées par la délimitation manuelle des
massifs tumoraux. Nous constatons cependant (tableau 9) que les massifs délimités
automatiquement contiennent toujours moins de cellules que lors de la délimitation manuelle.
Ceci s’explique simplement par le fait que dans le cas du tracé manuel, l’expert sélectionne
des zones de manière grossière, à l’intérieur desquelles certains objets indésirables sont
encore présents (petits objets qui devront être supprimés ultérieurement). Au cours de notre
sélection automatique, nous sélectionnons directement les noyaux cellulaires et les contours
des massifs sont beaucoup plus proches de la réalité (la différence est particulièrement
sensible pour des contours très irréguliers).
Les graphes de voisinage constituent donc un outil efficace pour regrouper les cellules de
nos images en fonction de leur proximité. Au niveau de la segmentation initiale, la
segmentation des noyaux, de nombreuses stratégies ont été utilisées avant de parvenir à un
résultat correct. L’utilisation de la bibliothèque d’opérateurs PANDORE s’est révélée d’une
grande efficacité dans la recherche du bon enchaînement d’opérateurs. D’autres améliorations
utilisant la morphologie mathématique et les contours actifs sont encore recherchées pour
cette première étape [SCHÜPP 1998].
134 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale
Nous proposons pour cela les deux outils de caractérisation de graphes déjà présentés
(section III.6.3).
a b
Figure 80 : exemples de marquages sur une image d’acini dans un tissu
mammaire normal. a : marquage dispersé au MiB1. b : simulation manuelle
de marquage focal. Le nombre de noyaux « marqués » est identique dans les
deux cas.
Figure 81 : partition de Voronoï des noyaux et mise en évid ence (en noir)
des régions correspondant aux noyaux marqués de la figure 80.
Dans un premier temps, nous avons étudié les proportions des différents types d’arêtes
dans le graphe (selon le marquage des noyaux qu’elles relient) : marqué/marqué (I),
marqué/non marqué (II) et non marqué/non marqué (III). Nous avons ensuite rapporté ces
136 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale
proportions au pourcentage de noyaux marqués dans l’image. Les résultats sont présentés
dans le tableau 10.
On se rend compte que la troisième catégorie est majoritaire dans les deux cas, puisque la
proportion de noyaux marqués est assez faible (5,79%), mais que les proportions sont
inversées pour les deux premiers types d’arêtes.
Dans un second temps, nous avons calculé le pourcentage de noyaux marqués autour de
chaque noyau marqué. Pour chaque noyau marqué, nous avons divisé le nombre de ses
voisins marqués par le nombre de tous ses voisins. Nous obtenons ainsi une évaluation de la
concentration locale du marquage. Afin de caractériser l’ensemble de la population, nous
avons comparé les histogrammes de ces pourcentages (figure 83).
a b
Figure 83 : histogrammes des proportions de marquage autour des noyaux
marqués des figures 80a et 80b.
Les principales caractéristiques de ces histogrammes sont données dans le tableau 11. Pour
rendre ces valeurs indépendantes du pourcentage de noyaux marqués, nous les avons
également divisées par ce pourcentage.
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 137
Les maxima sont différents puisque pour le marquage focal, il y a au moins un noyau
marqué n’ayant que des noyaux marqués comme voisins. La moyenne et l’écart type
permettent de différencier les deux histogrammes et donc les deux types de marquage.
a b
Figure 84 : identification de noyaux sur des coupes de carcinomes
mammaires, ×33. a : marquage au 1A6 dans un territoire bien différencié.
b : marquage au MiB1 dans une organisation en files indiennes.
Les mêmes calculs ont été effectués pour les deux types de différenciation (figure 84) et
sont présentés dans le tableau 12.
138 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale
Dans ce cas, les différences observées proviennent à la fois d’un pourcentage différent de
noyaux marqués et d’une organisation architecturale différente. D’une part, les proportions
des deux premiers types d’arêtes, divisées par la proportion de noyaux marqués, indiquent des
marquages dispersés dans les deux cas. En effet, les arêtes de type I sont moins nombreuses
que celles de type II. Cependant, on est ici entre les deux cas extrêmes de la simulation de la
figure 80. D’autre part, en comparant les proportions moyennes de marquage autour des
noyaux marqués (5,16 et 1,29) aux valeurs du tableau 11 (1,36 et 13,06), on peut déduire que
la répartition des noyaux marqués est plus uniforme dans les files indiennes (figure 84b) que
dans les territoires bien différenciés (figure 84a).
IV.1.2.4. Discussion
Ce travail a fait ses preuves sur une dizaine d’images représentant des situations très
variées. Nous ne prétendons cependant pas fournir de résultats chiffrés d’un point de vue
biologique. Notre objectif est de mettre au point une méthode d’analyse et de proposer un
outil automatique aux experts du domaine d’application.
La modélisation des relations de voisinage a déjà été largement utilisée sur des images
histologiques en tant qu’outil de caractérisation de l’architecture tissulaire. Outre les
méthodes déjà présentées (section II.2.4.2), plusieurs études appliquées ont été proposées.
Pour caractériser des arrangements cellulaires, M. Bibbo [BIBBO 1990] utilise un graphe
moins dense que le graphe de Delaunay et mesure les aires des polygones délimités par ses
arêtes. K. Rodenacker [RODENACKER 1992] identifie les différentes couches d’une
structure stratifiée grâce aux graphes de voisinage. On peut également citer K. Kayser qui
décompose une population en plusieurs groupes homogènes (par exemple du point de vue de
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 139
Ces modèles ont récemment fait la preuve de leur intérêt dans la caractérisation de la
topographie d’un immunomarquage nucléaire au MiB1 pour l’évaluation du pronostic du
cancer du sein [HAROSKE 1996]. À notre connaissance, hormis le travail de Smadja
[SMADJA 1992] qui permet de segmenter une image par classification des régions de
Voronoï (segmentation morphologique proposée dans [ MARCELPOIL 1991]), les graphes
n’ont pas été utilisés pour localiser et distinguer des compartiments cellulaires. L’originalité
essentielle de notre travail est de les avoir utilisés comme un outil de segmentation des
massifs cellulaires et d’avoir effectué cette segmentation directement sur la structure de
graphe.
Il est à noter que ces graphes n’ont pas été utilisés par ces auteurs dans l’optique de
développer un outil totalement automatique et que leur manipulation a le plus souvent
nécessité une intervention de l’utilisateur, pour effectuer un pointage interactif des noyaux à
étudier. La réduction d’un noyau cellulaire à un point peut également être discutée. Dans
notre approche, nous avons pris en compte, tant pour l’étude de la topographie du marquage
que pour la segmentation des amas de cellules tumorales, la vraie distance inter-nucléaire et
non la distance entre centres de gravité, qui ne peut rendre compte de l’anisocaryose
(différence de taille des noyaux) fréquemment rencontrée dans les cancers.
Le travail présenté n’a pour objectif que de fournir des critères de quantification d’une
image isolée ; pour prendre en compte l’ensemble de l’échantillon tumoral, il conviendra
d’aborder le problème de la taille de l’image analysée par rapport à la taille de l’échantillon et
de travailler vraisemblablement sur des mosaïques d’images. Notre outil est actuellement
implanté au Centre Régional de Lutte Contre le Cancer où il est mis à l’épreuve sur un plus
140 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale
grand nombre d’images. Cette exploitation permet de préciser les seuils utilisés lors de la
segmentation, afin d’envisager leur détermination automatique, dans l’optique de la
réalisation d’un outil de quantification des immunomarquages nucléaires totalement
automatisé.
Afin de retrouver une image dans laquelle les voxels sont isotropes, nous avons effectué
une opération d’interpolation linéaire entre les plans. À l’origine, les voxels ont une taille de
0,25×0,25×0,50µm3 mais en augmentant le volume, on peut simuler des voxels de 0,25µm de
côté dans les trois directions. D’un autre coté, l’approximation linéaire de la diminution
d’intensité en fonction de la profondeur ne s’est pas avérée satisfaisante et des calculs
beaucoup plus complexes de correction devraient être mis en œuvre.
a b
c d
Figure 86 : projections axiales (a et b) et latérales (c et d) d’une image
comportant deux groupes d’objets et de la segmentation en massifs.
Nous vérifions ainsi qu’il est possible de séparer des regroupements d’objets dans une
image tridimensionnelle.
Nous avons poursuivi notre extension à la 3D sur une véritable image de coupe
histologique épaisse, acquise par microscopie confocale. Elle est composée de 50×256×256
voxels de 0,5×0,5×0,5µm3. La figure 87 présente 3 des 50 plans de cette image ainsi que sa
projection axiale. On voit qu’il est difficile de segmenter chaque cellule mais que les groupes
de cellules peuvent être distingués. On constate de plus que la qualité de l’image décroît avec
la profondeur.
142 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale
a b
c d
ème
Figure 87 : image de coupe histologique épaisse. a : 5 plan de l’image. b :
15ème plan. c : 30ème plan. d : projection axiale des 50 plans de l’image.
a b
Figure 88 : segmentation initiale des objets de l’image. a : 15ème plan de
l’image. b : projection axiale de l’image.
En suivant la même stratégie qu’en deux dimensions, nous avons supprimé les petits objets
(inférieurs à 100 voxels) et nous avons construit le graphe de voisinage. Nous avons ensuite
segmenté ce graphe afin d’obtenir les regroupements de la figure 89. Nous avons pour cela
coupé toutes les arêtes reliant des objets distants de plus de 60 voxels, dans n’importe quelle
direction de l’espace 3D.
a b
Figure 89 : mise en évidence des regroupements d’objets. a : 15ème plan de
l’image. b : projection axiale de l’image.
Grâce à ces deux études, sur une image de synthèse et sur une véritable image acquise au
microscope confocal, nous pouvons affirmer qu’une fois le problème de la correction des
images résolu, il sera immédiat d’opérer l’analyse de l’architecture cellulaire dans des images
3D de coupes histologiques épaisses.
La technique de culture existe depuis le début du XXième siècle mais ne s’est véritablement
développée que dans les années 1950. Elle s’applique au maintien en vie d’organes, à la
croissance de tissus, à la reproduction cellulaire. Parmi les avantages de cette technique il faut
retenir qu’elle permet un contrôle presque total sur l’environnement de développement des
cellules (la culture cellulaire nécessite généralement l’emploi de sérums animaux dont la
composition est complexe et variable), et qu’elle autorise les expérimentations sur des tissus
humains. Cela en fait donc un puisant outil de recherche. Cependant, certains points limitent
encore son utilisation. En particulier, l’aspect tridimensionnel du développement des cellules
n’est généralement pas respecté puisque la culture se fait en général à la surface d’un support
plan. Enfin, la culture de cellules ne fait pas intervenir tous les phénomènes présents in vivo et
l’extrapolation des résultats nécessite une grande prudence.
Quoi qu’il en soit, la culture cellulaire autorise une étude aisée de l’activité cellulaire au
cours de son cycle cellulaire, des interactions entre les cellules et avec leur environnement,
etc. Ses applications sont très variées dans les domaines du diagnostic de comportements
viraux, de la recherche pharmacotoxicologique, de la thérapie par utilisation de greffes, etc.
permet d’acquérir des images de 512×512×20 voxels d’une taille unitaire de 0,4×0,4×0,4µm3.
Les images 3D permettent de conserver la géométrie des cellules. On sait que celles-ci
doivent se présenter sous la forme d’un « œuf au plat» : le cytoplasme aplati sur le support et
le noyau de la cellule dépassant au dessus du reste (figure 91). Les protéines étudiées
apparaissent comme des petits points intenses près de la périphérie des cellules. On admet
pour la suite que les objets observés sont effectivement les contacts focaux de la cellule.
Enfin, le phénomène que nous voulons quantifier étant variable dans le temps, il nous a
paru utile de réaliser une étude cinétique. Pour ce faire, des cellules d’une même préparation
ont été mises en culture pendant des durées différentes et des images ont été acquises à ces
différents instants.
Nous commençons donc par étudier la quantification des contacts focaux au sein d’une
image et nous analyserons ensuite l’évolution de ces résultats au cours du temps.
Les figures 92 et 93 sont des projections axiales des volumes 3D correspondants. Ces
projections permettent d’avoir une bonne approximation du contenu des images sans avoir
recours à une délicate visualisation 3D. La fluorescence fournit des images dans lesquelles les
objets sont clairs sur un fond sombre mais pour des raisons de meilleure appréciation des
contrastes à l’ œ il, nous présentons ici les images inversées.
a b
Figure 93 : délimitation manuelle des domaines d’étude pour deux des
cellules de la figure 92.
Pour localiser les contacts, nous n’avons besoin de manipuler que la partie basse des
images. Nous avons mis au point une technique séparant automatiquement l’image en deux
parties. Les projections de ces deux sous-images fournissent des images 2D pouvant être
traitées indépendamment. Nous avons particulièrement travaillé sur l’image permettant la
localisation des contacts focaux.
Dans toutes les images, la courbe du niveau de gris moyen d’un plan en fonction de sa
profondeur est comparable (figure 94).
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 149
Deux points caractéristiques ont été retenus : le maximum d’intensité moyenne et la moitié
de ce maximum sur la partie décroissante de la courbe. Les deux plans correspondants servent
à délimiter les deux parties à traiter.
a b
Figure 95 : localisation du contour des cellules à étudier (cellules de la
figure 93).
a b
Figure 96 : régularisation du contour des cellules.
La localisation des petits objets est faite par un opérateur « chapeau haut-de-forme » :
• ouverture de taille 2,
• recherche des points près des bords (carré de la distance euclidienne en pixels
inférieure à 275),
• ET logique entre les petits objets, l’intérieur des cellules et la zone proche des
bords,
a b
Figure 97 : localisation des contacts focaux (points intenses près du bord des
cellules).
Nous obtenons ainsi la localisation des cellules, du bord des cellules et des contacts focaux.
Afin d’évaluer la qualité de cette segmentation, nous l’avons comparé à une localisation
manuelle des contacts focaux et des contours des cellules. Pour cela, nous avons utilisé 14
cellules prises au hasard dans notre échantillon (figure 98).
Nous constatons que la segmentation automatique détecte en général plus d’objets que le
pointage manuel (en moyenne, 12% de plus). Il s’agit en général de points trop loin du bord
152 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale
des cellules pour avoir été pointés comme des contacts focaux. En ce qui concerne la
localisation des cellules, la segmentation automatique ne conserve en moyenne que 95% de la
surface contenue à l’intérieur des contours manuels. En effet, le tracé manuel est toujours à
l’extérieur de la segmentation automatique et toujours plus régulier. La mesure du périmètre
des cellules confirme cette relation d’inclusion, malgré la relative irrégularité des contours
automatiques, puisque ces derniers ne correspondent qu’à 86% de la longueur du tracé
manuel.
Par exemple, pour les cellules de la figure 93, nous obtenons les résultats du tableau 13.
Cellule de la Cellule de la
figure 93a figure 93b
Surface de la cellule 12151 pixels 8358 pixels
Périmètre de la cellule 471 pixels 354 pixels
Niveau de gris moyen de la cellule 40,07 37,76
Nombre de contacts 59 49
Surface cumulée des contacts 443 pixels 314 pixels
Niveau de gris moyen des contacts 93,70 79,82
Tableau 13 : résultats de la quantification des cellules de la figure 93.
Pour pouvoir extraire une information valide relative à un instant donné, il est nécessaire
de disposer d’un nombre de cellules suffisamment important. En conséquence, aucune
conclusion ne sera tirée à propos de la cellule de la seconde série visualisée après 2 heures de
culture. On a cependant choisi de représenter toutes les mesures pour l’ensemble des 65
cellules.
Les figures 99 à 104 présentent les mesures faites sur l’ensemble de ces cellules. Les six
mesures proposées précédemment sont illustrées pour les deux séries de cellules : surface des
cellules, périmètre des cellules, niveau de gris moyen des cellules, nombre de contacts focaux
par cellule, surface cumulée des contacts focaux, niveau de gris moyen des contacts focaux.
Par chaque série, la valeur minimale et la valeur maximale ont été enlevées afin de
s’affranchir d’éventuels résultats marginaux. L’objectif est de visualiser la dispersion des
mesures ainsi que les positions relatives de leurs moyennes.
a b
Figure 99 : surface des cellules pour chacune des séries de cellules. a :
première série d’acquisitions à 2 heures, 6 heures et 24 heures. b : seconde
série d’acquisitions à 2 heures, 4 heures et 6 heures. Les échelles utilisées
sont identiques pour les deux séries.
154 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale
a b
Figure 100 : périmètre des cellules.
a b
Figure 101 : niveau de gris moyen des cellules.
a b
Figure 102 : nombre de contacts focaux par cellule.
a b
Figure 103 : surface cumulée des contacts focaux.
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 155
a b
Figure 104 : niveau de gris moyen des contacts focaux.
On constate dans un premier temps que les mesures d’une même catégorie de cellules
(même série et même temps de culture) sont relativement homogènes. On note ensuite que les
mesures relatives aux contacts focaux (nombre, surface, intensité) sont différentes,
principalement entre 4 heures et 6 heures.
En ce qui concerne l’évolution des mesures au cours du temps, on voit que celles-ci
semblent confirmer l’aspect temporaire du phénomène d’ancrage des cellules. Les variations
de la surface et du périmètre des cellules correspondent à un étalement des cellules sur leur
support et à la régularisation de leur périphérie. Dans le même temps, le nombre et l’intensité
des contacts focaux semblent s’atténuer puis augmenter au cours des premières heures. Enfin,
les mesures semblent ne plus évoluer au-delà de la sixième heure de culture.
IV.2.5. Perspectives
Ce travail illustre donc la possibilité de développer un outil informatique, appliqué à la
quantification des contacts focaux dans des cellules de culture. L’analyse biologique des
mesures effectuées sur les 65 cellules étudiées doit bien entendu être terminée par des experts
du domaine. Cependant, nous disposons d’un protocole de segmentation des images et de
présentation des résultats.
Dans un second temps, les graphes de voisinage offrent la possibilité d’organiser les
contacts focaux en fonction de la proximité des noyaux des cellules. Par exemple, pour les
cellules de la figure 105, le graphe de voisinage des deux populations (figure 106a) d’objets
(contacts focaux et noyaux cellulaires) peut être construit (figure 106b).
156 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale
a b
Figure 105 : exemple d’image comportant trois cellules. a : partie basse de
l’image 3D permettant de localiser les contacts focaux. b : partie haute de
l’image, utilisée pour localiser les noyaux des cellules.
a b
Figure 106 : relations de voisinage entre les noyaux de cellules et les
contacts focaux. a : deux populations d’objets extraites de la figure 105. b :
graphe de voisinage.
On peut alors rapporter les mesures effectuées sur les contacts focaux à chacune des
cellules et caractériser ainsi les cellules elles-mêmes.
Comme dans le cas des images histologiques, l’objectif est ici d’étudier des cellules, non
pas indépendamment les unes des autres mais au sein d’une organisation plus vaste.
Cependant, on ne peut pas véritablement parler d’histologie puisque les cellules ne sont pas
étudiées au sein d’un tissu biologique, mais dans le cadre d’une culture contrôlée.
Nous illustrons ici la possibilité de traiter, grâce à des stratégies 2D½ (section II.3), des
images dans lesquelles les objets à segmenter sont effectivement tridimensionnels.
chinois (Syrian Hamster Embryo ou SHE) sont séparées et mises en culture. Les cellules se
multiplient et peuvent donner naissance à une colonie (des clones). L’intérêt d’un tel test est
d’observer l’ensemble du phénomène de transformation cellulaire, qui se traduit par une
modification de l’aspect des clones et des cellules (diminution du rapport nucléo-plasmique,
chevauchement des cellules, « peignage » des colonies, etc.).
Les clones transformés et non transformés ont été obtenus par l’équipe du Centre des
Sciences de l’Environnement de Metz, selon la méthode présentée par H. Bessi [BESSI 1995].
Les clones, colorés au Giemsa pour l’observation en transmission et l’identification des clones
transformés, sont décolorés par 3 bains successifs dans de l’éthanol à 70% puis recolorés
30 mn dans une solution de bromure d’éthidium à 1 µg/l dans de l’eau pour l’observation au
microscope confocal.
Les acquisitions sont faites au microscope confocal à balayage laser, en fluorescence, avec
une résolution menant à des voxels de 0,40×0,40×0,50µm3 (objectif 63×/1,4). Les images ont
une taille de 512×512×20 voxels.
Figure 108 : deux plans distants de 1,5µm dans une image tridimensionnelle
noyaux cellulaires.
Nous commençons par opérer un prétraitement sur l’image afin de l’améliorer. Nous
effectuons une diffusion linéaire de l’image 3D afin de limiter le bruit et nous améliorons
chaque plan indépendamment de ces voisins en modifiant la dynamique des niveaux pour
l’étendre entre 0 et 255. Ainsi, chaque plan présente un contraste optimal (figure 109).
• numérotation des érodés ultimes de ces régions pour obtenir des germes,
a b
Figure 110 : exemple de segmentation bidimensionnelle. a : projection
axiale de l’image 3D. b : segmentation de la projection.
Enfin, nous opérons une croissance de cette segmentation, dans l’image 3D corrigée,
depuis le plan correspondant au plan le plus contrasté de l’image d’origine :
• au sein du plan considéré, tous les points ayant un niveau de gris proche de la
moyenne de la région sont agrégés à la région,
• dans les plans voisins, une érosion de chaque région est recopiée comme point
de départ pour calculer la moyenne de niveaux de gris (différente du plan de
départ) et les points ayant un niveau de gris proche de cette moyenne sont
agrégés,
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 161
• les moyennes de niveaux de gris des régions sont recalculées pour chaque plan
et on réitère l’opération en s’éloignant du plan de départ.
Le résultat de la segmentation est une image tridimensionnelle qui peut être observée avec
un rendu volumique (figure 111). Cependant, les dimensions en x, y et z sont très différentes
et l’appréciation de l’ensemble de l’image est difficile.
Nous avons appliqué le même traitement à une image comportant des amas de noyaux. La
figure 112 présente la projection axiale de cette image et la segmentation 2D initiale.
a b
Figure 112 : segmentation d’une image comportant des amas de noyaux. a :
projection axiale de l’image 3D. b : segmentation de la projection.
La figure 113 illustre la segmentation tridimensionnelle des objets contenus dans cette
image.
162 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale
Nous avons utilisé des opérations simples afin de localiser des régions dans une image 2D
et initialiser une croissance tridimensionnelle. Cependant, ces traitements sont très facilement
modifiables grâce à l’utilisation de la bibliothèque d’opérateurs PANDORE. Nous pouvons par
exemple combiner des opérations de morphologie mathématique et des opérateurs sur les
contours actifs afin d’initialiser la croissance [SCHÜPP 1998].
IV.3.3. Résultats
À la suite de cette segmentation, l’objectif est de caractériser la forme de chaque objet
(cellule ou amas) et de déduire une information sur l’architecture des colonies cellulaires (par
exemple, le pourcentage d’amas dans la colonie par rapport au nombre de noyaux isolés). La
recherche de l’enveloppe convexe d’un objet et le calcul de l’indice de concavité ou de
l’indice de déficit isopérimétrique permettent de préciser si l’objet étudié est une cellule seule
ou un amas de cellules.
Par exemple, pour les objets de la figure 111, l’indice de concavité varie entre 0,40 et 0,61,
sa moyenne est 0,53 et l’écart type est 0,05. Tous ces objets ont donc des concavités voisines.
Dans le cas de la figure 113, les objets sont plus irréguliers : les indices de concavité
s’étendent de 0,02 à 0,66, avec un écart type de 0,15.
Nous disposons donc d’un outil de traitement capable de localiser des objets dans des
images 3D acquises par microscopie confocale. Pour mettre au point cet outil, nous avons
travaillé sur les quelques images dont nous disposions, présentant en général une seule couche
de noyaux cellulaires. Nous devons désormais appliquer cette méthode de segmentation à de
nombreuses images, présentant des colonies cellulaires normales et anormales. Nous pourrons
alors déterminer, par apprentissage, un seuil sur l’indice de concavité, permettant de
distinguer les noyaux isolés des amas de noyaux. Nous devons également examiner d’autres
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 163
mesures (comme la surface ou l’épaisseur des objets) susceptibles de renseigner sur la nature
des objets et de distinguer les amas monocouches des amas multicouches.
Ces quelques exemples d’applications illustrent notre capacité à proposer une réponse à un
problème posé. La bibliothèque PANDORE comporte une large gamme d’outils permettant de
tester facilement de nombreuses stratégies de traitement d’images. Les résultats que nous
fournissons constituent un point de départ dans le processus d’échange avec l’expert du
domaine d’application : le pathologiste ou le biologiste. Il s’agit désormais d’évaluer ces
résultats et de mettre en évidence les imperfections des traitements sur de larges séries
d’images.
Conclusion
Conclusion 167
Dans ce travail, nous avons étudié les différentes étapes utiles à l’analyse d’images de
microscopie cellulaire 3D : l’acquisition des images, les stratégies de traitement d’images,
l’implantation des opérations de traitement d’images, la quantification d’images.
Nous avons ensuite illustré la mise en œuvre de notre méthodologie de développement sur
quelques exemples d’applications de quantification d’images de microscopie cellulaire.
L’objectif était de chercher des réponses à des problèmes variés, afin d’initier un mécanisme
de travail avec les experts du domaine des images. Les résultats fournis demandent à être
validés du point de vue biologique et les méthodes proposées doivent être mises à l’épreuve
sur un plus grand nombre d’images.
168 Conclusion
D’un point de vue physique, la qualité des images acquises dépend de deux points
principaux. D’une part, la préparation des échantillons biologiques doit demeurer
parfaitement rigoureuse. Les marqueurs fluorescents utilisés doivent être choisis au mieux
pour conserver une bonne homogénéité au cours de l’acquisition (limitation du photo-
blanchiment), une franche différenciation des objets à observer (réduction de
l’autofluorescence des tissus), etc. D’autre part, le matériel optique doit être sélectionné en
fonction des images que l’on cherche à obtenir. En particulier, on prendra soin de déterminer
l’objectif le plus approprié à l’échantillon, en termes de grossissement, d’ouverture
numérique, de milieu d’immersion.
Dans de nombreux cas, malgré la grande variabilité des images traitées, la résolution d’un
problème s’effectue en combinant les opérateurs de la bibliothèque PANDORE. Cependant, afin
de répondre à tous les besoins, de nombreuses catégories d’opérateurs doivent venir compléter
cette bibliothèque. En particulier, même si nous avons choisi de ne pas approfondir la
correction des images acquises par microscopie confocale, il est nécessaire, pour permettre la
manipulation du plus grand nombre d’images, de développer des opérateurs généraux de
correction pour ce type d’acquisition (déformations dues à la PSF, atténuation de la
fluorescence, etc.). La correction de ces phénomènes optiques complexes nécessite cependant
une parfaite connaissance des caractéristiques du matériel, mesurées sur des objets calibrés,
pour tous les milieux de montage des échantillons, dans toutes les conditions d’acquisition.
3. Applications
En complément du travail que nous avons présenté, plusieurs points doivent donc être
approfondis afin d’exploiter au mieux les possibilités d’acquisition du microscope confocal et
de mettre en place des systèmes de traitement automatique des images obtenues.
Références
Références 173
ACKAH-MIEZAN 1993 Ackah-Miezan A., Gagalowicz A., Discrete models for energy-
minimizing segmentation, IEEE Computer Vision and Pattern
Recognition, February 1993 : pp. 200-207.
AYACHE 1998 Ayache N., L’analyse automatique des images médicales, état de
l’art et perspectives, rapport de recherche n°3364 de l’Institut
National de Recherche en Informatique et Automatique, Sophia
Antipolis, février 1998.
BERTOLINO 1994 Bertolino P., Attali D., Montanvert A., Diagrammes de Voronoï
ponctuels et généralisés appliqués à la biologie, 17ième journée de la
section française de l’International Society for Stereology, Paris,
février 1994.
BESSI 1995 Bessi H., Rast C., Rether B., Nguyen-Ba G., Vasseur P.,
Synergistic effects of chlordane and TPA in multistage
morphological transformation of SHE cells, Carcinogenesis, 1995 ;
Vol. 16, N. 2 : pp. 237-234.
BIBBO 1990 Bibbo M., Kim D. H., Di Loreto C., Dytch H. E.,
Galera-Davidson H., Thompson D., Richards D. L., Bartels H. G.,
Bartels P. H., Tissue architectural features for the grading of
prostatic carcinoma, Analytical and Quantitative Cytology and
Histology, August 1990 ; Vol. 12, N. 4 : pp. 229-236.
174 Références
BOWYER 1981 Bowyer A., Computing Dirichlet tessellation, Comput. J., 1981 ;
24 : pp. 162-166.
BRAKENHOFF 1985 Brakenhoff G.J., Van der Voort H.T.M., Van Spronson E.A.,
Linnemans WAM, Nanninga N, Three dimensional chromatin
distribution in neuroblastoma nuclei shown by confocal scanning
laser microscopy, Nature, 1985 ; n°317 : pp. 748-749.
BRYON 1995 Bryon P.-A., Delorme R., Souchier C., La microscopie confocale à
balayage laser et ses applications hématologiques, Revue Française
des Laboratoires, avril/mai 1995 ; N. 275 : pp. 37-43.
CASELLES 1993 Caselles V., Catte F., Coll T., Dibos F., A geometric model of
active contours, Numerische Mathematick, 1993 ; N. 66 : pp. 1-31.
CLOUARD et al. 1997 Clouard R., Elmoataz A., Angot F., PANDORE : une bibliothèque et
un environnement de programmation d’opérateurs de traitement
d’images, Rapport interne du GREYC, ISMRA de Caen, 1997.
CLOUARD 1998 Clouard R., Elmoataz A., Revenu M., Une modélisation explicite et
opérationnelle de la connaissance en traitement d’images, RFIA’98,
11ème congrès en Reconnaissance des Formes et Intelligence
Artificielle, Clermont-Ferrand, janvier 1998 ; Vol. II : pp. 65-74.
Références 175
COHEN 1992 Cohen I., Cohen L. D., Ayache N., Using deformable surfaces to
segment 3D images and infer differential structures, Computer
Vision Graphics and Image Processing : image understanding,
1992 ; N. 56 : pp. 242-263.
COSTER 1989 Coster M., Chermant J.-L., Précis d’analyse d’images, Éditions
CNRS, Paris, 1989.
CZADER 1996 Czader M., Liljeborg A., Auer G., Porwit A., Confocal
3-dimensional DNA image cytometry in thick tissue sections,
Cytometry, 1996 ; 25 : pp. 246-253.
DARRO 1993 Darro F., Kruczynski A., Etievant C., Martinez J., Pasteels J.-L.
and Kiss R., Characterization of the differentiation of human
colorectal cancer cell lines by means of Voronoï diagrams,
Cytometry, 1993 ; 14 : pp. 783-792.
DAVIS 1979 Davis L. S., Johns S. A., Aggarwal J. K., Texture analysis using
generalized co-occurrence matrices, IEEE transaction on Pattern
Analysis and Machine Intelligence, 1979 ; Vol. 1, N. 3 :
pp. 251-259.
DE GRAUW 1997 De Grauw C. J., Sijtsema N. M., Otto C., Greve J., Axial resolution
of confocal Raman microscopes : gaussian beam theory and
practice, Journal of Microscopy, December 1997 ; Vol. 188, Pt. 3 :
pp. 273-279.
DUSSERT 1987 Dussert C., Rasigni M., Palmari J. Rasigni G., Llebaria A.,
Marty F., Minimal spanning tree analysis of biological structures,
J. Theor. Biol., 1987 ; 125 : pp. 317-323.
176 Références
DUSSERT 1989 Dussert C., Kopp F., Gandilhon P., Pourreau-Schneider N.,
Rasigni M., Palmari J., Rasigni G., Martin P.-M., Llebaria A.,
Toward a new approach in tumor cell heterogeneity studies using
the concept of order, Analytical Cellular Pathology, 1989 ; 1 :
pp. 123-132.
ELMOATAZ 1990 Elmoataz A., Mécanismes opératoires d’un segmenteur non dédié :
définition d’une base d’opérateurs minimale et implantation, Thèse
de Doctorat de l’Université de Caen, 1990.
ELMOATAZ 1997 Elmoataz A., Belhomme P., Herlin P., Schüpp S., Revenu M.,
Bloyet D., Automated segmentation of cytological and histological
images for the nuclear quantification : an approach based on
mathematical morphology, Microscopy, Microanalysis,
Microstructure, October/December 1996 ; Vol. 7, N. 5/6 :
pp. 331-337.
FICET-CAUCHARD 1998 Ficet-Cauchard V., Porquet C., Revenu M., An interactive case-
based reasoning system for the development of image processing
application, EWCBR’98, Dublin, September 1998.
FRISKEN-GIBSON 1990 Frisken-Gibson S., Lanni F., Measured and analytical point spread
functions of the optical microscope for use in 3D optical serial
sectioning microscopy, Optical Microscopy for Biology, 1990 :
pp. 109-118.
GEMAN 1984 Geman S., Geman D., Stochastic relaxation, Gibbs distributions
and the bayesian restoration of images, IEEE transactions on
Pattern Analysis and Machine Intelligence, November 1984 ;
Vol. 4, N. 6 : pp. 721-741.
GREEN 1978 Green P.–J., Sibson R., Computing Dirichlet tesselation in the
plane, Computer Journal, 1978 ; Vol. 21 : pp. 168-173.
HAROSKE 1996 Haroske G., Dimmer V., Steindorf D., Schilling U., Theissig F. and
Kunze K. D., Cellular sociology of proliferating tumor cells in
invasive ductal breast cancer, Analytical and Quantitative Cytology
and Histology, June 1996 ; Vol. 18, N. 3 : pp. 191-198.
HERLIN et al. 1997 Herlin P., Masson E., Duigou F., Plancoulaine B., Signolle J.-P.,
Mandard A.-M., Angot F., Deman D., Belhomme P., Joret J.-B.,
Datry T., Rougereau O., Bloyet D., Automatisation de l’analyse
cytodensitométrique du contenu en ADN des tumeurs solides,
Bulletin du cancer, 1997 ; 84 (7) : pp. 685-692.
HONG 1984 Hong T. H., Rosenfeld A., Compact region extraction using
weighted pixel linking in a pyramid, IEEE Trans. on Pattern
Analysis and Machine Intelligence, 1984 ; N. 6 : pp. 222-229.
ISFORT 1996 Isfort R. J., LeB œufR. A., Application of in vitro cell
transformation assays to predict the carcinogenic potential of
chemicals, Mutation Research, 1996 ; 365, pp. 161-173.
KASS 1988 Kass M., Witkin A., Terzopoulos D., Snakes : active contour
models, International Journal of Computer Vision, 1988 ;
pp. 321-331.
KAYSER 1991 Kayser K., Sandau K., Böhm G., Kunze K. D., Paul J., Analysis of
soft tissue tumors by an attributed minimum spanning tree,
Analytical and Quantitative Cytology and Histology,
October 1991 ; Vol. 13, N. 5 : pp. 329-334.
178 Références
KAYSER 1996 Kayser K., Berthold S., Eichhorn S., Kayser C., Ziehms S.,
Gabius H.-J., Application of attributed graphs in diagnostic
pathology, Analytical and Quantitative Cytology and Histology,
August 1996 ; Vol. 18, N. 4 : pp. 286-292.
KHOSLA 1992 Khosla D., Holmes T. J., Stereo pairs of bright-field micrographs
via Wiener-type inverse filtering, Journal of Microscopy,
November 1992 ; Vol. 168, Pt. 2 : pp. 115-129.
KUNT 1993 Kunt M., Granlund G., Kocher M., Traitement numérique des
images, Collection électricité, Traitement de l’information, Vol. 2,
Presses polytechniques et universitaires romandes, 1993.
LANGLOIS 1998 Langlois S., Analyse et correction des distorsions en imagerie par
résonance magnétique, Thèse de Doctorat de l’Université de Caen,
spécialité TSI, novembre 1998.
LENOIR 1997 Lenoir A., Fast Estimation of Mean Curvature on the surface of a
3D Discrete Object, DGCI'97, Lecture Notes in Computer Science,
December 1997 ; Vol. 1347 : pp. 175-186.
LILJEBORG 1995 Liljeborg A., Czader M., Porwit A., A method to compensate for
light attenuation with depth in three-dimensional DNA image
cytometry using a confocal scanning laser microscope, Journal of
Microscopy, February 1995 ; Vol. 177, Pt. 2 : pp. 108-114.
MALLADI 1995 Malladi R., Sethian J. A., Vemuri B. C., Shape modeling with front
propagation : a level-set approach, IEEE Transactions on Pattern
Analysis and Machine Intelligence, 1995 ; Vol. 17 : pp. 158-175.
MAO 1995 Mao F., Description par regroupements perceptuels des structures
vasculaires dans les images angiographiques, Thèse de Doctorat de
l’Université de Rennes 1, juillet 1995.
MARCHAND 1997 Marchand A., Menard M., Wang J., Coisne O., Les champs de
Markov appliqués à l’analyse spatio-temporelle d’images
échocardiographiques, Innov. Techn. Biol. Med., 1997 ; Vol. 18,
N. 2 : pp. 129-143.
MARGADANT 1996 Margadant F., Leemann T., Niederer P., A precise light attenuation
correction for confocal scanning microscopy with O(n4/3)
computing time and O(n) memory requirements for n voxels,
Journal of Microscopy, May 1996 ; Vol. 182, N. 2 : pp. 121-132.
MATHIEU 1995 Mathieu C., Magnin I., On the choice of the first level of graph
pyramids, Journal of Mathematical Imaging and Vision, 1995.
MAZILLE 1994 Mazille J.-E., Analyse de structures complexes par la théorie des
graphes, La Revue de Métallurgie - CIT / Science et Génie des
Matériaux, février 1994 ; N. 2 : pp. 223-232.
MCNALLY 1994 McNally J. G., Preza C., Conchello J.-A., Thomas L. J. Jr.,
Artifacts in computational optical-sectioning microscopy, J. Opt.
Soc. Am. A, March 1994 ; Vol. 11, N. 3 : pp. 1056-1067.
MEIJER 1992 Meijer G. A., Van Diest P. J., Fleege J. C., Baak J. P. A., Syntactic
structure analysis of the arrangement of nuclei in dysplastic
epithelium of colorectal adenomatous polyps, Analytical and
quantitative cytology and histology, December 1992 ; Vol. 14,
N. 6 : pp. 491-498.
MEIJER 1996 Meijer G. A., Van Diest P. J., Baak J. P. A., Brinkhuis M. and
Beentjes M., Influence of boundary effect on minimum spanning
tree features, Analytical and Quantitative Cytology and Histology,
June 1996 ; Vol. 18, N. 3 : pp. 225-232.
180 Références
MESSNER 1998 Messner B. T., Bunke H., A new algorithm for error-tolerant
subgraph isomorphism detection, IEEE Transactions on Pattern
Analysis and Machine Intelligence, May 1998 ; Vol. 20, N. 5 : pp.
493-504.
MONGA 1987 Monga O., Wrobel B., Segmentation d’images : vers une
méthodologie, Vision par Ordinateur, Traitement du signal, 1987 ;
Vol. 4, N. 3 : pp. 169-183.
MONTANVERT 1993 Montanvert A., Meer P., Bertolino P., Hierarchical shape analysis
in gray-level images, in Shape in picture ; mathematical
description of shape in gray-level images, Ying-Lie O., Toet A.,
Foster D., Heijmans H. J. A. M., Meer P., Serie F : computer and
systems sciences, NATO ASI, 1993 ; Vol. 126: pp. 511-524.
MOTT 1986 Mott J. L., Kandel A., Baker T. P., Discrete mathematics for
computer scientists and mathematicians, Prentice-Hall, Englewood
Cliffs, 1986.
MURRAY 1994 Murray J. D., Van Ryper W., Encyclopedia of graphics file
formats, O’Reilly & Associates, Inc., 1994.
NAGAO 1979 Nagao M., Matsuyama M., Edge preserving smoothing, Computer
Vision Graphics and Image Processing, 1979 ; Vol. 9 :
pp. 394-407.
OSHER 1988 Osher S., Sethian J. -A., Fronts propagating with curvature-
dependant speed : algorithms based on Hamilton-Jacobi
formulations, Journal of Computational Physics, 1988 ; 79 :
pp. 12-49.
PALMARI 1996 Palmari J., Teysseire N., Dussert C., Raoult D., Image cytology and
topographical analysis of proliferation of endothelial cells in vitro
during Bartonella (Rochalimaea) infection, Analytical Cellular
Pathology, 1996 ; 11 : pp. 13-30.
Références 181
PALMARI 1997 Palmari J., Dussert C., Berthois Y., Penel C., Martin P.-M.,
Distribution of estrogen receptor heterogeneity in growing MCF-7
cells measured by quantitative microscopy, Cytometry, 1997 ; 27 :
pp. 26-35.
PETRÁÑ 1968 Petráñ M., Hadravsky M., Egger D., Galambos R.,
Tandem-scanning reflected-light microscope, J. Opt. Soc. Am.,
1968 ; Vol. 58 : pp. 661-664.
RASURE 1992 Rasure J., Kubica S., The KHOROS application development
environment, Experimental environments for computer vision and
image processing, World Scientific, Singapore, 1992 ; pp. 1-32.
RAYMOND 1993 Raymond E., Raphael M., Grimaud M., Vincent L., Binet J.-L. and
Meyer M., Germinal center analysis with the tools of mathematical
morphology on graphs, Cytometry, 1993 ; 14 : pp. 848-861.
RIDDER 1997 Ridder G. M., Stuart S. B., Kerckaert G. A., Cody D. B.,
LeB œufR. A., Isfort R. J., Computerized image analysis of
morphologically transformed and nontransformed Syrian Hamster
Embryo (SHE) cell colonies : application to objective SHE cell
transformation assay scoring, Carcinogenesis, 1997 ; Vol. 18,
N. 10 : pp. 1965-1972.
RODENACKER 1992 Rodenacker K., Aubele M., Jütting U., Gais P., Burger G.,
Gössner W., Oberholzer M., Image cytometry in histological
sections, Acta Stereol, 1992 ; 11/Suppl I : pp. 249-254.
SCHÜPP 1998 Schüpp S., Elmoataz E., Clouard R., Herlin P., Bloyet D.,
Segmentation d’images intégrant la morphologie mathématique et
les contours actifs ; application à l’extraction d’éléments ou
d’ensembles cellulaires en imagerie microscopique médicale, 11ème
congrès RFIA’98, 20-22 janvier 1998, Clermont-Ferrand, Vol. I :
pp. 297-306.
SERRA 1982 Serra J., Image analysis and mathematical morphology, Academic
Press, London, 1982.
SMADJA 1992 Smadja M., Philipp S., Segmentation of uterus sections using an
extraction of the nuclei, Acta Stereol, 1992 ; 11/Suppl I :
pp. 625-630.
SOUCHIER 1996 Souchier C., Guigard M.-P., Fonlupt P., Trouillas J., Quantitative
evaluation of the distribution of cell density ; Application to human
pituitary corticotroph cells, Analytical and Quantitative Cytology
and Histology, June 1996 ; Vol. 18, N. 3 : pp. 251-260.
TARDIEU 1994 Tardieu H., Rochfeld A., Collemi R., La méthode Merise: principes
et outils, Édition d’organisations, Paris, 1994.
TERZOPOULOS 1988 Terzopoulos D., Witkin A., Kaas M., Constraints on deformable
models : recovering 3D shape and nonrigid motions, Artificial
Intelligence, 1988 ; N. 36 : pp. 91-123.
Références 183
TSIEN 1990 Tsien R. Y., Waggoner A., Fluorophores for confocal microscopy :
photophysics and photochemistry, Chap. 16 in Pawley J. B.,
Handbook of biological confocal microscopy, Plenum Press,
Revised edition, 1990.
VAN DER WOORT 1990 Van der Woort H. T. M., Brakenhoff G. J., 3D image formation in
high-aperture fluorescence confocal microscopy : a numerical
analysis, Journal of Microscopy, April 1990 ; Vol. 158, Pt. 1 :
pp. 43-54.
VAN DIEST 1992 Van Diest P. J., Fleege J. C. and Baak J. P. A., Syntactic structure
analysis in invasive breast cancer, Human Pathology,
August 1992 ; Vol. 23, N. 8 : pp. 876-883.
VOSS 1993 Voss K., Discrete Images, Objects and Functions in Zn. Algorithms
and Combinatories 11, Springer-Verlag, 1993.
WILLIS 1993 Willis B., Roysam B., Turner J. N., Holmes T. J., Iterative
constrained 3D image reconstruction of transmitted light bright-
field micrographs based on maximum likelihood estimation,
Journal of Microscopy, March 1993 ; Vol. 169, Pt. 1 : pp. 347-361.
184 Références
WILSON 1984 Wilson R., Granlund G. H., The uncertainty principle in image
processing, IEEE Trans. on Pattern Analysis and Machine
Intelligence, 1984 ; N. 6 : pp. 758-767.
WILSON 1990 Wilson T., Confocal Microscopy, Academic Press, London, 1990.
ZAHN 1971 Zahn C. T., Graph-theoretical methods for detecting and describing
gestalt clusters, IEEE Transactions on Computers, January 1971 ;
Vol. C-20, N. 1 : pp. 68-86.
ANGOT 1996a Angot F., Clouard R., Elmoataz A., Revenu M., Neighborhood
graphs and image processing, European Symposium on « Lasers,
Optics, and Vision for Productivity in Manufacturing », Besançon,
June 1996 ; SPIE Vol. 2785 : pp. 12-23.
ANGOT 1996b Angot F., Elmoataz A., Revenu M., Herlin P., Analysis of cellular
microscopy images by means of neighborhood graphs, Microscopy,
Microanalysis, Microstructure, October/December 1996 ; Vol. 7,
N. 5/6 : pp. 549-556.
ANGOT 1996c Angot F., Elmoataz A., Clouard R., Revenu M., Herlin P., Intérêt
des graphes de voisinage dans la quantification des marqueurs
immunohistochimiques, Seizième Forum de cancérologie, Paris,
juin 1996, Bulletin du cancer, 1996 ; 83(6), p. 434.
ANGOT 1997a Angot F., Herlin P., Elmoataz A., Revenu M., Mandard A.-M.,
Bloyet D., Graphes de voisinage et traitement d’images ;
application à des images de marquage immunohistochimique,
Bulletin du Cancer, 1997 ; 84 (9) : pp. 849-854.
ANGOT 1997b Angot F., Revenu M., Elmoataz A., Clouard R., Les graphes de
voisinage comme outil de mise en œuvre de méthodes de
segmentation hiérarchique d’images, Seizième Colloque sur le
Traitement du Signal et des Images, GRETSI’97, septembre 1997 ;
Tome 1, pp. 399-402.
ANGOT 1998 Angot F., Elmoataz A., Revenu M., Vasseur P., Sichel F.,
Traitement d’images tridimensionnelles ; application à la
caractérisation d’images de prolifération cellulaire, 9ème Forum des
Jeunes Chercheurs en Génie Biologique et Médical, Brest,
mai 1998 ; pp. 120-121.
CLOUARD et al. 1997 Clouard R., Elmoataz A., Angot F., PANDORE : une bibliothèque et
un environnement de programmation d’opérateurs de traitement
d’images, Rapport interne du GREYC, ISMRA de Caen, 1997.
188 Publications
HERLIN et al. 1996 Herlin P., Deman D., Boudry C., Angot F., Duigou F., Image
galleries for DNA ploidy measurement : a tool for screening,
learning, data and image processing, Microscopy, Microanalysis,
Microstructures, October/December 1996 ; 7 : pp. 355-360.
HERLIN et al. 1997a Herlin P., Elmoataz A., Belhomme P., Schüpp S., Angot F.,
Duigou F., Chermant J.-L., Chasle J., Mandard A.-M., Revenu M.,
Bloyet D., Are sampling and hierarchitectural segmentation future
tools for automated quantitative immunochemistry in oncology ?,
5th ESACP, Oslo, May 1997, Analytical Cellular Pathology, 1997 ;
13, N. 2, 83.
HERLIN et al. 1997b Herlin P., Masson E., Duigou F., Plancoulaine B., Signolle J.-P.,
Angot F., Revenu M., Belhomme P., Joret J.-B., Datry T.,
Mandard A.-M., Bloyet D., Fully automated image analyzer for
DNA quantification of archival tumors, 5th ESACP, Oslo,
May 1997, Analytical Cellular Pathology, 1997 ; 13, N. 2, 83.
HERLIN et al. 1997c Herlin P., Masson E., Duigou F., Plancoulaine B., Signolle J.-P.,
Mandard A.-M., Angot F., Deman D., Belhomme P., Joret J.-B.,
Datry T., Rougereau O., Bloyet D., Automatisation de l’analyse
cytodensitométrique du contenu en ADN des tumeurs solides,
Bulletin du cancer, 1997 ; 84 (7) : pp. 685-692.
Annexes
Annexes 191
• la largeur de l’image,
• la hauteur de l’image,
microscope, les dimensions de chaque pixel dans les directions x et y, la distance entre chaque
plan d’acquisition, etc. La structure de ce champ est fournie par ZEISS dans le document ci-
dessous.
effectuée entre deux altitudes extrêmes définies par l’utilisateur. Une image 3D est alors
construite, contenant l’intensité de chacun des points du volume. Pour chacun des points du
domaine 2D, l’altitude est déterminée par la recherche de la plus élevée des s intensités sur la
verticale du point. Par interpolation, cette altitude est quantifiée par un nombre, de 1 à 249.
La surface est enregistrée dans un fichier au format TOP (« Topography File » de ZEISS).
Pour chaque point, ce fichier contient l’altitude et l’intensité (de 0 à 255) à cette altitude. Pour
un domaine de l lignes et c colonnes, la taille du fichier est
t = 2 × l × c + 1024 .
• 2 octets inutilisés,
2. La bibliothèque PANDORE
• Les listes d’adjacence sont des listes chaînées attachées à chaque sommet. Elles
présentent l’intérêt de ne représenter que les arcs existants mais obligent un
parcours de liste afin d’obtenir un arc particulier. Pour un graphe non orienté, il
faudrait choisir une convention pour n’enregistrer chaque arête qu’une seule fois.
Cependant, l’accès à tous les voisins d’un sommet est plus simple si on conserve
deux fois chaque arête.
Nous avons choisi d’utiliser une structure basée sur les listes d’adjacence afin d’optimiser
la taille des données manipulées. De plus, les listes chaînées permettent de parcourir
l’ensemble des voisins d’un sommet de manière plus intuitive que par l’intermédiaire d’une
matrice.
La structure de graphe (figure 114) doit également comporter des informations permettant
d’en faire une représentation graphique. Pour cela, on doit conserver une position pour chaque
n œud, ainsi que la taille de l’image correspondant au graphe. Les valeurs des n œuds et des
arêtes sont stockées au sein de la structure alors que les éventuelles informations
complémentaires concernant les n œuds doivent figurer dans un tableau annexe, indexé par les
identificateurs des n œuds.
196 Annexes
Graph
Hnode Lnode
1
2 neighbors index weight next
3 id
attr
seed
index weight next
size - 1
size
Figure 114 : structure des graphes utilisés.
• Chaque élément du tableau tnode est un pointeur vers une structure contenant
la liste des voisins du n œud (neighbors), l’identificateur du nœud (id), qui réfère
aux informations complémentaires, la valeur associée au n œud (attr) et la position
du point correspondant dans l’image (seed).
• Pour les listes chaînées, chaque cellule contient le numéro du nœud voisin dans
tnode (index), le poids de l’arête (weight) et un pointeur vers la suite de la liste
(next).
Pour manipuler des informations complémentaires, seul l’identificateur du nœud est utile
pour accéder à un tableau complémentaire. Cet identificateur est en général égal au rang dans
tnode. Cependant, cette égalité peut ne pas être vérifiée. Si l’image d’origine ne contient que
quelques points avec de grands numéros (entre 1 et n), le champ id permet de garder ces
numéros et de n’utiliser qu’un petit tableau pour manipuler le graphe (de 1 à size). D’autre
part, pour pouvoir gérer la fusion de n œuds, cet identificateur est utilisé pour conserver
l’indice du représentant de la fusion.
Pour que l’utilisation des graphes ne pose pas de problèmes avec celle des autres types de
données manipulés par les opérateurs de la bibliothèque PANDORE, il a été nécessaire de
trouver une numérotation commune pour les n œuds d’un graphe et les régions d’une carte. Par
convention, le n œud 0 et la région 0 ne correspondent pas à un élément de l’image et ne sont
pas utilisés.
En fonction des types des objets d’entrée, différents traitements sont possibles et
correspondent chacun à une fonction principale.
/*
#include <stdio.h>
#include <stdlib.h>
#include <pandore3d.h>
/*
* Fonction principale de l’operateur.
* Il faut autant de fonctions que de combinaisons sur les types des
* objets d’entree et de sortie.
*/
Errc
Squelette(Img3duc &ims,Img3duc &imd)
{
/* Instructions de la fonction. */
return(SUCCESS);
}
Errc
Squelette(Img3dus &ims,Img3dus &imd)
{
return(SUCCESS);
}
198 Annexes
Errc
Squelette(Img3dsf &ims,Img3dsf &imd)
{
return(SUCCESS);
}
#ifdef MAIN
/*
* Modify only the following constants, and the function call.
*/
#define USAGE "USAGE : %s [img_in] [img_out]\n"
#define PARC 0
#define FINC 1
#define FOUTC 1
#define REGP 0
int
main(int argc,char* argv[])
{
Errc result; // The result code of the execution.
Pobject3d* stencil; // The region stencil.
Pobject3d* objin[FINC+1]; // The input objects.
Pobject3d* objs[FINC+1]; // The source objects masked.
Pobject3d* objout[FOUTC+1]; // The ouput object.
Pobject3d* objd[FOUTC+1]; // The result object of the execution.
Float parv[PARC+1]; // The input parameters.
ReadArgs(argc,argv,PARC,FINC,FOUTC,&stencil
,objin,objs,objout,objd,parv,USAGE,REGP);
switch(objs[0]->Type())
{
case Po_Img3duc : {
Img3duc* const ims=(Img3duc*)objs[0];
objd[0]=new Img3duc(ims->ndep,ims->nrow,ims->ncol);
Img3duc* const imd=(Img3duc*)objd[0];
result=Squelette(*ims,*imd);
} break;
case Po_Img3dus : {
Img3dus* const ims=(Img3dus*)objs[0];
objd[0]=new Img3dus(ims->ndep,ims->nrow,ims->ncol);
Img3dus* const imd=(Img3dus*)objd[0];
result=Squelette(*ims,*imd);
} break;
case Po_Img3dsf : {
Img3dsf* const ims=(Img3dsf*)objs[0];
objd[0]=new Img3dsf(ims->ndep,ims->nrow,ims->ncol);
Img3dsf* const imd=(Img3dsf*)objd[0];
result=Squelette(*ims,*imd);
} break;
default :
fprintf(stderr,
"Operateur non encore defini pour de type d'objet.\n");
result=-1;
}
WriteArgs(argc,argv,PARC,FINC,FOUTC,&stencil,objin,objs,objout,objd);
Exit(result);
Annexes 199
#endif
2.4. Liste des opérateurs PANDORE 2D
En fonction de leur objectif et de leur fonctionnement, les opérateurs PANDORE 2D sont
répartis en plusieurs catégories :
amelioration Opérations d’amélioration d’images.
egalisation Recadrage des niveaux de gris par égalisation d'histogramme.
recadrage Recadrage dynamique des niveaux de gris.
sharp Rehaussement de contraste par convolution.
Afin d’illustrer notre approche méthodologique, nous présentons ici l’ensemble du plan de
résolution du problème de localisation des massifs tumoraux de l’application étudiée dans la
section IV.1. Il s’agit du résultat de la modélisation établie en collaboration avec Valérie
Ficet-Cauchard [FICET-CAUCHARD 1999].
Extraire les
regroupements
d’objets
B3 B4
B1 B2 B5 B6
Annexes 207
Créer une
Numéroter
carte de
les régions
régions
Former le
B4 graphe
cgrav rg2gr
p: p:
e : i13 e : i14
s : i14 s : i15, 16
r: r:
Méthode Méthode
décomposée directe
Colorer les Calculer la Détecter les Calculer les Supprimer les Restructurer
régions suivant distance au minima de distances petits arcs le graphe
les sommets contour distance
Supprimer les
B6 petits groupes
150 000 cellules sont ensemencées sur une lamelle de verre placée dans boîte de Pétri et
incubées dans du milieu DMEM à 10% de sérum de veau fœtal. Au temps voulu, les cellules
sont rincées 1 fois 1 mn puis 2 fois 5 mn avec du PBS (phosphate buffered saline)-BSA
(sérum albumine bovine) 0,5%-orthovanadate 1 mM (inhibiteur de phosphatases, Sigma). Les
cellules sont ensuite fixées 10 mn avec du paraformaldéhyde à 3% puis rincées 1 fois 1 mn,
2 fois 10 mn, 1 fois 15 mn avec du PBS-BSA 0,5%-orthovanadate 1 mM, puis perméabilisées
avec du Triton X 100 à 0,5% dans du PBS sans Ca2+ ni Mg2+ (2 mn) à 4°C, puis rincées 1 fois
1 mn, 1 fois 10 mn, 1 fois 15 mn, 1 fois 30 mn avec du PBS-BSA 0,5%. Les cellules sont
alors incubées en présence de l'anticorps anti-phosphotyrosines (Py-20, Tébu, France) dilué
au 1/20 dans du PBS-BSA 0,5% pendant 1 h à température ambiante, en chambre humide et à
l’obscurité. Les cellules sont à nouveau rincées 1 fois 1 mn, 3 fois 5 mn, 2 fois 10 mn avec du
PBS-BSA 0,5%, puis incubées en présence de l'anticorps secondaire conjugué à la FITC (F-
6257, Sigma, France) dilué au 1/30 dans du PBS-BSA 0,5% pendant 1 h à température
ambiante en chambre humide et à l’obscurité. Les cellules sont ensuite rincées 1 fois 1 mn,
3 fois 5 mn, 2 fois 10 mn avec du PBS-BSA 0,5% puis 5 mn dans de l’eau ultra-pure, puis
montées sur une lame en présence de Mowiol (Calbiochem, France) et séchées au moins une
nuit avant observation.
Segmentation d’images 2D et 3D ;
application à la quantification d’images histologiques
et cytologiques obtenues par microscopie
L’imagerie bidimensionnelle ne permet pas toujours de répondre aux questions posées lors de l’analyse de scènes provenant
de notre monde tridimensionnel. Cette thèse propose une étude de l’analyse d’images 3D, dans le domaine de la microscopie
cellulaire. Nous examinons pour cela chacun des processus impliqués, depuis l’acquisition jusqu’à la quantification des images,
en passant par leur représentation et leur traitement.
Nous exposons tout d’abord les caractéristiques des images acquises par microscopie confocale. Nous présentons les
avantages et les limites de ce type d’acquisition et nous montrons en particulier que les traitements tridimensionnels isotropes ne
sont pas adaptés aux images ainsi obtenues.
Nous présentons alors une représentation des images et des opérations de traitement permettant de prendre en compte les
spécificités des images et des objectifs à atteindre : identifier des populations d’objets biologiques et caractériser leur architecture
au sein des images. En particulier, afin de manipuler explicitement les relations de proximité et de ressemblance entre ces objets,
nous proposons une double représentation des images : en tant que grilles régulières de points et en tant que graphes de voisinage.
Nous détaillons ensuite l’intégration de nouveaux opérateurs de traitement dans la bibliothèque PANDORE, en mettant l’accent
sur l’analogie entre le traitement des graphes de voisinage et celui des grilles de points.
Enfin, nous appliquons notre approche à la résolution de divers problèmes de traitement d’images de microscopie cellulaire
2D et 3D. Nous présentons trois études menées en collaboration avec le Centre Régional de Lutte Contre le Cancer et le Groupe
Régional d’Études sur le Cancer. Nous proposons une caractérisation de l’architecture des cellules dans des coupes histologiques,
une quantification de la présence de contacts focaux dans des cellules de culture et une étude de l’architecture volumique de
transformations cellulaires.
Mots-clés
Traitement des images, Microscopie confocale, Tissus (histologie)
Keywords
Image processing, Confocal microscopy, Tissues