Sunteți pe pagina 1din 224

Université de Caen / Basse-Normandie

U.F.R. de Sciences
École doctorale Structure, Information, Matière et Matériaux

Thèse
présentée par

François Angot

en vue de l’obtention du

Doctorat de l’Université de Caen


Spécialité : Traitement du signal et des images

(arrêté du 30 mars 1992)

Segmentation d’images 2D et 3D ;
application à la quantification d’images histologiques
et cytologiques obtenues par microscopie

soutenue le 2 février 1999

devant le jury composé de

M. Philippe Bolon Rapporteur


M. Abderrahim Elmoataz Examinateur
me
M Sylvie Philipp Rapporteur
me
M Marinette Revenu Directeur de thèse
M. François Sichel Examinateur

Groupe de recherches en informatique, image et instrumentation de Caen


GREYC – UPRESA CNRS 6072
Institut des sciences de la matière et du rayonnement
ISMRA de Caen
Université de Caen / Basse-Normandie
U.F.R. de Sciences
École doctorale Structure, Information, Matière et Matériaux

Thèse
présentée par

François Angot

en vue de l’obtention du

Doctorat de l’Université de Caen


Spécialité : Traitement du signal et des images

(arrêté du 30 mars 1992)

Segmentation d’images 2D et 3D ;
application à la quantification d’images histologiques
et cytologiques obtenues par microscopie

soutenue le 2 février 1999

devant le jury composé de

M. Philippe Bolon Rapporteur


M. Abderrahim Elmoataz Examinateur
me
M Sylvie Philipp Rapporteur
me
M Marinette Revenu Directeur de thèse
M. François Sichel Examinateur

Groupe de recherches en informatique, image et instrumentation de Caen


GREYC – UPRESA CNRS 6072
Institut des sciences de la matière et du rayonnement
ISMRA de Caen
Remerciements

à Marinette Revenu, Professeur à l’ISMRA de Caen, pour m’avoir accueilli au sein de son
équipe et pour avoir dirigé et encadré cette thèse,

à Abderrahim Elmoataz, Maître de Conférences à l’Université de Caen, pour le


co-encadrement de cette thèse et pour ses nombreuses idées sur le traitement des images,

à Sylvie Philipp, Professeur à l’ENSEA de Cergy-Pontoise, et Philippe Bolon, Professeur à


l’Université de Savoie, pour m’avoir fait l’honneur de juger mon mémoire,

à François Sichel, Professeur à l’Université de Caen, pour ses conseils et pour avoir jugé
mon travail,

à Daniel Bloyet, pour m’avoir donné l’opportunité d’effectuer cette thèse dans le cadre du
pôle Traitement et Analyse d’Images de Basse-Normandie,

à Paulette Herlin, pour ses conseils dans les domaines de la microscopie et de la biologie,

à Régis Clouard, pour son aide précieuse dans l’approche des problèmes,

à Michel Desvignes, pour l’environnement de travail qu’il s’évertue à nous procurer,

à Daniel Carré, pour m’avoir montré l’exemple dans ma découverte de l’enseignement,

à Christine, Hubert, Remy, Pierre, Su, pour leur approche de l’enseignement et de la


recherche,

à Valérie, pour son soutien et sa solidarité durant ces années de travail,

à Alexandre, Bruno, Christophe, Cyril, Jalal, Nicolas, Nicolas, Sébastien, Serge, Sophie,
pour l’ambiance qu’ils apportent dans l’équipe,

à ma famille, pour sa confiance.


Table des matières

Table des matières


Introduction.....................................................................................................................................................1
1. La troisième dimension dans le contexte du pôle TAI de Basse-Normandie.........................................4
2. De l’acquisition à l’analyse des images..............................................................................................5
Chapitre I : Microscopie confocale .................................................................................................................7
I.1. Principe de la microscopie confocale de fluorescence.........................................................................9
I.1.1. Genèse de la microscopie confocale........................................................................................9
I.1.2. Microscope confocal à balayage laser ...................................................................................11
I.1.3. Microscopie de fluorescence.................................................................................................12
I.2. Matériel utilisé ................................................................................................................................16
I.2.1. Caractéristiques des objectifs ................................................................................................16
I.2.1.1. Grandissement ................................................................................................................16
I.2.1.2. Milieu d’immersion.........................................................................................................16
I.2.1.3. Ouverture numérique ......................................................................................................16
I.2.1.4. Transmittance .................................................................................................................16
I.2.1.5. Corrections .....................................................................................................................17
I.2.1.6. Distance frontale .............................................................................................................17
I.2.1.7. Universalité ....................................................................................................................17
I.2.2. Le microscope confocal du pôle TAI ....................................................................................17
I.2.2.1. Microscope .....................................................................................................................18
I.2.2.2. Objectifs .........................................................................................................................18
I.2.2.3. Ordinateur.......................................................................................................................18
I.2.2.4. Logiciel de commande ....................................................................................................19
I.3. Acquisition des images....................................................................................................................20
I.3.1. Caractéristiques et « problèmes »..........................................................................................20
I.3.1.1. Point Spread Function (PSF) ...........................................................................................20
I.3.1.2. Résolution.......................................................................................................................22
I.3.1.3. Atténuation de la définition .............................................................................................23
I.3.1.4. Recouvrement des spectres de fluorescence .....................................................................26
I.3.1.5. Autres problèmes d’acquisition .......................................................................................27
I.3.2. Exemples d’images obtenues ................................................................................................27
I.4. Conséquences sur le traitement des images de microscopie confocale...............................................30
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse ..................................................33
II.1. La représentation des images ...........................................................................................................36
II.1.1. Images numériques tridimensionnelles..................................................................................37
II.1.1.1. Définitions......................................................................................................................37
II.1.1.2. Taille et codage des voisinages........................................................................................38
II.1.2. La représentation des images par les graphes.........................................................................40
II.1.2.1. Intérêt de la structure.......................................................................................................40
II.1.2.2. L’objet mathématique .....................................................................................................40
II.1.2.3. Les différentes structures de graphe.................................................................................43
II.2. Les problèmes de traitement d’images .............................................................................................46
II.2.1. Prétraitements ......................................................................................................................48
II.2.2. Approche « régions » de la segmentation ..............................................................................49
II.2.2.1. Croissance de régions......................................................................................................49
II.2.2.2. Division et fusion de régions ...........................................................................................50
II.2.2.3. Analyse multi-échelle et analyse multi-résolution ............................................................51
II.2.3. Approche « frontières » de la segmentation...........................................................................52
II.2.3.1. Détection locale de points de contours .............................................................................52
II.2.3.2. Modèles géométriques de contours ..................................................................................53
II.2.4. Segmentation dans le contexte de la théorie des graphes........................................................56
Table des matières

II.2.4.1. Partition de populations .................................................................................................. 56


II.2.4.2. Caractérisation d’architectures ........................................................................................ 58
II.2.4.3. Graphes et morphologie mathématique............................................................................ 60
II.2.4.4. Graphes et champs de Markov......................................................................................... 61
II.2.5. Caractérisation ..................................................................................................................... 61
II.2.5.1. Image et objets................................................................................................................ 62
II.2.5.2. Caractérisation géométrique............................................................................................ 62
II.2.5.3. Échantillonnage .............................................................................................................. 63
II.3. Stratégies de traitement des images 3D............................................................................................ 63
II.3.1. La troisième dimension ........................................................................................................ 63
II.3.2. Exemples de traitements 2D ½................................................................................................ 64
II.4. Environnement de développement d’applications ............................................................................ 66
II.4.1. Applications de traitement d’images ..................................................................................... 66
II.4.2. Méthodologie de conception................................................................................................. 68
II.4.3. Spécificités de la bibliothèque PANDORE ............................................................................... 71
Chapitre III : Implantation des outils de traitement d’images .................................................................... 73
III.1. Construction des graphes à partir des images................................................................................... 76
III.2. Opérations de visualisation ............................................................................................................. 78
III.2.1. Visualisation des grilles de points......................................................................................... 78
III.2.2. Visualisation des graphes ..................................................................................................... 80
III.3. Traitements point par point ............................................................................................................. 81
III.4. Opérations faisant intervenir le voisinage ........................................................................................ 82
III.4.1. Filtres de lissage................................................................................................................... 83
III.4.2. Détection de contours........................................................................................................... 84
III.4.3. Morphologie mathématique.................................................................................................. 85
III.4.4. Étiquetage des composantes connexes .................................................................................. 88
III.5. Construction de composantes homogènes ........................................................................................ 88
III.5.1. Croissance dans les grilles de points ..................................................................................... 89
III.5.1.1. Ligne de partage des eaux ............................................................................................... 91
III.5.1.2. Critère local d’arrêt de la croissance................................................................................ 92
III.5.1.3. Arrêt « a posteriori » de la croissance.............................................................................. 92
III.5.2. Croissance dans les graphes de voisinage.............................................................................. 94
III.5.2.1. Ligne de partage des eaux ............................................................................................... 95
III.5.2.2. Croissance par optimisation globale ................................................................................ 98
III.5.3. Partition de graphes............................................................................................................ 101
III.6. Opérations de caractérisation......................................................................................................... 104
III.6.1. Caractérisation des histogrammes de niveaux de gris .......................................................... 105
III.6.1.1. Principe ........................................................................................................................ 105
III.6.1.2. Illustration .................................................................................................................... 106
III.6.2. Caractérisation géométrique ............................................................................................... 112
III.6.3. Caractérisation de populations............................................................................................ 116
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale .......................... 119
IV.1. Caractérisation de l’architecture dans des coupes histologiques...................................................... 122
IV.1.1. L’histologie........................................................................................................................ 122
IV.1.2. Un exemple d’application en 2D......................................................................................... 123
IV.1.2.1. Matériel........................................................................................................................ 124
IV.1.2.2. Délimitation des massifs de cellules tumorales .............................................................. 125
IV.1.2.3. Topographie du marquage............................................................................................. 134
IV.1.2.4. Discussion .................................................................................................................... 138
IV.1.3. Extrapolation à la troisième dimension............................................................................... 140
IV.2. Quantification de la présence de contacts focaux ........................................................................... 144
IV.2.1. La cytologie ....................................................................................................................... 144
IV.2.2. Les objectifs de l’étude....................................................................................................... 145
IV.2.3. Résolution du problème...................................................................................................... 146
IV.2.3.1. Décomposition du problème.......................................................................................... 147
IV.2.3.2. Localisation des objets .................................................................................................. 149
IV.2.3.3. Quantification des objets............................................................................................... 152
IV.2.4. Exploitation des résultats.................................................................................................... 152
Table des matières

IV.2.5. Perspectives........................................................................................................................155
IV.3. Architecture de transformation cellulaire : test SHE .......................................................................157
IV.3.1. Contexte biologique............................................................................................................157
IV.3.2. Traitement des images ........................................................................................................158
IV.3.3. Résultats ............................................................................................................................162
Conclusion ...................................................................................................................................................165
1. Acquisition des images..................................................................................................................168
2. Traitement des images...................................................................................................................168
3. Applications..................................................................................................................................168
Références ...................................................................................................................................................171
Publications .................................................................................................................................................185
Annexes........................................................................................................................................................189
1. Les formats d’images ZEISS .........................................................................................................191
1.1. Images de volumes .............................................................................................................191
1.2. Images de reliefs.................................................................................................................193
2. La bibliothèque PANDORE..............................................................................................................194
2.1. Structure des fichiers images ..............................................................................................194
2.2. Structure de graphe.............................................................................................................195
2.3. Exemple d’opérateur PANDORE ...........................................................................................197
2.4. Liste des opérateurs PANDORE 2D.......................................................................................199
2.5. Liste des opérateurs PANDORE 3D.......................................................................................203
3. Exemple de plan de résolution de problème ...................................................................................206
4. Préparation des cultures cellulaires ................................................................................................209
Introduction
Introduction 3

Depuis une vingtaine d’années, les progrès constants des techniques mathématiques et des
moyens informatiques de calcul ont eu de nombreuses répercussions sur les avancées dans les
domaines de l’acoustique, de la médecine, des télécommunications, de l’astrophysique, de
l’imagerie, etc. En particulier, le traitement et l’analyse d’images se sont développés sur des
thèmes aussi variés que les images aériennes, les images biomédicales, les images
industrielles ou artistiques. Bien que très différents, ces domaines ont cependant de nombreux
points communs en termes de traitement d’images, tels que la localisation et la caractérisation
des objets présents dans les images.

Dans le contexte de l’imagerie biomédicale, le traitement automatique des images et leur


caractérisation quantitative proposent une réponse à des besoins nouveaux : établir des
diagnostics fiables et objectifs, contrôler l’action d’une thérapie, etc. Cette approche
automatique a également autorisé le traitement de grandes quantités d’informations et la
réalisation de tests à grande échelle en réduisant l’intervention des biologistes et des
pathologistes.

Généralement, les scènes ou les objets observés dans des images proviennent du monde
tridimensionnel (3D) qui nous entoure. Le plus souvent, l’information que l’on cherche à
extraire peut être obtenue sur une image en deux dimensions (2D) mais un nombre
grandissant de problèmes nécessitent d’appréhender la scène observée en trois dimensions,
afin de déduire des caractéristiques volumiques des objets présents dans cette scène.

Pour atteindre un tel objectif, un grand nombre de techniques d’acquisition d’images ont
été mises au point et peuvent se répartir en deux grandes catégories. Le premier type
d’acquisition consiste à reconstruire une image 3D à partir d’une vision stéréoscopique de la
scène. Il nécessite de nombreux calculs afin de reconnaître les objets dans les deux images 2D
et de déterminer leurs positions relatives dans l’espace 3D. Le second type d’acquisition
d’images permet d’obtenir des informations sur chaque point de l’espace observé et de
construire une image 3D de la scène. Ce procédé est notamment mis en œuvre dans des
appareils comme le microscope confocal.
4 Introduction

1. La troisième dimension dans le contexte du pôle TAI de Basse-Normandie

L’équipe Image du Groupe de Recherche en Informatique, Image et Instrumentation de


Caen (GREYC) étudie la segmentation d’images dans le but de constituer une base de
connaissances sur les opérateurs de traitement d’images, incluant le code informatique des
opérations à effectuer et les informations nécessaires à leur sélection et leur exploitation.
Parmi les images étudiées, deux domaines sont particulièrement développés : la segmentation
et le recalage multimodalité d’images cérébrales (IRMa, IRMf, coupes histologiques, etc.) et
l’analyse quantitative d’images de microscopie cellulaire. Le GREYC est une composante du
pôle Traitement et Analyse d’Images de Basse-Normandie, qui regroupe d’autres laboratoires
et établissements impliqués dans le traitement d’images.

En particulier, la collaboration avec le Centre Régional de Lutte Contre le Cancer (Centre


François Baclesse de Caen) a permis le développement d’applications d’analyse quantitative
d’images 2D de tissus biologiques : caractérisation des cellules et de leur contenu, de
l’architecture tissulaire, etc. Cependant, les entités observées (tissus, cellules, noyaux, etc.)
sont tridimensionnelles et les images 2D ne permettent pas toujours de rendre compte de la
réalité.

Dans l’observation d’objets 3D, une des grandes limitations de l’imagerie 2D est de ne
pouvoir fournir que l’image d’une projection de l’échantillon observé. Ainsi, si on imagine
(figure 1a) un volume dans lequel deux objets de même taille sont présents l’un au-dessus de
l’autre, une projection de l’ensemble du volume laisse apparaître un objet qui n’a rien à voir
avec la réalité (figure 1b). Si on choisit de réaliser une coupe très fine du volume, l’image
obtenue présente deux objets dont les tailles ne correspondent pas à la taille des objets de
départ (figure 1c).

a b c
Figure 1 : limitation de l’imagerie 2D pour l’observation d’un volume 3D.
a : volume présentant deux objets disjoints, de même taille, l’un au-dessus
de l’autre. b : image de la projection du volume ; apparition d’un objet
inexistant. c : image d’une coupe fine du volume ; non-respect de la taille
des objets.
Introduction 5

L’imagerie 3D permet alors de conserver toute l’information volumique et d’appréhender


la véritable structure d’un tel volume. La microscopie confocale est par conséquent un outil
puissant pour l’acquisition d’images 3D à l’échelle cellulaire.

2. De l’acquisition à l’analyse des images

Afin d’effectuer le traitement complet d’une image, depuis l’acquisition jusqu’à la


quantification, différentes étapes sont nécessaires.

Dans un premier temps, nous exposons les principes de la microscopie confocale et en


particulier les techniques liées à la microscopie confocale à balayage laser utilisée en
fluorescence. Nous détaillons les différents aspects de l’acquisition d’images 3D et nous
présentons les avantages théoriques de la microscopie confocale. Après l’étude du microscope
confocal utilisé au sein du pôle Traitement et Analyse d’Images de Basse-Normandie, nous
soulignons que ce type d’acquisition peut également présenter certaines limitations. Nous
abordons notamment les problèmes de la résolution d’un microscope confocal, de la fonction
d’étalement du point (« point spread function » ou PSF), de l’atténuation de l’intensité de
fluorescence en fonction de la profondeur des images. Nous montrons donc que la très grande
variabilité des images de microscopie confocale rend leurs traitements difficiles et que leurs
caractéristiques nécessitent la mise au point des stratégies de traitement d’images adaptées.

Dans un deuxième temps, nous évoquons les méthodes de développement de programmes


de traitement d’images. Pour cela, nous commençons par définir les images numériques
comme des signaux multidimensionnels. Afin de répondre à la nécessité de manipuler des
informations relationnelles entre les différents objets présents dans les images, et en
particulier dans les images de microscopie cellulaire, nous enrichissons cette définition en
proposant une représentation complémentaire sous forme de graphes d’objets. Nous
présentons ensuite les grandes catégories de problèmes de traitement d’images ainsi que les
solutions déjà proposées dans la littérature. Nous détaillons enfin notre approche du traitement
des images tridimensionnelles dans le cadre d’un environnement de développement
d’applications de traitement d’images. Nous participons pour cela à la conception d’une
bibliothèque d’opérateurs de traitement d’images adaptée à l’expérimentation : la bibliothèque
PANDORE.

Dans un troisième temps, nous présentons l’implantation de quelques outils généraux de


traitement et d’analyse d’images. Nous détaillons en particulier certains types d’opérations
adaptées au traitement des images de microscopie cellulaire. Nous distinguons plusieurs
6 Introduction

catégories d’opérations, en fonction de leur mode d’accès aux données manipulées : les
opérations de visualisation, les opérations de manipulation point par point, les opérations
faisant intervenir la notion de voisinage, les opérations de caractérisation. Pour chacune de ces
catégories, nous comparons les opérations applicables aux images vues sous un angle
classique, en tant que grilles de points, et dans le contexte de la théorie des graphes de
voisinage. Nous montrons ainsi qu’un grand nombre d’opérations simples de manipulation
des images peuvent être généralisées aux graphes mais aussi que ces derniers offrent de
nouvelles possibilités.

Dans un quatrième temps, nous présentons l’application de ces principes de traitement et


d’analyse d’images à quelques problèmes de quantification d’images de microscopie
cellulaire. Nous proposons des exemples, en deux dimensions et en trois dimensions,
d’analyses d’images biologiques, obtenues par microscopie photonique et par microscopie
confocale de fluorescence, réalisées en collaboration avec les équipes de recherche du Centre
Régional de Lutte Contre le Cancer. Nous présentons d’abord une étude de l’architecture de
l’immunomarquage dans des coupes histologiques 2D. Ce travail fait appel à l’intégration des
graphes de voisinage dans la manipulation d’une collection d’objets : des noyaux de cellules
tumorales. Nous présentons ensuite un travail visant à quantifier la présence de contacts
focaux à la périphérie de cellules de culture. La troisième dimension facilite ici la sélection
des informations utiles. Nous présentons enfin une étude tridimensionnelle de l’architecture
de colonies cellulaires transformées. Il s’agit alors d’une nouvelle approche de l’analyse de
tests in vitro.

Dans ce travail, nous examinons donc les différentes étapes nécessaires pour l’analyse
d’images de microscopie cellulaire 3D : l’acquisition des images grâce au microscope
confocal, les stratégies de traitement d’images, l’implantation des opérations de traitement
d’images sous forme d’une bibliothèque, la quantification d’images. Nous illustrons ainsi les
possibilités du microscope confocal et l’efficacité de notre méthodologie de développement
d’applications de traitement d’images.
Chapitre I : Microscopie confocale
Chapitre I : Microscopie confocale 9

Dans ce chapitre, nous présentons les possibilités d’acquisition d’images


tridimensionnelles de microscopie, avec un microscope confocal. Dans un premier temps,
nous exposons les principes théoriques, largement présentés dans [PAWLEY 1990a], et nous
détaillons les particularités de la microscopie confocale à balayage laser et de la microscopie
de fluorescence. Dans un deuxième temps, nous présentons les caractéristiques générales des
microscopes, principalement les propriétés des objectifs, et les particularités du microscope
confocal du pôle Traitement et Analyse d’Images de Basse-Normandie. Nous proposons, dans
un troisième temps, une étude de l’acquisition des images par microscopie confocale. Nous
montrons qu’un grand nombre de phénomènes apportent des limitations et des déformations
au sein des images acquises et nous tentons de les comprendre afin de les corriger. Enfin,
compte tenu de ces caractéristiques, nous expliquons pourquoi il est nécessaire de développer
des stratégies de traitement adaptées aux images de microscopie confocale.

I.1. Principe de la microscopie confocale de fluorescence


I.1.1. Genèse de la microscopie confocale
Alors que la microscopie classique existe depuis le XVIIème siècle, Marvin Minsky
[MINSKY 1957] propose en 1957 le premier microscope utilisant le principe de confocalité.
La lumière provenant de la source est concentrée en un point précis de l’échantillon à
observer et ainsi, les autres points de l’échantillon ne sont que très faiblement illuminés. Au
niveau de la détection, l’information est sélectionnée de manière à ne conserver que
l’information lumineuse émise par le point éclairé. Cette parfaite mise en correspondance de
l’éclairement et de l’observation se fait sur cet appareil par le positionnement de deux
diaphragmes (ou « pinholes », trous d’épingle) sur le trajet optique : un diaphragme
d’excitation et un diaphragme de détection. L’échantillon est monté sur une platine mobile qui
permet d’en observer tous les points, un par un. On l’appelle « stage scanning confocal
microscope » (figure 2).

Cette technique permet d’améliorer la résolution par rapport aux autres microscopes
optiques ; un objet ponctuel donne une image ponctuelle. Selon [BRAKENHOFF 1985],
l’amélioration est d’un facteur 1,4 dans toutes les directions. Elle autorise également
10 Chapitre I : Microscopie confocale

l’observation d’objets épais selon plusieurs plans optiques indépendamment ; il est possible
d’éliminer les informations provenant de points hors du plan focal de l’appareil.

Figure 2 : pouvoir séparateur du microscope confocal mis au point par


Minsky (1957). Un point source de lumière (diaphragme A) est focalisé par
une lentille (C) sur un point (D) de l’échantillon (S). Pour un point donné,
une verticale de l’échantillon est illuminée (DE) et renvoie de la lumière.
L’objectif (O) concentre cette information au niveau du diaphragme
d’acquisition (B) qui ne laisse passer que la lumière provenant du plan focal
(D) vers le détecteur (P).

En 1968, Mojmir Petráñ [PETRÁÑ 1968] met au point un système permettant de réaliser
en même temps, sur un échantillon immobile, le balayage de tous les points de cet échantillon,
et la mise en correspondance de l’illumination et de la détection. Il utilise une amélioration du
disque décrit par Paul Nipkow en 1884, un disque opaque percé de trous fins, situés le long
d’une spirale d’Archimède, permettant le balayage d’un objet par un point de lumière
(figure 3a). Le disque utilisé par Petráñ présente deux spirales de trous, symétriques par
rapport à l’axe de rotation. Un point de l’échantillon éclairé à travers un trou du disque est
observé à travers le trou symétrique. On parle à ce moment de « tandem scanning confocal
microscope ». Ce principe sera adapté par Gordon Kino en 1987 pour que l’observation se
fasse à travers le trou servant à l’éclairement (figure 3b).
Chapitre I : Microscopie confocale 11

a b
Figure 3 : a : disque mis au point par Nipkow en 1884 pour effectuer le
balayage d’un échantillon. b : amélioration faite par Kino en 1987 dans son
microscope confocal.

I.1.2. Microscope confocal à balayage laser


En 1951, Young et Roberts réalisent le « flying spot UV microscope », il s’agit du premier
microscope à balayage. Ils utilisent le principe de balayage électronique, mis au point par
Zworykin (chez RCA) en 1934, dans son idée d’écran pour la télévision. Les points de
lumière permettant l’éclairement de l’échantillon sont émis grâce au balayage d’un faisceau
d’électrons.

Dès le début des années 1980, Brakenhoff (1979) utilise l’idée de balayage pour mettre au
point une nouvelle solution pour l’illumination des points d’un échantillon. La source
lumineuse est constituée d’un faisceau laser et deux miroirs mobiles dévient ce faisceau afin
de balayer l’échantillon selon deux axes (X et Y). La lumière est ensuite focalisée par un
diaphragme d’illumination et par l’objectif. C’est la naissance du microscope confocal à
balayage laser (« confocal laser scanning microscope » ou CLSM).

Chaque point de l’échantillon illuminé fournit alors une réponse lumineuse vers l’objectif
et ce signal est dirigé vers un détecteur (photomultiplicateur) à travers un diaphragme
d’acquisition. La réponse de chaque point permet de constituer l’image plane d’une coupe
optique de l’échantillon.

Le principe optique du microscope confocal à balayage laser est présenté sur la figure 4.
12 Chapitre I : Microscopie confocale

Figure 4 : trajet simplifié de la lumière dans un microscope confocal à


balayage laser. Le rayon laser est émis au niveau du diaphragme
d’illumination, passe à travers un miroir semi-réfléchissant et est concentré
sur un point de l’échantillon par l’objectif. La réponse optique du point
illuminé est dirigée vers le détecteur par l’objectif et le miroir.

De tels microscopes ont alors été commercialisés par des compagnies comme Sarastro,
Biorad, Olympus, Zeiss, Leitz. Ils sont plus faciles à réaliser et à entretenir que les
microscopes construits autour d’un disque de Nipkow, mais ils ont le défaut d’être plus lents.

Pour construire une image 3D de l’échantillon, le processus d’acquisition d’une coupe


optique est répété pour chaque position de l’échantillon par rapport au plan focal du
microscope. Contrairement à l’acquisition faite à partir de coupes physiques disjointes, tous
les plans sont positionnés dans les mêmes conditions sous l’objectif du microscope et aucun
recalage des images les unes par rapport aux autres n’est nécessaire.

Le microscope confocal à balayage laser apporte enfin un autre avantage par rapport aux
autres microscopes confocaux : la possibilité d’utiliser le phénomène de fluorescence.

I.1.3. Microscopie de fluorescence


La fluorescence est un phénomène atomique qui peut se résumer de la manière suivante :

• excitation des atomes par des photons de longueur d’onde λ1 ; l’atome passe
d’un état d’énergie S0 à un état S1,

• dissipation d’énergie au sein de l’atome ; passage de S1 à T1,


Chapitre I : Microscopie confocale 13

• émission d’un photon de longueur d’onde λ2>λ1 par l’atome ; passage de T1 à


S0 .

Il est fréquemment illustré par la figure 5.

Figure 5 : principe atomique de la fluorescence. L’atome excité par un


photon de longueur d’onde λ1 passe de l’état S0 à l’état S1, dissipe de
l’énergie et se désexcite en émettant un photon de longueur λ2 pour passer
de l’état T1 à l’état S0.

Les faisceaux laser permettent d’éclairer l’échantillon avec une longueur d’onde bien
particulière. Nous pouvons ainsi exploiter en microscopie confocale les principaux types de
fluorescence utilisés pour l’observation d’objets biologiques [BRYON 1995] :

• le laser argon (Ar) proche UV à 365nm,

• le laser argon (Ar) à 488nm (bleu),

• le laser hélium-néon (He-Ne) à 543nm (vert),

• le laser multi-raies argon-krypton (Ar-Kr) à 488nm, 568nm et 647nm.

Dans le domaine de l’imagerie microscopique, les entités que l’on veut observer sont
marquées par des agents spécifiques, sur lesquels des molécules fluorescentes
(fluorochromes) se fixent facilement [TSIEN 1990]. Le développement récent des techniques
de « chromosome painting » a amené de nombreux fluorochromes sur le marché mais les plus
utilisés sont :

• le Hoechst 33342, excité à 340nm (proche UV) et émettant autour de 450nm


(bleu),

• le DAPI, excité à 350nm (bleu) et émettant autour de 470nm (bleu),


14 Chapitre I : Microscopie confocale

• le rodhol green, excité à 488nm (bleu) et émettant autour de 570nm (rouge),

• la FITC (isothiocyanate de fluorescéine), excitée à 490nm (vert) et émettant


autour de 520nm (jaune),

• le bromure d’éthidium, excité à 518nm (jaune) et émettant autour de 610nm


(rouge),

• la TRITC (isothiocyanate de tétraméthylrhodamine), excitée à 540nm (vert) et


émettant autour de 570nm (rouge),

• l’iodure de propidium, excité à 540nm (vert) et émettant autour de 625nm


(rouge profond),

• la rhodamine, excitée à 555nm (orange) et émettant autour de 620nm (rouge


profond),

• le Texas Red, excité à 580nm (rouge) et émettant autour de 615nm (rouge


profond).

En utilisant ce phénomène, les images obtenues présentent des objets clairs (présence d’un
signal) sur un fond sombre. Cette technique permet en particulier de distinguer des objets qui
ne seraient pas séparables par d’autres types d’observation au microscope (par exemple,
l’observation en lumière blanche transmise).

Lors de l’acquisition au microscope, deux filtres sont ajoutés sur le trajet optique afin
d’optimiser la détection des photons émis par fluorescence au niveau de l’échantillon
(figure 6). Comme on veut détecter la lumière émise à la longueur d’onde λ2 suite à une
excitation λ1, la lumière de la source est sélectionnée afin de n’envoyer que la raie
d’excitation λ1. Divers fluorochromes peuvent alors être excités donc la lumière émise par
l’échantillon est à nouveau filtrée pour éliminer les contributions des fluorochromes émettant
à une longueur d’onde différente de λ2.
Chapitre I : Microscopie confocale 15

Figure 6 : positionnement de deux filtres de fluorescence sur le trajet


optique du microscope.

En épifluorescence classique, tous les points illuminés renvoient un signal lumineux et sont
vus par le détecteur, même les points en dehors de la zone de mise au point. Il apparaît alors
un flou sur les images. Grâce au microscope confocal, les informations sont sélectionnées et
chaque image 2D est nette.

L’utilisation de la fluorescence pour la visualisation de substances particulières pose


cependant certains problèmes. En particulier, le phénomène de fluorescence n’est pas
uniforme et s’amenuise dans le temps ; c’est ce qu’on appelle le photo-bleaching ou le photo-
blanchiment. Dans le cas de la microscopie confocale, ce phénomène est accentué puisque
entre l’acquisition du premier plan et l’acquisition du dernier plan, toute la zone est illuminée
et émet de la fluorescence.

Plusieurs solutions sont proposées pour atténuer ce phénomène de photo-blanchiment :

• atténuation de la puissance lumineuse mise en jeu lors de l’excitation et


augmentation de la sensibilité des capteurs ; la disparition du phénomène de
fluorescence est ralentie mais le bruit augmente dans les images acquises,

• utilisation de fluorochromes à forte émission afin d’augmenter le rapport signal


sur bruit de d’acquisition,

• utilisation d’agents anti-blanchiment associés aux fluorochromes ; ces agents


sont malheureusement coûteux.
16 Chapitre I : Microscopie confocale

I.2. Matériel utilisé


I.2.1. Caractéristiques des objectifs
Que ce soit en microscopie optique conventionnelle ou en microscopie confocale, en
microscopie de fluorescence, en lumière transmise ou en lumière réfléchie, un élément
fondamental d’un microscope est l’objectif. Nous allons rapidement décrire les
caractéristiques des objectifs pour microscopes.

I.2.1.1. Grandissement
Il représente le facteur multiplicatif apporté entre la taille de l’objet observé et celle de
l’image obtenue. L’étude de l’ensemble d’un tissu ou d’une colonie peut nécessiter un faible
grandissement (5× ou 10×) alors qu’on préférera un grandissement plus élevé (63× ou 100×)
pour une étude intracellulaire. Le grossissement d’un microscope est en général la
combinaison du grandissement de l’objectif et du grossissement de l’oculaire.

I.2.1.2. Milieu d’immersion


Chaque milieu rencontré sur le chemin optique possède un indice optique noté n ( n = 1
pour l’air, n = 1,33 pour l’eau, n = 1,52 pour l’huile). Pour limiter les déformations apportées
par les changements d’indices rencontrés aux passages entre les différents milieux, certains
objectifs sont dits à immersion et sont directement en contact avec un liquide (eau ou huile)
dont l’indice est proche de celui du milieu de la préparation.

I.2.1.3. Ouverture numérique


L’ouverture numérique (« numerical aperture » ou NA) a une grande influence sur
plusieurs des qualités d’un objectif. Elle est définie par NA = n ⋅ sin (α ) , où α représente
l’ouverture angulaire de l’objectif, c’est-à-dire l’angle de convergence des rayons lumineux
reçus par l’objectif. L’ouverture numérique d’un objectif est donc représentative de la quantité
de lumière que l’objectif est capable de capter.

Nous verrons plus loin que l’ouverture numérique d’un objectif fixe également sa
résolution.

I.2.1.4. Transmittance
La transmittance représente le pourcentage de lumière transmise à travers l’objectif et elle
peut varier en fonction de la longueur d’onde de la lumière. Ce critère peut être dominant dans
le choix d’un objectif, en particulier dans le cas d’utilisation aux limites comme avec une
illumination en ultraviolet proche (350nm).
Chapitre I : Microscopie confocale 17

I.2.1.5. Corrections
La sphéricité des lentilles constituant les objectifs apporte un certain nombre de défauts
appelés aberrations. La correction de ces aberrations permet de s’approcher des
caractéristiques théoriques des objectifs, caractéristiques fixées par les lois de la physique et
de l’optique.

L’astigmatisme (dissymétrie du grossissement selon les deux directions du plan focal) ou


la distorsion (modification du grossissement en fonction de la distance à l’axe optique) sont
des défauts géométriques dus à une mauvaise fabrication ou à une mauvaise mise en place des
lentilles. Contrairement aux aberrations sphériques et chromatiques, ils peuvent être évités.

L’aberration sphérique est un défaut de concentration des rayons lumineux par la lentille.
Les points image d’un même point objet se regroupent sur l’axe de l’objectif mais pas en un
même point. L’aberration chromatique provoque une focalisation différente des points selon
leur couleur.

Les objectifs « achromat » ont intégré une correction de l’aberration chromatique pour les
couleurs bleue et rouge. Les objectifs « planachromat » sont en plus corrigés contre
l’aberration sphérique. Enfin, les objectifs « planapochromat » sont des objectifs
« planachromat » corrigés pour la couleur verte.

I.2.1.6. Distance frontale


La distance frontale (ou distance de travail) est la distance entre l’extrémité physique de
l’objectif et son plan focal. Une grande distance frontale permet de travailler avec des
échantillons épais mais elle est antagoniste avec l’ouverture numérique et les corrections des
aberrations.

I.2.1.7. Universalité
L’universalité d’un objectif représente sa capacité à être utilisé en combinant plusieurs
types d’observation (multimodalité) : transmission, contraste de phase, contraste
interférentiel, fluorescence.

I.2.2. Le microscope confocal du pôle TAI


Le pôle Traitement et Analyse d’Images de Basse-Normandie dispose depuis l’automne
1995 d’un microscope confocal à balayage laser. Nous présentons ici un certain nombre de
ses caractéristiques.
18 Chapitre I : Microscopie confocale

I.2.2.1. Microscope
Le microscope est un modèle LSM 3 de la société ZEISS (Oberkochen, Germany). Il est
construit autour d’un bloc principal constitué d’une platine porte-lames motorisée dans les
trois directions, d’une tourelle d’objectifs motorisée et d’oculaires pour l’observation directe.

L’illumination de l’échantillon peut être assurée par une source de lumière blanche
stabilisée, par une lampe à vapeur de mercure (lampe HBO) ou par des sources laser (Argon
488nm ou Hélium-Néon 543nm).

I.2.2.2. Objectifs
Plusieurs objectifs sont disponibles afin de répondre aux contraintes de grossissement et de
milieu de préparation :

• epiplan-neofluar ZEISS, 10×/0,30 ; il permet principalement de déterminer la


zone à observer mais il n’autorise pas d’acquisition de bonne qualité,

• c-apochromat ZEISS, 40×/1,2 water,

• LD-epiplan ZEISS, 50×/0,50,

• achromat ZEISS, 63×/0,90 water,

• planapochromat ZEISS, 63×/1,40 oil, 0,09mm ; il permet des acquisitions de


très bonne qualité grâce à sa grande ouverture numérique, à ses nombreuses
corrections et à son milieu d’immersion (l’huile) adapté aux préparations
biologiques,

• epiplan-neofluar ZEISS, 100×/0,9.

I.2.2.3. Ordinateur
L’ensemble du microscope est connecté à un micro-ordinateur de type PC construit autour
d’un processeur Intel Pentium cadencé à 75MHz. Il fonctionne sous le système d’exploitation
MS-DOS avec l’interface graphique Microsoft-Windows 3.11.

Il est équipé d’un disque dur de 700Mo, d’un lecteur de disques magnéto-optiques d’une
capacité de 2×281Mo et d’une connexion au réseau local et à Internet.

La visualisation est effectuée sur un écran 15” pour le contrôle du fonctionnement et sur un
écran 20” à haute définition pour la visualisation des images.
Chapitre I : Microscopie confocale 19

I.2.2.4. Logiciel de commande


L’ensemble du microscope est contrôlé par le logiciel de commande ZEISS LSM 310
version 3.96. Ce logiciel permet de modifier le mode de fonctionnement et les caractéristiques
du microscope, de changer d’objectif, de déplacer la platine porte-lames, etc. Le microscope
peut ainsi fonctionner selon deux modes : le mode conventionnel (observation dans les
oculaires) et le mode LSM (acquisition d’images par balayage laser).

Dans le premier mode, l’illumination de l’échantillon est assurée par des sources de
lumière stabilisées (lumière blanche ou vapeur de mercure). Ce mode est utile pour une
localisation rapide de la zone à étudier. Il permet de travailler en fond clair, en contraste de
phase ou en contraste interférentiel, en réflexion, en épifluorescence.

Dans son second mode de fonctionnement, le microscope peut ne pas utiliser la propriété
de confocalité. Le micro-ordinateur acquiert alors des images correspondant au mode
conventionnel. En mode confocal, deux types d’acquisition sont possibles : la réflexion (pour
des objets métalliques par exemple) et la fluorescence (qui est en fait une sorte de réflexion
améliorée).

En complément des objectifs, le microscope possède un jeu de miroirs internes qui définit
un zoom optique (de 0.8 à 8). Cette particularité permet de modifier la fréquence
d’échantillonnage des images acquises, de manière physique, et non de manière logicielle.
Selon la dimension des images (256×256 pixels, 512×512 pixels, etc.), l’objectif utilisé (10×,
63×, etc.) et le zoom opéré, la surface d’échantillon représentée par chaque pixel varie. On
retiendra qu’elle est de l’ordre de 0,1×0,1µm2 à 50×50µm2.

Enfin, plusieurs types d’acquisition d’images sont possibles. Bien entendu, le logiciel de
commande autorise l’acquisition d’une série de coupes optiques, parallèles au plan focal du
microscope, afin de reconstruire une image volumique, constituée de voxels. C’est le
fonctionnement le plus utilisé dans le cas d’échantillons épais contenant des objets.
Cependant, le logiciel permet d’acquérir des images perpendiculaires au plan focal, afin
d’obtenir, par exemple, des coupes transversales des échantillons. Il fournit également la
possibilité d’acquérir des images de reliefs, en détectant automatiquement le point de plus fort
signal sur une verticale donnée. Les images ainsi obtenues sont des images 2D dans lesquelles
chaque pixel contient l’altitude de l’échantillon à cet endroit précis (Annexe 1).
20 Chapitre I : Microscopie confocale

I.3. Acquisition des images


I.3.1. Caractéristiques et « problèmes »
Un grand nombre de phénomènes interviennent au cours de l’acquisition d’une image au
microscope confocal. Il s’agit de transformer un objet en une image, en utilisant un système
optique. Mathématiquement, on peut représenter cette transformation par la convolution de
l’objet avec la fonction du système optique [DELORME 1997] :

i (x) = o( x) ⊗ h( x) + n( x)
Les fonctions o(x), h( x) , n( x) et i ( x) représentent respectivement l’objet observé, la
réponse du système, le bruit d’acquisition et l’image acquise.

Les principales composantes de la fonction de transformation h peuvent alors être


détaillées.

I.3.1.1. Point Spread Function (PSF)


Dans l’idéal, grâce au principe de confocalité, un point objet devrait donner naissance à un
et un seul point image. Cependant, lors de l’acquisition de petits objets globalement
sphériques au microscope confocal, l’image présente des objets étalés et déformés. Nous
avons constaté cette déformation sur l’image à faible grossissement d’une préparation
contenant des cellules biologiques (figure 7).

Figure 7 : projection latérale d’une image 3D contenant des cellules d’un


diamètre d’environ 6µm. Objectif 10×/0,30, zoom=5. Les cellules ont dans
l’image une épaisseur apparente d’environ 40µm.
Chapitre I : Microscopie confocale 21

Pour mesurer ce phénomène, nous avons utilisé une préparation contenant des billes
fluorescentes calibrées : des billes de polystyrène de 10µm de diamètre (figure 8). En utilisant
un grossissement moyen (63×) nous pouvons mesurer une hauteur apparente de 20µm et une
déformation des billes.

Figure 8 : projection latérale de l’image de deux billes de polystyrène


fluorescent d’un diamètre de 10µm. Objectif 63×/1,4 oil. Chaque bille est
déformée et laisse une trace sur une hauteur d’environ 20µm.

Cette déformation de l’image est appelée « fonction d’étalement du point » (ou « point
spread function », PSF en anglais). Elle provient du fait que l’illumination n’est pas faite de
manière ponctuelle mais que la lumière est émise à l’intérieur d’un cône (dont la taille est liée
à l’ouverture angulaire de l’objectif).

De nombreuses études ont été menées pour quantifier et corriger ce problème


[PAWLEY 1990b], [WILSON 1990], et sont résumées par R. Delorme [DELORME 1997].
Le principe général est de déconvoluer l’image acquise par la fonction de transfert du
microscope [KHOSLA 1992]. Deux méthodes permettent de disposer de cette fonction de
transfert. La première méthode consiste à la déterminer de façon théorique, grâce à un modèle
géométrique [FRISKEN-GIBSON 1990], [VAN DER WOORT 1990], [WILLIS 1993]. La
seconde méthode consiste à estimer la fonction de transfert grâce à la mesure, dans des
conditions expérimentales bien particulières, de petits objets (plus petits que la résolution du
microscope), dont la taille et la fluorescence sont calibrées [BRAKENHOFF 1985],
[MCNALLY 1994], [DE GRAUW 1997].

On peut également effectuer la correction en n’utilisant que les informations contenues


dans l’image acquise. Par exemple, G. B. Avinash [AVINASH 1996] présente une méthode
itérative de déconvolution aveugle pour déterminer la PSF et l’image restaurée.

On retiendra que pour réduire la déformation des objets dans les images acquises, il faut
limiter l’ouverture du diaphragme du microscope, travailler de préférence à des faibles
longueurs d’ondes, choisir des objectifs de forte ouverture numérique.
22 Chapitre I : Microscopie confocale

I.3.1.2. Résolution
La résolution d’un appareil optique est définie comme la distance minimale devant séparer
deux objets pour que leurs images soient distinctes. Dans le cas de l’ œ il, on parle de pouvoir
séparateur. Deux objets distincts doivent former leurs images sur deux éléments différents de
l’ œ il (séparés de 4,5µm). Placés à la distance minimale de l’ œ il (25mm), ces objets doivent
alors être séparés d’au moins 60µm.

Dans le cas du microscope confocal, deux termes de résolution ont été définis : la
résolution radiale qui fait référence à des objets situés dans le même plan (plan focal de
l’objectif) et la résolution axiale qui s’intéresse aux objets d’une même verticale (axe optique
de l’objectif). Plusieurs paramètres influent sur ces résolutions (ouverture du diaphragme,
longueur d’onde, etc.) et plusieurs critères existent pour les quantifier.

Dans le plan focal de l’objectif, le cône de lumière se projette selon des anneaux
concentriques (disques d’Airy). On peut tracer la courbe de l’intensité lumineuse selon un
diamètre de ces anneaux (figure 9) et la caractériser.

Figure 9 : courbe de l’intensité lumineuse transmise par un objectif. L’axe


vertical représente l’axe optique de l’objectif et l’axe horizontal correspond
au plan focal.

Un premier critère est le critère de Rayleigh. Il consiste à mesurer la distance entre le


maximum de la courbe et son premier zéro. Cette distance définit la résolution radiale et
correspond au diamètre du disque concentrant la majeure partie de l’information :

1,22 ⋅ λ 0,61 ⋅ λ
∆r = = .
2n ⋅ sin α NA
Chapitre I : Microscopie confocale 23

Dans cette formule, λ représente la longueur d’onde de la lumière d’excitation, n indique


l’indice de réfraction du milieu de préparation, α correspond à l’ouverture angulaire de
l’objectif et NA = n ⋅ sin α est son ouverture numérique.

Le critère de Rayleigh permet également de décrire la résolution axiale :

λ
∆z = .
α
2n ⋅ sin 2
2

α 1
Pour de petites ouvertures angulaires, en faisant l’approximation sin ≈ sin α , on
2 2
obtient une écriture plus simple :

2λ 2nλ
∆z ≈ = .
n ⋅ sin α NA2
2

À partir de ces formules, R. Delorme [DELORME 1997] propose les valeurs théoriques
des résolutions radiales et axiales, pour plusieurs longueurs d’ondes et plusieurs ouvertures
numériques. Pour une longueur d’onde moyenne (530nm, vert-jaune) et une ouverture
numérique raisonnable (NA=1,2), les ordres de grandeur de la résolution radiale et de la
résolution axiale sont respectivement 0,25µm et 0,50µm.

Une deuxième mesure est fournie par la largeur de la courbe à mi-hauteur (« full width at
half maximum » ou FWHM en anglais). Elle permet de caractériser la résolution radiale et, de
la même manière, la résolution axiale :

0,37 ⋅ λ 0,32 ⋅ λ
∆r = et ∆z = .
n ⋅ sin α α
n ⋅ sin 2
2

I.3.1.3. Atténuation de la définition


Lors de l’acquisition 3D d’un échantillon épais, la qualité des images diminue avec
l’augmentation de la profondeur de la coupe 2D acquise : luminosité, contraste. Nous avons
illustré ce problème à partir d’une préparation contenant des billes fluorescentes de 10µm de
diamètre (figure 10). Les billes sont identiques et pourtant, sur une projection latérale, les
billes profondes semblent être moins fluorescentes.
24 Chapitre I : Microscopie confocale

Figure 10 : projection latérale d’une image de billes fluorescentes de 10µm


de diamètre. Objectif 10×/0,30. Les billes des deux couches paraissent ne
pas avoir la même intensité.

Plusieurs propositions ont été faites pour expliquer cette atténuation. Elle résulte
principalement de la combinaison de deux phénomènes. D’une part, la lumière d’excitation et
la fluorescence sont atténuées lors de la traversée de l’échantillon, entre l’objectif du
microscope et le plan focal, et sur le trajet inverse, entre le plan focal et l’objectif. D’autre
part, et dans une moindre mesure, les fluorochromes utilisés se décolorent sous l’effet de
l’excitation.

Pour corriger cet effet, il a été proposé de tracer la courbe de l’intensité moyenne de
chaque plan en fonction de la profondeur et de corriger chacun de ces plans pour supprimer la
décroissance de cette courbe. Cette technique n’est malheureusement valable que pour des
images dont les plans sont statistiquement identiques, c’est à dire une image dont chaque plan
possède le même type d’information (la même quantité d’objets et la même portion de fond).
Ce n’est visiblement pas le cas de l’image de la figure 10. Des méthodes plus avancées ont
donc été proposées.

L’atténuation observée a été modélisée par plusieurs formules exprimant l’intensité


observée I z d’un point à une profondeur z en fonction de cette profondeur et de l’intensité

idéale I 0 qu’il devrait avoir. Selon J.-P. Rigaut [RIGAUT 1991], on a

1
I z = I0 ⋅ ζ
 z
1+  
Z

La formulation logarithmique permet de déduire expérimentalement les deux constantes Z


et ζ :

I −I 
log 0 z  = ζ ⋅ log ( z ) − ζ ⋅ log (Z )
 Iz 
Chapitre I : Microscopie confocale 25

Pour déterminer ces coefficients, l’intensité moyenne I z de chaque plan est prise en
compte. Cependant, cette intensité dépend du contenu de l’image et ne peut donc pas fournir
de résultat valable dans le cas général. En conséquence, plusieurs images sont prises en
compte pour déterminer une intensité moyenne I z à une profondeur z. Enfin, plusieurs

valeurs de I 0 sont utilisées dans la recherche des coefficients donnant la meilleure

approximation linéaire.

Pour une image d’une cinquantaine de microns d’épaisseur, J.-P. Rigaut a déterminé la
valeur du rapport entre I z et I 0 :

ζ
I0  50 
= 1+   ≈ 3 .
I 50 Z

Une autre formulation a été proposée par A. Liljeborg [LILJEBORG 1995] et M. Czader
[CZADER 1996] :

I z = I0 ⋅ k z .

Pour s’abstenir de la variation de contenu des différents plans d’une image 3D, les auteurs
proposent une méthode (« histostack ») comparant deux à deux les plans adjacents. Pour
chaque couple de plans voisins, un histogramme 2D des niveaux de gris des points est calculé.
Sur la figure 11, on localise plusieurs types d’objets clairs sur un fond sombre : le fond, les
objets présents dans un seul des plans et les objets présents dans les deux plans.
26 Chapitre I : Microscopie confocale

Objet présent dans le


Niveau de gris dans plan supérieur
le plan supérieur
Objet présent dans
les deux plans

Fond de l’image Objet présent dans le


dans les deux plans plan inférieur

Niveau de gris dans


le plan inférieur

Figure 11 : exemple d’histogramme 2D des points dans deux plans


successifs d’une image 3D.

Les objets présents dans deux plans voisins sont projetés sur l’histogramme dans une zone
au-dessus de la bissectrice puisque les points sont moins intenses dans le plan inférieur. En
considérant la pile de tous les histogrammes construits pour tous les plans de l’image, les
objets présents dans l’image se projettent le long d’une courbe dont les caractéristiques
fournissent le coefficient k.

D’autres auteurs ont proposé des solutions plus complexes en modélisant le faisceau
lumineux (d’excitation ou d’émission) comme une onde sphérique contenue dans un cône. La
portion du cône de lumière perçue par l’objectif dépend alors de la profondeur du point
observé. Roerdink utilise une déconvolution (transformée de Fourier) pour restaurer l’image
[ROERDINK 1993]. F. Margadant intègre la contribution de nombreux cônes très fins issus
du point observé [MARGADANT 1996].

I.3.1.4. Recouvrement des spectres de fluorescence


Lorsqu’on veut observer la présence de plusieurs éléments caractéristiques dans une
préparation, on est en général amené à utiliser plusieurs marqueurs biologiques, associés à
plusieurs fluorochromes. Chaque fluorochrome possède sa propre bande d’excitation mais il
se peut que ces bandes d’émission de plusieurs fluorochromes se recouvrent. C’est à dire que
l’on ne peut pas déterminer quelle substance est à l’origine des signaux détectés.
Chapitre I : Microscopie confocale 27

Afin d’éliminer cette incertitude, on cherche à utiliser des fluorochromes dont les spectres
d’émission ne se recouvrent pas. Si cela n’est pas possible, il est préférable d’effectuer des
acquisitions successives (une pour chaque fluorochrome) plutôt qu’une acquisition simultanée
des réponses de tous les fluorochromes. Dans ce cas, il est indispensable que la motorisation
de la platine du microscope soit totalement fiable. Nous avons constaté que le déplacement se
fait avec une incertitude de 0,25µm en x et en y et de 0,75 µm en z.

I.3.1.5. Autres problèmes d’acquisition


Au cours de l’acquisition, on peut s’interroger sur la précision de certaines mesures.
Différents aspects ont été présentés par R. Delorme [DELORME 1997]. Nous avons choisi de
ne signaler que deux points importants.

Lors d’acquisitions au microscope optique équipé d’une caméra, et en particulier d’une


caméra couleur, il est nécessaire d’évaluer la stabilité de l’illumination et de la détection au
cours du temps. En effet, la montée en température des lampes et des composants
électroniques provoque une dérive des intensités dans les images. Dans le cas du microscope
confocal à balayage laser, nous n’avons pas constaté de telle dérive au cours du temps. La
seule variation entre plusieurs acquisitions successives vient du bruit qui représente environ
4% de fluctuation dans les niveaux de gris.

Une autre interrogation concerne la linéarité des informations entre les objets à observer
(molécules, etc.), les fluorochromes qui leur sont associés, et le niveau de gris dans l’image
acquise. Pour le second point, il a été proposé d’observer des sources fluorescentes calibrées
ou d’intercaler des filtres d’atténuation sur le trajet optique et de mesurer les niveaux de gris
correspondants. Au niveau du degré de fixation des fluorochromes sur les molécules étudiées,
plusieurs facteurs biologiques interviennent (température, pH, etc.) et rendent l’évaluation
difficile.

I.3.2. Exemples d’images obtenues


Contrairement à d’autres appareils d’acquisition d’images biomédicales, le microscope
confocal offre une large gamme de possibilité, et de ce fait, fournit des images d’une très
grande variabilité. Il est difficile de savoir a priori ce que vont contenir les images. Il peut
s’agir de colonies de cellules de culture, de cellules isolées, de coupes histologiques, etc.
Selon l’objectif visé (analyse des cellules, des colonies, de l’ensemble des tissus) le
grossissement et le mode d’acquisition pourront varier et donner des images différentes en
terme d’intensité ou de contraste : objets clairs ou sombres, petits ou grands, etc.
28 Chapitre I : Microscopie confocale

Malgré les limites de la microscopie confocale, on peut tout de même acquérir des images
et les exploiter selon les modes de fonctionnement et de visualisation du microscope utilisé.
Sur un exemple de préparation biologique, on peut voir les avantages de la microscopie
confocale par rapport à la microscopie optique classique.

Le microscope confocal est capable de fonctionner en mode confocal ou en mode


classique. La figure 12 correspond à deux images d’une même préparation selon ces deux
modes. On voit que la netteté de l’image est améliorée par le fonctionnement en mode
confocal.

Figure 12 : gain de netteté des images entre une acquisition optique


classique (à gauche) et une acquisition confocale (à droite), pour un
échantillon d’environ 30µm d’épaisseur.

En déplaçant l’échantillon observé par rapport au plan focal du microscope, il est facile
d’obtenir une série de coupes optiques cohérentes (dans lesquelles les pixels de chaque image
se correspondent exactement). La figure 13 représente 16 coupes optiques séparées de 1µm.
Chapitre I : Microscopie confocale 29

Figure 13 : acquisition d’une série d’images cohérentes (représentation sous


forme de galerie).

Le logiciel de commande du microscope permet enfin de visualiser des coupes


orthogonales des séries d’images acquises. La figure 14 est un exemple d’une telle
visualisation.

Figure 14 : visualisation de l’image 3D selon les trois coupes orthogonales.


Les lignes de couleur indiquent la position des plans de projection.
30 Chapitre I : Microscopie confocale

I.4. Conséquences sur le traitement des images de microscopie confocale


Le microscope confocal à balayage laser semble donc apporter un avantage incontestable
au niveau de l’acquisition des images tridimensionnelles : les coupes optiques obtenues
peuvent être rassemblées pour construire de véritables images en volume. Cependant, le
principe et les caractéristiques de l’acquisition impliquent de porter une attention particulière
au traitement des images.

En effet, il est nécessaire de tenir compte de certains détails afin de mettre au point des
stratégies de traitement de ces images.

• Les images ne sont pas isotropes. La différence entre la résolution radiale et la


résolution axiale du microscope ne permet pas d’acquérir les images sous forme
de grilles de voxels cubiques réguliers. Une première solution consiste à réduire
l’échantillonnage radial afin de le faire correspondre à l’échantillonnage axial. Les
voxels sont cubiques mais nous perdons l’apport de résolution du microscope
confocal sur les microscopes optiques classiques. Une deuxième solution se
présente sous la forme de l’interpolation des images dans la direction axiale. C’est
une possibilité satisfaisante quant à l’isotropie des voxels mais l’information
contenue dans l’image n’est plus identique à l’information contenue dans
l’échantillon observé.

• Les images sont déformées. En effet, les objets présents dans les préparations
ne forment pas une image de forme identique dans les acquisitions. Il est
nécessaire de choisir rigoureusement les milieux de préparations et les objectifs
utilisés pour chaque type d’application afin de réduire le plus possible ce
phénomène au moment de l’acquisition.

• Les images ne sont pas homogènes. Pour des images comportant un grand
nombre de plans, il faut tenir compte de l’atténuation de l’intensité en fonction de
la profondeur. Il nous faut alors choisir la correction des images entre
l’acquisition et les traitements ou la prise en compte de cette inhomogénéité au
sein de traitements.

Pour toutes ces raisons, la manipulation des images de microscopie confocale ne peut pas
faire appel à des techniques et des stratégies tridimensionnelles directement généralisées à
partir des approches bidimensionnelles connues. Nous sommes par conséquent contraints de
développer des méthodes adaptées à ce type d’acquisition.
Chapitre I : Microscopie confocale 31

Nous présentons dans les chapitres suivants des opérations de traitement et d’analyse
d’images, en deux dimensions et en trois dimensions, ainsi que des stratégies adaptées au
traitement des images de microscopie confocale.
Chapitre II : Images de microscopie cellulaire
et méthodologie d’analyse
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 35

Ce chapitre a pour but de présenter les concepts des traitements d’images que nous avons
mis en place dans le contexte de la microscopie cellulaire tridimensionnelle. Les problèmes
auxquels nous voulons apporter une réponse sont de deux ordres :

• utiliser la troisième dimension pour approcher au mieux la réalité biologique et


effectuer des mesures volumiques,

• sélectionner les objets ou les cellules sur lesquels on veut faire des mesures, en
exploitant leur organisation au sein des tissus.

Les structures de données et les traitements présentés dans ce chapitre répondent à ces
deux préoccupations. Nous souhaitons disposer d’une large palette d’opérateurs, de façon à
constituer un environnement d’expérimentation de techniques de traitement d’images,
adaptées en particulier à la biologie cellulaire. Au début de ce travail, le laboratoire disposait
d’une bibliothèque d’opérateurs de traitements bidimensionnels. Pour répondre à nos
premières préoccupations, nous avons implanté, en trois dimensions, les opérateurs de
traitements usuels ainsi que d’autres opérateurs plus adaptés aux images de microscopie
cellulaire. Pour le second type de problèmes, l’étude des regroupements perceptuels,
implicitement utilisés par les biologistes pour sélectionner les entités remarquables, nous
avons privilégié la structure de graphes de voisinage. Sur cette structure, que l’on peut
indifféremment considérer en 2D ou en 3D, nous avons généralisé, quand cela a un sens, les
opérateurs habituellement définis sur les images vues comme des grilles régulières.

Dans un premier temps, nous présentons les différentes représentations adaptées à la


manipulation et au traitement de nos images de microscopie. Afin d’étudier une image à
différentes échelles (au niveau des points ou au niveau des objets), nous abordons la
représentation classique d’une image par une grille régulière de points et nous la complétons
en détaillant la possibilité de manipuler les images par l’intermédiaire des graphes de
voisinage.

Dans un deuxième temps, nous présentons les principales approches de la segmentation


d’images. Nous nous intéressons plus particulièrement aux opérations de traitement d’images
adaptées au traitement des images de microscopie cellulaire.
36 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse

Dans un troisième temps, nous exposons plusieurs stratégies de traitement d’images


tridimensionnelles. Nous proposons alors une démarche générale pour traiter les images de
microscopie confocale, difficiles à manipuler de façon isotrope, en trois dimensions.

Enfin, dans un quatrième temps, nous exposons notre méthodologie de développement de


programmes de traitement d’images. Cette approche repose sur la décomposition hiérarchique
des problèmes. Le résultat de cette analyse est constitué de l’enchaînement d’opérateurs,
choisis dans la bibliothèque PANDORE.

II.1. La représentation des images


Lors du traitement d’images de microscopie cellulaire, les objectifs sont très variables : il
peut s’agir de localiser des noyaux cellulaires à fort grossissement, de caractériser
l’architecture de populations de cellules vues à un grossissement plus faible, etc. Cependant,
nous avons mis en évidence certaines caractéristiques générales influant sur le choix de la
représentation des images et sur le choix des catégories de traitement à appliquer.

• Les images tridimensionnelles que nous manipulons sont obtenues par


microscopie confocale. Nous montrons dans un premier temps que ce mode
d’acquisition impose le type d’échantillonnage.

• Chacun des objets présents dans les images étudiées possède une réalité
biologique. Cette réalité fournit des connaissances a priori sur la forme des objets
(réguliers, convexes), sur leur contraste (frontières aux transitions lentes) ou sur
leur contenu (texture, etc.). Nous présentons plus loin les différentes catégories
d’opérations de traitement adaptées à ces propriétés.

• Une image contient une ou plusieurs populations d’objets, organisés les uns par
rapport aux autres en fonction de la nature de l’échantillon biologique observé.
Afin de tenir compte de ces relations entre les différents éléments d’une image,
nous avons développé une représentation complémentaire des images, exploitant
la structure de graphe.

Nous présentons dans cette section les différentes représentations des images répondant à
nos besoins.
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 37

II.1.1. Images numériques tridimensionnelles

II.1.1.1. Définitions
De la même façon qu’en imagerie bidimensionnelle un élément d’image est appelé pixel
(« picture element » en anglais), l’élément de volume est dénommé voxel en imagerie
tridimensionnelle. De manière générale, pour ne pas faire référence à une dimension
particulière des images (2D ou 3D) lorsque les approches sont équivalentes, nous avons choisi
de parler de points et non de pixels ou de voxels.

Deux aspects interviennent dans la définition d’une image numérique en tant que signal
discret multidimensionnel : la numérisation et l’échantillonnage. La numérisation consiste à
représenter la couleur du point observé par une grandeur quantifiée. Les dégradés de gris ou
les nuances des trois composantes rouge, verte et bleue sont en général codés sur 256 niveaux.

L’échantillonnage d’une image consiste à représenter par un point une information non
ponctuelle. Le problème n’est pas simple et de nombreuses grilles d’échantillonnage ont été
mises au point et comparées pour les images 2D et 3D [SRIHARI 1981], [MEYER 1992]. En
deux dimensions, les maillages carré, triangulaire ou hexagonal sont utilisés et ont été étendus
à la troisième dimension de manière non isotrope (parallélépipède, prisme triangulaire, prisme
hexagonal). Parmi les polyèdres réguliers (tétraèdre, cube, octaèdre, dodécaèdre et icosaèdre
comptant respectivement 4, 6, 8, 12 et 20 faces), seul le cube permet de paver l’espace de
façon isotrope (figure 15a). Cependant, le gros reproche fait au maillage cubique est son
faible nombre de voisins équidistants d’un point donné : seulement six (figure 16a). D’autres
structures ont alors été développées en s’inspirant de structures atomiques cristallines : la
maille cubique centrée qui permet de passer à huit voisins équidistants, et la maille cubique à
faces centrées qui en compte douze. Les figures 15 et 16 illustrent respectivement les
améliorations de la maille cubique et les positions relatives de voisins équidistants d’un point.

a b c
Figure 15 : représentation des structures régulières pour l’échantillonnage
des images 3D. a : structure cubique. b : structure cubique centrée. c :
structure cubique à faces centrées.
38 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse

a b c
Figure 16 : positions relatives des voisins équidistants dans les structures de
la figure 15. Au centre des huit cubes en trait fin, un point est relié à ses
voisins par des traits épais. a : 6-voisinage de la maille cubique. b : 8-
voisinage de la maille cubique centrée. c : 12-voisinage de la maille cubique
à faces centrées.

Le choix de la grille d’échantillonnage étant en général fixé par les appareils utilisés lors
de l’acquisition, des solutions ont été proposées pour passer d’une grille à une autre et pour
disposer d’un maillage régulier et suffisamment dense. Par exemple, il est possible de
reconstruire une grille tridimensionnelle régulière et isotrope en interpolant les données
acquises sous forme de coupes 2D [MEYER 1992].

Dans le cas du microscope confocal, une image 3D est construite en rassemblant plusieurs
plans 2D. En raison du balayage laser, chacun de ces plans est échantillonné par une grille
carrée et l’image 3D est composée de parallélépipèdes rectangles (plutôt que de cubes à cause
de l’anisotropie de l’acquisition). Nous avons choisi de conserver cette grille
d’échantillonnage parallélépipédique proposée par le matériel d’acquisition. Le parcours de
cette structure de voisinage est en outre le plus rapide à mettre en œuvre au cours de
traitements informatisés. Il faut cependant garder à l’esprit la possibilité de changer de grille
pour effectuer des traitements particulièrement précis (par exemple, des opérations de
morphologie mathématique nécessitant un élément structurant isotrope).

En complément, d’autres choix doivent être effectués avant de pouvoir manipuler des
images de points en trois dimensions.

II.1.1.2. Taille et codage des voisinages


Dans un premier temps, il faut déterminer la taille des voisinages à considérer autour des
points. Le nombre de voisins influe directement sur la qualité des résultats obtenus lors des
traitements et sur le temps d’exécution nécessaire, même si la complexité des traitements reste
inchangée. Pour une grille cubique, le voisinage d’un point peut être constitué de 6, 18 ou 26
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 39

voxels. Le meilleur compromis entre la rapidité des traitements et la ressemblance à une


sphère (qui constituerait le voisinage isotrope idéal) est obtenu avec le 18-voisinage.

Dans un second temps, il faut remarquer l’absence en 3D d’un codage analogue au codage
de Freeman afin de numéroter les voisins d’un point. En 2D, la numérotation des 8 voisins
d’un pixel possède la propriété suivante : des pixels de codes consécutifs sont voisins en 4-
connexité. Pour étendre ce codage à la troisième dimension, nous avons choisi certaines
propriétés afin de définir une numérotation des 26 voisins d’un voxel :

• le voxel vi et le voxel v25−i sont symétriques par rapport au voxel central,

• les voxels vi pour i ∈ [0;12] sont vus avant le voxel courant dans un balayage

3D de l’image et les voxels vi pour i ∈ [13;25] seront vus après,

• pour ces deux ensembles pris séparément, les voxels de numéros consécutifs
sont voisins en 6-connexité.

Les deux premières propriétés ne sont pas vérifiées par le codage de Freeman. En
conséquence, le parcours en 3D des premiers points ne se fait pas dans le sens
trigonométrique, comme c’est le cas en deux dimensions. Nous définissons ainsi une
numérotation (figure 17) particulièrement intéressante pour l’accès aux voxels lors des
traitements (masques de balayage pour l’étiquetage, parcours des deux voisins dans les 13
directions, etc.).

Figure 17 : numérotation choisie pour les 26 voisins d’un voxel.

Nous disposons ainsi d’une représentation d’une image sous la forme d’une grille régulière
de points, avec une identification invariable des voisins d’un point.
40 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse

II.1.2. La représentation des images par les graphes

II.1.2.1. Intérêt de la structure


Dans de nombreux cas, on souhaite appréhender une image de façon plus globale que par
le voisinage régulier des points qui la composent. En effet, lors de la manipulation d’images
présentant des collections d’objets, il n’est plus suffisant de travailler au niveau des points de
l’image (pixels ou voxels) mais il est utile de manipuler des objets plus grands (primitives
visuelles comme des régions ou des portions de contours) par l’intermédiaire d’une autre
représentation. De même, lorsque les objets d’une scène ne sont pas connectés entre eux, il
faut considérer des relations de voisinage plus larges que la grille d’échantillonnage de
l’image. Une image doit alors être considérée comme une collection d’informations
organisées dans un espace à plusieurs dimensions (2 ou 3 en général). Dans le cas des images
représentées par une grille régulière, les relations de voisinage entre les différents points sont
implicitement données par la grille. Afin de pouvoir manipuler les images à l’échelle du point
comme à l’échelle de l’objet, nous avons développé une représentation des images basée sur
les graphes de voisinage. Cette structure est particulièrement adaptée à la manipulation de
relations entre objets :

• des relations « intra-image », entre des objets d’une même image (relations de
proximité, de similarité, etc.),

• des relations « inter-image », entre des objets de plusieurs images


(mémorisation des étapes de fusion, etc.).

II.1.2.2. L’objet mathématique


Un graphe G est un objet mathématique défini par deux ensembles mis en correspondance :
un ensemble S de points, et un sous-ensemble A de S × S [VOSS 1993]. Les points de S sont
les sommets (ou n œuds) du graphe, les éléments deA en sont les arcs lorsqu’ils sont orientés,
les arêtes lorsqu’ils sont non orientés. Nous avons donc

G = (S, A) avec A ⊂ S × S , c’est à dire k ∈ A ⇔ ∃p, q ∈ S tels que k = ( p, q ) .

Ceci peut également s’écrire

S = {pi } et A = {ki , j } où ki , j = ( p i , p j ) .

Pour un graphe non orienté, la relation de voisinage entre deux n œuds pi et p j ,

extrémités d’une même arête, est une relation d’équivalence. Elle est à la base de tous les
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 41

traitements sur les graphes. C’est aussi la source de la définition des arbres (graphes sans
cycle).

Grâce à ces définitions, un graphe permet de représenter simplement une image dont la
grille est irrégulière. Une image est un ensemble de points associé à des règles de passage
d’un point à un autre : la grille d’échantillonnage. Les n œuds d’un graphe sont alors
analogues aux points d’une image et les arêtes remplacent la grille. En suivant la même
analogie, les composantes connexes d’un graphe sont comparables aux régions d’une image.

On peut alors signaler que la dimension d’une image est donnée par la grille
d’échantillonnage : 2D, 3D. Dans un graphe, les nœ u ds peuvent appartenir à un espace de
dimension quelconque. Cette dimension n’a pas d’influence sur la structure de voisinage du
graphe. Par conséquent, considérer un graphe comme une image simplifie le passage de la
deuxième à la troisième dimension, qui pose parfois des problèmes. En effet, l’accès aux huit
voisins d’un pixel est codé différemment de l’accès aux 18 voisins d’un voxel. Dans le cas
d’un graphe, l’accès aux voisins d’un sommet se fait toujours aussi directement, que les
sommets appartiennent à un espace à deux ou à trois dimensions.

Jusqu’à présent, nous avons présenté l’analogie entre les graphes et les images au niveau
de la notion de voisinage. Nous étendons cette analogie aux informations associées aux points
(niveau de gris, étiquettes, etc.). Un attribut numérique est alors associé à chaque sommet de
l’ensemble S. Le graphe et les sommets sont alors dits « attribués » (ou « valués ») par une
fonction V (fonction de valuation) :

V: S →ℜ
p a v( p )

Cette fonction est une généralisation de la fonction utilisée par L. Vincent


[VINCENT 1990] dans son étude sur les opérateurs de morphologie mathématique. Nous
verrons que la plupart des opérateurs de traitement d’images peuvent alors être étendus à ces
graphes.
42 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse

Dans le cas des images 2D, la grille d’échantillonnage introduit le 4-voisinage, le voisinage
hexagonal, le 8-voisinage et des voisinages plus larges. Dans le cas des graphes, les relations
de voisinage ne sont pas limitées dans l’espace. En complément de cet aspect géométrique,
nous utilisons une fonction de pondération des arêtes de A afin de rendre la structure la plus
générale possible :

W: A→ ℜ
k a w(k )

Un graphe ainsi associé à une fonction de pondération est parfois appelé graphe valué
[COCQUEREZ 1995, Annexe A]. Nous parlerons plutôt de graphe « pondéré » pour éviter la
confusion avec la fonction de valuation présentée précédemment.

Deux fonctions de pondération sont fréquemment utilisées. D’une part, la pondération


canonique consiste à définir le poids d’une arête comme la différence des attributs de ses
extrémités :

∀k = ( p, q ) , w(k ) = v( p ) − v(q ) .

D’autre part, on peut inclure l’ensemble S dans un espace métrique. La pondération des
arêtes correspond alors à la distance définie sur les sommets :

∀p, q, s ∈ S , d ( p, p ) = 0 , d ( p, q ) ≥ 0 , d ( p, q ) + d (q, r ) ≥ d ( p, r ) ,

∀k = ( p, q ) , w(k ) = d ( p, q )

Dans tous les cas, nous considérons le poids d’une arête comme une distance entre ses
extrémités. Il pourra s’agir d’une distance métrique (distance géométrique définie dans
l’espace des sommets) ou d’une distance plus générale caractérisant la « différence » entre les
sommets, la différence entre leurs attributs.

La combinaison de la définition structurelle d’un graphe ( G = (S, A) ) et de son association


à des fonctions V et W permet de se rapprocher des graphes étiquetés utilisés par Messner
[MESSNER 1998] : G = (S, A,V ,W ) . Nous avons choisi de manipuler un graphe comme une
structure regroupant l’ensemble des sommets, la liste des arêtes issues de chaque sommet, les
valeurs associées aux sommets et les poids des arêtes (Annexe 2.2).
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 43

II.1.2.3. Les différentes structures de graphe


Pour une population de points répartis dans un espace à deux dimensions, le graphe le plus
complet et le plus couramment utilisé est le graphe de Delaunay (GD). Il est obtenu par
triangulation : pour chaque triplet de points, on détermine un cercle passant par ces trois
points. Si ce cercle ne contient aucun autre point de la population, alors les trois arêtes reliant
les trois points sont ajoutées au graphe. Un exemple de graphe de Delaunay est présenté sur la
figure 18.

Figure 18 : exemple de graphe de Delaunay construit à partir d’une


population de points. Pour chaque triangle formé par les arêtes du graphe, le
cercle exinscrit ne contient aucun autre point que les extrémités des arêtes.

Grâce à la fonction de pondération, une structure importante peut être déduite d’un
graphe : l’arbre de recouvrement minimal (« minimum spanning tree » ou MST). Le MST
d’un graphe est l’arbre de recouvrement dont la somme des poids des arêtes est minimum. Un
exemple de graphe et de l’un de ses arbres de recouvrement est présenté sur la figure 19.

a b
Figure 19 : a : exemple de graphe. b : arbre de recouvrement associé.

Deux algorithmes efficaces construisent le MST : l’algorithme de Prim procède par


croissance de l’ensemble des n œuds alors que l’algorithme de Kruskal fait croître l’ensemble
des arêtes [GONDRAN 1979].
44 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse

Cette structure, moins dense que le graphe d’origine, ne contient que les arêtes entre les
sommets les plus proches au sens d’une distance quelconque. L’un des principaux intérêts du
MST est que la suppression de n arêtes de l’arbre permet de séparer la structure en n + 1 sous-
structures. Nous verrons (section II.2.4) que cette propriété est particulièrement efficace pour
la mise en évidence de regroupements dans une population d’objets.

Grâce à la fonction de valuation, d’autres structures peuvent être déduites d’un graphe. Le
graphe d’influence (GI) est obtenu en considérant des sphères (des cercles pour un espace à
deux dimensions) centrées sur les sommets du graphe et dont le rayon est égal à la distance à
leur plus proche voisin. On étudie alors les sphères deux par deux : celles correspondant aux
extrémités de chaque arête (figure 20). Si les sphères ont une intersection non vide, l’arête est
conservée. Dans le cas contraire, l’arête est supprimée. Un graphe d’influence ne possède
alors que des arêtes entre un point et ses plus proches voisins. Il reflète l’aspect général de la
répartition des sommets.

Figure 20 : sphères d’influence de trois sommets A, B et C. Les deux


premières sphères sont disjointes donc l’arête [AB] doit être supprimée dans
le graphe d’influence. Pour les points B et C, la situation est inversée.

Les α-graphes [WORRING 1992] constituent une série de graphes dépendant d’un
paramètre de densité α. En fonction de ce paramètre, seules certaines arêtes du graphe
d’origine sont conservées. Ces graphes fournissent des informations sur la répartition externe
des arêtes du graphe et ne présentent qu’un faible intérêt pour l’étude de l’architecture d’une
population d’objets.

Les β-graphes sont plus adaptés car ils caractérisent l’organisation interne des sommets du
graphe d’origine. Si nous considérons une arête k = ( p1 , p2 ) du graphe G, nous disposons de

son poids w(k ) . À chaque extrémité ( p1 et p2 ), nous associons une sphère Si dont le centre ci

et le rayon ri sont donnés pour i ∈ {1,2} par

 β β β
ci = 1 −  pi + p3 − i et ri = w(k ) .
 2 2 2
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 45

Comme pour le graphe d’influence, les arêtes sont conservées en fonction de l’intersection
des sphères (figure 21). Si l’intersection contient un autre nœud que les extrémités de k,
l’arête est supprimée.

β =0,5

β =1

β =2

Figure 21 : intersection des sphères pour les β-graphes.

La densité des β-graphes décroît avec le paramètre β et certaines valeurs particulières ont
été mises en évidence :

• pour β = 0,5 , nous avons la limite inférieure de contact entre les sphères,
l’intersection est le milieu du segment [ p1 p2 ] ,

• pour β = 1 , le graphe obtenu est le graphe de Gabriel (GG),

• pour β = 2 , il s’agit du graphe des voisins relatifs (GVR).

Ces deux derniers graphes sont présentés dans [VINCENT 1990] et [RAYMOND 1993]
mais nous proposons ici une définition plus générale puisque toutes les valeurs de β sont
utilisables. En raison de leur densité (leur nombre d’arêtes), ces différentes structures
respectent une propriété d’inclusion illustrée sur la figure 22 :

MST ⊂ GVR ⊂ GI ⊂ GD.


46 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse

a b c d e
Figure 22 : propriété d’inclusion des différentes structures de graphe pour
une population d’objets. a : population de points. b : graphe de Delaunay
(GD). c : graphe d’influence (GI). d : graphe des voisins relatifs (GVR). e :
arbre de recouvrement minimal (MST).

La structure de graphe est donc particulièrement adaptée à la manipulation d’une collection


d’objets répartis de manière non uniforme dans un espace quelconque. Des études théoriques
ont montré que les graphes permettent en particulier de mettre en évidence des regroupements
perceptuels au sein de telles populations [MAZILLE 1994]. De plus, la fonction de valuation
et la fonction de pondération complètent la possibilité de considérer les graphes de voisinage
comme des images numériques dont la grille d’échantillonnage est irrégulière.

Nous verrons ultérieurement (section II.2.4) que les graphes de voisinage ont déjà été
utilisés pour la représentation et la caractérisation d’images. L’intérêt de notre approche est
d’inclure les graphes au c œur même des traitements et de les manipuler comme des images.
Le principe général correspond en fait à un changement de représentation pour passer d’une
image à un graphe, à l’application de traitements sur les graphes, et à la déduction d’une
nouvelle image utilisée pour la suite des traitements.

II.2. Les problèmes de traitement d’images


Dans le domaine de l’imagerie numérique, les objectifs du traitement des images sont
multiples. Il peut s’agir d’amélioration des images acquises, de codage et de compression, de
localisation de primitives visuelles, d’extraction de caractéristiques de forme (morphométrie)
ou de texture, etc. Les applications qui en découlent présentent également une grande variété :
détection de modifications entre images, suivi de mouvement dans des séquences, fusion
d’informations multimodales, visualisation volumique et dynamique, etc.

Pour atteindre de tels objectifs, un certain nombre de transformations sont nécessaires afin
d’obtenir un résultat exploitable à partir d’une image initiale. L’automatisation du traitement
des images est un problème difficile pour plusieurs raisons. En particulier, même si un
observateur semble parvenir simplement au résultat escompté, il est toujours délicat
d’expliciter toutes les informations utilisées et tous les raisonnements mis en œuvre.
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 47

On distingue généralement plusieurs niveaux dans le traitement des images.

• Le bas niveau consiste à améliorer les images avant la recherche d’éléments


particuliers. Il permet de corriger certains défauts dus à l’acquisition :
amélioration du contraste, atténuation du bruit, etc.

• Le niveau intermédiaire correspond à ce qu’on appelle la segmentation. Il


consiste à décomposer des scènes complexes en éléments individuellement
identifiables ou plus facilement analysables. Cette segmentation est généralement
abordée selon deux approches, souvent complémentaires : l’approche
« frontières » et l’approche « régions ».

• Au plus haut niveau, l’analyse consiste à caractériser ou à quantifier la


présence de certains objets dans les images étudiées. C’est une phase
d’interprétation des données qui fait souvent appel à une étape de reconnaissance
de forme.

Au cours du traitement, et en particulier pendant la recherche de la solution d’un problème


de traitement d’images, les étapes doivent être contrôlées par des opérations de visualisation.
Dans certains cas, le niveau d’analyse est inexistant et la visualisation de la segmentation
constitue l’objectif principal. Les opérations de visualisation sont donc fondamentales mais en
général, leur réalisation pose davantage de problèmes techniques que de problèmes
méthodologiques. Nous reviendrons ultérieurement sur ce point (section III.2).

Les opérations de traitement d’images référencées dans la littérature sont nombreuses et


plusieurs classifications ont été adoptées :

• en fonction de l’objectif qu’elles visent (élimination du bruit, amélioration du


contraste, localisation de certaines primitives visuelles, etc.),

• en fonction des techniques qu’elles mettent en jeu (traitements point par point,
opérations arithmétiques, logiques, géométriques, de convolution, de morphologie
mathématique, etc.).

Nous utilisons la première classification afin de présenter les grandes catégories


d’opérations de traitement et d’analyse d’images. D’autres travaux ont présenté les
nombreuses opérations développées pour répondre aux questions posées par l’analyse
d’images biomédicales [AYACHE 1998]. Nous revisitons ici certaines opérations de
traitement d’images au travers des besoins liés à nos images de microscopie cellulaire et à nos
objectifs de segmentation.
48 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse

De manière générale, le traitement d’une image contenant des objets biologiques se fait par
l’enchaînement de plusieurs catégories d’opérations :

• une étape de prétraitements pour corriger l’image,

• une détection grossière des objets par une approche « régions »,

• un regroupement des régions appartenant à un même objet pour supprimer une


sur-segmentation,

• une régularisation des contours des objets localisés.

C’est seulement après cette segmentation que l’on s’intéresse à la caractérisation des
images et des objets.

II.2.1. Prétraitements
Parfois appelée « restauration », cette étape consiste à améliorer les images que l’on veut
segmenter. Les principaux défauts des images acquises sont la présence d’un biais et d’un
bruit d’acquisition.

Dans une image, le biais correspond à une irrégularité de l’intensité lumineuse,


indépendante du contenu de l’image, provenant d’un défaut dans l’éclairement ou l’excitation
de la préparation observée. Des opérations de rehaussement des intensités peuvent réduire leur
influence : expansion de la dynamique de l’histogramme des intensités, modification de
l’échelle, égalisation d’histogrammes, etc. Ces modifications sont globales et ne tiennent pas
compte du contenu de l’image en terme de variation locale des niveaux de gris. D’autres
méthodes de restauration d’images procèdent par filtrage. C’est par exemple le cas de la
restauration par filtrage inverse, par les moindres carrés, etc. [KUNT 1993].

Le bruit d’une image est en général atténué par l’utilisation de filtres passe-bas. On peut
distinguer plusieurs catégories dans les opérations de lissage : les filtres linéaires (moyenneur,
gaussien) qui se comportent indépendamment des valeurs des points considérés, les filtres non
linéaires (filtres d’ordre, filtrage par diffusion anisotropique [OSHER 1988]), les filtres
adaptatifs (filtre sigma, filtre de Nagao [NAGAO 1979]) qui modifient la taille et les poids de
leurs masques de convolution en fonction de la portion d’image étudiée.
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 49

II.2.2. Approche « régions » de la segmentation


D’un point de vue mathématique [MONGA 1987], segmenter une image I selon un
prédicat P consiste à créer une partition de cette image en régions Ri telles que

I = U Ri et ∀i ≠ j , Ri I Rj = ∅ ,

∀i , P (Ri ) est vrai,

pour Ri et R j connexes, P (Ri U R j ) est faux.

L’approche « régions » de la segmentation consiste donc à localiser des ensembles


homogènes de points connexes au sein des images. Le prédicat permet de formaliser cette
notion d’homogénéité (complémentaire de la notion de contours que nous abordons plus loin).
Plusieurs approches de la localisation des régions ont déjà été abordées dans la littérature et
fournissent de bons résultats pour la détection d’objets tels que des noyaux cellulaires vus à
un faible grossissement ou faiblement texturés.

II.2.2.1. Croissance de régions


À partir de certains points de l’image (des germes) possédant des caractéristiques
particulières (par exemple, des maxima locaux d’intensité), la croissance consiste à
agglomérer des points aux germes en utilisant un prédicat d’homogénéité. On procède donc
par regroupement des points adjacents dont les attributs sont comparables.

Les opérations de croissance d’une première catégorie consistent à faire croître des objets
(à partir des germes) tant qu’un critère est respecté et à stopper la croissance dès que ce critère
est mis en défaut. La croissance peut ainsi se terminer alors que certains points de l’image ne
sont affectés à aucune région. Ces opérations sont alors comparables à des méthodes
variationnelles utilisant des contours actifs (modèle de la bulle, etc.).

Pour une autre catégorie d’opérations de croissance, l’objectif est de constituer une
segmentation de toute l’image. Tous les points de l’image doivent dans ce cas être affectés à
une région.

De même que le choix des germes, l’ordre dans lequel est effectuée la croissance est
déterminant quant au résultat. Même si la croissance est effectuée en parallèle autour de
chaque germe, on distingue deux approches.

• Dans un premier cas, la propagation est purement géométrique et les attributs


des points ne sont pris en compte que pour vérifier le prédicat d’homogénéité. On
50 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse

peut citer en exemple l’opération d’étiquetage qui affecte un même numéro à tous
les points d’un ensemble connexe homogène.

• Dans le second cas, la croissance est gérée par une priorité dépendant d’un
potentiel associé à chaque point de l’image. Par exemple, pour la recherche de la
ligne de partage des eaux [COSTER 1989] lors de la localisation d’objets
homogènes, il est courant des choisir les germes comme les minima de la fonction
gradient et de trier les points selon ce gradient au cours de la croissance.

Dans le cas des images de microscopie cellulaire, les cellules et le fond de l’image sont des
régions homogènes que l’on peut obtenir par croissance autour des points dont la variation
d’intensité, par rapport à leurs voisins, est la plus faible.

II.2.2.2. Division et fusion de régions


Il arrive très souvent que le résultat d’une segmentation par croissance de régions soit en
fait une image sur-segmentée. C’est à dire que des régions voisines peuvent avoir des
caractéristiques communes telles que la réunion des régions respecte toujours les prédicats de
segmentation utilisés. Il est alors nécessaire de fusionner certaines régions. Cette opération
intervient dans une stratégie plus globale qu’est la segmentation par division et fusion de
régions.

À partir d’une segmentation initiale et d’un prédicat P donné, le principe consiste à diviser
chaque région tant que le prédicat n’est pas respecté. Une fois obtenue une segmentation pour
laquelle chaque région vérifie P, on cherche à fusionner les régions dont la réunion respecte
encore P. Il est clair que dans ce cas, la représentation des régions de l’image par un graphe
d’adjacence s’avère très efficace pour optimiser les étapes de fusion.

Plusieurs méthodes ont été proposées, tant au niveau de la division qu’à celui de la fusion
[MONTANVERT 1993], [MATHIEU 1993]. Une solution simple mais coûteuse consiste à
considérer chaque point de l’image comme une région de départ pour la phase de fusion.
Cette solution a été adaptée en proposant une première segmentation dans l’environnement
des partitions de Voronoï : c’est la partition de Voronoï d’une collection de germes qui sert de
segmentation initiale [BERTIN 1994], [MATHIEU 1995].

En ce qui concerne les méthodes de division de régions, il est fréquent de procéder à une
découpe systématique des régions en 2n portions de tailles égales (où n est la dimension de
l’espace : 2 ou 3). Il est alors facile de représenter la décomposition des régions par une
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 51

structure d’arbre quaternaire (« quadtree » en anglais). La figure 23 propose un exemple de


telle structure pour une image en deux dimensions.

Figure 23 : structure d’arbre quaternaire permettant de représenter la


décomposition systématique d’une région en quatre parties de même taille.

On remarque ici l’intérêt des graphes de voisinage pour représenter les opérations de
division et de fusion de régions.

II.2.2.3. Analyse multi-échelle et analyse multi-résolution


L’analyse multi-échelle d’une image permet d’en extraire des objets dont la taille n’est pas
un critère discriminant de segmentation. C’est par exemple le cas des images de microscopie
cellulaire dans lesquelles les différentes catégories de cellules à détecter possèdent des noyaux
de tailles très variables. L’application d’opérateurs locaux nécessite de mettre en
correspondance la taille de la fenêtre d’étude avec la taille des objets recherchés. Ici, le
principe est de traiter l’image par une famille d’opérateurs ne différant que d’un facteur
d’échelle et de combiner les différents résultats pour extraire les informations pertinentes.
L’analyse multi-échelle permet ainsi de lisser, de simplifier les images.

Mathématiquement, une analyse multi-échelle Tt est un opérateur qui, à une image I 0 ,

associe une suite d’images {I t } [MARR 1982]. L’image I t est le résultat du traitement à

l’échelle t de l’image I 0 : Tt (I 0 )[ p ] = I t [ p ] .

Le principe de l’analyse multi-résolution est légèrement différent : il s’agit d’appliquer la


même opération à différentes versions de l’image [KUNT 1993]. Pour une image I 0 , une

famille d’images {I t } est obtenue par réduction progressive de la résolution. L’analyse multi-

résolution permet ainsi d’accélérer un certain nombre de traitements en travaillant sur des
images plus petites. Cette analyse a été structurée par l’utilisation d’architectures représentant
le passage d’une image à une image I t +1 . C’est en particulier le cas de la représentation par

une structure pyramidale. Chaque point de l’image est associé à un point père dans l’image
52 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse

I t +1 et chaque point de l’image I t +1 possède des fils dans l’image . Dans la pyramide

gaussienne régulière [WILSON 1984], les relations fils→père sont bien définies et le père est
affecté d’une moyenne pondérée des attributs des ses fils. Réciproquement, en redescendant la
hiérarchie vers les résolutions les plus fines, les relations père→fils associent les attributs du
père à chacun de ses fils. D’autres structures existent comme la pyramide reliée [MOTT 1986]
dans laquelle plusieurs structures sont imbriquées. Un n œud de la pyramide est alors associé à
plusieurs pères et la meilleure relation père→fils est sélectionnée pour déterminer les attributs
du fils. On peut encore citer la pyramide reliée pondérée [HONG 1984] dans laquelle les
attributs d’un n œ ud sont déduits d’une combinaison des attributs de ses différents pères.

II.2.3. Approche « frontières » de la segmentation


L’approche « régions » de la segmentation fournit en général une détection correcte des
différentes composantes présentes dans une image. Cependant, si ces composantes connexes
ne sont pas particulièrement homogènes, le bord des régions n’est pas localisé de façon très
précise. C’est le cas dans les images de microscopie : les objets (noyaux cellulaires, etc.) ne
sont pas toujours homogènes mais leurs contours doivent être réguliers. L’approche
« frontières » de la segmentation permet de préciser la localisation du bord des régions.

L’extraction de contours en 2D ou de surfaces en 3D est un problème difficile pour lequel


deux grandes catégories de solutions sont proposées :

• l’approche locale basée sur la détection et la localisation de points de contours


ou de surface, suivie d’une opération de fermeture pour disposer de structures
continues,

• l’approche globale utilisant des connaissances géométriques et photométriques


a priori sur les objets à détecter.

Cependant, il n’existe pas d’algorithme unique de détection de frontières.

II.2.3.1. Détection locale de points de contours


Les contours dans une image numérique apparaissent comme un changement brusque de
l’intensité des points. Ces changements sont souvent modélisés par des discontinuités de
différents ordres dans un contexte modélisé par le flou et le bruit. Cette modélisation conduit
à l’utilisation des opérateurs différentiels du premier et du second ordre : gradient, laplacien,
dérivée seconde selon la normale au contour, etc. Or, la différenciation étant une opération
instable, la présence de bruit nécessite de régulariser l’image par des opérations de lissage
linéaire ou non linéaire.
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 53

La détection de points de contours ou de surfaces se fait classiquement selon deux


techniques :

• le calcul du gradient de l’image et l’extraction des extrema locaux dans la


direction du gradient,

• le calcul du laplacien de l’image et la détermination des points de passage par


zéro.

Les méthodes locales d’extraction de points de contours procèdent par convolution de


l’image avec un masque estimant les dérivées partielles des signaux. Souvent, ces masques
combinent l’opération de lissage et de différentiation. Le gradient est une grandeur vectorielle
représentée par une norme et des directions. Le laplacien est une grandeur scalaire plus simple
à manipuler.

La détection locale de points de contours s’avère efficace dans le cas de transitions


franches entre le fond de l’image et les objets. Cette technique est donc bien adaptée à la
segmentation d’images artificielles ou d’images d’objets manufacturés. Pour des objets dont
les variations de niveaux de gris sont moins nettes, il est préférable d’utiliser des informations
sur la forme des objets.

II.2.3.2. Modèles géométriques de contours


Afin de segmenter au mieux des objets dont les contours ne sont pas francs (en particulier,
des objets naturels comme des noyaux cellulaires), une approche globale de la détection de
contours est proposée par la théorie des modèles déformables. Plusieurs études ont été menées
et présentent des méthodes différentes (snakes, approches géométriques, etc.) mais le principe
général peut être décrit simplement : il s’agit de faire évoluer une courbe ou une surface en lui
apportant des modifications géométriques. À partir d’une forme initiale, la forme en évolution
doit respecter deux critères : la régularité et l’attache aux données. On peut mentionner deux
types de modèles déformables : les modèles paramétriques basés sur la minimisation d’une
fonction d’énergie globale (snakes classiques) et les approches géométriques basées sur
certaines équations d’évolution des courbes planes et des surfaces.

L’une des premières techniques inspirées de ce principe a été proposée sous le nom de
« snakes » [KASS 1988], [BOUDIER 1997]. Celle-ci utilise une énergie globale, associée à la
courbe en évolution, qu’il s’agit de faire décroître pour faire coïncider la courbe avec les
contours de l’objet étudié. En général, cette énergie possède un terme d’énergie externe,
déformant la courbe en fonction des valeurs de l’image (intensité ou gradient des points
54 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse

voisins de la courbe), et un terme d’énergie interne, lié à la forme de la courbe (utilisant la


longueur ou la courbure de la courbe).

La technique des snakes fait appel à des calculs matriciels connus et simples et donne des
résultats très proches des véritables contours de l’objet. Cependant, elle nécessite une bonne
initialisation de la courbe et ne peut changer de topologie ; c’est à dire qu’une courbe initiale
ne peut détecter qu’un seul objet.

Il est clair que la méthode des snakes peut être généralisée à la troisième dimension où les
bords des objets sont des surfaces. Cette extension a été introduite par Terzopoulos
[TERZOPOULOS 1988] sous le nom de modèles de surfaces déformables et utilisée par
d’autres auteurs [COHEN 1992]. Comme en deux dimensions, on part d’une surface initiale à
proximité des frontières de l’objet et on essaye de faire évoluer cette surface en minimisant
l’énergie.

Une seconde technique plus générale de segmentation d’objets par modèles déformables
utilise le principe d’évolution des courbes planes décrite par des équations aux dérivées
partielles (EDP) [CASELLES 1993], [MALLADI 1995]. À une courbe initiale C0 décrite par

un paramètre s, on fait correspondre une famille de courbes C dépendant d’un paramètre


temporel :

C : [0,1]× [0, +∞[ → ℜ 2 .

À chaque instant t, la courbe est déformée dans la direction du vecteur normal en chaque
point, selon l’équation suivante :

∂C (s, t ) r
= f (C (s, t )) ⋅ N .
∂t

La fonction f représente un champ de vitesses dépendant de deux paramètres : la régularité


interne de la courbe et une force de déformation externe liée à l’image.

Ainsi, en utilisant la courbure κ de la courbe en un point de l’image I, la notation la plus


générale est

∂C (s , t ) r
= g (I ) ⋅ {κ + ν }⋅ N .
∂t
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 55

L’utilisation du terme constant ν permet d’initier l’évolution de la courbe dans le cas d’une
courbure nulle. Le rôle de la fonction g est de ralentir l’évolution de la courbe au voisinage
des fortes variations de niveaux de gris. Une expression courante en est

g (I ) =
1
p
.
1 + grad (I1 )

L’image I1 résulte ici d’un filtrage passe-bas de l’image I. La valeur du paramètre p est
choisie pour moduler l’influence des niveaux de gris de l’image sur l’évolution de la courbe.
On utilise en général p = 1 ou p = 2 .

Dans la formulation eulérienne de l’évolution des courbes planes proposée par Osher
[OSHER 1988], on cherche à utiliser une correspondance entre la courbe en évolution et une
courbe de niveau sur l’ensemble de l’image :

à l’instant t, ∃s tel que p = C (s, t ) ⇔ u ( p, t ) = 0 .

L’un des intérêts de cette formulation est qu’une courbe de niveau n’est pas forcément
connexe. Ainsi, à la différence des snakes, cette approche géométrique accepte les
modifications de topologie : fusions et divisions de courbes au cours de l’évolution.

Pour étendre ces modèles géométriques à la troisième dimension, il suffit de considérer une
famille de surfaces biparamétrées (r et s) évoluant dans le temps à la place des courbes planes.
Il faut alors faire référence à la courbure moyenne H d’une surface en un point. Cependant,
l’approche par les courbes de niveaux reste inchangée :

p ∈ S (r , s, t ) ⇔ u ( p, t ) = 0 .

Malgré la généralité de cette approche, les contours et les surfaces actives présentent deux
difficultés. La première concerne l’initialisation de l’évolution : la détection des frontières
sera améliorée si la forme de départ est localisée suffisamment près. Ainsi, il est courant
d’utiliser l’approche « régions » de la segmentation pour initialiser cette approche
« frontières ». La seconde difficulté réside dans le choix du facteur d’arrêt (la fonction g).
Dans la plupart des cas, le contraste des contours est suffisant mais peut ne pas s’avérer
suffisant si les objets sont caractérisés en termes de niveaux de gris moyens, de texture, etc.
56 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse

II.2.4. Segmentation dans le contexte de la théorie des graphes.


Les graphes de voisinage et les structures qui en sont déduites, en particulier les arbres de
recouvrement minimal (MST pour « minimum spanning tree »), ont déjà été utilisés pour
optimiser plusieurs types d’opérations de traitement d’images. Cette section présente les
développements les plus fréquents.

Dans un premier temps, leur efficacité à représenter des populations d’objets répartis dans
une image, en deux ou trois dimensions, les a naturellement impliqués dans l’étude de
l’architecture de telles populations. C’est en particulier le cas des images biologiques où de
nombreuses cellules sont organisées les unes par rapport aux autres.

En complément, les graphes et les arbres ont servi à représenter les structures internes de
certaines stratégies de traitement d’images. C’est le cas des représentations pyramidales
manipulées lors de divisions et fusions de régions ou lors des analyses multi-échelles que
nous avons déjà abordées [BERTIN 1994].

Enfin, les graphes présentent une structure de voisinage qui permet de généraliser la notion
d’image en tant que collection structurée de points. Certaines opérations de traitement
d’images ont alors été adaptées aux cas où les points possèdent un nombre quelconque de
voisins, à une position quelconque dans l’espace.

II.2.4.1. Partition de populations


Le système visuel humain est capable de détecter des frontières au sein des images en se
basant sur d’autres propriétés que l’intensité des niveaux de gris. Au sein d’une population
d’objets, l’ œ il constitue des lignes virtuelles de séparation entre des groupes homogènes. La
théorie la plus complète de la vision humaine a été élaborée par David Marr [MARR 1982]. Il
propose une description des scènes tridimensionnelles utilisant trois approches successives :
2D, 2D1/2 et 3D. La première étape repose sur les caractéristiques intrinsèques de primitives
géométriques (les points ou les lignes) et sur leur distribution au sein de l’image. C’est à ce
niveau qu’on fait appel à l’étude des phénomènes de regroupement.

Les principes de regroupements ont été largement étudiés et utilisés dans la vision par
ordinateur et le traitement d’images. Plusieurs approches de l’extraction de propriétés
perceptuelles pertinentes pour la reconstitution d’objets sont présentées dans le travail de
F. Mao [MAO 1995]. La théorie de la Gestalt est un modèle de la perception visuelle humaine
énoncé par Wertheimer dans les années 1920. Elle formalise le regroupement d’objets dans
une scène, selon quelques règles génériques :
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 57

• proximité, regroupement de points proches les uns des autres,

• continuité, regroupement de lignes ayant des extrémités proches et des


directions voisines,

• fermeture, regroupement de lignes formant des contours fermés,

• similarité, regroupement d’objets ayant des formes, des orientations, des


textures voisines,

• symétrie, regroupement d’objets symétriques par rapport à un axe quelconque,

• familarité, regroupement d’objets que l’on a l’habitude de voir ensemble.

La règle de proximité des objets est par exemple utilisé par Zahn [ZAHN 1971] pour
mettre en évidence des regroupements de points. Une première technique consiste à construire
un graphe de voisinage des points en n’insérant que certaines arêtes. Par exemple, si µ et σ
sont la moyenne et l’écart type des distances entre les points et leur plus proche voisin, il est
proposé de ne pas créer les arêtes de longueur supérieure à µ + 3σ . Un autre exemple proposé
est de ne construire que les arêtes d’un sommet à ses 3 plus proches voisins. On obtient ainsi
plusieurs graphes représentant les regroupements.

Une autre technique proposée par Zahn est d’utiliser l’arbre de recouvrement minimal des
points et de supprimer certaines arêtes. La suppression de n arêtes dans un MST permet ainsi
de constituer n+1 composantes connexes. Pour cela, Zahn utilise la notion d’inconsistance :
une arête est déclarée inconsistante si son poids (sa longueur dans ce cas) est largement
supérieur aux deux moyennes des poids des autres arêtes partant de ses extrémités. Ainsi, sur
la figure 24, l’arête [AB] est déclarée inconsistante puisque son poids (32) est supérieur à la
moyenne des autres arêtes liées à A (11) et à la moyenne des autres arêtes liées à B (12,33).

10 12 11
32
14
11 A B 12 9
8

Figure 24 : illustration de la notion d’inconsistance. L’arête [AB] est


inconsistante puisque sa longueur (32) est largement supérieure à la
moyenne des autres arêtes liées à A (11) et à la moyenne des autres arêtes
liées à B (12,33).
58 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse

Ainsi, la suppression de certaines arêtes dans un arbre ou dans un graphe permet de mettre
en évidence des regroupements de points en fonction de leur proximité.

La partition d’une population d’objets s’effectue également par rassemblement des


sommets selon un indice de similarité [TOET 1991]. Sur le graphe de voisinage des objets, un
indice de similarité d (i, j ) est associé à chaque arête. La difficulté consiste à choisir la bonne
propriété des objets pour définir cet indice qui doit être plus grand entre deux objets d’un
même groupe qu’entre deux objets de deux groupes distincts. En procédant par seuillages
successifs de la matrice de similarité [d (i, j )]i , j , on forme des groupes d’objets.

II.2.4.2. Caractérisation d’architectures


Différentes techniques utilisant les graphes de voisinage et les arbres associés ont permit
d’analyser l’organisation d’objets dans des structures [MAZILLE 1994].

Par exemple, une méthode proposée par C. Dussert [DUSSERT 1987], [DUSSERT 1989]
utilise la longueur des arêtes de l’arbre de recouvrement minimal d’une population de points.
La moyenne µ et l’écart type σ de ces longueurs sont normalisés vis-à-vis du nombre de
points et du volume qu’ils occupent, afin d’obtenir un couple de descripteurs (m, s ) :

N −1 N −1
m= µ et s = σ .
(N ) (N )
1 1
n −1 n −1
V n V n

Dans ces formules, n correspond à la dimension de l’espace (2 ou 3), N représente le


nombre de sommets du MST (le nombre de points dans la population à caractériser), V est la
mesure de l’enveloppe convexe de la population. Dans la définition de cette mesure, H
représente la surface de l’enveloppe convexe et f est son nombre de côtés :

H ⋅N
V= .
N− f

Ce couple de valeurs permet de classer différentes structures régulières et d’évaluer


l’homogénéité d’une population quelconque. En deux dimensions, C. Dussert a calculé que
pour une population parfaitement aléatoire d’un grand nombre de points (N=700), les valeurs
tendent vers m=0,66 et s=0,33 (figure 25).
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 59

Figure 25 : quantification de la dispersion d’une population de points grâce


à la longueur des arêtes du MST. Pour une distribution aléatoire, les
descripteurs tendent vers m=0,66 et s=0,33.

On retrouve par exemple l’utilisation de cette caractérisation dans la caractérisation de


colonies de cellules en prolifération [PALMARI 1996], [PALMARI 1997].

Une autre approche du désordre intrinsèque à un nuage 2D de points utilise la


caractérisation des régions de Voronoï associées [ MARCELPOIL 1991]. Chaque région de la
partition est considérée comme une forme représentative de l’individu qui lui est associé. Pour
chaque polygone de Voronoï vor (i ) , on dispose de son aire Ai , de son périmètre Li et de son

facteur de forme RFi :

4π ⋅ Ai
RFi = 2
.
Li

La méthode proposée consiste à calculer deux paramètres afin de décrire la population :


l’homogénéité du facteur de forme et le désordre de surface. Pour cela, on utilise la moyenne
RFav et l’écart type σ RF des facteurs de forme et la moyenne Aav et l’écart type σ A de l’aire :

1 1
RFH = et AD = 1 − .
σ σ
1 + RF 1+ A
RFav Aav

De la même manière que les descripteurs (m, s ) vus précédemment, ces deux grandeurs
permettent de comparer des populations de points sur un diagramme à deux entrées.

Les MST ont apporté d’autres caractérisations de l’homogénéité d’une population de


points. On peut par exemple citer le calcul de la longueur totale du MST (somme des
60 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse

longueurs de toutes ses arêtes) [VAN DIEST 1992], de la longueur minimale, maximale et
moyenne des longueurs des arêtes, de l’écart type de ces longueurs [DARRO 1993]. On peut
aussi tracer l’histogramme du nombre de sommets à 1, 2, 3 voisins ou plus [MEIJER 1992],
[VAN DIEST 1992].

II.2.4.3. Graphes et morphologie mathématique


Les opérations déduites de la morphologie mathématique utilisent pleinement la notion de
voisinage [SERRA 1982], [COSTER 1989], [SCHMITT 1994]. Les opérations élémentaires,
l’érosion et la dilatation morphologiques d’un ensemble de points, manipulent des éléments
structurants qu’il s’agit de translater en chacun des points de l’ensemble et de mettre en
correspondance avec le voisinage des points considérés afin d’y appliquer des opérations
ensemblistes. Ces opérations s’appliquent à des images binaires afin de supprimer ou de
mettre en évidence certains objets en fonction de leur taille ou de leur forme. Elles
s’appliquent également à des images de niveaux de gris afin de traiter des objets que
l’intensité fait ressortir sur le fond des images.

L’application des opérations de morphologie mathématique à des graphes a été proposée


par Luc Vincent [VINCENT 1990]. Chaque sommet s ∈ S d’un graphe morphologique
G = (S, A) est associé à une valeur de niveau de gris. L’élément structurant est une boule de
centre s et de rayon n définie par

s′ ∈ B(s, n ) ⇔ d G (s , s′) ≤ n .

La distance entre deux sommets du graphe est le nombre d’arêtes du plus court chemin
entre ces sommets :

dG (s, s′) = inf {l (Cs , s ′ )}.

Ces définitions permettent d’étendre de nombreuses opérations de morphologie


mathématique aux graphes : l’érosion et la dilatation de taille 1, de taille n par composition, la
recherche d’extrema locaux et de bassins versants, etc.

D’autres études théoriques sur l’application des opérations de morphologie mathématique


aux graphes ont été faites en reprenant ces définitions. Il est ainsi possible de lisser les valeurs
des sommets ou d’extraire les squelettes des structures de graphes par recherche d’érodés
ultimes [TOET 1991].
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 61

II.2.4.4. Graphes et champs de Markov


L’approche markovienne de la segmentation d’images est une solution efficace pour
l’extraction de primitives visuelles à partir d’observations [GEMAN 1984]. Elle permet
notamment la classification de textures, la détection de contours, etc. Une proposition de
l’exploitation des champs de Markov dans l’environnement des graphes de voisinage a été
faite par Bertin [BERTIN 1994]. Le principe est de construire un graphe en associant un n œud
à chaque région d’une partition de Voronoï. Chaque n œud est alors considéré comme un site
du champ de variables. Le principal avantage de l’utilisation d’une structure de graphe est de
réduire le nombre de sites manipulés lors de la résolution d’un problème et ainsi d’optimiser
les traitements.

Dans notre approche du traitement des images par l’intermédiaire des graphes de
voisinage, l’intérêt des champs de Markov est d’utiliser des définitions de voisinages et de
cliques adaptées à la manipulation de graphes irréguliers [MARCHAND 1997],
[GÉRAUD 1998]. Le voisinage vs d’un site s ∈ S est défini par

s ∉ vs et ∀(s , s′) ∈ S 2 , s ∈ vs ′ ⇔ s′ ∈ vs .

Une clique c d’ordre n est alors définie comme un ensemble de n points tels que deux
points quelconques de c sont voisins. Dans le cas d’un graphe quelconque, on ne peut faire la
liste des configurations possibles des cliques (liste que l’on peut faire pour des grilles
régulières). On peut cependant préciser certaines propriétés. Par exemple, pour un graphe
planaire en 2D, on sait qu’il ne peut exister de clique d’ordre strictement supérieur à 3.

On voit ainsi les diverses possibilités d’utilisation de la structure de graphe de voisinage


dans les opérations de traitement d’images. Nous verrons dans le chapitre suivant que de
nombreuses autres opérations peuvent être adaptées au traitement des graphes irréguliers.

II.2.5. Caractérisation
Avant d’être segmentée, une image peut être caractérisée de manière globale.
L’histogramme des niveaux de gris fournit en général des renseignements sur l’ensemble de
l’image. À l’issue de la segmentation, l’image est composée d’une collection d’objets qui
peuvent être caractérisés, indépendamment les uns des autres. Ceci peut être fait en termes de
niveaux de gris, sur les points de chacun des objets, mais aussi en termes de forme pour ces
objets. Toutefois, il est important de s’interroger sur la validité de la quantification d’une
image vis à vis du contexte dans lequel elle a été acquise.
62 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse

II.2.5.1. Image et objets


L’aspect visuel d’un histogramme de niveaux de gris permet d’avoir une idée générale de
l’ensemble de points qu’il représente. Pour en fournir une caractérisation plus précise, la
moyenne et la variance sont les mesures les plus utilisées.

Cependant, ces grandeurs ont l’inconvénient de n’apporter qu’une caractérisation globale


de l’ensemble de points : aucune information n’est fournie à un niveau local. Pour caractériser
l’inhomogénéité locale d’une image ou d’une partie d’image, nous devons faire référence à la
notion de texture. La définition de la texture d’une image est assez subjective et varie d’un
domaine d’application à un autre. Pourtant, on peut toujours appréhender la texture à deux
échelles.

• La texture macroscopique correspond à la répétition spatiale d’un motif


graphique. L’élément de base n’est pas le point de l’image mais une entité plus
grande parfois appelée « texel » par analogie au pixel.

• La texture microscopique correspond à l’organisation des niveaux de gris des


points de l’image. Elle ne présente pas de motif élémentaire et seule une approche
probabiliste permet de la quantifier.

Pour la texture microscopique, un bon outil de caractérisation est la matrice de


cooccurrence. Dans le domaine de la microscopie cellulaire, la texture est plutôt d’ordre
macroscopique, caractérisée par une forte granularité.

II.2.5.2. Caractérisation géométrique


Dans le cas d’une image segmentée, on cherche à caractériser chacun des objets qui la
composent. Comme nous l’avons vu, les objets peuvent être caractérisés par les niveaux de
gris des points qui les composent, mais ils peuvent également l’être par leur forme.

Il existe un certain nombre d’attributs géométriques mesurables sur des objets 2D


[ELMOATAZ 1990]. Nous verrons dans le chapitre suivant (section III.6.2) que nous avons
choisi d’étendre ces attributs à la troisième dimension.

Malgré cette possibilité de caractériser chacun des objets d’une image, la représentation
des images sous forme de grilles régulières ne permet que très difficilement l’analyse de la
répartition de ces objets. Nous verrons que l’utilisation des graphes apporte une réponse à ce
problème.
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 63

II.2.5.3. Échantillonnage
Il est donc possible de déterminer des descripteurs pour l’ensemble d’une image et des
objets qu’elle contient. Cependant, il est nécessaire d’être attentif à la signification de ces
descriptions vis-à-vis de l’ensemble de l’échantillon observé.

En effet, l’image ne représente en général qu’une petite partie de l’information contenue


dans l’échantillon. Les techniques de stéréologie ont montré dans quelles conditions des
informations topographiques 3D peuvent être déduites de mesures 2D [COSTER 1989],
[HOWARD 1998]. Selon le même principe, il est prudent de déterminer dans quelle mesure la
quantification d’une collection d’images, régulièrement échantillonnées sur un large territoire,
peut fournir des renseignements sur l’ensemble de ce territoire.

De la segmentation à la caractérisation, nous avons présenté les principes des opérations


adaptées au traitement des images de microscopie cellulaire. Ces principes sont en général
applicables aux images en deux et en trois dimensions. De plus, dans le but de représenter et
de traiter les images par l’intermédiaire des graphes de voisinage, nous avons également
présenté les études déjà menées sur cette structure et leur utilisation.

II.3. Stratégies de traitement des images 3D


II.3.1. La troisième dimension
Au premier abord, il peut sembler simple de traiter des images tridimensionnelles lorsque
l’on est habitué à manipuler des images en deux dimensions. Il pourrait suffire de généraliser
à la troisième dimension des opérations connues de traitement d’images 2D. En utilisant une
approche purement tridimensionnelle, le traitement d’une image se fait de manière isotrope,
sur le volume complet. Le voisinage considéré autour d’un point est alors un voisinage du
type du 6-voisinage ou du 18-voisinage de la grille cubique.

Cependant, la nature des images 3D à manipuler ne permet pas toujours d’utiliser de telles
opérations. En particulier, dans le domaine de la microscopie confocale, les images acquises
ne sont que rarement isotropes : les voxels d’une image n’ont généralement pas la même taille
dans les trois dimensions de l’espace. Afin de prendre en compte les inhomogénéités des
images de microscopie confocale, nous avons complété l’utilisation d’opérations
tridimensionnelles par la mise au point de plusieurs stratégies de traitement 2D½.

Il s’agit en fait d’opérer des traitements sur chacun des plans d’une image et de regrouper
les informations afin d’obtenir un traitement sur l’ensemble de l’image 3D. Dans ce cadre,
nous avons distingué deux méthodes.
64 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse

• La première consiste à considérer les plans de l’image indépendamment les uns


des autres. C’est en fait un véritable traitement en deux dimensions. Une fois que
tous les plans de l’image ont été traités, on considère l’ensemble des plans comme
une image 3D traitée globalement.

• La seconde est basée sur un principe de croissance et s’applique plus


précisément à la segmentation des images. Il s’agit de choisir un plan de l’image
comme plan de départ et d’utiliser la segmentation de ce plan pour initialiser la
segmentation des deux plans voisins. En quelque sorte, la segmentation de
l’image se propage de plan en plan.

Ces deux stratégies permettent de mettre au point des opérations de traitement des images
mieux adaptées à nos images de microscopie confocale et en général, à toutes les images
obtenues par reconstruction d’acquisition de plusieurs plans.

II.3.2. Exemples de traitements 2D½


Afin d’illustrer ces stratégies, nous proposons ici deux exemples de traitements non
isotropes sur des images 3D.

Le premier concerne le calcul de la norme du gradient de l’image. Au sein d’une image de


microscopie confocale obtenue par fluorescence, deux plans voisins possèdent une intensité
différente malgré la continuité des objets présents. La méthode classique de calcul du gradient
en un point consiste à prendre en compte les trois gradients directionnels (en x, y et z). En
utilisant cette méthode, l’influence du gradient dans la direction z se révèle beaucoup trop
importante pour donner des résultats exacts. Nous avons donc choisi de ne faire intervenir que
les directions x et y dans le calcul du gradient (gradient 2D).

La figure 26 montre la différence entre le calcul d’un gradient 3D (figure 26b) et d’un
gradient 2D (figure 26c). Le gradient 2D est plus représentatif des variations au niveau des
objets alors que le gradient 3D est plus uniforme. En effet, en raison de la décroissance
globale de l’intensité dans les différents plans, la composante du gradient dans la direction z
est très importante devant les autres composantes et les effets des bords des objets sont
atténués.
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 65

a b c
Figure 26 : illustration de deux types de calcul du gradient sur une image 3D
de microscopie confocale. a : un plan d’une image contenant des cellules
dissociées. b : norme du gradient calculé en 3D pour ce même plan. Une
grande partie de l’information provient de la variation globale d’intensité
d’un plan à un autre. c : norme du gradient calculé en 2D sur le plan
considéré. Les contours des objets sont beaucoup mieux localisés.

Le second exemple de traitement 2D½ d’une image 3D concerne la localisation d’objets sur
un fond. La localisation des régions correspondant à ces objets peut se réaliser par croissance
mais il convient de disposer de points de départ (des germes) pour initialiser la croissance.
Dans le cas où le fond de l’image est connexe, nous avons mis au point une méthode faisant
croître la région correspondant à ce fond. Sur une projection axiale de l’image (dans la
direction z), tous les objets de tous les plans apparaissent et le fond se trouve réduit par
rapport à sa taille réelle dans chaque plan. Nous utilisons cette segmentation pour initialiser la
croissance selon le principe suivant.

• Sur le plan présentant le plus d’objets (plan dont l’intensité moyenne est la plus
élevée), nous opérons une première croissance de la partie du fond segmentée. Les
objets peuvent alors être localisés dans ce plan.

• Une forte érosion de la segmentation d’un plan est alors utilisée comme point
de départ pour une croissance dans ses plans voisins non encore segmentés.
Comme les objets sont continus et qu’ils ne présentent pas de très grandes
variations de taille entre deux plans voisins, cette érosion est suffisante pour
obtenir une approximation du fond.

Sur l’ensemble de l’image 3D, cette technique de segmentation permet de localiser le fond
de l’image et par complément, les objets à détecter. Sur la figure 27, la segmentation de la
projection axiale de l’image (figures 27c et 27f) est utilisée pour initialiser la segmentation du
plan central de l’image et la segmentation est propagée jusqu’aux plans des figures 27a et 27b
(respectivement figures 27d et 27e).
66 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse

a b c

d e f
Figure 27 : exemple de segmentation 3D par propagation de segmentations
2D. a et b : deux plans distants de 7µm dans une image de cellules. c :
projection axiale de l’image 3D. f : segmentation de la projection et mise en
évidence d’une partie du fond de l’image. d et e : résultat de la propagation
de la segmentation de la projection dans deux des plans de l’image.

II.4. Environnement de développement d’applications


II.4.1. Applications de traitement d’images
La mise au point d’une application de traitement d’images est un processus compliqué. Il
s’agit de déterminer une suite d’opérations permettant de passer d’une image brute, issue de
l’acquisition, à un résultat qui met en évidence une information sous la forme d’une image ou
d’une série de valeurs numériques. C’est un travail qui se situe à la frontière entre le monde
de l’application (biologie, science des matériaux, etc.) et le monde du traitement d’images.
Plusieurs types de difficultés se présentent au cours des étapes du développement d’une
application.

• Dans un premier temps, il s’agit de définir les objectifs à atteindre et de cerner


les caractéristiques invariantes des images à traiter. Cette partie résulte d’une
négociation entre les experts des différents domaines.

• Dans un deuxième temps, il faut expliciter les connaissances mises en jeu dans
le raisonnement permettant d’extraire la bonne information. Il est nécessaire de
structurer le savoir-faire des traiteurs d’images.
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 67

• Dans un troisième temps, on doit choisir les stratégies à utiliser ainsi que les
opérations à appliquer. On doit alors faire le lien entre la conception du
programme et le codage informatique des opérations.

• Enfin, dans un quatrième temps, il faut évaluer les résultats. Cette évaluation
concerne la fiabilité et la robustesse de la méthode sur un grand nombre d’images.
Elle doit alors diagnostiquer et corriger les imperfections dans l’approche adoptée.

Au cours de cette mise au point, il a été montré [ZHANG 1995] que l’utilisation d’une
bibliothèque d’opérateurs de traitement d’images est particulièrement efficace. En effet,
l’expert en traitement d’images peut alors enchaîner différentes opérations et évaluer le
résultat du traitement sans avoir recours au codage des algorithmes et sans se soucier des
types de données manipulées. Dans l’élaboration de la solution à un problème particulier,
plusieurs tâches indépendantes peuvent également être distinguées et traitées
individuellement. L’utilisation d’une bibliothèque permet d’optimiser facilement chacune de
ces tâches et d’enchaîner ces solutions partielles pour résoudre le problème complet.

Le partage d’une bibliothèque d’opérateurs permet de plus de s’affranchir de l’architecture


matérielle utilisée : il suffit de décrire le traitement à réaliser par l’enchaînement d’opérations
standardisées. Le lien avec le matériel ne se fait qu’au moment de l’exécution de
l’enchaînement. D’un point de vue technique, le partage d’une bibliothèque d’opérateurs par
plusieurs utilisateurs apporte enfin l’avantage de pouvoir rapidement valider chacun de ces
composants. En particulier, dans le cas où une correction serait apportée au fonctionnement
d’un opérateur, tous les utilisateurs en profitent directement.

Ainsi, entre la formulation du contexte et des objectifs d’une part et l’évaluation des
résultats d’autre part, le développement d’un programme de traitement d’images se fait par le
choix des opérations à effectuer et par le choix de l’ordre dans lequel elles doivent être
effectuées. Les environnements de développement doivent donc être capables de piloter des
bibliothèques d’opérateurs de traitement d’images. C’est par exemple le cas de la bibliothèque
KHOROS et de son interface de programmation graphique CANTATA [RASURE 1992] qui
permet de définir un graphe orienté, dont les n œuds sont des opérateurs de traitement
d’images et où les arcs représentent les flux des paramètres et des données de ces opérateurs.
Pour être complet, un tel graphe doit également représenter les structures de contrôle (boucles,
tests, etc.) utilisées au cours de l’enchaînement. La figure 28 illustre les possibilités
d’enchaînement d’opérateurs dans l’interface CANTATA de KHOROS.
68 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse

Figure 28 : exemple de graphe d’opérateurs de traitement d’images construit


dans CANTATA.

La programmation nécessite donc une connaissance des opérateurs disponibles dans la


bibliothèque. Nous avons choisi d’utiliser l’environnement de développement proposé par
R. Clouard [CLOUARD 1994]. Ce choix offre l’avantage de pouvoir facilement développer
de nouveaux opérateurs et de pouvoir en assurer la maintenance.

II.4.2. Méthodologie de conception


Au sein de l’équipe Image du GREYC, l’objectif de « l’atelier logiciel d’intégration de
connaissances en traitement et interprétation d’images » est de fournir un cadre pour la
modélisation et la réutilisation de stratégies mises au point pour résoudre des problèmes de
traitement d’images. Dans le but d’aider l’expert de traitement d’images dans sa démarche
d’élaboration de programmes, il est nécessaire de modéliser les connaissances impliquées
[CLOUARD 1998]. La difficulté consiste à expliciter ces connaissances dans un vocabulaire
indépendant du domaine d’application, afin qu’elles soient compréhensibles par l’expert de
traitement d’images et utilisables par un système de résolution automatique de problèmes.
L’enjeu est de proposer un plan de résolution d’un problème en tirant parti de l’expérience
acquise lors de l’analyse d’autres problèmes et en réutilisant des portions de plans conservés
dans une base de problèmes déjà résolus.

Afin de favoriser l’explicitation de ces connaissances, nous avons abordé le développement


d’une application de traitement d’images en adaptant l’analyse descendante classique
préconisée en génie logiciel [TARDIEU 1994]. Associé à cette notion d’analyse descendante,
nous utilisons trois niveaux d’abstraction : le niveau intentionnel qui consiste à formuler les
objectifs, le niveau fonctionnel qui correspond au choix des méthodes de résolution, et le
niveau opérationnel qui assure la correspondance entre les méthodes choisies et les outils à
appliquer.
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 69

Au niveau intentionnel, le problème à résoudre peut être décrit dans l’approche « tâches-
méthodes-outils » de Valérie Ficet-Cauchard [FICET-CAUCHARD 1998],
[FICET-CAUCHARD 1999]. La décomposition d’une tâche complexe en sous-tâches permet
de résoudre un problème par l’enchaînement de stratégies déjà utilisées pour résoudre d’autres
problèmes. La figure 29 illustre la décomposition hiérarchique d’un problème au niveau
intentionnel de notre approche.

Localiser des noyaux cellulaires


dans une image de cytologie

Séparer le fond de Segmenter les régions


l’image et les objets en objets

Sélectionner le Étiqueter les


fond de l’image régions

Figure 29 : exemple de décomposition d’un problème de traitement


d’images. Le niveau intentionnel de la conception est décrit par
l’enchaînement de tâches communes à d’autres problèmes.

En fonction de la description de l’image à traiter et du but à atteindre, chaque tâche est


effectuée par une méthode adaptée. Au niveau fonctionnel de notre approche, une méthode
correspond au choix d’une catégorie de traitement et de l’opération la plus adaptée. La
figure 30 illustre le choix des méthodes adaptées à la résolution du premier sous-problème de
l’exemple de la figure 29.
70 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse

Sélectionner le
fond de l’image

Passer un filtre Calculer un seuil


Binariser
de lissage de binarisation

Lissage Maximisation
exponentiel de la variance Binarisation
symétrique interclasse

Figure 30 : exemple de choix de méthodes pour une tâche de la


décomposition précédente.

Au niveau opérationnel, la conception d’une application de traitement d’images consiste à


produire un graphe d’opérateurs tel que ceux décrits précédemment. La figure 31 présente
l’enchaînement des opérateurs permettant de résoudre le problème proposé en exemple.

exposym valvarmax

binarisation étiquet age

inversion distance inversion

lpe maxima

Figure 31 : exemple d’enchaînement d’opérateurs PANDORE pour la


localisation de noyaux cellulaires dans une image de cytologie.

La bibliothèque PANDORE [CLOUARD et al. 1997] constitue le c œur opérationnel de notre


environnement de développement. C’est ce niveau opérationnel que nous avons enrichi par
l’ajout de nouveaux opérateurs et c’est à ce niveau que nous avons développé les applications
de traitement d’images présentées dans le chapitre IV. Du point de vue de l’exécution, un tel
enchaînement se réalise par la constitution d’un « script » : par l’appel successif des différents
opérateurs.
Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 71

II.4.3. Spécificités de la bibliothèque P ANDORE


Nous avons enrichi la bibliothèque PANDORE pour la manipulation des images
tridimensionnelles et des graphes de voisinage. Les opérateurs PANDORE peuvent ainsi
manipuler différents types d’objets en deux ou trois dimensions : images de points (niveaux
de gris ou couleurs), images d’étiquettes, graphes d’objets, etc. En fait, chaque type reconnu
est considéré comme une image. Les opérateurs PANDORE possèdent trois caractéristiques
principales.

• Chaque opérateur est polymorphe : il peut travailler sur différents types


d’images sans que l’utilisateur n’ait à spécifier quelle structure de donnée est
manipulée. Comme le développement de la bibliothèque a été fait grâce à un
langage orienté objets (C++), la fonction à appliquer est automatiquement
sélectionnée en fonction du type des images d’entrées de l’opérateur.

• Chaque opérateur est masquable. Il peut ainsi, selon les besoins, travailler sur
l’ensemble des images ou seulement sur certaines parties spécifiées par un
masque. Cette possibilité favorise donc le contrôle au sein des graphes
d’opérateurs en complétant l’enchaînement des opérateurs par une focalisation des
traitements sur certaines parties des images.

• Chaque opérateur est atomique. Il correspond à une opération non


décomposable. Une opération complexe est réalisée par l’enchaînement de
plusieurs opérateurs atomiques. Un opérateur se présente sous la forme d’un
programme exécutable dont les entrées sont des images, dont les sorties sont des
images ou des valeurs numériques et dont le comportement peut être modifié par
des paramètres (valeurs numériques). Le système d’exploitation UNIX fournit un
langage de programmation (SHELL) qui permet de contrôler l’enchaînement de
ces nouvelles commandes (tests, boucles conditionnelles, etc.), et de rediriger les
résultats grâce aux « pipes » de communication.

Ainsi définis, les opérateurs de la bibliothèque PANDORE offrent une très grande souplesse
d’utilisation. Ils peuvent ainsi être assemblés pour mettre au point des réponses à des
problèmes de traitement d’images. De plus, la bibliothèque reste ouverte vis-à-vis du
développement de nouveaux opérateurs, en fonction des domaines d’applications ou des
stratégies adoptées pour traiter les images.
72 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse

Nous disposons donc d’un environnement de développement d’applications de traitement


d’images et d’une bibliothèque d’opérateurs de traitement. Dans le chapitre suivant, nous
nous plaçons dans ce contexte pour présenter l’implantation, sur les grilles régulières de
points et sur les graphes de voisinage, d’un certain nombre d’opérateurs utiles à la
segmentation et la quantification d’images de microscopie cellulaire.
Chapitre III : Implantation des outils de
traitement d’images
Chapitre III : Implantation des outils de traitement d’images 75

Dans ce chapitre, nous présentons l’implantation choisie pour les opérateurs de traitement
d’images dont le principe a été décrit dans le chapitre précédent. Pour répondre aux besoins
liés à nos applications, nous avons enrichi la bibliothèque PANDORE dans deux directions.
D’une part, nous avons étendu un grand nombre d’opérateurs généraux à la manipulation des
images tridimensionnelles. D’autre part, nous avons adapté ces opérateurs afin de traiter
indifféremment (de façon transparente pour l’utilisateur) les images vues comme des grilles
régulières de points et les graphes de voisinage. Nous complétons ainsi le chapitre précédent
dans lequel nous avons décrit le traitement en termes d’objectifs et de stratégies générales. La
figure 32 propose une organisation générale de la bibliothèque PANDORE. On y trouve la liste
des principaux types de données manipulées et quelques-unes des catégories d’opérations
implantées pour les images 2D, les images 3D et les graphes de voisinage. La liste complète
des opérateurs de la bibliothèque PANDORE est donnée en Annexe 2.

La bibliothèque PANDORE

Structures de données Opérateurs sur les images 2D


Images en niveaux de gris Classification, lissage
Images couleurs Croissance
Cartes de régions Différenciation
Graphes d’objets Logique et arithmétique
Morphologie mathématique
Caractérisation
Accessoires, utilitaires, etc.

Opérateurs sur graphes Opérateurs sur les images 3D


Construction Seuillage, lissage, etc.
Valuation, pondération Logique et arithmétique
Modification de structure Croissance
Morphologie mathématique Différenciation
Fusion Morphologie mathématique
Caractérisation Localisation
Accessoires, etc. Accessoires, utilitaires, etc.

Figure 32 : organisation de la bibliothèque PANDORE.

Nous abordons ici les opérations de traitement des images sous l’angle des techniques
mises en jeu pour leur implantation. Après la présentation des méthodes d’obtention des
graphes à partir des images, ce chapitre comporte cinq sections correspondant à différents
modes d’accès aux données manipulées. Tout d’abord, nous décrivons les outils nécessaires à
76 Chapitre III : Implantation des outils de traitement d’images

la visualisation de ces données. Nous présentons ensuite les opérations traitant les images
point par point puis en fonction du voisinage des points. Nous étendons alors l’exploitation de
ces relations de voisinage pour l’étude des opérations de croissance de régions dans les
images et de composantes connexes dans les graphes. Nous terminons ce chapitre en
proposant des opérations de caractérisation des images, des objets qu’elles contiennent et de
la répartition des objets à l’intérieur des images.

Dans chacune de ces sections, nous opérons un parallèle entre les opérations utilisant la
représentation des images sous forme de grilles régulières et sous forme de graphes de
voisinage. Nous montrons ainsi qu’un grand nombre d’opérations peuvent être généralisées à
cette seconde représentation et que les graphes offrent la possibilité de développer de
nouveaux opérateurs de traitement. Nous fournissons des exemples, sur des images de
synthèse ou sur des images réelles, afin de préciser ou de vérifier le comportement de ces
opérateurs.

III.1. Construction des graphes à partir des images


Selon leur utilisation (segmentation hiérarchique, caractérisation d’une population d’objets,
etc.) et la classe d’image considérée, deux types de graphes peuvent être construits : le graphe
d’adjacence ou le graphe de voisinage.

Dans le cas d’une image segmentée en régions (figure 33a), les frontières correspondent
aux contacts entre les régions et le graphe d’adjacence (figure 33b) représente ces contacts.
Les attributs des sommets peuvent être utilisés pour enregistrer une large gamme de
caractéristiques des régions comme la moyenne de niveaux de gris ou des paramètres de
forme (direction, élongation, surface, etc.). Les poids des arêtes représentent les propriétés des
frontières comme la différence entre les attributs des régions ou le contraste le long de la
frontière. Des méthodes de segmentation basées sur la fusion de régions peuvent être
grandement simplifiées en manipulant les images par l’intermédiaire des graphes d’adjacence
associés.
Chapitre III : Implantation des outils de traitement d’images 77

A C A C
B
B
E G G
D D E
F F
I K
K I
H H
J J

a b
Figure 33 : a : image segmentée en régions. b : graphe d’adjacence
correspondant.

Dans le cas d’une population d’objets, les relations de voisinage proviennent en général du
diagramme de Voronoï (figures 34a et 34b). Ce diagramme est une partition de l’espace en
fonction d’une collection d’objets {oi } . Dans le cas où ces objets sont réduits à des points, on

parle de diagramme de Voronoï ponctuel. Dans le cas contraire, il s’agit du diagramme de


Voronoï généralisé [ BERTOLINO 1994], [CHASSERY 1991, Chapitre 8]. Chaque objet oi

est associé à une région vor (oi ) contenant les points plus près de oi que des autres objets :

p ∈ vor (i ) ⇔ ∀j ≠ i , d ( p, pi ) ≤ d ( p, p j )

Plusieurs techniques ont été développées pour construire la partition de Voronoï d’une
population de points. Une première catégorie regroupe les algorithmes récursifs. Ainsi, la
méthode « divide and conquer » [BOWYER 1981], [PREPARATA 1988] procède par
regroupement de plusieurs partitions. Le principal inconvénient d’une telle approche est
d’obliger une reconstruction totale dans le cas d’ajout ou de suppression d’un point. Une
solution est alors d’utiliser un algorithme de construction incrémentale [GREEN 1978],
[BERTIN 1994] qui modifie localement la partition lors de l’ajout d’un point. Ces
algorithmes de construction sont efficaces en deux dimensions mais non exploitables en trois
dimensions parce que très complexes. En conséquence, nous avons choisi de développer une
construction par croissance de régions (inspirée de [VINCENT 1990]) : la croissance isotrope
des objets produit directement la partition de Voronoï, quelle que soit la dimension de
l’espace (2D ou 3D), même si les objets ne sont plus ponctuels.

Le graphe dual du diagramme de Voronoï est appelé le graphe de Delaunay (DG). Dans ce
graphe, chaque arête correspond à une frontière du diagramme de Voronoï et représente une
relation de voisinage entre deux objets ; il s’agit d’un graphe de voisinage. Ce graphe est
parfois appelé triangulation de Delaunay puisque les arêtes ne forment que des triangles dans
78 Chapitre III : Implantation des outils de traitement d’images

un espace à deux dimensions (figure 34c). Les attributs du graphe enregistrent des
informations sur les objets de la population, et les poids caractérisent les relations de
voisinage.

a b c
Figure 34 : a : population d’objets. b : diagramme de Voronoï. c : graphe de
voisinage (graphe de Delaunay).

Les graphes de voisinage et les graphes d’adjacence disposent alors de toutes les études
faites sur les graphes et ils constituent un puissant outil de représentation des images afin d’en
simplifier ou d’en accélérer le traitement.

III.2. Opérations de visualisation


La bibliothèque PANDORE manipule désormais des images 2D, des images 3D et des
graphes de points. Dans tous les cas, il s’agit d’une représentation d’un ensemble structuré de
points, associés à des valeurs numériques. Nous avons besoin d’apprécier rapidement le
contenu de ces différentes structures de données. Nous utilisons pour cela divers outils
développés au sein du laboratoire GREYC-IMAGE.

III.2.1. Visualisation des grilles de points


Pour visualiser une image 2D ou un plan particulier d’une image 3D, nous utilisons un
outil mis au point par Régis Clouard dans la bibliothèque PANDORE : « visu ». Ce type de
visualisation est complété par le programme « SCT », développé par Serge Langlois
[LANGLOIS 1998], qui permet d’afficher simultanément plusieurs coupes orthogonales
issues d’un voxel de l’image. La figure 35 illustre l’utilisation de ce logiciel.
Chapitre III : Implantation des outils de traitement d’images 79

Figure 35 : exemple de visualisation d’une image 3D grâce au logiciel


« SCT ». Les plans de l’image s’affichent dans la fenêtre principale. Deux
fenêtres complémentaires permettent de visualiser les deux autres coupes
orthogonales passant par un point quelconque.

Dans certains cas, la visualisation de coupes 2D n’est pas suffisante et nous avons besoin
d’une véritable visualisation tridimensionnelle des images pour apprécier les positions
relatives des objets. Alexandre Lenoir [LENOIR 1997] a développé l’outil de navigation 3D
« SurfTool » dans le cadre de son approche surfacique des objets : chaque voxel est constitué
de six facettes appelées des « surfels ». La surface d’un objet binaire est alors représentée par
le graphe des « surfels » séparant l’objet et son complémentaire. Dans un mode de
fonctionnement du logiciel « SurfTool », le niveau de gris des facettes correspond à la
courbure en cet endroit de l’objet et fournit une appréciation de la forme des objets
(figure 36).
80 Chapitre III : Implantation des outils de traitement d’images

Figure 36 : exemple de visualisation d’une image 3D binaire grâce au


logiciel « SurfTool ».

III.2.2. Visualisation des graphes


Pour une image de points, la seule information intéressante à représenter est la valeur des
niveaux de gris de chacun des points. La visualisation se limite donc au dessin des points les
uns à coté des autres. Puisque les graphes que nous utilisons sont valués, nous pouvons leur
appliquer le même type de représentation que les images de points. Cependant, nous devons
tenir compte de la position des sommets du graphe dans l’espace.

Le premier type de visualisation de graphe que nous avons mis au point consiste à
représenter la structure du graphe. Il suffit de dessiner un point pour chaque sommet et de
tracer un segment de droite pour chaque arête. Un exemple d’une telle représentation est
donné par la figure 37.

a b c
Figure 37 : graphe de voisinage associé à une collection de régions. a :
image étudiée (noyau de cellule). b : segmentation de l’image. Le bord de
chaque région est tracé et les frontières paraissent épaisses puisqu’elles sont
constituées de deux bords de régions. c : graphe d’adjacence des régions.
Chapitre III : Implantation des outils de traitement d’images 81

Le deuxième type de visualisation nécessaire lors de la manipulation de graphes


correspond effectivement à la visualisation d’images de points. Afin d’estimer visuellement la
valeur associée à un sommet, il suffit de dessiner un objet avec le niveau de gris
correspondant. Le cas le plus simple est celui où nous disposons d’un graphe de régions :
chaque région est affichée avec son niveau de gris (exemple de la figure 38a).

Enfin, les graphes que nous manipulons sont pondérés et il est nécessaire de pouvoir
visualiser les valeurs des arêtes. La première solution consiste à tracer chaque arête avec le
niveau de gris correspondant à son poids (figure 38b). Pour les graphes de régions où les
arêtes sont pondérées par des informations relatives aux frontières, nous proposons une
visualisation complémentaire : les frontières des régions sont tracées en utilisant un niveau de
gris correspondant à ces informations (figure 38c).

a b c
Figure 38 : différents types de visualisation des informations associées à un
graphe. a : régions représentées avec les valeurs des sommets associés (ici,
le niveau de gris moyen de la région). b : arêtes représentées avec leur poids
(ici, la différence entre les valeurs des sommets). c : frontières des régions
représentées avec le poids des arêtes. Les frontières les plus claires
correspondent aux régions les plus différentes.

Ces outils nous permettent donc de contrôler visuellement l’enchaînement des opérations
manipulant des graphes.

III.3. Traitements point par point


Les traitements point par point modifient les images en remplaçant la valeur d’un point par
une autre valeur, indépendamment des points voisins. La nouvelle valeur peut être décidée a
priori, en fonction du point considéré ou en fonction de l’ensemble des points de l’image.
Dans cette catégorie, on trouve les opérations de modification d’histogramme (expansion de
82 Chapitre III : Implantation des outils de traitement d’images

la dynamique, etc.), les opérations classiques travaillant sur une image et les opérations
utilisant simultanément deux images.

Les modifications d’histogramme s’appliquent sur les graphes de voisinage de la même


manière que sur les grilles régulières 2D ou 3D. Chaque point de l’image ou chaque sommet
du graphe est affecté d’une nouvelle valeur, décidée en fonction de la valeur d’origine et
d’une fonction de transformation globale.

Le principe est le même pour les opérations de traitement manipulant une image
(binarisation, seuillage, inversion logique, etc.). Puisque les opérations de modification des
valeurs des points d’une image sont indépendantes de la structure de l’image, nous avons très
simplement généralisé les opérations traitant les images de points pour les adapter à la
structure de graphe.

Pour les opérations arithmétiques (addition, différence) ou logiques (ET, OU, etc.)
combinant deux images, une précaution supplémentaire est nécessaire dans le cas des graphes.
Pour pouvoir calculer le résultat d’une opération entre deux points, il faut pouvoir établir une
correspondance exacte entre les deux objets. Il est donc nécessaire d’avoir la même structure
de graphe (les valeurs associées aux sommets pouvant être différentes).

Toutes les opérations traitant les points d’une image de manière isolée sont donc
applicables aux grilles régulières comme aux graphes irréguliers. Les opérateurs de la
bibliothèque PANDORE effectuant ces opérations ont par conséquent été réalisés pour traiter
indifféremment les grilles de pixels et de voxels et les graphes de voisinage. Ils permettent
ainsi d’appliquer des traitements sur les images vues à différentes échelles (points et objets).

III.4. Opérations faisant intervenir le voisinage


Un certain nombre d’opérations de traitement d’images modifient la valeur d’un point en
fonction des valeurs des points qui l’entourent. Les voisins considérés peuvent être les voisins
du premier ordre (4-voisinage ou 8-voisinage en 2D, 18-voisinage en 3D, etc.), mais aussi des
points plus éloignés sur des voisinages éventuellement non symétriques autour du point traité.
Les masques permettent d’indiquer les voisins pris en compte lors du traitement d’un point.
La figure 39 propose trois exemples de masques pour des images 2D.
Chapitre III : Implantation des outils de traitement d’images 83

a b c
Figure 39 : exemples de masques en deux dimensions. a : 8-voisinage. b :
voisinage d’ordre 2 en 8-voisinage. c : masque d’ordre 2 utilisé dans le
filtrage de Nagao.

Dans les opérations de filtrage, les points d’un masque sont associés à un poids et la valeur
du point de l’image à traiter est remplacée par le résultat d’une convolution (d’une somme
pondérée) entre l’image est le masque.

Nous avons implanté des opérations du même type sur les graphes. Cependant,
contrairement aux grilles de points, les graphes ne peuvent pas fournir de masques avec des
formes particulières. Les seuls voisinages manipulés ne peuvent être définis qu’en terme
d’ordre ou de distance par rapport au point considéré. La figure 40 présente la différence entre
un voisinage du premier ordre pour une grille carrée en 8-voisinage et un voisinage du
premier ordre pour un graphe de points.

a b
Figure 40 : exemple de voisinage du premier ordre. a : dans le cas d’une
grille 2D régulière. b : dans le cas d’un graphe de points.

III.4.1. Filtres de lissage


Avec de tels voisinages (premier ordre, deuxième ordre, etc.), nous avons adapté aux
graphes les opérations de convolution. Elles sont particulièrement adaptées au traitement de
graphes représentant des régions dans des images sur-segmentées. À la différence des
masques utilisés sur les images pour lesquels tous les poids peuvent être distincts, dans le cas
des graphes, tous les voisins du même ordre doivent être affectés d’un même poids.
84 Chapitre III : Implantation des outils de traitement d’images

Parmi les filtres linéaires, on peut citer le lissage moyenneur uniforme pour lequel les
poids du masque sont identiques et dont la somme est égale à 1. Pour les graphes, comme le
nombre de voisins d’un point n’est pas connu a priori, les coefficients doivent être calculés en
fonction de la configuration de chaque sommet (nombre de voisins). L’objectif de cette
normalisation est de ne pas modifier un signal uniforme.

Parmi les filtres non linéaires, le filtre médian (filtre d’ordre) est le plus utilisé. Sa
définition est indépendante de la structure de voisinage et il est par conséquent applicable aux
graphes. Il faut cependant tenir compte du nombre de voisins d’un sommet pour déterminer la
valeur médiane.

Souvent, on essaie d’implanter les filtres de manière séparable. C’est par exemple le cas du
filtre gaussien. Sur une grille régulière, le résultat du traitement peut être obtenu en effectuant
des calculs indépendants dans chacune des directions de l’image. Dans le cas général des
graphes, aucune direction particulière ne peut être mise en évidence. Cette absence interdit de
généraliser l’implantation séparable des traitements.

III.4.2. Détection de contours


Sur le voisinage d’un point, les masques servent également à détecter la présence de
brusques variations dans les valeurs des points. En terme d’images en niveaux de gris, la
recherche de contours passe par la localisation des variations d’intensité. Les méthodes
dérivatives permettent de détecter ces points particuliers de forte variation. Pour utiliser des
techniques analogues en trois dimensions, nous nous sommes inspiré des masques 2D de
Prewitt et Sobel pour construire des masques 3×3×3 et évaluer les dérivées directionnelles
d’une image. De même, il est assez intuitif de généraliser le masque utilisé pour évaluer le
laplacien d’un point. À titre d’exemple, ce masque est proposé sur la figure 41.

Figure 41 : masque utilisé pour calculer le laplacien d’une image 3D.


Chapitre III : Implantation des outils de traitement d’images 85

Dans le cas des graphes, le calcul de dérivées directionnelles n’a pas de sens. En
conséquence, on préfère évaluer les variations des valeurs des sommets par des grandeurs
statistiques. Par exemple, on peut estimer la variation autour d’un sommet par le calcul de la
variance sur son voisinage.

III.4.3. Morphologie mathématique


Le voisinage d’un point intervient dans les opérations déduites de la morphologie
mathématique [SERRA 1982], [COSTER 1989], [SCHMITT 1994]. Ces opérations
permettent de supprimer ou de mettre en évidence certains objets présents dans une image, en
se basant sur des critères de taille, de forme, d’orientation, etc. Le principe général de ces
opérations est de déplacer un élément structurant sur l’image et de calculer l’image
transformée en fonction d’opérations ensemblistes entre l’élément structurant et l’image.
Selon le résultat souhaité, la forme de l’élément structurant peut être choisie ; il s’agit en fait
de choisir la forme du voisinage pris en compte.

Pour un ensemble X (une image binaire) et un élément structurant S, on note Sx le translaté

de S par un point x de X. L’érosion et la dilatation de X par S sont alors définies par

eS ( X ) = XΘS = {x ∈ X , Sx ⊂ X} et d S ( X ) = X ⊕ S = {x ∈ X , Sx ∩ X ≠ ∅}.

Ces opérations de morphologie mathématique peuvent également être appliquées à des


images en niveaux de gris. L’approche est différente puisqu’il ne s’agit plus d’opérations
ensemblistes. Cependant, on travaille toujours sur le voisinage du point traité. Pour un point p
d’une image I, l’érosion et la dilatation remplacent respectivement la valeur I [ p ] par

inf {I [v], v ∈ I I S p } et sup{I [v], v ∈ I I S p }.

Leur implantation est simple puisqu’il s’agit de chercher les valeurs maximale et minimale
de l’image sur un voisinage donné. De plus, leur application à des images binaires donne un
résultat conforme aux opérations ensemblistes définies précédemment.

Nous avons aisément généralisé ces opérations aux graphes en modifiant la notion de
voisinage et d’élément structurant. Les graphes morphologiques proposés par Luc Vincent
[VINCENT 1990] sont traités par de telles opérations mais ils ne contiennent que des valeurs
de niveaux de gris. Dans notre cas, nous pouvons valuer les sommets des graphes avec
n’importe quel type d’informations (surface, distance moyenne aux voisins, etc.) et nous
pouvons opérer les mêmes transformations.
86 Chapitre III : Implantation des outils de traitement d’images

L’érosion en et la dilatation d n d’un graphe G se font sur un voisinage d’ordre n :

en (G )( p ) = inf {v(q ), q ∈ Vn ( p )},

d n (G )( p ) = sup{v(q ), q ∈ Vn ( p )}.

Nous avons alors adapté l’ouverture et la fermeture morphologique aux graphes en


combinant une érosion et une dilatation.

La figure 43 montre un exemple d’érosion et de dilatation pour un graphe binaire. Le


graphe utilisé (figure 42b) est le graphe d’adjacence d’une collection de régions polygonales
(figure 42a). On utilise ces régions pour visualiser la valeur des sommets. La figure 44 illustre
l’ouverture et la fermeture morphologique sur le même graphe binaire.

a b
Figure 42 : structure utilisée pour l’illustration des opérations de
morphologie mathématique sur les graphes. a : collection de régions
polygonales. b : graphe d’adjacence des régions.

a b c
Figure 43 : opérations morphologiques sur un graphe binaire. a : graphe
binaire représenté par des polygones noir pour les sommets à la valeur
logique vrai et par des polygones blancs pour les sommets à la valeur faux.
b : érosion d’ordre 1 du graphe. c : dilatation d’ordre 1 du graphe.
Chapitre III : Implantation des outils de traitement d’images 87

a b
Figure 44 : opérations morphologiques sur un graphe binaire. a : ouverture
d’ordre 1 du graphe de la figure 43a. b : fermeture d’ordre 1 du graphe de la
figure 43a.

La combinaison des érosions et dilatations conduit à d’autres opérations utiles. Nous avons
par exemple implanté la reconstruction morphologique par dilatation. Sur une image en
niveaux de gris, cette opération permet de supprimer les maxima régionaux d’intensité. Sur
une image binaire, elle élimine les petits objets, tout en conservant les contours exacts des
plus grands (au contraire de l’érosion qui réduit également les grands objets). Ce type de
localisation est souvent utilisé pour initialiser un processus de croissance de régions ou de
déformation de contours.

Reconstruire un objet X dans un objet Y tels que X ⊂ Y revient à opérer des dilatations de
X tant que le résultat reste inclus dans Y. L’implantation la plus simple de la reconstruction
par dilatation consiste à enchaîner des dilatations de l’objet X, contraintes à l’intérieur de Y,
jusqu’à ce que la transformation soit stable. Puisqu’elle peut être réalisée par la répétition
d’opérations morphologique de base, la reconstruction peut également être appliquée aux
graphes de voisinage. Nous avons ainsi la possibilité d’extraire des maxima régionaux sur les
graphes.

La morphologie mathématique est enfin à l’origine de la définition de la ligne de partage


des eaux (lpe) [COSTER 1989], [BELHOMME 1996]. La répétition d’amincissements
morphologiques utilisant des éléments structurants bien choisis permet de localiser la
séparation des zones d’influences de différents germes (ponctuels ou non). Nous n’avons pas
implanté la lpe en tenant compte de cette définition. Nous verrons dans la section suivante
(III.5) que la croissance de régions permet de calculer la lpe de manière efficace,
indifféremment sur les grilles régulières et sur les graphes. L’utilité de la lpe sera présentée
dans la même section que son implantation.
88 Chapitre III : Implantation des outils de traitement d’images

III.4.4. Étiquetage des composantes connexes


L’objectif de la segmentation est d’affecter une étiquette à chacun des points de l’image :
le numéro de la région à laquelle il appartient. La méthode générale consiste à choisir un point
non encore étiqueté dans l’image, à lui affecter une nouvelle étiquette et à affecter cette même
étiquette à tous ses voisins non encore étiquetés.

Dans le cas des grilles régulières, tous les points sont connectés et la notion de voisinage
doit être nuancée en ne tenant compte que des voisins dont les valeurs sont égales. La
technique la plus classique d’étiquetage repose sur le parcours séquentiel de l’image. Deux
balayages opposés sont effectués successivement en utilisant deux demi-masques (4 des 8
voisins en deux dimensions). En trois dimensions, nous avons adapté cette technique en
utilisant la numérotation des voisins d’un point définie sur la figure 17. Le premier demi-
masque est constitué des 13 premiers voisins (numéros 0 à 12), le second utilise les 13
derniers points (numéros 13 à 25).

Dans le cas des graphes, nous pouvons utiliser la même notion de voisinage et affecter le
même numéro de composante à deux sommets voisins dont les valeurs sont égales.
Cependant, la structure de graphe nous permet de mettre en place d’autres méthodes de
numérotation.

D’une part, à la différence d’une grille régulière, la connexité d’un graphe peut être
incomplète : un graphe peut être constitué de plusieurs sous-graphes non connectés. Il est
alors immédiat de numéroter les composantes définies par leur véritable structure de
voisinage.

D’autre part, plutôt que d’utiliser la fonction de valuation des sommets d’un graphe, nous
pouvons faire appel au poids de ses arêtes pour modifier fictivement la connexité d’un graphe.
Par exemple, il suffit de ne prendre en compte que les arêtes dont le poids est inférieur à un
seuil pour distinguer plusieurs composantes.

Ces différentes techniques permettent donc de généraliser à la structure de graphe les


opérations d’étiquetage mises au point sur les grilles de pixels et de voxels et ainsi de mettre
en évidence plusieurs groupes d’objets dans une image.

III.5. Construction de composantes homogènes


Nous généralisons dans cette section la notion d’étiquetage présentée précédemment.
L’objectif est encore de numéroter des composantes connexes mais nous souhaitons utiliser
d’autres critères d’homogénéité que la stricte égalité entre les valeurs des points voisins. Nous
Chapitre III : Implantation des outils de traitement d’images 89

proposons pour cela deux approches complémentaires, applicables aux grilles régulières et
aux graphes de voisinage.

• La croissance de composantes connexes s’effectue à partir de germes


(ponctuels ou constitués de plusieurs points connexes) et consiste à affecter
chacun des points à la composante de l’un de ses voisins, selon un critère
d’homogénéité choisi.

• La partition de la population de points en plusieurs composantes se fait en


supprimant toutes les relations de voisinage entre les points ne respectant pas le
critère d’homogénéité.

Nous présentons successivement la croissance dans les grilles de points et dans les graphes
de voisinage puis la partition de graphes.

III.5.1. Croissance dans les grilles de points


Dans une grille de points, la croissance de régions peut être effectuée en utilisant des
masques, par généralisation de la technique d’étiquetage. Cependant, l’implantation la plus
générale, permettant de manipuler indifféremment une grille de points ou un graphe de
voisinage, consiste à utiliser une file d’attente. Ce procédé a été proposé par Luc Vincent et
nous l’avons généralisé à nos différents types d’images. Nous avons réalisé cette implantation
grâce à l’algorithme suivant, dans lequel les germes peuvent être composés d’un ou plusieurs
points (pixels, voxels ou sommets d’un graphe) :

Initialisation :
Les germes sont numérotés (ils constituent l’état initial des composantes en
expansion)
Pour chaque point p de l’image
Si p est un germe ou fait partie d’un germe
Alors insérer p dans la file d’attente
Fin du test
Fin de la boucle d’initialisation
Tant que la file d’attente n’est pas vide
Extraire un point p de la file d’attente
Soit n le numéro de la composante de p
Pour chacun des voisins q de p
Si q n’est pas encore affecté à une composante et si q respecte le
critère d’homogénéité avec la composante n
Alors
Affecter q à la composante n
90 Chapitre III : Implantation des outils de traitement d’images

Insérer le point q dans la file d’attente


Fin du test
Fin de la boucle
Fin de la boucle

La structure utilisée ici est une simple file d’attente (FIFO pour « first in first out »)
contenant des points déjà affectés à une composante. Dans ce cas, les points sont examinés
dans un ordre quelconque, dépendant uniquement de l’ordre de parcours des voisins d’un
point. Il s’agit donc d’une croissance géométrique, bien adaptée au calcul de cartes de
distance, et par extension, à la recherche de partitions de Voronoï. Un exemple d’une telle
croissance est proposé sur la figure 45.

a b
Figure 45 : exemple de croissance géométrique autour de germes. a : trois
germes dans une image bidimensionnelle. b : frontières des trois régions
obtenues à l’issue de la croissance.

Afin de gérer une croissance prioritaire, nous avons choisi d’utiliser une structure plus
complexe, autorisant des insertions à n’importe quel endroit de la file d’attente. Chaque point
est alors associé à un potentiel et la file d’attente est maintenue triée selon ces potentiels. À
chaque instant, la file contient ici des points susceptibles d’être affectés à une composante en
croissance. L’algorithme précédent est modifié pour manipuler, à chaque itération, le point le
plus approprié (par exemple, le point de plus faible potentiel) :

Initialisation :
Les germes sont numérotés (ils constituent l’état initial des composantes en
expansion)
Pour chaque point p de l’image
Si p ne fait pas partie d’un germe et si il existe un voisin q de p,
appartenant à un germe numéro n
Alors insérer le couple (p,n) dans la file d’attente, selon le
potentiel de p
Fin du test
Fin de la boucle d’initialisation
Chapitre III : Implantation des outils de traitement d’images 91

Tant que la file d’attente n’est pas vide


Extraire le meilleur couple (p,n) de la file d’attente
Si p respecte le critère d’homogénéité avec la composante n
Alors
Affecter p à la composante n
Pour chacun des voisins q de p
Si q n’est pas encore affecté à une composante
Alors insérer le couple (q,n) dans la file d’attente, en
fonction du potentiel de q
Fin du test
Fin de la boucle
Fin du test
Fin de la boucle

Ce type de croissance permet donc de tenir compte du contenu de l’image sur laquelle elle
est appliquée. Il suffit de choisir les germes et la fonction de potentiel pour localiser les objets
présents dans l’image. Par exemple, sur la figure 46, le potentiel utilisé est l’amplitude du
gradient de l’image.

a b c
Figure 46 : exemple de croissance prioritaire autour de germes. Les germes
considérés sont ceux de la figure 45a. a : image d’origine (noyaux de
cellules). Deux germes sont à l’intérieur des objets, le troisième germe est
dans le fond de l’image. b : amplitude du gradient de l’image, utilisée
comme potentiel pour la priorité. c : frontières des trois régions obtenues à
l’issue de la croissance.

En fonction de ce principe général, nous avons mis en place plusieurs cas particuliers de
croissance, sur les grilles de points ou sur les graphes de voisinage.

III.5.1.1. Ligne de partage des eaux


Dans le contexte de cette croissance prioritaire, l’algorithme de recherche de la ligne de
partage des eaux d’une collection de germes devient un simple cas particulier. Dans ce cas,
92 Chapitre III : Implantation des outils de traitement d’images

aucun critère d’homogénéité n’est utilisé. Seul le potentiel des points est utilisé pour fixer
l’ordre dans lequel ils sont affectés à la région d’un de leurs voisins. Ce n’est qu’au moment
où les régions se rencontrent qu’une indétermination peut apparaître.

La ligne de partage des eaux est largement utilisée pour localiser des objets contrastés sur
un fond ou pour séparer des objets collés. Dans le premier cas, les extrema de niveau de gris
(pour les objets et pour le fond) constituent les germes et la norme du gradient de l’image sert
de potentiel. Dans le second cas, les germes sont les érodés ultimes ou les maxima de la
distance à l’intérieur de l’amas d’objets et le potentiel est l’inverse de cette fonction de
distance.

III.5.1.2. Critère local d’arrêt de la croissance


Dans le cas général de la croissance, le critère local d’homogénéité peut être la
ressemblance des points voisins en terme de niveaux de gris. Pour un seuil s fixé, le voisin v
d’un point p sera affecté à la même région que p si

I [ p ] − I [v] ≤ s .

Nous avons également utilisé un critère d’homogénéité global pour chaque région. Un
point v est affecté à une région Ri si sa valeur laisse la moyenne de la région à l’intérieur d’un

intervalle défini d’avance. Pour des régions dont les niveaux de gris ne sont pas uniformes, ce
critère est plus efficace que le précédent. Nous utilisons ici un critère de la forme

moyenne( Ri ) × card (Ri ) + I [v]


moyenne(Ri ) − ∈ [s1 , s2 ] .
card (Ri ) + 1

À chaque fois qu’un point est affecté à une région, le niveau de gris moyen de celle-ci est
modifié en fonction du point ajouté et la croissance continue avec cette nouvelle valeur.

La croissance de chacune des régions se termine en général lorsque le critère


d’homogénéité choisi n’est plus respecté. Un inconvénient est que l’arrêt est déterminé au
cours de la croissance et qu’il s’agit d’un critère local d’arrêt.

III.5.1.3. Arrêt « a posteriori » de la croissance


En complément, nous avons développé un opérateur calculant a posteriori le meilleur
moment pour arrêter la croissance. Nous utilisons pour cela une file d’attente prioritaire dans
laquelle ne sont présents, à chaque instant, que les points des bords des régions en croissance.
La croissance se fait sans restriction (sans utiliser de critère d’homogénéité) par la suppression
Chapitre III : Implantation des outils de traitement d’images 93

du premier point de la file et par l’insertion de ses voisins non encore traités, selon le second
algorithme présenté au début de la section (III.5). À chaque itération, un coût est calculé : il
s’agit par exemple de la moyenne des potentiels des points de la file. On évalue ainsi un
contraste sur le contour des objets. En choisissant le module du gradient de l’image comme
potentiel, la fonction de contraste présente une forte variation à chaque fois que les bords des
régions en croissance sont en correspondance avec les contours des objets de l’image.
Lorsque tous les points de l’image ont été numérotés, la phase de simulation est terminée. On
cherche alors la plus forte variation du coût en fonction du nombre d’itérations.

Le grand intérêt de ce type de croissance par rapport aux principes présentés


précédemment est qu’il n’est pas nécessaire de disposer de germes à l’intérieur et à l’extérieur
des objets à localiser. Il suffit de faire croître une région qui correspond au fond de l’image
pour localiser le bord des objets. Elle est donc adaptée aux images dont le fond est connexe.

La courbe de la figure 47 illustre l’application de ce principe à l’image de la figure 46a


(deux noyaux de cellules). Nous initialisons la croissance avec une partie du fond de l’image
(bord de l’image sur la figure 48a), et nous utilisons le gradient de l’image (figure 46b)
comme potentiel pour la priorité et pour le calcul du contraste. En raison de la priorité, la
courbe est globalement croissante : on commence par croître autour des faibles potentiels.
Chacun des maxima correspond au moment où la région en croissance passe de l’extérieur
vers l’intérieur des objets à localiser ; chaque frontière correspond à un maximum de gradient
donc de contraste.

Figure 47 : évolution de la fonction de coût calculée lors de la croissance.


Sur cet exemple, il s’agit de la moyenne de l’amplitude du gradient sur les
points de contour de la région en croissance.
94 Chapitre III : Implantation des outils de traitement d’images

Lorsque la croissance est terminée, on détecte sur la courbe le nombre d’itérations donnant
la meilleure correspondance avec les objets recherchés et on recommence la croissance en
s’arrêtant dès que ce nombre d’itérations est atteint. Actuellement, cette détection est
effectuée visuellement pour chaque image traitée et correspond au premier maximum local
d’amplitude suffisante. Cependant, cette détection pourrait certainement être effectuée
automatiquement.

La figure 48 présente différentes étapes de cette croissance : l’initialisation, l’arrêt au


niveau du premier maximum de la fonction de coût, la suite de la croissance avant et après le
second maximum.

a b c d
Figure 48 : différentes étapes de la croissance correspondant à la courbe de
coût de la figure 47. La région en croissance est ici représentée en blanc. a :
initialisation avec une partie du fond de l’image (les pixels du bord). b :
arrêt de la croissance lors du premier maximum de contraste. c : après le
premier maximum de la fonction de coût, la région pénètre à l’intérieur d’un
des objets de l’image. d : après le second maximum, les deux objets sont
remplis.

Nous disposons donc d’une panoplie de méthodes de croissance permettant de localiser des
objets dans des grilles de points. En particulier, selon que l’on dispose ou non de germes à
l’intérieur des objets, on choisira de rechercher la ligne de partage des eaux ou de faire croître
une portion du fond de l’image.

III.5.2. Croissance dans les graphes de voisinage


Comme pour les opérations de croissance dans les grilles de points, l’ordre dans lequel
sont parcourus les sommets d’un graphe peut modifier le résultat de la croissance de
composantes connexes. En effet, si plusieurs sommets sont susceptibles d’être affectés à la
même composante en croissance, le choix d’un de ces sommets va avoir une influence sur la
suite de la croissance : les autres sommets risquent d’être affectés à d’autres composantes
avant d’être à nouveau considérés, le critère d’homogénéité peut ne plus être respecté, etc.
Chapitre III : Implantation des outils de traitement d’images 95

Nous présentons ici quelques cas particuliers de la stratégie générale de croissance dans les
graphes. Il s’agit de préciser l’ordre de sélection des sommets à examiner.

III.5.2.1. Ligne de partage des eaux


Le tri des sommets d’un graphe en fonction de leur potentiel permet de généraliser le
recherche de ligne de partage des eaux déjà présentée sur les grilles de points. Dans ce cas, la
croissance s’opère de manière parallèle autour des différents germes.

La figure 49 illustre ce type de croissance sur un graphe artificiel : des points sont
positionnés aléatoirement dans un espace à deux dimensions et le graphe de voisinage est
calculé par l’intermédiaire de la partition de Voronoï. Puisque le graphe ne représente ici
aucune image de niveaux de gris, nous avons choisi d’appliquer l’opération de croissance sur
des informations géométriques : le potentiel de chaque sommet est donné par la distance
euclidienne à son plus proche voisin (la méthode laisse cependant la possibilité d’utiliser tout
autre potentiel). Comme pour la recherche de la ligne de partage des eaux sur une grille de
points, les sommets dont le potentiel est un minimum local sont choisis pour germes et la
croissance est effectuée autour de ces germes. Sur cet exemple, les germes sont donc les
sommets les plus proches de leur premier voisin. Sur la figure 49b, on voit grâce aux couleurs
que la croissance ne fournit pas le résultat auquel on pouvait s’attendre en termes de
proximité. En effet, les sommets sont traités dans l’ordre croissant de leurs potentiels mais
dans le cas où plusieurs possibilités se présentent, l’affectation d’un sommet à une
composante dépend de l’ordre de parcours des voisins de ce sommet. Ici, cet ordre de
parcours correspond à l’ordre de construction du graphe. On constate donc que la recherche
de ligne de partage des eaux sur un graphe ne peut pas être simplement généralisée de la
recherche sur une grille de points.
96 Chapitre III : Implantation des outils de traitement d’images

a b
Figure 49 : exemple de croissance de composantes connexes à l’intérieur
d’un graphe, en utilisant les valeurs des sommets comme critère de priorité.
a : graphe artificiel utilisé comme support. Chaque sommet est valué par la
distance à son plus proche voisin. Ces valeurs servent de potentiels pour la
croissance. Les germes sont les sommets dont la valeur est un minimum
local. b : résultat de la croissance. Les germes sont représentés par des
points plus gros que les autres sommets.

Cette première croissance utilise une parfaite analogie avec les images de points. La
structure de graphe permet de mettre en œuvre une autre technique, basée sur les poids des
arêtes. En effet, l’ordre de la croissance peut utiliser le poids de l’arête entre un sommet et son
voisin, plutôt que d’utiliser la valeur associée à ce voisin. L’algorithme général de croissance
prioritaire doit alors être modifié puisque dans ce cas, la file d’attente contient des couples de
sommets voisins, triés selon le poids des arêtes qui les relient. Au moment de leur insertion
dans la file d’attente, chacun de ces couples est composé d’un premier sommet déjà affecté à
une composante et d’un second qui n’est pas encore affecté. L’algorithme devient alors :

Initialisation :
Les germes sont numérotés (ils constituent l’état initial des composantes en
expansion)
Pour chaque sommet p affecté à une composante
Soit n le numéro de composante de p
Pour chaque voisin q de p non encore numéroté
Insérer le couple (p,q) dans la file d’attente, selon le
poids de l’arête correspondante
Fin de la boucle
Fin de la boucle d’initialisation
Tant que la file d’attente n’est pas vide
Extraire le meilleur couple (p,q) de la file d’attente
Chapitre III : Implantation des outils de traitement d’images 97

Tant que le sommet q appartient à une composante


Extraire à nouveau le meilleur couple (p,q) de la file d’attente
Fin de la boucle
Soit n le numéro de composante du sommet p
Si le critère d’homogénéité est vérifié pour les sommets p et q et la composante n
Alors
Affecter q à la composante n
Pour chaque voisin v de q non encore affecté à une composante
Insérer le couple (q,v) dans la file d’attente, selon le poids de
l’arête correspondante
Fin de la boucle
Fin du test
Fin de la boucle

La figure 50 montre le résultat d’une telle croissance sur le graphe de la figure 49a. En
utilisant la longueur des arêtes comme paramètre de priorité, on obtient des composantes
connexes correspondant à la géométrie de la structure. À chaque itération, une seule
composante est proposée pour le sommet étudié et l’ordre de construction du graphe
n’intervient pas.

Figure 50 : croissance de composantes connexes dans un graphe, en utilisant


le poids des arêtes comme critère de priorité. La structure utilisée est le
graphe de la figure 49a. Les arêtes sont pondérées par leur longueur dans
l’espace 2D euclidien. Les germes (minima locaux de la fonction « distance
au plus proche voisin ») sont représentés par des points plus gros.

On constate ainsi que pour certaines opérations de traitement d’images, il n’est pas
immédiat de passer des grilles de points aux graphes de voisinage. Ce dernier type de
croissance est particulièrement adapté à la recherche de regroupements perceptuels où seule la
98 Chapitre III : Implantation des outils de traitement d’images

proximité des objets intervient. Il faut cependant connaître a priori le nombre de composantes
et disposer d’un germe (d’un représentant) pour chacune d’elles.

III.5.2.2. Croissance par optimisation globale


En correspondance avec une image segmentée en régions, le résultat d’une opération de
croissance dans un graphe peut être vu comme une opération de fusion de régions. En effet,
fusionner certaines régions voisines revient à déterminer une composante connexe dans le
graphe qui représente ces régions et à fusionner les sommets qui la composent. Nous avons
donc mis au point une opération élémentaire de fusion entre deux sommets voisins et nous
l’avons intégrée au cours des opérations de croissance dans les graphes. Les stratégies de
fusion de régions se traduisent alors directement en stratégies de croissance.

Nous avons utilisé notre algorithme de croissance prioritaire dans les graphes afin
d’implanter une stratégie de fusion de régions basée sur la méthode de Mumford et Shah
[ACKAH-MIEZAN 1993].

Il s’agit d’une approche d’optimisation globale de la structure manipulée : sur une image I
segmentée en N régions R1 ,… RN , l’objectif est de faire décroître une énergie dont la forme

discrète simplifiée est


N N
E=∑ ∑ I [ p ] − M k + α ∑ l (∂Rk ) .
2

k =1 p∈ Rk k =1

Dans cette formule, M k représente la moyenne des niveaux de gris des points de la région

Rk et l (∂Rk ) représente la longueur du bord de cette même région. Le paramètre α permet de

donner une plus grande importance à l’intensité ou au périmètre des régions.

On peut également écrire la formule de l’énergie en utilisant les longueurs l (∂ (Ri , Rj )) des

frontières entre deux régions Ri et R j :

∑ l (∂ (R , R )).
N
E=∑ ∑ I [ p] − M + 2α
2
k i j
k =1 p∈Rk 1≤ i < j ≤ N
Chapitre III : Implantation des outils de traitement d’images 99

La méthode d’optimisation de Mumford et Shah s’applique à la fusion de régions. À


chaque instant, la fusion de deux régions Ri et R j est opérée si l’énergie globale est diminuée

par cette fusion. La variation d’énergie peut alors être exprimée en fonction de paramètres
locaux :

card ( Ri ) × card (R j )
× M i − M j − 2α × l (∂ (Ri , R j )) .
2
∆E =
card (Ri ) + card (Rj )

En affectant une moyenne de niveau de gris et un périmètre (un nombre de points) à


chaque sommet et un poids à chaque arête, nous avons appliqué cette technique à la fusion
dans les graphes. À chaque moment, le couple de sommets offrant la plus forte diminution
d’énergie ( ∆E minimum) est retenu et les sommets sont fusionnés. En répétant cette
opération jusqu’à la stabilité du nombre de sommets dans le graphe, nous obtenons une
véritable opération de fusion de sommets, identique à une opération de croissance de
composantes connexes.

La figure 51 présente un exemple d’application de cette opération. Afin de se rendre


compte du résultat de la fusion de sommets dans le graphe, l’illustration est faite sur une
image segmentée en régions. Chaque région est associée à un sommet et la fusion de deux
sommets se traduit au final par la fusion des régions. Les régions de la segmentation initiale
sont fusionnées pour plusieurs valeurs du paramètre α .

a b c d e
Figure 51 : a : portion d’image de cytologie. On y voit quelques noyaux de
cellules. b : segmentation initiale obtenue par lpe sur le gradient de l’image,
à partir des minima locaux de niveau de gris. c : application de la fusion de
régions inspirée de Mumford et Shah avec α = 0,1 . d : fusion avec α = 2 .
e : fusion avec α = 15 .
100 Chapitre III : Implantation des outils de traitement d’images

Nous avons également appliqué cette technique à l’image de la figure 46 afin de pouvoir
comparer le résultat des différentes approches. La figure 52 illustre le résultat de la fusion
pour différentes valeurs de α.

a b c

d e f
Figure 52 : a : image à segmenter. b : sursegmentation obtenue par lpe. c :
fusion de régions avec α = 0,1 . d : fusion avec α = 1,8 . e : fusion avec
α = 22 . f : fusion avec α = 28 .

Le paramètre α permet de privilégier la fusion de régions ayant des intensités voisines ou


la fusion de régions ayant une grande frontière commune. Il influe directement sur l’ordre des
fusions. Sur les figures 51 et 52, chaque résultat correspond à la situation finale des fusions
pour un paramètre α fixé et il n’est pas possible de passer directement d’un résultat à un autre.
Nous constatons sur ces exemples que le choix du paramètre est très délicat et qu’il ne permet
pas toujours d’obtenir la segmentation recherchée. Cependant, en cas de succès, les objets
sont correctement localisés puisque leurs véritables contours sont présents dans la
sursegmentation initiale et que les frontières les plus appropriées sont conservées par
l’opération de fusion.

L’intérêt principal de cette méthode de segmentation est d’exploiter la représentation


explicite d’une collection de régions et de leurs relations d’adjacence par une structure de
graphe. Nous disposons ainsi d’un modèle général de segmentation par fusion de régions,
basée sur l’optimisation d’une fonction d’énergie globale, combinant divers critères locaux
sur ces régions.
Chapitre III : Implantation des outils de traitement d’images 101

III.5.3. Partition de graphes


Afin de mettre en évidence certaines propriétés d’homogénéité dans la population d’objets
qu’il représente, un graphe peut être segmenté en plusieurs composantes connexes. Le
principe de la partition d’un graphe consiste à supprimer certaines arêtes ne vérifiant pas ce
critère d’homogénéité. Malgré l’apparente opposition entre la partition d’un graphe en
plusieurs composantes et la construction de composantes par croissance, ces deux approches
sont complémentaires puisqu’il suffit de supprimer les arêtes non homogènes (reliant des
sommets de deux composantes distinctes) pour retrouver le résultat de la partition.

Les graphes et leurs structures dérivées, en particulier l’arbre de recouvrement minimal,


ont déjà montré leur efficacité dans l’analyse de regroupements perceptuels ou de structures
complexes dans des images [ZAHN 1971], [MAZILLE 1994].

Nous avons mis en place une opération de coupure optimale permettant d’exploiter cette
possibilité. À partir d’un ensemble d’objets, nous commençons par construire un graphe de
voisinage. Ses arêtes sont alors pondérées par une grandeur caractéristique des divisions à
opérer. Pour mettre en évidence n groupes, l’algorithme de coupure est le suivant :

Recherche de l’arbre de recouvrement minimal du graphe


Exécuter n-1 fois
Mise à jour des poids des arêtes de l’arbre
Tri des arêtes par ordre décroissant de poids
Suppression de l’arête de plus grand poids
Fin de la boucle

Un premier exemple de l’utilité d’une telle opération est la détection de groupes d’objets
au sein d’une image. Sur la figure 53, des regroupements sont facilement identifiables au sein
d’un ensemble d’objets.
102 Chapitre III : Implantation des outils de traitement d’images

a b c

d e
Figure 53 : exemple de coupure de graphe pour mettre en évidence des
regroupements d’objets. a : population d’objets ponctuels dans un espace
2D. b : graphe de voisinage des objets. c : arbre de recouvrement minimum
du graphe (MST), déterminé sur la longueur des arêtes. d : coupure de
l’arête la plus longue dans le MST. e : coupure de la deuxième arête la plus
longue.

En trois dimensions, un tel nuage de points peut par exemple résulter de la représentation
des pixels d’une image en couleurs dans l’espace des trois composantes rouge, verte et bleue.
La représentation de ce nuage par un graphe de voisinage et la partition de ce graphe en
plusieurs composantes permet alors de segmenter l’image par une classification couleur des
points.

Cette méthode de partition de graphe en sous-graphes permet également de reconnaître des


régions semblables dans des images de niveaux de gris. Pour l’exemple de la figure 54, nous
utilisons une image composée de deux régions homogènes (niveaux de gris 36 et 171),
dégradée par un bruit gaussien d’écart type 15. Cette image est segmentée par lpe (sur le
gradient, à partir des maxima de niveaux de gris) et un grand nombre de régions doivent être
fusionnées. Chaque région est associée à un sommet du graphe et la moyenne des niveaux de
gris des points de la région est affectée au sommet. Les arêtes du graphe sont pondérées par la
différence de ces moyennes et un arbre de recouvrement minimal est déterminé. En
supprimant l’arête de poids maximal, on supprime la connexion entre des régions très
différentes. Ainsi, la fusion des régions de chaque composante connexe fournit une
Chapitre III : Implantation des outils de traitement d’images 103

segmentation de l’image mettant en évidence les fortes discontinuités (ici, les discontinuités
de niveau de gris moyen).

a b c d
Figure 54 : exemple de coupure de graphe pour mettre en évidence des
régions homogènes. a : image composée de deux régions bruitées, de
moyennes distinctes. b : segmentation de l’image par lpe autour des maxima
de niveaux de gris, en utilisant le gradient. c : coupure du MST en fonction
de la différence des moyennes de niveaux de gris des régions voisines. d :
fusion des régions appartenant à une même composante connexe.

Afin d’évaluer cette méthode de segmentation sur une image naturelle, nous avons à
nouveau utilisé notre image de noyaux cellulaires (figure 55a). Afin de limiter le nombre de
sommets du graphe, notre segmentation initiale est ici le résultat de la fusion de régions de la
section précédente, avec le paramètre α = 0,1 (figures 52c et 55b). La figure 55c présente
l’arbre de recouvrement minimal (MST) du graphe de ces régions, dans lequel chaque arête
est pondérée par la différence de niveaux de gris moyens des régions qu’elle relie.

a b c
Figure 55 : application de la méthode de partition de graphe sur une image
naturelle. a : image de noyaux cellulaires. b : sursegmentation de l’image.
c : arbre de recouvrement minimal du graphe des régions (MST).
104 Chapitre III : Implantation des outils de traitement d’images

La figure 56 montre le résultat de la suppression des trois premières arêtes du MST

d e f
Figure 56 : application de la méthode de partition de graphe sur une image
naturelle. a : la suppression de la première arête coupe l’image en deux
régions (un objet et le fond de l’image). b : la suppression de la deuxième
arête fait apparaître une troisième région (le second objet). c : la quatrième
arête reliait deux portions du même objet.

Pour pouvoir appliquer une telle opération de partition de graphe, il est nécessaire de
connaître a priori le nombre de composantes recherchées. Cependant, en choisissant
correctement les fonctions de valuation et de pondération selon les propriétés à mettre en
évidence dans l’image représentée, cette méthode fournit une bonne localisation des objets.

Toutes ces techniques ne sont bien sûr pas les seules à permettre la segmentation de telles
images mais elles illustrent les possibilités apportées par les opérations sur les graphes de
voisinage.

III.6. Opérations de caractérisation


La caractérisation d’une image peut être effectuée selon différents points de vue. Comme
nous l’avons vu dans le chapitre précédent (section II.2.5), l’histogramme des niveaux de gris
de l’image permet d’en proposer une évaluation globale. L’histogramme permet également de
caractériser les objets présents dans une image mais ceux-ci sont plus souvent analysés en
fonction de leurs paramètres géométriques. Enfin, les structures de voisinage représentées par
les graphes permettent de caractériser l’organisation de populations d’objets à l’intérieur des
images. Nous présentons ici ces trois types de caractérisation :

• la caractérisation d’un objet ou d’une image grâce aux histogrammes du


premier et du second ordre,

• la caractérisation géométrique d’un objet,

• la caractérisation d’une population d’objets.


Chapitre III : Implantation des outils de traitement d’images 105

III.6.1. Caractérisation des histogrammes de niveaux de gris

III.6.1.1. Principe
L’histogramme des niveaux de gris d’un ensemble de points permet de proposer une
caractérisation globale de cet ensemble. Il peut s’agir de tous les points d’une image ou
seulement des points d’une région ou d’un objet.

La moyenne de l’histogramme indique sa position sur la gamme des niveaux de gris. Pour
N points p1 ,… pN de l’image I, le niveau de gris moyen est

1 N
µ= ∑ I [ pi ] .
N i =1

Pour quantifier l’étendue de l’histogramme ou la dispersion des niveaux de gris des points
étudiés, on utilise la variance v (qui est aussi le moment centré d’ordre 2) ou l’écart type σ :

1 N
v = σ = ∑ (I [ pi ] − µ) .
2 2

N i =1

Cette caractérisation globale est par définition applicable aux ensembles de points
structurés par une grille régulière ou par un graphe de voisinage. Dans ce cas, l’avantage des
graphes est que les sommets peuvent être valués par d’autres grandeurs que des intensités et
nous pouvons donc fournir une caractérisation de toutes ces grandeurs : surfaces, orientations,
etc.

La caractérisation de certains objets texturés n’est cependant pas complète si on se limite à


cette analyse globale. Il est parfois nécessaire d’utiliser l’histogramme du second ordre qu’est
la matrice de cooccurrence d’un ensemble de points.

Pour un déplacement t, la matrice MCt associée est définie pour tout couple (a, b ) de

niveaux de gris par

{ }
MCt (a , b ) = card ( p, p + t ) ∈ I 2 / I [ p ] = a ⋅ et ⋅ I [ p + t ] = b .

Cette matrice est en général normalisée pour obtenir la matrice de probabilités pt (a , b ) :

MCt (a , b )
pt (a , b ) = .

a
∑ MCt (a , b )
b
106 Chapitre III : Implantation des outils de traitement d’images

De nombreuses grandeurs ont été définies pour caractériser les matrices de cooccurrence
mais on en retiendra principalement trois [ELMOATAZ 1990] qui renseignent sur le degré
d’homogénéité des points étudiés :

• le moment d’ordre 2, défini par ∑∑ p t (a ,b ) ,


2

a b

• le contraste, défini par ∑ ∑ (a − b) × pt (a , b ) ,


2

a b

• l’entropie, définie par − ∑


a
∑ p (a , b) × log( p (a , b )) .
b
t t

Ces informations permettent par exemple de caractériser les points d’un objet dans une
image en niveaux de gris. Si l’on s’intéresse à des objets texturés, cette analyse peut être
complétée à une échelle différente. Les graphes permettent en effet de représenter le voisinage
des différents éléments de texture et la caractérisation du graphe correspond à une
caractérisation de la texture macroscopique.

Pour un graphe valué G = (S, A,V ) , nous avons utilisé la même définition de la matrice de
cooccurrence mais nous considérons que le déplacement t correspond à une arête (le voisinage
utilisé est donc ici un voisinage du premier ordre) :

MC (a , b ) = card {k = ( p, q ) ∈ A/ v( p ) = a ⋅ et ⋅ v(q ) = b} .

Nous rejoignons en ce sens la définition des matrices de cooccurrence généralisées de


L. S. Davis [DAVIS 1979], où les primitives p et q sont les sommets du graphe, et où le
prédicat spatial est le voisinage du premier ordre :

MC (a , b ) = card {( p, q ) / Pred( p, q ) = vrai ,⋅v( p ) = a ⋅ et ⋅ v(q ) = b}

En utilisant cette généralisation, nous avons développé, pour les graphes de voisinage, les
mêmes outils de caractérisation du second degré que pour les grilles de points.

III.6.1.2. Illustration
Afin d’illustrer les possibilités des histogrammes du premier et du second ordre que nous
venons de décrire, nous avons cherché à caractériser la texture de noyaux cellulaires
(figure 57).
Chapitre III : Implantation des outils de traitement d’images 107

a b c
Figure 57 : exemple de noyaux cellulaires texturés. Visuellement, on est en
mesure d’affirmer que la texture est de plus en plus prononcée du noyau a
au noyau c.

Nous avons calculé les histogrammes de niveaux de gris des pixels de ces noyaux (le fond
de l’image a été éliminé par binarisation) et nous obtenons les caractéristiques du tableau 1.

Figure 57a Figure 57b Figure 57c


Niveau de gris
101 91 41
minimum
Niveau de gris
187 200 190
maximum
Moyenne des
146,89 158,10 129,91
niveaux de gris
Variance des
391,14 505,87 1050,93
niveaux de gris
Tableau 1 : caractérisation de l’histogramme des niveaux de gris pour les
noyaux de la figure 57.

Dans ce cas, on constate que la moyenne des niveaux de gris n’est pas suffisante pour
quantifier la texture mais que la variance augmente lorsque la texture est plus forte.

Nous avons également déterminé et caractérisé la matrice de cooccurrence de ces pixels.


Pour cela, nous avons utilisé une définition de la matrice de cooccurrence plus proche de celle
utilisée pour les graphes, où vp est le 8-voisinage de p :

{ }
MC (a , b ) = card ( p, q ) ∈ I 2 / q ∈ vp ,⋅I [ p ] = a ⋅ et ⋅ I [q ] = b .

Enfin, indépendamment de la matrice de cooccurrence, nous avons calculé la variance des


niveaux de gris autour de chacun des pixels et nous en déterminons la moyenne pour disposer
d’une évaluation globale de la variation locale d’intensité :

v( p ) avec m( p ) = ∑ I [q ] et v( p ) = ∑ (I [q ] − m( p )) .
1 1 1
mv = ∑
2

card (I ) p∈I 8 q∈v p 8 q∈v p


108 Chapitre III : Implantation des outils de traitement d’images

Pour les noyaux de la figure 57, le moment d’ordre 2, le contraste et l’entropie de la


matrice de cooccurrence, ainsi que les moyennes des variances autour de chaque pixel, sont
indiqués dans le tableau 2.

Figure 57a Figure 57b Figure 57c


Moment d’ordre 2
3,96 2,94 2,01
(×1000)
Contraste 720714 2060184 4249294
Entropie 2,74 2,94 3,15
Moyenne des
7,52 13,67 24,84
variances
Tableau 2 : caractérisation des matrices de cooccurrences des niveaux de
gris et des variances locales pour les pixels des noyaux de la figure 57.

On constate que ces quatre grandeurs varient de façon monotone avec l’augmentation de la
texture et qu’elles fournissent un bon outil de comparaison.

En complément de cette caractérisation des niveaux de gris, nous souhaitons utiliser les
statistiques du premier et du second ordre pour quantifier d’autres aspects de la texture. La
figure 58 propose une segmentation obtenue par la ligne de partage des eaux, à partir des
minima de niveaux de gris, grâce à la norme du gradient.

a b c
Figure 58 : segmentation des noyaux de la figure 57 par recherche de la
ligne de partage des eaux, à partir des minima de niveaux de gris.

Les graphes de voisinage permettent de manipuler de nombreuses grandeurs liées aux


objets qu’ils représentent. Par exemple, nous avons choisi de nous intéresser à l’aire des
différentes régions issues de la segmentation d’un objet texturé. En plus du nombre de
régions, nous avons mesuré l’aire maximale, l’aire moyenne et la variance des aires des
régions (tableau 3).
Chapitre III : Implantation des outils de traitement d’images 109

Figure 58a Figure 58b Figure 58c


Nombre de régions 26 31 50
Aire
455 175 205
maximum
Aire moyenne 153,42 81,52 68,78
Variance des aires 11120,24 1426,51 1553,77
Tableau 3 : caractérisation des aires des régions obtenues par segmentation
des noyaux (figure 58).

Cette première caractérisation ne semble pas fournir de résultat capable de rendre compte
de la texture des objets. Seul le nombre de régions varie uniformément avec l’importance de
la texture. Nous avons cependant souhaité approfondir cette analyse pour exprimer dans
quelle mesure l’aire des régions peut rendre compte de la texture.

Par analogie avec la matrice de cooccurrence des intensités des points d’une image, nous
avons déterminé la matrice de cooccurrence des aires des régions et mesuré son moment
d’ordre 2, son contraste et son entropie (nous utilisons pour cela les définitions données
précédemment). Chaque élément MC (a , b ) de la matrice contient alors le nombre de régions
voisines d’aires respectives a et b. Si la plus grande de ces régions compte n pixels, cette
matrice est de dimension n 2 et est très largement remplie de 0. Pour chaque région de l’objet
étudié, nous avons également mesuré, toujours afin d’étudier les mêmes grandeurs que pour la
caractérisation des niveaux de gris, la variance des niveaux de gris des pixels qui compose
cette région et nous avons calculé la moyenne de ces variances pour chaque noyau. Il s’agit de
la même approche que pour la caractérisation des niveaux de gris sauf que dans le cas des
aires des régions, les variances ne sont plus calculées sur 8 pixels mais sur un nombre variable
de pixels. Ces résultats sont résumés dans le tableau 4.

Moment d’ordre 2 Contraste Entropie Moyenne des


(×1000) variances
Figure 58a 8,92 20001,79 2,05 77,77
Figure 58b 7,04 2501,25 2,15 103,39
Figure 58c 4,55 3467,67 2,35 64,50
Tableau 4 : calcul des valeurs caractéristiques de la matrice de cooccurrence
des aires des éléments de texture (figure 58).

Nous remarquons que les mesures faites sur cette matrice n’ont plus réellement de réalité
physique (par exemple, on ne peut pas parler de contraste pour des aires). Cependant,
l’utilisation, dans le contexte des graphes, de ces grandeurs bien connues nous permet de
110 Chapitre III : Implantation des outils de traitement d’images

caractériser facilement une population de valeurs : nous constatons que le moment d’ordre 2
et que l’entropie des matrices ci-dessus varient de façon monotone avec la texture.

Afin de confirmer les résultats obtenus sur ces trois objets nous avons cherché à évaluer ce
type de caractérisation sur un plus grand nombre de cas. Il n’est cependant pas utile de
distinguer un plus grand nombre de niveaux de textures dans des noyaux cellules
(« faiblement » et « fortement » texturés sont en général des qualificatifs suffisants pour les
applications). Nous avons donc choisi de considérer un échantillon de 16 noyaux (figure 59)
donc le niveau de texture est visuellement identifiable. En accord avec les experts du
domaine, 6 de ces noyaux sont qualifiés de « faiblement texturés » (figure 60a) et 6 sont
« fortement texturés » (figure 60b). 4 noyaux possèdent une texture intermédiaire et ont été
affectés à une troisième catégorie (figure 61). Nous avons alors utilisé la caractérisation par
les graphes pour en proposer une classification automatique.

Figure 59 : échantillon de 16 noyaux cellulaires différemment texturés.


Dans ce contexte, la texture est indépendante de l’intensité moyenne de la
cellule mais ne tient compte que de l’irrégularité des objets.
Chapitre III : Implantation des outils de traitement d’images 111

a b
Figure 60 : classification visuelle des noyaux selon leur texture. a : noyaux
faiblement texturés. b : noyaux fortement texturés.

Figure 61 : classification visuelle des noyaux selon leur texture. 4 des 16


noyaux ont été affectés à une catégorie de « texture intermédiaire ».

Nous présentons dans un premier temps une représentation graphique des moments d’ordre
2 et des contrastes des matrices de cooccurrence des niveaux de gris (figure 62). On vérifie
ainsi qu’en moyenne, les valeurs sont bien distinctes pour les noyaux de textures extrêmes.

a b
Figure 62 : caractérisation des histogrammes du second ordre des niveaux
de gris. Les trois séries de noyaux correspondent aux trois séries verticales
de points. De gauche à droite figurent les noyaux faiblement texturés, les
noyaux de texture intermédiaire et les noyaux fortement texturés. a :
moment d’ordre 2. b : contraste.
112 Chapitre III : Implantation des outils de traitement d’images

En appliquant la segmentation des noyaux décrite précédemment et en calculant la matrice


de cooccurrence des aires des éléments de texture, nous obtenons les résultats présentés sur la
figure 63.

a b
Figure 63 : caractérisation des histogrammes du second ordre des aires des
éléments de texture. a : moment d’ordre 2. b : entropie.

Ces deux graphiques présentent cependant un cas particulier qu’il est nécessaire de
signaler. Le noyau le moins texturé (deuxième noyau de la figure 60a) n’a pas été segmenté ;
il n’est composé que d’une région. Le moment d’ordre 2 et l’entropie sont par conséquent
nuls. Cependant, si on traite cette situation à part, ces résultats confirment que les valeurs du
moment d’ordre 2 et de l’entropie permettent de faire la distinction entre les différentes
catégories de texture.

Nous mettons donc en évidence la possibilité de mesurer de nombreuses grandeurs sur des
objets composés de plusieurs éléments. Ceci montre encore une fois l’intérêt des graphes pour
des études qui ne peuvent être faites sur des grilles de points.

III.6.2. Caractérisation géométrique


Comme nous l’avons annoncé dans le chapitre précédent, nous avons étendu à la troisième
dimension certains attributs géométriques définis sur des objets 2D [ELMOATAZ 1990].

Pour cela, nous utilisons différentes notations. L’enveloppe convexe d’un objet X est
notée co( X) . Pour un objet en deux dimensions, l’aire et le périmètre sont respectivement

notés A( X) et P ( X) . Si l’objet provient d’un espace à trois dimensions, son volume et sa

surface sont V( X) et S( X) .

Dans le contexte échantillonné des images numériques, l’évaluation rapide de la surface ou


du volume d’un ensemble nécessite une approximation. Nous avons choisi de mesurer ces
grandeurs par des nombres de voxels. Le volume d’un ensemble X correspond au nombre de
voxels contenus dans X. On obtient donc une approximation par défaut. La surface est
approchée par le nombre de voxels de X ayant au moins un voisin extérieur à X.
Chapitre III : Implantation des outils de traitement d’images 113

En deux dimensions, l’enveloppe convexe d’un objet est obtenue grâce à la méthode des
tangentes : le contour de l’objet est parcouru jusqu’à ce que la tangente en un point intersecte
l’objet en un second point (figure 64).

Figure 64 : principe de la recherche d’enveloppe convexe par la méthode


des tangentes.

En trois dimensions, la généralisation de cette méthode oblige à chercher des intersections


entre un plan et un objet. La complexité de cette solution nous a incité à utiliser un calcul
approché de l’enveloppe convexe. Pour cela, nous procédons par itérations successives en
comblant les régions concaves.

Autour de chaque voxel, le comblement des concavités s’effectue en deux étapes :

• pour chacune des 13 directions du 26-voisinage 3D, on conserve la valeur


maximale des deux voisins du voxels considéré,

• on recherche ensuite le minimum de ces 13 valeurs et on l’affecte au voxel.

Cette méthode construit alors un objet convexe, enveloppant l’objet initial (figure 65). Le
défaut de cette méthode est que l’objet obtenu est largement enveloppant mais en contrepartie,
son obtention est très rapide.

Figure 65 : approximation de l’enveloppe convexe d’un objet par


comblement progressif des concavités.
114 Chapitre III : Implantation des outils de traitement d’images

À titre d’exemple, nous avons construit l’enveloppe convexe de trois objets artificiels : une
boule pour simuler l’étude d’un noyau cellulaire, un cube (parallèle aux axes de l’image) pour
sa simplicité et sa particularité et la réunion de trois boules ressemblant à un amas de cellules.
Pour le cube, l’enveloppe est identique à l’objet de départ. Pour les boules, les résultats sont
proposés sur les figures 66 et 67.

Figure 66 : exemple de calcul d’enveloppe convexe rapide pour une boule.

Figure 67 : exemple de calcul d’enveloppe convexe pour un amas.

Grâce à la recherche d’enveloppes convexes et à la mesure de volumes et de surfaces, nous


sommes en mesure de déterminer plusieurs caractéristiques géométriques des objets.

Dans un premier temps, nous avons très simplement généralisé l’indice de concavité (égal
à 1 pour un objet convexe et inférieur à 1 pour un objet concave) :

A( X)
IC( X) = en deux dimensions,
A( co( X))

V( X)
IC( X) = en trois dimensions.
V( co( X))
Chapitre III : Implantation des outils de traitement d’images 115

Nous avons également utilisé la compacité C ( X ) et l’indice de déficit isopérimétrique

IP ( X ) = 1 − C ( X ) . En 2D, IP ( X ) est nul pour un disque, égal à 0,21 pour un carré et IP ( X )


s’approche de 1 pour des objets très irréguliers :

4πA( X)
IP( X) = 1 − .
P ( X)
2

Nous avons gardé les mêmes propriétés pour proposer une expression de IP ( X ) en 3D.

IP ( X ) est alors nul pour une boule et égal à 0,93 pour un cube :

9πV( X)
2

IP( X) = 1 −
2S( X)
3

Bien d’autres grandeurs caractéristiques ont été définies en deux dimensions : l’indice
d’écart au cercle inscrit (nul pour un disque et proche de 1 pour un objet allongé), l’indice
d’allongement utilisant le rayon géodésique, etc. Il est évident que les formules associées
peuvent être transformées et adaptées à la troisième dimension.

Afin de valider notre méthode de calcul d’enveloppe convexe, nous avons calculé ces deux
grandeurs (indice de concavité et indice de déficit isopérimétrique) sur nos objets artificiels.
Les mesures utilisées sont présentées sur le tableau 5 (en nombre de voxels).

Volume Volume Volume mesuré Surface Surface


théorique mesuré de l’enveloppe théorique mesurée
Boule de 40
268082 243441 257745 10053 12402
voxels de rayon
Cube de 80
512000 512000 512000 38400 38400
voxels de coté
Agglomération Non Non
680621 996455 39520
de trois boules déterminé déterminée
Tableau 5 : mesures des volumes et des surfaces de nos objets de test. Ces
mesures sont à comparer avec les valeurs théoriques correspondantes.

À partir de ces mesures, nous calculons l’indice de concavité et l’indice de déficit


isopérimétrique de nos trois objets (tableau 6). Lorsque celle-ci est connue (pour la boule et le
cube), nous indiquons la valeur théorique correspondante.
116 Chapitre III : Implantation des outils de traitement d’images

IC théorique IC mesuré IP théorique IP mesuré


Boule de 40
1 0,94 0 0,56
voxels de rayon
Cube de 80
1 1 0,93 0,93
voxels de coté
Agglomération
<1 0,68 Entre 0 et 1 0,89
de trois boules
Tableau 6 : étude de l’indice de concavité et de l’indice de déficit
isopérimétrique pour nos objets de test.

Ces résultats confirment que notre méthode ne fournit qu’une approximation de


l’enveloppe convexe. Cependant, nous constatons que les positions relatives des résultats sont
en accord avec la théorie. Nous considérons alors que notre approche est satisfaisante dans le
cadre de nos applications de traitement d’images de microscopie. En effet, la notion de
convexité n’intervient en général que pour faire la distinction entre des cellules isolées
(convexes ou faiblement concaves) et des amas de cellules (fortement concaves).

Nous disposons donc de différents attributs permettant de caractériser des objets, en deux
ou en trois dimensions, selon leur contenu en niveaux de gris ou selon leur forme.

III.6.3. Caractérisation de populations


Afin de caractériser une population d’objets, nous avons montré dans la section II.1.2 que
les graphes de voisinage constituent un outil particulièrement intéressant. Nous proposons ici
des critères d’évaluation de l’architecture d’une population d’objets ou de la répartition d’une
population d’objets au sein d’une autre.

D’une part, les différentes structures de voisinage constituent une famille de descripteurs
visuels pour l’organisation d’une population d’objets. La figure 68 présente le graphe de
Delaunay, le graphe d’influence, le graphe des voisins relatifs et l’arbre de recouvrement
minimal (calculé sur la longueur des arêtes) pour une collection de points.
Chapitre III : Implantation des outils de traitement d’images 117

a b c d e
Figure 68 : série de descripteurs pour une population d’objets. a : population
d’objets ponctuels. b : graphe de Delaunay (GD). c : graphe d’influence
(GI). d : graphe des voisins relatifs (GVR). e : arbre de recouvrement
minimal (MST).

On remarque sur cet exemple que le graphe de Delaunay est le plus dense (il est aussi le
plus simple à obtenir), que le graphe d’influence est le plus proche des contours de la
population et que l’arbre de recouvrement minimal renseigne sur la structure interne de la
population. Plusieurs travaux exploitant ces structures pour caractériser une population
d’objets ont été présentés dans la section II.2.4.

D’autre part, les graphes sont utilisés pour fournir des informations sur la répartition d’une
population d’objets au sein d’une autre. Ce problème se pose par exemple dans des images de
microscopie contenant des cellules biologiquement marquées et des cellules n’ayant pas
répondu au marquage. Nous étudions ce problème dans l’application de la section IV.1.

Les graphes de voisinage offrent une réponse efficace à ce type de question : il s’agit de
caractériser un graphe dont les sommets sont de deux types (type A et type B). Nous avons
pour cela développé deux outils.

• Le premier est le calcul de la proportion d’arêtes homogènes et non


homogènes. Dans un graphe binaire, trois types d’arêtes existent selon les valeurs
de leurs extrémités : A/A, A/B et B/B. Les proportions des ces trois types d’arêtes
fournissent des renseignements sur le caractère focal ou dispersé des sommets de
type A. Afin de fournir des grandeurs normalisées, ces trois proportions ont été
rapportées au pourcentage de sommets de type A dans le graphe.

• Le second est l’histogramme des proportions de sommets A dans le voisinage


direct des sommets du même type. Chaque sommet de type A est valué par le
pourcentage de sommets de type A parmi ses voisins immédiats (voisinage du
premier ordre dans le graphe). C’est la répartition de ces valeurs qui nous
renseigne sur le caractère focal ou dispersé des sommets de type A.
118 Chapitre III : Implantation des outils de traitement d’images

Dans les deux cas, afin de nous libérer des effets liés au bord de l’image (même s’il a été
montré que celui-ci est faible pour de grandes images [MEIJER 1996]), nous avons choisi de
ne pas caractériser les sommets dont la zone d’influence touche le bord de l’image (par
exemple, le sommet numéro 2 de la figure 69). Par contre, ces sommets sont pris en compte
s’ils font partie du voisinage (régions en gris foncé) d’un sommet à caractériser.

a b
Figure 69 : représentation des différentes catégories de zones d’influences
de sommets. a : les sommets de type A sont en noir. b : les sommets qui ne
doivent pas être caractérisés sont en gris clair (dont le sommet numéro 2
puisqu’il touche le bord de l’image), les voisins directs de ces sommets en
gris foncé, les autres sommets sont en blanc.

La seconde approche peut être complétée par l’analyse du graphe de distance. Il s’agit
d’associer à chaque sommet de type B le nombre d’arêtes le séparant du plus proche sommet
de type A. La forme de l’histogramme de ces distances permet alors de renseigner sur la
répartition des sommets [RAYMOND 1993].

Nous avons présenté l’implantation de plusieurs catégories d’opérateurs de visualisation,


de traitement et de caractérisation d’images, applicables aux grilles de points comme aux
graphes de voisinage. En complément de ces opérateurs, la bibliothèque PANDORE regroupe
de nombreux autres opérateurs (Annexe 2). Dans le chapitre suivant, nous proposons quelques
exemples d’enchaînement de ces opérateurs généraux, appliqués à la quantification d’images
de microscopie cellulaire.
Chapitre IV : Application au traitement
d’images obtenues par microscopie confocale
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 121

Les médecins, les biologistes, les pathologistes et tous les experts en biomédecine sont
aujourd’hui confrontés au besoin grandissant de fonder des diagnostics quantitatifs et
objectifs sur des préparations toujours plus nombreuses et variées. Le développement de
nouveaux capteurs et de moyens de calcul numérique performants ont autorisé l’essor des
techniques d’acquisition et de traitement d’images dans bien des domaines et tout
naturellement dans celui de l’imagerie biomédicale. Cependant, la description de l’image
d’une préparation biologique dépend de l’élaboration de cette préparation, des connaissances
liées au spécimen observé et de l’observateur lui-même. En effet, la reproductibilité des
descriptions n’est pas totale entre plusieurs experts en pathologie, et même pour un même
expert décrivant plusieurs fois la même préparation. L’automatisation des traitements et la
reproductibilité des résultats font du traitement d’images un puissant outil d’investigation et
d’analyse.

En imagerie biomédicale, comme dans tous les domaines du traitement d’images, les
objectifs sont très variables. Dans l’exemple de l’étude du cancer, l’analyse automatique
d’images peut servir au dépistage, au diagnostic ou au pronostic [HERLIN et al. 1997].

Depuis 1950, de gros efforts ont été faits dans la préparation des échantillons biologiques,
dans la rigueur des acquisitions d’images, de l’automatisation de la segmentation, de la
caractérisation. De nombreux travaux dans ces domaines ont été résumés par F. Cloppet-Oliva
[CLOPPET-OLIVA 1996].

Selon les domaines d’application, l’imagerie biomédicale se présente à deux principales


échelles : l’échelle macroscopique pour une approche médicale et l’échelle microscopique
pour une vision plutôt biologique des processus observés. Dans les deux cas, trois techniques
permettent d’obtenir une image à partir d’un spécimen observé.

• L’obtention d’une information transmise après absorption partielle. C’est le cas


de la radiographie X ou du scanner en imagerie macroscopique et de nombreuses
techniques en microscopie.

• La détection d’un signal émis après excitation. On en a des exemples en


imagerie par résonance magnétique (IRM) ou en microscopie de fluorescence.
122 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale

• L’étude de la réflexion d’un signal sur l’objet à observer. Ce principe est utilisé
en imagerie ultrasonore, en échographie mais beaucoup moins en microscopie.

Lorsque le spécimen observé ne possède pas les propriétés nécessaires au mode


d’acquisition souhaité, des produits adaptés sont ajoutés à la préparation. C’est le cas des
colorants, des traceurs radioactifs ou fluorescents. En microscopie, les organismes étudiés
doivent en général être mis en évidence par des marquages adaptés. En « fond clair », des
substances colorées sont connues pour réagir spécifiquement avec certaines structures (par
exemple, le Feulgen pour l’ADN). La lumière blanche transmise est modifiée par les colorants
et les images obtenues présentent des objets foncés sur un fond clair. En fluorescence, on fait
réagir un anticorps spécifique avec l’entité que l’on cherche à observer. On choisit alors un
fluorochrome réputé pour s’attacher facilement à l’anticorps et c’est ce fluorochrome qui sera
observé. Ce couplage d’un fluorochrome à un anticorps est principalement utilisé pour la
détection de protéines. Les fluorochromes peuvent également être couplés à des sondes
oligonucléotidiques qui permettent la détection de séquences spécifiques d’ADN. En
conséquence, les images de fluorescence présentent des objets clairs sur un fond noir (le plus
noir possible, correspondant à l’absence d’un marquage parasite).

Dans ce chapitre, nous présentons plusieurs exemples de traitement d’images de tissus


biologiques et de culture de cellules. Ces exemples mettent en œuvre la méthodologie de
développement d’applications de traitement d’images précédemment décrite. Ils illustrent
également les stratégies et les opérateurs de traitement d’images développés pour manipuler
des images en deux et trois dimensions.

IV.1. Caractérisation de l’architecture dans des coupes histologiques


Dans cette section, nous proposons un exemple de traitement d’images impliquant
largement les graphes de voisinage. Elle consiste en l’analyse de l’architecture des collections
de noyaux cellulaires dans des coupes histologiques. Nous commençons par présenter le cadre
général de l’histologie avant de détailler l’application réalisée sur des images
bidimensionnelles. Nous abordons ensuite les possibilités d’extension de cette analyse à des
images tridimensionnelles, provenant de coupes histologiques épaisses.

IV.1.1. L’histologie
L’histologie s’attache à étudier les cellules organisées en des entités plus vastes et plus
complexes que sont les tissus biologiques. Elle est intimement liée à la sociologie cellulaire
qui se propose d’analyser les relations existant entre les fonctions biologiques des cellules et
leur organisation spatiale. En complément des caractéristiques cytologiques, l’histologie
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 123

clinique vise à apprécier les arrangements topographiques des cellules afin de caractériser la
bénignité ou la malignité des lésions.

La pratique quotidienne en pathologie clinique aussi bien que la recherche en biologie


cellulaire ont suscité le besoin d’une appréciation objective de la prolifération et de la
différenciation cellulaire. L’immunohistochimie quantitative constitue par conséquent un
enjeu important, mais sa mise en œuvre pose un certain nombre de problèmes
méthodologiques : standardisation de la préparation des échantillons, standardisation et
automatisation de la méthode de mesure [WEINBER 1994].

La réalisation d’un outil de mesure par analyse d’images, dédié à la pratique quotidienne
en oncologie, impose par exemple d’être à même d’identifier et d’apprécier la proportion
relative des structures marquées et non marquées, de limiter cette analyse aux massifs de
cellules tumorales en faisant abstraction du stroma nourricier et inflammatoire et enfin
d’analyser la topographie du marquage.

La figure 70 propose un exemple d’image histologique 2D. Il s’agit d’une coupe fine
contenant des acini de tissu mammaire normal. L’architecture d’un tissu normal est
caractérisé par des couronnes de cellules entourant chacune une lumière. L’image contient
également quelques cellules en prolifération, marquées en brun par immunohistochimie. Il
s’agit dans ce cas du taux normal de cellules en duplication.

Figure 70 : exemple d’image couleur de coupe histologique de tissus


mammaire.

IV.1.2. Un exemple d’application en 2D


En collaboration avec le service d’anatomie pathologique du Centre Régional de Lutte
Contre le Cancer de Basse-Normandie, le Centre François Baclesse de Caen, nous avons mis
124 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale

au point une application de traitement d’images visant à caractériser la répartition des cellules
en prolifération dans des coupes histologiques. Cette application en deux dimensions est un
exemple de l’efficacité de notre méthodologie de développement de programmes de
traitement d’images. Elle illustre également la puissance de l’approche faisant intervenir les
graphes de voisinage au cours du traitement des images.

L’identification automatique d’un immunomarquage nucléaire peut être effectuée grâce à


des outils de morphologie mathématique [BELHOMME 1996]. À notre connaissance,
l’identification automatique des massifs de cellules tumorales au sein du stroma n’a pas été
abordée jusqu’à présent et l’analyse de la topographie du marquage a fait l’objet de peu de
travaux [HAROSKE 1996], [SOUCHIER 1996], [PALMARI 1997]. Dans les travaux que
nous présentons ici, l’objectif des pathologistes est de limiter l’étude de la répartition de
l’immunomarquage à l’intérieur des massifs tumoraux.

IV.1.2.1. Matériel
L’étude réalisée porte sur des coupes histologiques de carcinomes mammaires (canalaire
infiltrant et mixte) et de tissu mammaire normal, fixées au formol et incluses en paraffine. Ces
préparations sont effectuées par les équipes de recherche du Centre François Baclesse.

Le marquage des noyaux de cellules épithéliales est réalisé par immunodétection de


molécules associées à la prolifération cellulaire (Ki67 : MiB1-Immunotech) ou à la
différenciation cellulaire (récepteurs d’œstrogène: clone 1D5-Dako, récepteurs de
progestérone : clone 1A6-Novocastra) suivie d’une révélation par le complexe
immunoperoxydase-diaminobenzidine. Les noyaux marqués sont donc colorés en brun et les
noyaux non marqués contre-colorés en bleu par l’hématoxyline de Harris.

Les images sont acquises au grossissement ×33 à partir d’un microscope Olympus BH2,
grâce à une caméra tri-CCD (JVC KY-F30) à une résolution de 768×576 pixels (soit un pixel
d’environ 0,8µm de côté). Ces images sont ensuite décomposées en trois plans couleur et
réduites à 750×573 pixels pour n’en conserver que la partie significative. La composante verte
permet d’obtenir une image en niveaux de gris proche de l’image d’origine en raison de la
couleur des noyaux dans la préparation. Ceux-ci forment des objets sombres sur un fond clair
et homogène.

Les noyaux qui forment un regroupement ont en général des tailles voisines mais la taille
moyenne peut varier d’un groupement à un autre. De plus, les regroupements peuvent être
elliptiques avec la présence éventuelle d’une lumière au centre, ils peuvent être très massifs
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 125

ou composés d’une série de noyaux rangés en lignes les uns à coté des autres, etc. Les
regroupements peuvent enfin être composés d’un nombre très variable de noyaux (figure 71).
Il est donc nécessaire de disposer d’algorithmes robustes pour tenir compte de la variabilité de
cette classe d’images.

a b
Figure 71 : exemples d’images de coupes histologiques. a : travées
tumorales bien différenciées d’un carcinome canalaire infiltrant du sein,
marqué au 1A6, ×33. b : travées tumorales en files indiennes d’un
carcinome canalaire mixte du sein, marqué au MiB1, ×33.

L’objectif final est de calculer la proportion de noyaux marqués par rapport aux noyaux
non marqués, uniquement à l’intérieur des massifs tumoraux. Nous présentons dans les
sections suivantes les deux parties de notre travail :

• la délimitation des massifs de cellules tumorales,

• l’étude de la topographie du marquage immunohistochimique.

IV.1.2.2. Délimitation des massifs de cellules tumorales


Le but de cette segmentation est de réaliser une sélection de la population de cellules, en
fonction de leur appartenance à des massifs tumoraux. En termes de traitement d’images, nous
devons réaliser un masque pour ne retenir que les objets regroupés en massifs. Sur l’exemple
de la figure 72, toutes les cellules extérieures aux massifs tumoraux doivent être éliminées.
126 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale

a b
Figure 72 : objectif de la segmentation de l’image 71b. a : segmentation
initiale des cellules. b : tracé manuel des contours des massifs. Seules les
cellules intérieures à ces massifs doivent être conservées.

Nous cherchons donc à délimiter des structures composées de plusieurs éléments plus
petits : des regroupements de cellules. Deux étapes sont nécessaires à deux échelles
différentes.

• Dans un premier temps, les pixels de l’image doivent être regroupés selon
plusieurs critères pour représenter des objets correspondant aux noyaux des
cellules tumorales. Cette étape peut être réalisée grâce à différentes techniques.
Nous avons choisi d’utiliser la ligne de partage des eaux sur les niveaux de gris de
l’image [ELMOATAZ 1997]. Les germes sont obtenus à partir de l’image lissée
par un filtre exponentiel symétrique (coefficient 0,40). Nous retenons d’une part
tous les pixels du fond de l’image par une binarisation (par rapport au seuil 176,
choisi par expérimentation sur une dizaine d’images de cette classe), et d’autre
part les centres des noyaux cellulaires par une détection des minima locaux.

• Dans un second temps, un autre regroupement doit être opéré à une échelle
supérieure pour associer les cellules qui constituent les massifs. Nous sommes
contraints pour cela d’utiliser une autre représentation de l’image que la grille de
pixels et de tenir compte des relations de voisinage entre des objets non
strictement adjacents. La manipulation d’un ensemble d’objets et de leurs
relations de voisinage se fait idéalement en représentant l’image par la structure
de graphe.

Nous savons a priori que les cellules possèdent une taille minimale. Pour le grossissement
utilisé sur le microscope, cette taille est de l’ordre de 40 pixels. Tous les objets de taille
inférieure ne doivent pas être pris en compte (bruit d’acquisition, débris, lymphocytes, etc.).
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 127

D’autre part, en accord avec les pathologistes, nous avons déterminé qu’au-delà d’une
quinzaine de pixels de distance, deux cellules ne doivent plus être considérées comme
appartenant au même regroupement perceptuel. Enfin, nous avons décidé de supprimer les
petits regroupements d’objets correspondant par exemple aux amas résiduels de lymphocytes
du stroma ou aux cellules isolées. Nous considérons que les regroupements dont la surface
totale est inférieure à 5 fois la surface d’une cellule tumorale (5×40 pixels) ne doivent pas être
conservés.

Aux plus hauts niveaux, le problème se décompose selon l’arborescence de la figure 73. Le
plan de résolution correspondant à la détection des massifs tumoraux est présenté en
Annexe 3.

Sélectionner les
cellules tumorales
regroupées en massifs

Sélectionner les Éliminer les objets


cellules tumorales extérieurs aux massifs

Segmenter tous Éliminer les Contruire les Éliminer les petits


les objets objets trop petits massifs d’objets massifs

Figure 73 : décomposition du problème de sélection de cellules tumorales


regroupées en massifs.

Afin de transformer une image présentant une collection d’objets en un graphe de


voisinage, une première étape consiste à définir une zone d’influence pour chaque objet et à
estimer ainsi les distances inter-objets. Ceci est obtenu en calculant la partition de Voronoï de
l’image. Généralement, pour calculer cette partition, les objets sont réduits à des points et les
zones d’influence sont des polygones. Nous avons choisi de déterminer les zones d’influence
des noyaux eux-mêmes et ainsi, de calculer les distances inter-nucléaires réelles plutôt que les
distances entre les centres de gravité des noyaux. Les frontières entre les zones d’influence
des objets permettent de construire le graphe de Delaunay. Ce graphe représente donc les
relations de proximité entre les objets, même si ceux-ci ne sont pas adjacents. Chaque arête
est alors pondérée par la moitié de la distance entre les deux objets correspondant à ses
extrémités.
128 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale

Nous avons choisi d’utiliser cette distance entre objets comme critère de coupure des arêtes
dont les extrémités sont « éloignées ». Comme nous l’avons déjà signalé dans la
section III.5.3, la suppression de certaines arêtes du graphe permet d’obtenir le même résultat
qu’une opérations de croissance de composantes connexes. Dans la présente situation, il est
plus efficace de supprimer toutes les arêtes dont le poids est supérieur à un seuil plutôt que
d’opérer une croissance contrainte aux autres arêtes. Nous obtenons alors plusieurs sous-
graphes correspondant chacun à un regroupement perceptuel de noyaux. Bien que la théorie
de la Gestalt que nous avons évoquée précédemment (section II.2.4.1) définisse plusieurs
règles de regroupement, nous avons choisi le critère de proximité puisqu’il semble être, avec
le principe de similarité, le plus important. Notre approche nous laisse cependant libre
d’utiliser d’autres critères de séparation des regroupements.

L’enchaînement des opérateurs correspondant à ce traitement est présenté sur le script ci-
dessous. Les lignes commençant par le symbole « # » sont des lignes de commentaires. Le
nom des images est composé de la lettre « m » (pour Massifs) et d’un numéro à trois chiffres.
L’image m001 de départ est la carte de régions des cellules initiales. Les valeurs critiques
(taille minimale d’un noyau, distance inter-nucléaire maximale des noyaux à regrouper et
taille minimale d’un regroupement) sont actuellement choisies par l’utilisateur en fonction de
ses connaissances a priori concernant l’image.
surface 1 40 m001 m002
# elimination des petits objets.
# le parametre 1 signifie que les regions de surface superieure
# au deuxieme parametre seront conservees.
# le parametre 40 correspond au nombre de pixels d’une cellule
# tumorale.
voisins m002 m003 m004 m005
# calcul de la partition de Voronoi et du graphe de Delaunay.
# m003 est la carte de distances, m004 est la carte de Voronoi,
# m005 est le graphe. les aretes sont ponderees par la
# demi-distance entre les germes.
gcoupe 0 8 m005 m006
# segmentation du graphe en sous-graphes.
# les aretes de poids compris entre les deux seuils sont
# conservees. 8 correspond a la moitie des 15 pixels
# minimum separant des noyaux de deux massifs.
gisole m006 m007
# suppression des sommets n’ayant plus de voisins.
gmarquage2 m007 m008
# etiquetage des sous-graphes.
grtaille2 m002 m008 m009
# mesure du nombre de pixels de chaque regroupement.
seuillage 200 65535 m009 m010
# suppression des petits groupes d’objets.
# les composantes de taille comprise entre 200 pixels (5 objets
# de 40 pixels) et la surface maximale (entiers codes sur
# 16 bits) sont conservees.
gisole m010 m011
# suppression des aretes attachees aux sommets qui viennent
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 129

# d’etre supprimees.
gmarquage2 m011 m012
# etiquetage des sous-graphes.
resreg m002 m012 | im2rg - m013
# construction de l’image resultat.
Les figures 74 et 75 illustrent les différentes étapes du traitement réalisé à partir d’une
image d’une coupe histologique dans un carcinome canalaire infiltrant dont les cellules
tumorales sont organisées en groupements massifs. La figure 76 permet de comparer les
cellules sélectionnées dans le cas de la délimitation manuelle et de la délimitation automatique
des massifs. Les figures 77 et 78 présentent les résultats obtenus sur deux autres types
d’images de cancers mammaires : celle de cordons tumoraux bien différenciés et celle, plus
difficile, d’une organisation cellulaire en files indiennes.

a b
Figure 74 : étape de localisation des noyaux cellulaires au cours du
traitement d’une image histologique de cordons massifs dans un carcinome
canalaire infiltrant du sein, marqué au 1D5, ×33. a : composante verte de
l’image couleur à traiter. b : individualisation et sélection des cellules
tumorales.
130 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale

a b

c d
Figure 75 : étape de localisation des regroupements cellulaires pour une
image de carcinome canalaire infiltrant du sein. a : partition de Voronoï
associée à la population de noyaux. b : graphe de Delaunay correspondant.
c : segmentation du graphe. d : utilisation de la localisation des cellules de
départ (figure 74b) pour visualiser les différents regroupements.

a b
Figure 76 : comparaison entre la sélection manuelle des cellules et la
sélection automatique. a : cellules à l’intérieur des contours manuels. b :
cellules à l’intérieur des massifs détectés automatiquement.
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 131

a b
Figure 77 : résultat pour une image histologique de travées tumorales bien
différenciées dans un carcinome canalaire infiltrant du sein, marqué au 1A6,
×33. a : image initiale. b : résultat du traitement.

a b
Figure 78 : résultat pour une image histologique de travées tumorales en
files indiennes dans un carcinome canalaire mixte du sein, marqué au MiB1,
×33. a : image initiale. b : résultat du traitement.
132 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale

Afin d’évaluer la robustesse de notre méthode, nous avons appliqué le même traitement, à
partir d’une segmentation initiale obtenue avec les mêmes paramètres (0,4 et 176), en utilisant
les mêmes valeurs limites de taille (40 et 200) et de distance entre les objets (8), sur 5 images
dont la localisation des massifs a été faite par un expert du domaine d’application. Deux de
ces images ont déjà été présentées (figures 74a et 78a) et les trois autres apparaissent sur la
figure 79.

a b c
Figure 79 : allure des images utilisées pour l’évaluation de notre méthode de
localisation des massifs de cellules tumorales.

Nous avons ensuite comparé le nombre de cellules conservées dans le cas manuel et dans
le cas automatique, la surface totale de l’ensemble de ces cellules et la proportion de
recouvrement des deux résultats. Les tableaux 7 et 8 présentent ces mesures pour la sélection
des cellules à partir des contours manuel et automatique des massifs.

Image 1 Image 2 Image 3 Image 4 Image 5


figure 78a figure 79a figure 74a figure 79b figure 79c
Nombre de cellules
629 1008 1062 1051 1137
retenues
Surface totale des
88206 151673 162891 215599 177604
cellules (en pixels)
Tableau 7 : mesures du nombre de cellules et de leur surface totale à
l’intérieur de la délimitation manuelle des massifs tumoraux.

Image 1 Image 2 Image 3 Image 4 Image 5


Nombre de cellules
558 918 965 1024 1048
retenues
Surface totale des
87456 149132 164687 228531 177013
cellules (en pixels)
Tableau 8 : mesures du nombre de cellules et de leur surface totale à
l’intérieur de la délimitation automatique des massifs tumoraux.
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 133

Le tableau 9 présente le résultat de trois calculs permettant de comparer les deux


approches :

• le rapport du nombre de cellules à l’intérieur de la délimitation automatique sur


le nombre de cellules à l’intérieur de la délimitation manuelle,

• la surface commune aux deux sélections de cellules, rapportée à la surface des


cellules de l’approche manuelle,

• la surface de la différence entre les deux sélections, rapportée à la surface des


cellules de l’approche manuelle.

Image 1 Image 2 Image 3 Image 4 Image 5


Rapport des nombres
88,71% 91,07% 90,87% 97,43% 92,17%
de cellules
Pourcentage de
95,98% 96,93% 97,56% 99,20% 98,32%
surface commune
Pourcentage de
4,02% 3,07% 2,44% 0,80% 1,68%
différence de surface
Tableau 9 : mesures du nombre de cellules et de leur surface totale à
l’intérieur de la délimitation automatique des massifs tumoraux.

L’analyse de ces résultats nous permet de considérer que notre méthode de segmentation
fournit des cellules très proches des cellules conservées par la délimitation manuelle des
massifs tumoraux. Nous constatons cependant (tableau 9) que les massifs délimités
automatiquement contiennent toujours moins de cellules que lors de la délimitation manuelle.
Ceci s’explique simplement par le fait que dans le cas du tracé manuel, l’expert sélectionne
des zones de manière grossière, à l’intérieur desquelles certains objets indésirables sont
encore présents (petits objets qui devront être supprimés ultérieurement). Au cours de notre
sélection automatique, nous sélectionnons directement les noyaux cellulaires et les contours
des massifs sont beaucoup plus proches de la réalité (la différence est particulièrement
sensible pour des contours très irréguliers).

Les graphes de voisinage constituent donc un outil efficace pour regrouper les cellules de
nos images en fonction de leur proximité. Au niveau de la segmentation initiale, la
segmentation des noyaux, de nombreuses stratégies ont été utilisées avant de parvenir à un
résultat correct. L’utilisation de la bibliothèque d’opérateurs PANDORE s’est révélée d’une
grande efficacité dans la recherche du bon enchaînement d’opérateurs. D’autres améliorations
utilisant la morphologie mathématique et les contours actifs sont encore recherchées pour
cette première étape [SCHÜPP 1998].
134 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale

IV.1.2.3. Topographie du marquage


Lorsque les noyaux sont localisés (segmentés) et caractérisés (marqués ou non), nous
utilisons également les graphes de voisinage pour analyser la répartition des noyaux marqués
au sein de la tumeur.

Nous proposons pour cela les deux outils de caractérisation de graphes déjà présentés
(section III.6.3).

• Le calcul de la proportion d’arêtes homogènes et non homogènes : chaque


noyau pouvant être marqué ou non marqué, on utilise les trois types d’arêtes d’un
graphe binaire.

• L’histogramme des proportions de sommets d’un type dans le voisinage direct


des sommets du même type : on s’intéresse à la proportion de noyaux marqués
parmi les voisins d’un noyau lui-même marqué.

La figure 80 propose deux types de marquage pour l’image de la figure 70 : le marquage


dispersé au MiB1 (figure 80a) et la simulation manuelle d’un marquage focal (figure 80b).

a b
Figure 80 : exemples de marquages sur une image d’acini dans un tissu
mammaire normal. a : marquage dispersé au MiB1. b : simulation manuelle
de marquage focal. Le nombre de noyaux « marqués » est identique dans les
deux cas.

Après le calcul du diagramme de Voronoï de tous les noyaux et la construction du graphe


de Delaunay correspondant, les sommets représentant les noyaux marqués ont été distingués
des autres sommets. La figure 81 présente les régions de Voronoï déduites de la collection de
noyaux. Les régions colorées en noir correspondent aux noyaux marqués.
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 135

Figure 81 : partition de Voronoï des noyaux et mise en évid ence (en noir)
des régions correspondant aux noyaux marqués de la figure 80.

Plusieurs catégories de sommets sont alors définies en fonction du marquage et des


positions des noyaux de l’image. Sur la figure 82, on retrouve en noir les régions
correspondant aux noyaux marqués. Ce sont ces noyaux que nous étudions en fonction des
noyaux dans leur voisinage immédiat (en gris foncé). Comme nous l’avons précisé au chapitre
précédent (section II.2.4), les noyaux du bord de l’image (gris clair) ne sont pas caractérisés.

Figure 82 : représentation des régions relatives aux différents types de


noyaux. Les noyaux marqués correspondent aux régions en noir. Les
noyaux dans le voisinage direct d’un noyau marqué sont représentés par une
région en gris foncé. Les noyaux non caractérisés car touchant le bord de
l’image sont représentés par des régions en gris clair. Les autres noyaux sont
représentés par une région en blanc.

Dans un premier temps, nous avons étudié les proportions des différents types d’arêtes
dans le graphe (selon le marquage des noyaux qu’elles relient) : marqué/marqué (I),
marqué/non marqué (II) et non marqué/non marqué (III). Nous avons ensuite rapporté ces
136 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale

proportions au pourcentage de noyaux marqués dans l’image. Les résultats sont présentés
dans le tableau 10.

Marquage dispersé (fig. 80a) Marquage focal (fig. 80b)


Type I 0,48% (0,08) 4,43% (0,76)
Type II 12,94% (2,23) 3,15% (0,54)
Type III 86,58% (14,95) 92,42% (15,96)
Tableau 10 : proportion des trois types d’arêtes (et entre parenthèses, la
proportion rapportée au nombre de noyaux marqués) pour les deux
simulations de marquage.

On se rend compte que la troisième catégorie est majoritaire dans les deux cas, puisque la
proportion de noyaux marqués est assez faible (5,79%), mais que les proportions sont
inversées pour les deux premiers types d’arêtes.

Dans un second temps, nous avons calculé le pourcentage de noyaux marqués autour de
chaque noyau marqué. Pour chaque noyau marqué, nous avons divisé le nombre de ses
voisins marqués par le nombre de tous ses voisins. Nous obtenons ainsi une évaluation de la
concentration locale du marquage. Afin de caractériser l’ensemble de la population, nous
avons comparé les histogrammes de ces pourcentages (figure 83).

a b
Figure 83 : histogrammes des proportions de marquage autour des noyaux
marqués des figures 80a et 80b.

Les principales caractéristiques de ces histogrammes sont données dans le tableau 11. Pour
rendre ces valeurs indépendantes du pourcentage de noyaux marqués, nous les avons
également divisées par ce pourcentage.
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 137

Marquage dispersé Marquage focal


(fig. 83a) (fig. 83b)
Proportion maximale 33% (5,70) 100% (17,27)
Proportion moyenne 7,87% (1,36) 75,64% (13,06)
Écart type 9,33% (1,61) 25,48% (4,40)
Tableau 11 : caractérisation des histogrammes de proportions de marquage
autour des noyaux marqués (et entre parenthèses, les valeurs divisées par le
pourcentage de noyaux marqués).

Les maxima sont différents puisque pour le marquage focal, il y a au moins un noyau
marqué n’ayant que des noyaux marqués comme voisins. La moyenne et l’écart type
permettent de différencier les deux histogrammes et donc les deux types de marquage.

La figure 84 illustre le résultat de la sélection automatique de noyaux marqués sur des


coupes histologiques de carcinomes mammaires.

a b
Figure 84 : identification de noyaux sur des coupes de carcinomes
mammaires, ×33. a : marquage au 1A6 dans un territoire bien différencié.
b : marquage au MiB1 dans une organisation en files indiennes.

Les mêmes calculs ont été effectués pour les deux types de différenciation (figure 84) et
sont présentés dans le tableau 12.
138 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale

Territoires bien Organisation en files


différenciés (fig. 84a) indiennes (fig. 84b)
Noyaux marqués 4,22% 36,81%
Arêtes de type I 0,87% (0,21) 17,98% (0,49)
Arêtes de type II 7,14% (1,69) 42,58% (1,16)
Arêtes de type III 91,99% (21,82) 39,44% (1,07)
Proportion maxi 81% (19,19) 100% (2,72)
Proportion moyenne 21,67% (5,16) 47,41% (1,29)
Écart type 21,74% (5,15) 23,45% (0,64)
Tableau 12 : caractérisation de deux types de marquage, pour de véritables
images et une détection automatique des noyaux marqués.

Dans ce cas, les différences observées proviennent à la fois d’un pourcentage différent de
noyaux marqués et d’une organisation architecturale différente. D’une part, les proportions
des deux premiers types d’arêtes, divisées par la proportion de noyaux marqués, indiquent des
marquages dispersés dans les deux cas. En effet, les arêtes de type I sont moins nombreuses
que celles de type II. Cependant, on est ici entre les deux cas extrêmes de la simulation de la
figure 80. D’autre part, en comparant les proportions moyennes de marquage autour des
noyaux marqués (5,16 et 1,29) aux valeurs du tableau 11 (1,36 et 13,06), on peut déduire que
la répartition des noyaux marqués est plus uniforme dans les files indiennes (figure 84b) que
dans les territoires bien différenciés (figure 84a).

IV.1.2.4. Discussion
Ce travail a fait ses preuves sur une dizaine d’images représentant des situations très
variées. Nous ne prétendons cependant pas fournir de résultats chiffrés d’un point de vue
biologique. Notre objectif est de mettre au point une méthode d’analyse et de proposer un
outil automatique aux experts du domaine d’application.

La modélisation des relations de voisinage a déjà été largement utilisée sur des images
histologiques en tant qu’outil de caractérisation de l’architecture tissulaire. Outre les
méthodes déjà présentées (section II.2.4.2), plusieurs études appliquées ont été proposées.
Pour caractériser des arrangements cellulaires, M. Bibbo [BIBBO 1990] utilise un graphe
moins dense que le graphe de Delaunay et mesure les aires des polygones délimités par ses
arêtes. K. Rodenacker [RODENACKER 1992] identifie les différentes couches d’une
structure stratifiée grâce aux graphes de voisinage. On peut également citer K. Kayser qui
décompose une population en plusieurs groupes homogènes (par exemple du point de vue de
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 139

l’orientation) [KAYSER 1991] ou qui caractérise l’ensemble d’une population grâce à sa


notion d’entropie structurelle [KAYSER 1996]. Enfin, E. Raymond [RAYMOND 1993]
propose une analyse quantitative de l’architecture d’un tissu en utilisant le graphe de Gabriel,
calculé à partir de la partition de Voronoï d’une population de cellules. Il utilise un graphe de
distances afin de rendre compte de la structure des massifs nucléaires vis-à-vis des noyaux de
la périphérie. Il exploite également les opérations de morphologie mathématique sur les
graphes (fermetures) afin d’étudier la taille des regroupements de cellules.

Ces modèles ont récemment fait la preuve de leur intérêt dans la caractérisation de la
topographie d’un immunomarquage nucléaire au MiB1 pour l’évaluation du pronostic du
cancer du sein [HAROSKE 1996]. À notre connaissance, hormis le travail de Smadja
[SMADJA 1992] qui permet de segmenter une image par classification des régions de
Voronoï (segmentation morphologique proposée dans [ MARCELPOIL 1991]), les graphes
n’ont pas été utilisés pour localiser et distinguer des compartiments cellulaires. L’originalité
essentielle de notre travail est de les avoir utilisés comme un outil de segmentation des
massifs cellulaires et d’avoir effectué cette segmentation directement sur la structure de
graphe.

Pour l’appréciation de la topographie du marquage, la première méthode d’analyse


proposée (étude des proportions d’arêtes) a une signification très proche de celle proposée par
J. Palmari [PALMARI 1997], avec toutefois l’avantage de prendre en compte deux catégories
d’arêtes homogènes (types I et III).

Il est à noter que ces graphes n’ont pas été utilisés par ces auteurs dans l’optique de
développer un outil totalement automatique et que leur manipulation a le plus souvent
nécessité une intervention de l’utilisateur, pour effectuer un pointage interactif des noyaux à
étudier. La réduction d’un noyau cellulaire à un point peut également être discutée. Dans
notre approche, nous avons pris en compte, tant pour l’étude de la topographie du marquage
que pour la segmentation des amas de cellules tumorales, la vraie distance inter-nucléaire et
non la distance entre centres de gravité, qui ne peut rendre compte de l’anisocaryose
(différence de taille des noyaux) fréquemment rencontrée dans les cancers.

Le travail présenté n’a pour objectif que de fournir des critères de quantification d’une
image isolée ; pour prendre en compte l’ensemble de l’échantillon tumoral, il conviendra
d’aborder le problème de la taille de l’image analysée par rapport à la taille de l’échantillon et
de travailler vraisemblablement sur des mosaïques d’images. Notre outil est actuellement
implanté au Centre Régional de Lutte Contre le Cancer où il est mis à l’épreuve sur un plus
140 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale

grand nombre d’images. Cette exploitation permet de préciser les seuils utilisés lors de la
segmentation, afin d’envisager leur détermination automatique, dans l’optique de la
réalisation d’un outil de quantification des immunomarquages nucléaires totalement
automatisé.

Grâce à l’indépendance de la structure de graphe vis à vis de la dimension des images


traitées (2D ou 3D), cette approche est adaptée pour l’étude d’images tridimensionnelles.

IV.1.3. Extrapolation à la troisième dimension


En ce qui concerne les méthodes mises en œuvre, le traitement d’images de coupes
histologiques n’est pas différent selon que l’on travaille sur des images 2D de coupes fines ou
des images 3D de coupes épaisses. Il est donc légitime d’étendre à la troisième dimension le
travail présenté précédemment. Cependant, pour appliquer les mêmes méthodes de traitement,
il faudrait que les images puissent être directement manipulées en trois dimensions. Or,
l’acquisition faite par le microscope confocal n’est pas isotrope et présente une perte de
qualité dans les plans profonds.

Afin de retrouver une image dans laquelle les voxels sont isotropes, nous avons effectué
une opération d’interpolation linéaire entre les plans. À l’origine, les voxels ont une taille de
0,25×0,25×0,50µm3 mais en augmentant le volume, on peut simuler des voxels de 0,25µm de
côté dans les trois directions. D’un autre coté, l’approximation linéaire de la diminution
d’intensité en fonction de la profondeur ne s’est pas avérée satisfaisante et des calculs
beaucoup plus complexes de correction devraient être mis en œuvre.

Nous avons commencé par valider le passage de la 2D à la 3D en utilisant des images


artificielles. En modélisant une cellule par une boule plus intense au centre qu’à la surface,
nous avons généré des images correspondant à des distributions uniformes de cellules dans un
espace à trois dimensions. Dans ce cas, les images ne présentent pas de massifs et les
traitements sont sans intérêt. Nous avons alors fabriqué une image comportant deux groupes
d’objets et nous lui avons appliqué l’enchaînement d’opérateurs utilisés en deux dimensions.
Une vue 3D de cette image est proposée sur la figure 85.
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 141

Figure 85 : visualisation 3D, grâce au logiciel « SurfTool », d’une image


artificielle comportant deux groupes d’objets.

Le résultat de la segmentation correspond à des objets affectés d’un numéro de groupe.


Des projections axiales et latérales permettent d’appréhender la séparation (figure 86).

a b

c d
Figure 86 : projections axiales (a et b) et latérales (c et d) d’une image
comportant deux groupes d’objets et de la segmentation en massifs.

Nous vérifions ainsi qu’il est possible de séparer des regroupements d’objets dans une
image tridimensionnelle.

Nous avons poursuivi notre extension à la 3D sur une véritable image de coupe
histologique épaisse, acquise par microscopie confocale. Elle est composée de 50×256×256
voxels de 0,5×0,5×0,5µm3. La figure 87 présente 3 des 50 plans de cette image ainsi que sa
projection axiale. On voit qu’il est difficile de segmenter chaque cellule mais que les groupes
de cellules peuvent être distingués. On constate de plus que la qualité de l’image décroît avec
la profondeur.
142 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale

a b

c d
ème
Figure 87 : image de coupe histologique épaisse. a : 5 plan de l’image. b :
15ème plan. c : 30ème plan. d : projection axiale des 50 plans de l’image.

La méthode de segmentation des noyaux utilisée en 2D n’étant pas adaptée aux


caractéristiques de ces images 3D, nous avons utilisé la méthode de segmentation de la
section II.3.2. Nous obtenons ainsi les objets de la figure 88. Comme les objets sont
tridimensionnels, ils peuvent apparaître sous la forme de plusieurs composantes disjointes, de
même étiquette, dans un plan particulier (figure 88a).
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 143

a b
Figure 88 : segmentation initiale des objets de l’image. a : 15ème plan de
l’image. b : projection axiale de l’image.

En suivant la même stratégie qu’en deux dimensions, nous avons supprimé les petits objets
(inférieurs à 100 voxels) et nous avons construit le graphe de voisinage. Nous avons ensuite
segmenté ce graphe afin d’obtenir les regroupements de la figure 89. Nous avons pour cela
coupé toutes les arêtes reliant des objets distants de plus de 60 voxels, dans n’importe quelle
direction de l’espace 3D.

a b
Figure 89 : mise en évidence des regroupements d’objets. a : 15ème plan de
l’image. b : projection axiale de l’image.

Afin de mieux appréhender le résultat du traitement, la figure 90 propose une visualisation


tridimensionnelle des objets conservés (indépendamment du groupe auquel ils appartiennent).
144 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale

Figure 90 : visualisation tridimensionnelle des objets conservés à la fin du


traitement.

Grâce à ces deux études, sur une image de synthèse et sur une véritable image acquise au
microscope confocal, nous pouvons affirmer qu’une fois le problème de la correction des
images résolu, il sera immédiat d’opérer l’analyse de l’architecture cellulaire dans des images
3D de coupes histologiques épaisses.

IV.2. Quantification de la présence de contacts focaux


IV.2.1. La cytologie
La cytologie s’attache à étudier les caractéristiques morphologiques des entités autonomes
que sont les cellules, indépendamment les unes des autres. L’observation et la quantification
des mécanismes intimes de prolifération et de différentiation cellulaire sont particulièrement
utiles dans la compréhension des maladies difficiles à soigner comme les transformations
malignes ou virales. L’objectif du traitement d’images de cytologie est de décrire les
transformations des principaux constituants (noyau, cytoplasme) selon des critères de forme,
de couleur, de texture, etc.

Les cellules observées en cytologie ont deux principales provenances. En cytologie


clinique, les cellules d’un tissu biologique sont dissociées. En recherche expérimentale, les
cellules sont cultivées sur un support, dans un milieu nutritif. Dans les deux cas, les cellules
peuvent être colorées avant d’être observées au microscope.
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 145

La technique de culture existe depuis le début du XXième siècle mais ne s’est véritablement
développée que dans les années 1950. Elle s’applique au maintien en vie d’organes, à la
croissance de tissus, à la reproduction cellulaire. Parmi les avantages de cette technique il faut
retenir qu’elle permet un contrôle presque total sur l’environnement de développement des
cellules (la culture cellulaire nécessite généralement l’emploi de sérums animaux dont la
composition est complexe et variable), et qu’elle autorise les expérimentations sur des tissus
humains. Cela en fait donc un puisant outil de recherche. Cependant, certains points limitent
encore son utilisation. En particulier, l’aspect tridimensionnel du développement des cellules
n’est généralement pas respecté puisque la culture se fait en général à la surface d’un support
plan. Enfin, la culture de cellules ne fait pas intervenir tous les phénomènes présents in vivo et
l’extrapolation des résultats nécessite une grande prudence.

Quoi qu’il en soit, la culture cellulaire autorise une étude aisée de l’activité cellulaire au
cours de son cycle cellulaire, des interactions entre les cellules et avec leur environnement,
etc. Ses applications sont très variées dans les domaines du diagnostic de comportements
viraux, de la recherche pharmacotoxicologique, de la thérapie par utilisation de greffes, etc.

IV.2.2. Les objectifs de l’étude


Dans le but de mieux comprendre le phénomène d’ancrage des cellules cancéreuses sur un
support lors du processus de dissémination métastatique, l’équipe de recherche en
cancérologie expérimentale du Centre François Baclesse, membre du Groupe Régional
d’Études sur le Cancer, a cherché à quantifier la présence de phosphotyrosines, des
groupements appartenant aux protéines responsables de la transmission de messages entre la
cellule et son support. Avec les cellules OAW42 (adénocarcinome ovarien humain), ces
structures apparaissent localisées au sein des contacts focaux où elles sont colocalisées avec
l’intégrine αvβ3 et la vinculine (une protéine caractéristique de ces contacts focaux).

Le phénomène que l’on cherche à mettre en évidence et à quantifier est a priori un


phénomène transitoire. Les contacts focaux apparaissent lorsque la cellule s’attache à son
support. L’observation de ce phénomène in vivo est par conséquent très improbable et nous
avons travaillé sur des phénomènes provoqués in vitro. Des cellules de la lignée OAW42 ont
alors été cultivées et les phosphotyrosines ont été mises en évidence par immunofluorescence.
La méthode de préparation des cellules étudiées est détaillée en Annexe 4.

Nous avons procédé à de nombreuses acquisitions d’images grâce au microscope confocal


en fluorescence. Afin de traiter de manière identique l’ensemble des images, nous avons dû
standardiser nos acquisitions. Une fois la luminosité et le contraste réglés, l’objectif 63×/1,40
146 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale

permet d’acquérir des images de 512×512×20 voxels d’une taille unitaire de 0,4×0,4×0,4µm3.
Les images 3D permettent de conserver la géométrie des cellules. On sait que celles-ci
doivent se présenter sous la forme d’un « œuf au plat» : le cytoplasme aplati sur le support et
le noyau de la cellule dépassant au dessus du reste (figure 91). Les protéines étudiées
apparaissent comme des petits points intenses près de la périphérie des cellules. On admet
pour la suite que les objets observés sont effectivement les contacts focaux de la cellule.

Figure 91 : coupe schématique d’une cellule cultivée sur une lamelle de


verre.

La troisième dimension permet de sélectionner les informations à manipuler. En effet, sur


la partie haute de l’image on n’observe que le sommet du noyau. Ainsi, on peut localiser
chaque cellule présente. Sur la partie basse de l’image, on trouve le contour des cellules et les
contacts focaux. Le fait de disposer d’une image tridimensionnelle incite à chercher une
quantification volumique des contacts focaux. Cependant, on sait que les contacts focaux
recherchés ont une taille de l’ordre de 0,5µm et que le coté d’un voxel mesure 0,4µm. Comme
de plus, l’information intéressante est une quantification des contacts en terme de nombre et
d’intensité, nous n’avons pas cherché à obtenir un résultat en trois dimensions.

Enfin, le phénomène que nous voulons quantifier étant variable dans le temps, il nous a
paru utile de réaliser une étude cinétique. Pour ce faire, des cellules d’une même préparation
ont été mises en culture pendant des durées différentes et des images ont été acquises à ces
différents instants.

Nous commençons donc par étudier la quantification des contacts focaux au sein d’une
image et nous analyserons ensuite l’évolution de ces résultats au cours du temps.

IV.2.3. Résolution du problème


Ce travail n’en étant qu’à une étape très expérimentale, nous avons choisi de simplifier
quelque peu le problème et d’accepter une intervention manuelle au cours du traitement des
images. Certaines phases de ce traitement pourront par la suite être améliorées, grâce
notamment à l’approche liée à la bibliothèque PANDORE.
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 147

IV.2.3.1. Décomposition du problème


Nous nous sommes rendu compte qu’une image (par exemple, l’image de la figure 92)
peut contenir un grand nombre d’objets parmi lesquels certains sont à étudier mais où
apparaissent également des objets coupés, collés, inintéressants. Il est donc clair qu’une
caractérisation globale de l’image ne peut pas fournir de renseignements exploitables et nous
avons décidé de n’étudier que certaines cellules (figure 93). Parmi toutes les images acquises,
nous avons sélectionné, manuellement pour le moment, certaines cellules représentatives,
relativement isolées, non coupées, etc. Nous avons alors créé une image pour chacune de ces
cellules. L’objectif final reste cependant la quantification automatique de la population de
contacts focaux appartenant à chacune des cellules d’une image.

Les figures 92 et 93 sont des projections axiales des volumes 3D correspondants. Ces
projections permettent d’avoir une bonne approximation du contenu des images sans avoir
recours à une délicate visualisation 3D. La fluorescence fournit des images dans lesquelles les
objets sont clairs sur un fond sombre mais pour des raisons de meilleure appréciation des
contrastes à l’ œ il, nous présentons ici les images inversées.

Figure 92 : projection axiale d’une image de cellules de culture. Les niveaux


de gris obtenus par fluorescence (objets clairs) ont été inversés pour
permettre une meilleure visualisation.
148 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale

a b
Figure 93 : délimitation manuelle des domaines d’étude pour deux des
cellules de la figure 92.

Pour localiser les contacts, nous n’avons besoin de manipuler que la partie basse des
images. Nous avons mis au point une technique séparant automatiquement l’image en deux
parties. Les projections de ces deux sous-images fournissent des images 2D pouvant être
traitées indépendamment. Nous avons particulièrement travaillé sur l’image permettant la
localisation des contacts focaux.

Dans toutes les images, la courbe du niveau de gris moyen d’un plan en fonction de sa
profondeur est comparable (figure 94).
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 149

Figure 94 : courbe du niveau de gris moyen des plans de l’image en fonction


de leur profondeur dans l’image.

Deux points caractéristiques ont été retenus : le maximum d’intensité moyenne et la moitié
de ce maximum sur la partie décroissante de la courbe. Les deux plans correspondants servent
à délimiter les deux parties à traiter.

IV.2.3.2. Localisation des objets


En termes de biologie, on cherche des concentrations de fluorescence sur la périphérie des
cellules. En termes de traitement d’images, on cherche à localiser des petits points intenses
près du bord des zones plus claires et plus inhomogènes que le fond. Les opérateurs de
morphologie mathématique (ouverture, chapeau haut-de-forme) permettent progressivement
de décomposer l’image en différents objets. La standardisation de la résolution des images
acquises (0,4×0,4×0,4µm3) a alors un grand intérêt puisque les opérateurs de type
morphologique sont sensibles à la taille des éléments à détecter. On a ainsi le traitement
suivant.

Dans un premier temps, on fait la distinction entre le fond et les objets :

• binarisation (seuil : 15),

• dilatation pour combler les petits trous,

• érosion de taille 6 et reconstruction par dilatation conditionnelle dans la


première dilatation,
150 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale

• suppression des objets dont la surface est inférieure à 500 pixels.

On localise ensuite le bord des cellules :

• recherche des frontières (figure 95),

• régularisation des contours (figure 96).

a b
Figure 95 : localisation du contour des cellules à étudier (cellules de la
figure 93).

a b
Figure 96 : régularisation du contour des cellules.

La localisation des petits objets est faite par un opérateur « chapeau haut-de-forme » :

• ouverture de taille 2,

• binarisation (seuil : 35) de la différence avec l’image initiale.

Enfin, on sélectionne les contacts focaux près du bord des cellules :


Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 151

• recherche des points près des bords (carré de la distance euclidienne en pixels
inférieure à 275),

• ET logique entre les petits objets, l’intérieur des cellules et la zone proche des
bords,

• reconstruction par dilatation de cette sélection dans les objets,

• suppression des objets inférieurs à 2 pixels (figure 97).

a b
Figure 97 : localisation des contacts focaux (points intenses près du bord des
cellules).

Nous obtenons ainsi la localisation des cellules, du bord des cellules et des contacts focaux.
Afin d’évaluer la qualité de cette segmentation, nous l’avons comparé à une localisation
manuelle des contacts focaux et des contours des cellules. Pour cela, nous avons utilisé 14
cellules prises au hasard dans notre échantillon (figure 98).

Figure 98 : allure des 14 cellules utilisées afin d’évaluer la qualité de notre


segmentation.

Nous constatons que la segmentation automatique détecte en général plus d’objets que le
pointage manuel (en moyenne, 12% de plus). Il s’agit en général de points trop loin du bord
152 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale

des cellules pour avoir été pointés comme des contacts focaux. En ce qui concerne la
localisation des cellules, la segmentation automatique ne conserve en moyenne que 95% de la
surface contenue à l’intérieur des contours manuels. En effet, le tracé manuel est toujours à
l’extérieur de la segmentation automatique et toujours plus régulier. La mesure du périmètre
des cellules confirme cette relation d’inclusion, malgré la relative irrégularité des contours
automatiques, puisque ces derniers ne correspondent qu’à 86% de la longueur du tracé
manuel.

IV.2.3.3. Quantification des objets


Pour chacune des cellules étudiées, nous avons mesuré des grandeurs relatives à la cellule
(aire, périmètre, niveau de gris moyen) et relatives aux contacts focaux de cette cellule
(nombre de contacts, surface cumulée des contacts, niveau de gris moyen des contacts).

Par exemple, pour les cellules de la figure 93, nous obtenons les résultats du tableau 13.

Cellule de la Cellule de la
figure 93a figure 93b
Surface de la cellule 12151 pixels 8358 pixels
Périmètre de la cellule 471 pixels 354 pixels
Niveau de gris moyen de la cellule 40,07 37,76
Nombre de contacts 59 49
Surface cumulée des contacts 443 pixels 314 pixels
Niveau de gris moyen des contacts 93,70 79,82
Tableau 13 : résultats de la quantification des cellules de la figure 93.

On pourra par conséquent en déduire plusieurs autres informations intéressantes :


proportion surfacique de contacts dans une cellule, rapport de la surface des contacts sur le
périmètre de la cellule, etc.

IV.2.4. Exploitation des résultats


Nous avons principalement travaillé sur deux séries d’acquisition d’images. Chaque série
correspond à la mise en culture d’un ensemble de cellules homogènes. À différents instants
(2 heures, 4 heures, 6 heures, 24 heures), la culture a été stoppée et des images correspondant
à certaines cellules ont été acquises. Le tableau 14 regroupe le nombre de cellules étudiées,
pour chacune des deux séries d’acquisitions, à chaque instant.
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 153

Première série Seconde série


2 heures 12 1
4 heures 13
6 heures 10 23
24 heures 6
Tableau 14 : répartition des cellules étudiées. Pour chacune des deux séries
d’images, la culture a été stoppée à différents instants pour les différentes
cellules.

Pour pouvoir extraire une information valide relative à un instant donné, il est nécessaire
de disposer d’un nombre de cellules suffisamment important. En conséquence, aucune
conclusion ne sera tirée à propos de la cellule de la seconde série visualisée après 2 heures de
culture. On a cependant choisi de représenter toutes les mesures pour l’ensemble des 65
cellules.

Les figures 99 à 104 présentent les mesures faites sur l’ensemble de ces cellules. Les six
mesures proposées précédemment sont illustrées pour les deux séries de cellules : surface des
cellules, périmètre des cellules, niveau de gris moyen des cellules, nombre de contacts focaux
par cellule, surface cumulée des contacts focaux, niveau de gris moyen des contacts focaux.
Par chaque série, la valeur minimale et la valeur maximale ont été enlevées afin de
s’affranchir d’éventuels résultats marginaux. L’objectif est de visualiser la dispersion des
mesures ainsi que les positions relatives de leurs moyennes.

a b
Figure 99 : surface des cellules pour chacune des séries de cellules. a :
première série d’acquisitions à 2 heures, 6 heures et 24 heures. b : seconde
série d’acquisitions à 2 heures, 4 heures et 6 heures. Les échelles utilisées
sont identiques pour les deux séries.
154 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale

a b
Figure 100 : périmètre des cellules.

a b
Figure 101 : niveau de gris moyen des cellules.

a b
Figure 102 : nombre de contacts focaux par cellule.

a b
Figure 103 : surface cumulée des contacts focaux.
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 155

a b
Figure 104 : niveau de gris moyen des contacts focaux.

On constate dans un premier temps que les mesures d’une même catégorie de cellules
(même série et même temps de culture) sont relativement homogènes. On note ensuite que les
mesures relatives aux contacts focaux (nombre, surface, intensité) sont différentes,
principalement entre 4 heures et 6 heures.

En ce qui concerne l’évolution des mesures au cours du temps, on voit que celles-ci
semblent confirmer l’aspect temporaire du phénomène d’ancrage des cellules. Les variations
de la surface et du périmètre des cellules correspondent à un étalement des cellules sur leur
support et à la régularisation de leur périphérie. Dans le même temps, le nombre et l’intensité
des contacts focaux semblent s’atténuer puis augmenter au cours des premières heures. Enfin,
les mesures semblent ne plus évoluer au-delà de la sixième heure de culture.

IV.2.5. Perspectives
Ce travail illustre donc la possibilité de développer un outil informatique, appliqué à la
quantification des contacts focaux dans des cellules de culture. L’analyse biologique des
mesures effectuées sur les 65 cellules étudiées doit bien entendu être terminée par des experts
du domaine. Cependant, nous disposons d’un protocole de segmentation des images et de
présentation des résultats.

En complément de cette analyse, plusieurs autres traitements peuvent participer à


l’automatisation des mesures. Dans un premier temps, les opérateurs de morphologie
mathématique permettent de localiser les noyaux des cellules à partir de la partie haute de
l’image 3D. Il s’agit de localiser des zones claires plus vastes que les contacts focaux.

Dans un second temps, les graphes de voisinage offrent la possibilité d’organiser les
contacts focaux en fonction de la proximité des noyaux des cellules. Par exemple, pour les
cellules de la figure 105, le graphe de voisinage des deux populations (figure 106a) d’objets
(contacts focaux et noyaux cellulaires) peut être construit (figure 106b).
156 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale

a b
Figure 105 : exemple d’image comportant trois cellules. a : partie basse de
l’image 3D permettant de localiser les contacts focaux. b : partie haute de
l’image, utilisée pour localiser les noyaux des cellules.

a b
Figure 106 : relations de voisinage entre les noyaux de cellules et les
contacts focaux. a : deux populations d’objets extraites de la figure 105. b :
graphe de voisinage.

En segmentant le graphe de voisinage selon certaines règles de proximité, qu’il conviendra


de préciser en fonction des contraintes biologiques, chaque contact focal peut être rapporté à
une cellule (figure 107).
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 157

Figure 107 : exemple de segmentation du graphe de voisinage afin de


répartir les contacts focaux entre les différentes cellules. Les gros points
représentent ici les noyaux cellulaires.

On peut alors rapporter les mesures effectuées sur les contacts focaux à chacune des
cellules et caractériser ainsi les cellules elles-mêmes.

IV.3. Architecture de transformation cellulaire : test SHE


Dans cette section, nous présentons un travail mené en collaboration avec le service de
cancérologie expérimentale du Centre de Lutte Contre le Cancer de Caen, membre du
Groupe Régional d’Études sur le Cancer (GRECAN).

Dans le but d’étudier l’action carcinogène de différents agents chimiques, l’utilisation du


test SHE est grandissante. Nous avons le projet de caractériser l’architecture tridimensionnelle
des colonies cellulaires transformées et non transformées obtenues par ce test.

Comme dans le cas des images histologiques, l’objectif est ici d’étudier des cellules, non
pas indépendamment les unes des autres mais au sein d’une organisation plus vaste.
Cependant, on ne peut pas véritablement parler d’histologie puisque les cellules ne sont pas
étudiées au sein d’un tissu biologique, mais dans le cadre d’une culture contrôlée.

Nous illustrons ici la possibilité de traiter, grâce à des stratégies 2D½ (section II.3), des
images dans lesquelles les objets à segmenter sont effectivement tridimensionnels.

IV.3.1. Contexte biologique


Le test SHE a pour objectif d’évaluer le potentiel carcinogène d’un produit chimique par la
recherche et le comptage de colonies cellulaires ayant subi une transformation morphologique
après exposition à ce produit [ISFORT 1996]. Toutes les cellules d’un embryon de hamster
158 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale

chinois (Syrian Hamster Embryo ou SHE) sont séparées et mises en culture. Les cellules se
multiplient et peuvent donner naissance à une colonie (des clones). L’intérêt d’un tel test est
d’observer l’ensemble du phénomène de transformation cellulaire, qui se traduit par une
modification de l’aspect des clones et des cellules (diminution du rapport nucléo-plasmique,
chevauchement des cellules, « peignage » des colonies, etc.).

L’organisation de ces colonies peut être étudiée en microscopie bidimensionnelle


[RIDDER 1997] mais il semble également intéressant de caractériser leur organisation
tridimensionnelle. En effet, des cellules se reproduisant rapidement ont tendance à se
chevaucher et à former des amas de cellules sur plusieurs couches alors que des cellules
normales s’éloignent et se répartissent sur une seule couche. L’objectif est de pourvoir
distinguer ces types de transformation.

Les clones transformés et non transformés ont été obtenus par l’équipe du Centre des
Sciences de l’Environnement de Metz, selon la méthode présentée par H. Bessi [BESSI 1995].
Les clones, colorés au Giemsa pour l’observation en transmission et l’identification des clones
transformés, sont décolorés par 3 bains successifs dans de l’éthanol à 70% puis recolorés
30 mn dans une solution de bromure d’éthidium à 1 µg/l dans de l’eau pour l’observation au
microscope confocal.

Les acquisitions sont faites au microscope confocal à balayage laser, en fluorescence, avec
une résolution menant à des voxels de 0,40×0,40×0,50µm3 (objectif 63×/1,4). Les images ont
une taille de 512×512×20 voxels.

IV.3.2. Traitement des images


Pour ce type de préparation, les différences de niveaux de gris entre deux plans successifs
de l’image sont très grandes et limitent l’utilisation des traitements globaux tridimensionnels.
Par exemple, sur la figure 108, on voit la différence de contraste entre des plans distants de
seulement 1,5µm. Nous avons choisi de tenir compte de cette atténuation des niveaux de gris
et d’adopter une stratégie de traitement de type 2D½ telle que celle décrite précédemment
(section II.3).
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 159

Figure 108 : deux plans distants de 1,5µm dans une image tridimensionnelle
noyaux cellulaires.

Nous commençons par opérer un prétraitement sur l’image afin de l’améliorer. Nous
effectuons une diffusion linéaire de l’image 3D afin de limiter le bruit et nous améliorons
chaque plan indépendamment de ces voisins en modifiant la dynamique des niveaux pour
l’étendre entre 0 et 255. Ainsi, chaque plan présente un contraste optimal (figure 109).

Figure 109 : amélioration du plan le plus profond (image de droite) de la


figure 108. Elle est obtenue par diffusion linéaire de l’image 3D et
étalement des niveaux de gris du plan entre 0 et 255.
160 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale

Ensuite, nous effectuons une segmentation de la projection axiale de l’image 3D afin


d’initialiser la segmentation 3D. L’intérêt de cette projection est qu’elle contient une
contribution de chacun des objets de l’image. Cette segmentation initiale est obtenue par
l’enchaînement des opérations suivantes :

• fermeture morphologique de taille 2 et binarisation optimale (valeur donnant


une variance interclasse maximale) pour obtenir une première approximation des
régions à extraire,

• numérotation des érodés ultimes de ces régions pour obtenir des germes,

• détermination de la ligne de partage des eaux à partir de ces érodés ultimes et


de l’amplitude du gradient de l’image après fermeture, afin de séparer les noyaux
collés (figure 110).

a b
Figure 110 : exemple de segmentation bidimensionnelle. a : projection
axiale de l’image 3D. b : segmentation de la projection.

Enfin, nous opérons une croissance de cette segmentation, dans l’image 3D corrigée,
depuis le plan correspondant au plan le plus contrasté de l’image d’origine :

• au sein du plan considéré, tous les points ayant un niveau de gris proche de la
moyenne de la région sont agrégés à la région,

• dans les plans voisins, une érosion de chaque région est recopiée comme point
de départ pour calculer la moyenne de niveaux de gris (différente du plan de
départ) et les points ayant un niveau de gris proche de cette moyenne sont
agrégés,
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 161

• les moyennes de niveaux de gris des régions sont recalculées pour chaque plan
et on réitère l’opération en s’éloignant du plan de départ.

Le résultat de la segmentation est une image tridimensionnelle qui peut être observée avec
un rendu volumique (figure 111). Cependant, les dimensions en x, y et z sont très différentes
et l’appréciation de l’ensemble de l’image est difficile.

Figure 111 : visualisation tridimensionnelle de la segmentation des noyaux


de la figure 110.

Nous avons appliqué le même traitement à une image comportant des amas de noyaux. La
figure 112 présente la projection axiale de cette image et la segmentation 2D initiale.

a b
Figure 112 : segmentation d’une image comportant des amas de noyaux. a :
projection axiale de l’image 3D. b : segmentation de la projection.

La figure 113 illustre la segmentation tridimensionnelle des objets contenus dans cette
image.
162 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale

Figure 113 : visualisation 3D de la segmentation d’une image comportant


des amas de noyaux.

Nous avons utilisé des opérations simples afin de localiser des régions dans une image 2D
et initialiser une croissance tridimensionnelle. Cependant, ces traitements sont très facilement
modifiables grâce à l’utilisation de la bibliothèque d’opérateurs PANDORE. Nous pouvons par
exemple combiner des opérations de morphologie mathématique et des opérateurs sur les
contours actifs afin d’initialiser la croissance [SCHÜPP 1998].

IV.3.3. Résultats
À la suite de cette segmentation, l’objectif est de caractériser la forme de chaque objet
(cellule ou amas) et de déduire une information sur l’architecture des colonies cellulaires (par
exemple, le pourcentage d’amas dans la colonie par rapport au nombre de noyaux isolés). La
recherche de l’enveloppe convexe d’un objet et le calcul de l’indice de concavité ou de
l’indice de déficit isopérimétrique permettent de préciser si l’objet étudié est une cellule seule
ou un amas de cellules.

Par exemple, pour les objets de la figure 111, l’indice de concavité varie entre 0,40 et 0,61,
sa moyenne est 0,53 et l’écart type est 0,05. Tous ces objets ont donc des concavités voisines.
Dans le cas de la figure 113, les objets sont plus irréguliers : les indices de concavité
s’étendent de 0,02 à 0,66, avec un écart type de 0,15.

Nous disposons donc d’un outil de traitement capable de localiser des objets dans des
images 3D acquises par microscopie confocale. Pour mettre au point cet outil, nous avons
travaillé sur les quelques images dont nous disposions, présentant en général une seule couche
de noyaux cellulaires. Nous devons désormais appliquer cette méthode de segmentation à de
nombreuses images, présentant des colonies cellulaires normales et anormales. Nous pourrons
alors déterminer, par apprentissage, un seuil sur l’indice de concavité, permettant de
distinguer les noyaux isolés des amas de noyaux. Nous devons également examiner d’autres
Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 163

mesures (comme la surface ou l’épaisseur des objets) susceptibles de renseigner sur la nature
des objets et de distinguer les amas monocouches des amas multicouches.

Ces quelques exemples d’applications illustrent notre capacité à proposer une réponse à un
problème posé. La bibliothèque PANDORE comporte une large gamme d’outils permettant de
tester facilement de nombreuses stratégies de traitement d’images. Les résultats que nous
fournissons constituent un point de départ dans le processus d’échange avec l’expert du
domaine d’application : le pathologiste ou le biologiste. Il s’agit désormais d’évaluer ces
résultats et de mettre en évidence les imperfections des traitements sur de larges séries
d’images.
Conclusion
Conclusion 167

Dans ce travail, nous avons étudié les différentes étapes utiles à l’analyse d’images de
microscopie cellulaire 3D : l’acquisition des images, les stratégies de traitement d’images,
l’implantation des opérations de traitement d’images, la quantification d’images.

Nous avons montré que le microscope confocal permet de pallier la limitation de


l’imagerie 2D dans l’acquisition d’images de microscopie cellulaire. Nous avons cependant
constaté que les images obtenues nécessitent un traitement particulier. En effet, le principe
optique du microscope et l’utilisation du phénomène de fluorescence apportent des
imperfections dans les images. Même si nous avons vu que de nombreux travaux permettent
de corriger une partie de ces imperfections, nous avons choisi de tenir compte des
caractéristiques des images à l’intérieur même des traitements que nous leur appliquons. En
particulier, nous avons proposé de traiter les images grâce à des stratégies de type 2D½ plutôt
que d’utiliser des traitements isotropes 3D.

En complément de la représentation classique des images sous forme de grilles régulières


de points, l’étude d’images de microscopie cellulaire nous a incité à développer une
représentation complémentaire, capable de manipuler des relations de proximité et de
ressemblance entre des objets quelconques. Nous avons ainsi exploité la structure des graphes
de voisinage pour représenter des populations d’objets et tenir compte de leur organisation
spatiale. Sur ces deux types de représentation des images, nous avons présenté l’implantation
d’un certain nombre d’opérateurs généraux de traitement et de caractérisation, dans
l’environnement de la bibliothèque PANDORE. Cet environnement permet de développer
efficacement des applications de traitement d’images, par l’enchaînement d’opérateurs
atomiques.

Nous avons ensuite illustré la mise en œuvre de notre méthodologie de développement sur
quelques exemples d’applications de quantification d’images de microscopie cellulaire.
L’objectif était de chercher des réponses à des problèmes variés, afin d’initier un mécanisme
de travail avec les experts du domaine des images. Les résultats fournis demandent à être
validés du point de vue biologique et les méthodes proposées doivent être mises à l’épreuve
sur un plus grand nombre d’images.
168 Conclusion

Plus précisément, notre travail laisse envisager plusieurs améliorations, au niveau de


l’acquisition des images, des stratégies de traitement, des résultats obtenus dans les
applications traitées.

1. Acquisition des images

D’un point de vue physique, la qualité des images acquises dépend de deux points
principaux. D’une part, la préparation des échantillons biologiques doit demeurer
parfaitement rigoureuse. Les marqueurs fluorescents utilisés doivent être choisis au mieux
pour conserver une bonne homogénéité au cours de l’acquisition (limitation du photo-
blanchiment), une franche différenciation des objets à observer (réduction de
l’autofluorescence des tissus), etc. D’autre part, le matériel optique doit être sélectionné en
fonction des images que l’on cherche à obtenir. En particulier, on prendra soin de déterminer
l’objectif le plus approprié à l’échantillon, en termes de grossissement, d’ouverture
numérique, de milieu d’immersion.

2. Traitement des images

Dans de nombreux cas, malgré la grande variabilité des images traitées, la résolution d’un
problème s’effectue en combinant les opérateurs de la bibliothèque PANDORE. Cependant, afin
de répondre à tous les besoins, de nombreuses catégories d’opérateurs doivent venir compléter
cette bibliothèque. En particulier, même si nous avons choisi de ne pas approfondir la
correction des images acquises par microscopie confocale, il est nécessaire, pour permettre la
manipulation du plus grand nombre d’images, de développer des opérateurs généraux de
correction pour ce type d’acquisition (déformations dues à la PSF, atténuation de la
fluorescence, etc.). La correction de ces phénomènes optiques complexes nécessite cependant
une parfaite connaissance des caractéristiques du matériel, mesurées sur des objets calibrés,
pour tous les milieux de montage des échantillons, dans toutes les conditions d’acquisition.

3. Applications

Le traitement automatique d’images pose indéniablement la question de l’exactitude des


résultats et de la robustesse des méthodes utilisées. Plusieurs critères de comparaison
quantitative existent (par exemple, la mesure de Vinet [VINET 1991] pour évaluer le
recouvrement ou la distance entre deux segmentations) mais nécessitent la connaissance d’une
segmentation « idéale ». Dans le domaine d’applications qui nous préoccupe, et en particulier
dans le cas d’images provenant d’études expérimentales, il est très difficile de disposer d’un
Conclusion 169

modèle de segmentation. En conséquence, nous faisons principalement appel aux experts du


domaine (biologistes, pathologistes, etc.) pour porter un jugement visuel sur nos résultats. Il
est pourtant nécessaire d’établir des critères d’évaluation plus objectifs. Cependant, la
segmentation proposée par l’expert est la seule référence dont nous disposons et même si elle
varie d’un expert à un autre, nous devons comparer les résultats de nos traitements
automatiques à cette référence manuelle. Nous avons proposé quelques outils d’évaluation
mais ils doivent être complétés par des protocoles plus précis. Un tel travail est actuellement
en cours de réalisation pour comparer plusieurs localisations (manuelles et automatiques) des
massifs de cellules tumorales présentés dans la section IV.1.

En complément du travail que nous avons présenté, plusieurs points doivent donc être
approfondis afin d’exploiter au mieux les possibilités d’acquisition du microscope confocal et
de mettre en place des systèmes de traitement automatique des images obtenues.
Références
Références 173

ACKAH-MIEZAN 1993 Ackah-Miezan A., Gagalowicz A., Discrete models for energy-
minimizing segmentation, IEEE Computer Vision and Pattern
Recognition, February 1993 : pp. 200-207.

AVINASH 1996 Avinash G. B., Data-driven, simultaneous blur and image


restoration in 3D-fluorescence microscopy, Journal of Microscopy,
August 1996 ; Vol. 183, Pt. 2 : pp. 145-157.

AYACHE 1998 Ayache N., L’analyse automatique des images médicales, état de
l’art et perspectives, rapport de recherche n°3364 de l’Institut
National de Recherche en Informatique et Automatique, Sophia
Antipolis, février 1998.

BELHOMME 1996 Belhomme P., Stratégie d’analyse automatisée d’images couleur


adaptée à la quantification des immunomarquages sur coupes
histologiques : une approche par la morphologie mathématique,
Thèse de Doctorat de l’Université de Caen, juin 1996.

BERTIN 1994 Bertin E., Diagrammes de Voronoï 2D et 3D : applications en


analyse d'images, Thèse de Doctorat de l’Université J. Fournier,
Grenoble, 1994.

BERTOLINO 1994 Bertolino P., Attali D., Montanvert A., Diagrammes de Voronoï
ponctuels et généralisés appliqués à la biologie, 17ième journée de la
section française de l’International Society for Stereology, Paris,
février 1994.

BESSI 1995 Bessi H., Rast C., Rether B., Nguyen-Ba G., Vasseur P.,
Synergistic effects of chlordane and TPA in multistage
morphological transformation of SHE cells, Carcinogenesis, 1995 ;
Vol. 16, N. 2 : pp. 237-234.

BIBBO 1990 Bibbo M., Kim D. H., Di Loreto C., Dytch H. E.,
Galera-Davidson H., Thompson D., Richards D. L., Bartels H. G.,
Bartels P. H., Tissue architectural features for the grading of
prostatic carcinoma, Analytical and Quantitative Cytology and
Histology, August 1990 ; Vol. 12, N. 4 : pp. 229-236.
174 Références

BOUDIER 1997 Boudier T., Élaboration d’un modèle de déformation pour la


détection de contours aux formes complexes, Innov. Techn. Biol.
Med., 1997 ; Vol. 18, N. 1 : pp. 1-13.

BOWYER 1981 Bowyer A., Computing Dirichlet tessellation, Comput. J., 1981 ;
24 : pp. 162-166.

BRAKENHOFF 1985 Brakenhoff G.J., Van der Voort H.T.M., Van Spronson E.A.,
Linnemans WAM, Nanninga N, Three dimensional chromatin
distribution in neuroblastoma nuclei shown by confocal scanning
laser microscopy, Nature, 1985 ; n°317 : pp. 748-749.

BRYON 1995 Bryon P.-A., Delorme R., Souchier C., La microscopie confocale à
balayage laser et ses applications hématologiques, Revue Française
des Laboratoires, avril/mai 1995 ; N. 275 : pp. 37-43.

CASELLES 1993 Caselles V., Catte F., Coll T., Dibos F., A geometric model of
active contours, Numerische Mathematick, 1993 ; N. 66 : pp. 1-31.

CHASSERY 1991 Chassery J.-M., Montanvert A., Géométrie discrète en analyse


d’images, Traité des Nouvelles Technologies, Séries Images
Hermès, 1991.

CLOPPET-OLIVA 1996 Cloppet-Oliva F., Analyse d’images de cultures cellulaires


obtenues par microscopie confocale ; application à des images de
neuroblastomes de souris, Thèse de Doctorat de l’Université
Paris V, décembre 1996.

CLOUARD 1994 Clouard R., Raisonnement incrémental et opportuniste appliqué à


la construction de plans de traitement d’images, Thèse de Doctorat
de l’Université de Caen, février 1994.

CLOUARD et al. 1997 Clouard R., Elmoataz A., Angot F., PANDORE : une bibliothèque et
un environnement de programmation d’opérateurs de traitement
d’images, Rapport interne du GREYC, ISMRA de Caen, 1997.

CLOUARD 1998 Clouard R., Elmoataz A., Revenu M., Une modélisation explicite et
opérationnelle de la connaissance en traitement d’images, RFIA’98,
11ème congrès en Reconnaissance des Formes et Intelligence
Artificielle, Clermont-Ferrand, janvier 1998 ; Vol. II : pp. 65-74.
Références 175

COCQUEREZ 1995 Cocquerez J.-P., Philipp S., Analyse d’images : filtrage et


segmentation, Enseignement de la Physique, Traitement du signal,
Masson, Paris, 1995.

COHEN 1992 Cohen I., Cohen L. D., Ayache N., Using deformable surfaces to
segment 3D images and infer differential structures, Computer
Vision Graphics and Image Processing : image understanding,
1992 ; N. 56 : pp. 242-263.

COSTER 1989 Coster M., Chermant J.-L., Précis d’analyse d’images, Éditions
CNRS, Paris, 1989.

CZADER 1996 Czader M., Liljeborg A., Auer G., Porwit A., Confocal
3-dimensional DNA image cytometry in thick tissue sections,
Cytometry, 1996 ; 25 : pp. 246-253.

DARRO 1993 Darro F., Kruczynski A., Etievant C., Martinez J., Pasteels J.-L.
and Kiss R., Characterization of the differentiation of human
colorectal cancer cell lines by means of Voronoï diagrams,
Cytometry, 1993 ; 14 : pp. 783-792.

DAVIS 1979 Davis L. S., Johns S. A., Aggarwal J. K., Texture analysis using
generalized co-occurrence matrices, IEEE transaction on Pattern
Analysis and Machine Intelligence, 1979 ; Vol. 1, N. 3 :
pp. 251-259.

DE GRAUW 1997 De Grauw C. J., Sijtsema N. M., Otto C., Greve J., Axial resolution
of confocal Raman microscopes : gaussian beam theory and
practice, Journal of Microscopy, December 1997 ; Vol. 188, Pt. 3 :
pp. 273-279.

DELORME 1997 Delorme R., Microscopie confocale et cytométrie


tridimensionnelle : application à l’étude de la localisation de la
cycline A et des CDK associées dans les cellules lymphoïdes,
Thèse de Doctorat de l’Université Claude Bernard, Lyon I,
12 novembre 1997.

DUSSERT 1987 Dussert C., Rasigni M., Palmari J. Rasigni G., Llebaria A.,
Marty F., Minimal spanning tree analysis of biological structures,
J. Theor. Biol., 1987 ; 125 : pp. 317-323.
176 Références

DUSSERT 1989 Dussert C., Kopp F., Gandilhon P., Pourreau-Schneider N.,
Rasigni M., Palmari J., Rasigni G., Martin P.-M., Llebaria A.,
Toward a new approach in tumor cell heterogeneity studies using
the concept of order, Analytical Cellular Pathology, 1989 ; 1 :
pp. 123-132.

ELMOATAZ 1990 Elmoataz A., Mécanismes opératoires d’un segmenteur non dédié :
définition d’une base d’opérateurs minimale et implantation, Thèse
de Doctorat de l’Université de Caen, 1990.

ELMOATAZ 1997 Elmoataz A., Belhomme P., Herlin P., Schüpp S., Revenu M.,
Bloyet D., Automated segmentation of cytological and histological
images for the nuclear quantification : an approach based on
mathematical morphology, Microscopy, Microanalysis,
Microstructure, October/December 1996 ; Vol. 7, N. 5/6 :
pp. 331-337.

FICET-CAUCHARD 1998 Ficet-Cauchard V., Porquet C., Revenu M., An interactive case-
based reasoning system for the development of image processing
application, EWCBR’98, Dublin, September 1998.

FICET-CAUCHARD 1999 Ficet-Cauchard V., Réalisation d’un système d’aide à la conception


d’applications de Traitement d’Images : une approche basée sur le
Raisonnement à Partir de Cas, Thèse de Doctorat de l’Université de
Caen, 14 janvier 1999.

FRISKEN-GIBSON 1990 Frisken-Gibson S., Lanni F., Measured and analytical point spread
functions of the optical microscope for use in 3D optical serial
sectioning microscopy, Optical Microscopy for Biology, 1990 :
pp. 109-118.

GEMAN 1984 Geman S., Geman D., Stochastic relaxation, Gibbs distributions
and the bayesian restoration of images, IEEE transactions on
Pattern Analysis and Machine Intelligence, November 1984 ;
Vol. 4, N. 6 : pp. 721-741.

GÉRAUD 1998 Géraud T., Segmentation des structures internes du cerveau en


imagerie par résonance magnétique 3D, Thèse de Doctorat de
l’École Télécom Paris, juin 1998.
Références 177

GONDRAN 1979 Gondran M., Minoux M., Graphes et algorithmes, Collection de la


Direction des Études et Recherche d’Électricité de France,
Eyrolles, Paris, 1979.

GREEN 1978 Green P.–J., Sibson R., Computing Dirichlet tesselation in the
plane, Computer Journal, 1978 ; Vol. 21 : pp. 168-173.

HAROSKE 1996 Haroske G., Dimmer V., Steindorf D., Schilling U., Theissig F. and
Kunze K. D., Cellular sociology of proliferating tumor cells in
invasive ductal breast cancer, Analytical and Quantitative Cytology
and Histology, June 1996 ; Vol. 18, N. 3 : pp. 191-198.

HERLIN et al. 1997 Herlin P., Masson E., Duigou F., Plancoulaine B., Signolle J.-P.,
Mandard A.-M., Angot F., Deman D., Belhomme P., Joret J.-B.,
Datry T., Rougereau O., Bloyet D., Automatisation de l’analyse
cytodensitométrique du contenu en ADN des tumeurs solides,
Bulletin du cancer, 1997 ; 84 (7) : pp. 685-692.

HONG 1984 Hong T. H., Rosenfeld A., Compact region extraction using
weighted pixel linking in a pyramid, IEEE Trans. on Pattern
Analysis and Machine Intelligence, 1984 ; N. 6 : pp. 222-229.

HOWARD 1998 Howard C. V., Reed M. G., Unbiased stereology ; three-


dimensional measurement in microscopy, Bios Scientific
Publishers, Oxford, UK, 1998.

ISFORT 1996 Isfort R. J., LeB œufR. A., Application of in vitro cell
transformation assays to predict the carcinogenic potential of
chemicals, Mutation Research, 1996 ; 365, pp. 161-173.

KASS 1988 Kass M., Witkin A., Terzopoulos D., Snakes : active contour
models, International Journal of Computer Vision, 1988 ;
pp. 321-331.

KAYSER 1991 Kayser K., Sandau K., Böhm G., Kunze K. D., Paul J., Analysis of
soft tissue tumors by an attributed minimum spanning tree,
Analytical and Quantitative Cytology and Histology,
October 1991 ; Vol. 13, N. 5 : pp. 329-334.
178 Références

KAYSER 1996 Kayser K., Berthold S., Eichhorn S., Kayser C., Ziehms S.,
Gabius H.-J., Application of attributed graphs in diagnostic
pathology, Analytical and Quantitative Cytology and Histology,
August 1996 ; Vol. 18, N. 4 : pp. 286-292.

KHOSLA 1992 Khosla D., Holmes T. J., Stereo pairs of bright-field micrographs
via Wiener-type inverse filtering, Journal of Microscopy,
November 1992 ; Vol. 168, Pt. 2 : pp. 115-129.

KUNT 1993 Kunt M., Granlund G., Kocher M., Traitement numérique des
images, Collection électricité, Traitement de l’information, Vol. 2,
Presses polytechniques et universitaires romandes, 1993.

LANGLOIS 1998 Langlois S., Analyse et correction des distorsions en imagerie par
résonance magnétique, Thèse de Doctorat de l’Université de Caen,
spécialité TSI, novembre 1998.

LENOIR 1997 Lenoir A., Fast Estimation of Mean Curvature on the surface of a
3D Discrete Object, DGCI'97, Lecture Notes in Computer Science,
December 1997 ; Vol. 1347 : pp. 175-186.

LILJEBORG 1995 Liljeborg A., Czader M., Porwit A., A method to compensate for
light attenuation with depth in three-dimensional DNA image
cytometry using a confocal scanning laser microscope, Journal of
Microscopy, February 1995 ; Vol. 177, Pt. 2 : pp. 108-114.

MALLADI 1995 Malladi R., Sethian J. A., Vemuri B. C., Shape modeling with front
propagation : a level-set approach, IEEE Transactions on Pattern
Analysis and Machine Intelligence, 1995 ; Vol. 17 : pp. 158-175.

MAO 1995 Mao F., Description par regroupements perceptuels des structures
vasculaires dans les images angiographiques, Thèse de Doctorat de
l’Université de Rennes 1, juillet 1995.

MARCELPOIL 1991 Marcelpoil R., Usson Y., Chassery J.-M., Segmentation


morphologique incluant des paramètres d’ordre et de désordre :
quantification par diagramme de Voronoï et application à la
sociologie cellulaire, 8ème Congrès AFCET RFIA, Lyon,
novembre 1991 ; 2, pp. 967-972.
Références 179

MARCHAND 1997 Marchand A., Menard M., Wang J., Coisne O., Les champs de
Markov appliqués à l’analyse spatio-temporelle d’images
échocardiographiques, Innov. Techn. Biol. Med., 1997 ; Vol. 18,
N. 2 : pp. 129-143.

MARGADANT 1996 Margadant F., Leemann T., Niederer P., A precise light attenuation
correction for confocal scanning microscopy with O(n4/3)
computing time and O(n) memory requirements for n voxels,
Journal of Microscopy, May 1996 ; Vol. 182, N. 2 : pp. 121-132.

MARR 1982 Marr D., Vision, Freeman, San Francisco, 1982.

MATHIEU 1993 Mathieu C., Segmentation d’images par pyramides souples :


application à l’imagerie médicale multi-dimensionnelle, Thèse de
Doctorat de l’INSA de Lyon, 1993.

MATHIEU 1995 Mathieu C., Magnin I., On the choice of the first level of graph
pyramids, Journal of Mathematical Imaging and Vision, 1995.

MAZILLE 1994 Mazille J.-E., Analyse de structures complexes par la théorie des
graphes, La Revue de Métallurgie - CIT / Science et Génie des
Matériaux, février 1994 ; N. 2 : pp. 223-232.

MCNALLY 1994 McNally J. G., Preza C., Conchello J.-A., Thomas L. J. Jr.,
Artifacts in computational optical-sectioning microscopy, J. Opt.
Soc. Am. A, March 1994 ; Vol. 11, N. 3 : pp. 1056-1067.

MEIJER 1992 Meijer G. A., Van Diest P. J., Fleege J. C., Baak J. P. A., Syntactic
structure analysis of the arrangement of nuclei in dysplastic
epithelium of colorectal adenomatous polyps, Analytical and
quantitative cytology and histology, December 1992 ; Vol. 14,
N. 6 : pp. 491-498.

MEIJER 1996 Meijer G. A., Van Diest P. J., Baak J. P. A., Brinkhuis M. and
Beentjes M., Influence of boundary effect on minimum spanning
tree features, Analytical and Quantitative Cytology and Histology,
June 1996 ; Vol. 18, N. 3 : pp. 225-232.
180 Références

MESSNER 1998 Messner B. T., Bunke H., A new algorithm for error-tolerant
subgraph isomorphism detection, IEEE Transactions on Pattern
Analysis and Machine Intelligence, May 1998 ; Vol. 20, N. 5 : pp.
493-504.

MEYER 1992 Meyer F., Mathematical morphology : from two dimensions to


three dimensions, Journal of Microscopy, January 1992 ; Vol. 165,
Pt. 1 : pp. 5-28.

MINSKY 1957 Minsky M., Microscopy apparatus, US patent n°3031417.

MONGA 1987 Monga O., Wrobel B., Segmentation d’images : vers une
méthodologie, Vision par Ordinateur, Traitement du signal, 1987 ;
Vol. 4, N. 3 : pp. 169-183.

MONTANVERT 1993 Montanvert A., Meer P., Bertolino P., Hierarchical shape analysis
in gray-level images, in Shape in picture ; mathematical
description of shape in gray-level images, Ying-Lie O., Toet A.,
Foster D., Heijmans H. J. A. M., Meer P., Serie F : computer and
systems sciences, NATO ASI, 1993 ; Vol. 126: pp. 511-524.

MOTT 1986 Mott J. L., Kandel A., Baker T. P., Discrete mathematics for
computer scientists and mathematicians, Prentice-Hall, Englewood
Cliffs, 1986.

MURRAY 1994 Murray J. D., Van Ryper W., Encyclopedia of graphics file
formats, O’Reilly & Associates, Inc., 1994.

NAGAO 1979 Nagao M., Matsuyama M., Edge preserving smoothing, Computer
Vision Graphics and Image Processing, 1979 ; Vol. 9 :
pp. 394-407.

OSHER 1988 Osher S., Sethian J. -A., Fronts propagating with curvature-
dependant speed : algorithms based on Hamilton-Jacobi
formulations, Journal of Computational Physics, 1988 ; 79 :
pp. 12-49.

PALMARI 1996 Palmari J., Teysseire N., Dussert C., Raoult D., Image cytology and
topographical analysis of proliferation of endothelial cells in vitro
during Bartonella (Rochalimaea) infection, Analytical Cellular
Pathology, 1996 ; 11 : pp. 13-30.
Références 181

PALMARI 1997 Palmari J., Dussert C., Berthois Y., Penel C., Martin P.-M.,
Distribution of estrogen receptor heterogeneity in growing MCF-7
cells measured by quantitative microscopy, Cytometry, 1997 ; 27 :
pp. 26-35.

PAWLEY 1990a Pawley J. B., Handbook of biological confocal microscopy, Plenum


Press, Revised edition, 1990.

PAWLEY 1990b Pawley J. B., Fundamental limits in confocal microscopy, Chap. 2


in Pawley J. B., Handbook of biological confocal microscopy,
Plenum Press, Revised edition, 1990.

PETRÁÑ 1968 Petráñ M., Hadravsky M., Egger D., Galambos R.,
Tandem-scanning reflected-light microscope, J. Opt. Soc. Am.,
1968 ; Vol. 58 : pp. 661-664.

PREPARATA 1988 Preparata F., Shamos M.–I., Computational geometry, an


introduction, Springer-Verlag, Heidelberg, 1988.

RASURE 1992 Rasure J., Kubica S., The KHOROS application development
environment, Experimental environments for computer vision and
image processing, World Scientific, Singapore, 1992 ; pp. 1-32.

RAYMOND 1993 Raymond E., Raphael M., Grimaud M., Vincent L., Binet J.-L. and
Meyer M., Germinal center analysis with the tools of mathematical
morphology on graphs, Cytometry, 1993 ; 14 : pp. 848-861.

RIDDER 1997 Ridder G. M., Stuart S. B., Kerckaert G. A., Cody D. B.,
LeB œufR. A., Isfort R. J., Computerized image analysis of
morphologically transformed and nontransformed Syrian Hamster
Embryo (SHE) cell colonies : application to objective SHE cell
transformation assay scoring, Carcinogenesis, 1997 ; Vol. 18,
N. 10 : pp. 1965-1972.

RIGAUT 1991 Rigaut J.-P., Vassy J., High-resolution three-dimensional images


from confocal scanning laser microscopy ; quantitative study and
mathematical correction of the effects from bleaching and
fluorescence attenuation in depth, Analytical and Quantitative
Cytology and Histology, August 1991 ; Vol. 13, N. 4 : pp. 223-232.
182 Références

RODENACKER 1992 Rodenacker K., Aubele M., Jütting U., Gais P., Burger G.,
Gössner W., Oberholzer M., Image cytometry in histological
sections, Acta Stereol, 1992 ; 11/Suppl I : pp. 249-254.

ROERDINK 1993 Roerdink J. B. T. M., Bakker M., An FFT-based method for


attenuation correction in fluorescence confocal microscopy,
Journal of Microscopy, January 1993 ; Vol. 169, Pt. 1 : pp. 3-14.

SCHMITT 1994 Schmitt M., Mattioli J., Morphologie mathématique, Logique,


mathématique, informatique, Masson, 1994.

SCHÜPP 1998 Schüpp S., Elmoataz E., Clouard R., Herlin P., Bloyet D.,
Segmentation d’images intégrant la morphologie mathématique et
les contours actifs ; application à l’extraction d’éléments ou
d’ensembles cellulaires en imagerie microscopique médicale, 11ème
congrès RFIA’98, 20-22 janvier 1998, Clermont-Ferrand, Vol. I :
pp. 297-306.

SERRA 1982 Serra J., Image analysis and mathematical morphology, Academic
Press, London, 1982.

SMADJA 1992 Smadja M., Philipp S., Segmentation of uterus sections using an
extraction of the nuclei, Acta Stereol, 1992 ; 11/Suppl I :
pp. 625-630.

SOUCHIER 1996 Souchier C., Guigard M.-P., Fonlupt P., Trouillas J., Quantitative
evaluation of the distribution of cell density ; Application to human
pituitary corticotroph cells, Analytical and Quantitative Cytology
and Histology, June 1996 ; Vol. 18, N. 3 : pp. 251-260.

SRIHARI 1981 Srihari S.N., Representation of three-dimensional digital images,


Computing Surveys, December 1981 ; Vol. 13, N. 4 : pp. 399-424.

TARDIEU 1994 Tardieu H., Rochfeld A., Collemi R., La méthode Merise: principes
et outils, Édition d’organisations, Paris, 1994.

TERZOPOULOS 1988 Terzopoulos D., Witkin A., Kaas M., Constraints on deformable
models : recovering 3D shape and nonrigid motions, Artificial
Intelligence, 1988 ; N. 36 : pp. 91-123.
Références 183

TOET 1991 Toet A., Hierarchical clustering through morphological graph


transformation, Pattern Recognition Letters, 1991 ; 12 : pp.
391-399.

TSIEN 1990 Tsien R. Y., Waggoner A., Fluorophores for confocal microscopy :
photophysics and photochemistry, Chap. 16 in Pawley J. B.,
Handbook of biological confocal microscopy, Plenum Press,
Revised edition, 1990.

VAN DER WOORT 1990 Van der Woort H. T. M., Brakenhoff G. J., 3D image formation in
high-aperture fluorescence confocal microscopy : a numerical
analysis, Journal of Microscopy, April 1990 ; Vol. 158, Pt. 1 :
pp. 43-54.

VAN DIEST 1992 Van Diest P. J., Fleege J. C. and Baak J. P. A., Syntactic structure
analysis in invasive breast cancer, Human Pathology,
August 1992 ; Vol. 23, N. 8 : pp. 876-883.

VINCENT 1990 Vincent L., Graphes et morphologie mathématique, chapitre 5 de


Algorithmes morphologiques à base de files d’attente et de lacets.
Extension aux graphes, Thèse de Doctorat l’École des Mines de
Paris, mai 1990.

VINET 1991 Vinet L., Segmentation et mise en correspondance des régions de


paires d’images stéréoscopiques, Thèse de Doctorat de l’Université
de Dauphine, Paris IX, 1991.

VOSS 1993 Voss K., Discrete Images, Objects and Functions in Zn. Algorithms
and Combinatories 11, Springer-Verlag, 1993.

WEINBER 1994 Weinber D. S., Quantitative immunocytochemistry in pathology,


in : Image Analysis : A Primer for Pathologists, A. M. Marchevsky
and P. H. Bartels, Raven Press, New York, 1994 : pp. 57-77.

WILLIS 1993 Willis B., Roysam B., Turner J. N., Holmes T. J., Iterative
constrained 3D image reconstruction of transmitted light bright-
field micrographs based on maximum likelihood estimation,
Journal of Microscopy, March 1993 ; Vol. 169, Pt. 1 : pp. 347-361.
184 Références

WILSON 1984 Wilson R., Granlund G. H., The uncertainty principle in image
processing, IEEE Trans. on Pattern Analysis and Machine
Intelligence, 1984 ; N. 6 : pp. 758-767.

WILSON 1990 Wilson T., Confocal Microscopy, Academic Press, London, 1990.

WORRING 1992 Worring M. and Smeulders A. W. M., Multi-Scale Analysis of


Discrete point sets, IEEE. 0-8186-2915-0/92, 1992.

ZAHN 1971 Zahn C. T., Graph-theoretical methods for detecting and describing
gestalt clusters, IEEE Transactions on Computers, January 1971 ;
Vol. C-20, N. 1 : pp. 68-86.

ZHANG 1995 Zhang G., Object-oriented design for image processing


applications, Image processing and its applications, Conference
publication N. 410, 4-6 July 1995 : pp. 440-444.
Publications
Publications 187

ANGOT 1995 Angot F., Graphes de voisinage et traitement d’images, Rapport du


DEA Intelligence Artificielle et Algorithmique de l’Université de
Caen, 1995.

ANGOT 1996a Angot F., Clouard R., Elmoataz A., Revenu M., Neighborhood
graphs and image processing, European Symposium on « Lasers,
Optics, and Vision for Productivity in Manufacturing », Besançon,
June 1996 ; SPIE Vol. 2785 : pp. 12-23.

ANGOT 1996b Angot F., Elmoataz A., Revenu M., Herlin P., Analysis of cellular
microscopy images by means of neighborhood graphs, Microscopy,
Microanalysis, Microstructure, October/December 1996 ; Vol. 7,
N. 5/6 : pp. 549-556.

ANGOT 1996c Angot F., Elmoataz A., Clouard R., Revenu M., Herlin P., Intérêt
des graphes de voisinage dans la quantification des marqueurs
immunohistochimiques, Seizième Forum de cancérologie, Paris,
juin 1996, Bulletin du cancer, 1996 ; 83(6), p. 434.

ANGOT 1997a Angot F., Herlin P., Elmoataz A., Revenu M., Mandard A.-M.,
Bloyet D., Graphes de voisinage et traitement d’images ;
application à des images de marquage immunohistochimique,
Bulletin du Cancer, 1997 ; 84 (9) : pp. 849-854.

ANGOT 1997b Angot F., Revenu M., Elmoataz A., Clouard R., Les graphes de
voisinage comme outil de mise en œuvre de méthodes de
segmentation hiérarchique d’images, Seizième Colloque sur le
Traitement du Signal et des Images, GRETSI’97, septembre 1997 ;
Tome 1, pp. 399-402.

ANGOT 1998 Angot F., Elmoataz A., Revenu M., Vasseur P., Sichel F.,
Traitement d’images tridimensionnelles ; application à la
caractérisation d’images de prolifération cellulaire, 9ème Forum des
Jeunes Chercheurs en Génie Biologique et Médical, Brest,
mai 1998 ; pp. 120-121.

CLOUARD et al. 1997 Clouard R., Elmoataz A., Angot F., PANDORE : une bibliothèque et
un environnement de programmation d’opérateurs de traitement
d’images, Rapport interne du GREYC, ISMRA de Caen, 1997.
188 Publications

HERLIN et al. 1996 Herlin P., Deman D., Boudry C., Angot F., Duigou F., Image
galleries for DNA ploidy measurement : a tool for screening,
learning, data and image processing, Microscopy, Microanalysis,
Microstructures, October/December 1996 ; 7 : pp. 355-360.

HERLIN et al. 1997a Herlin P., Elmoataz A., Belhomme P., Schüpp S., Angot F.,
Duigou F., Chermant J.-L., Chasle J., Mandard A.-M., Revenu M.,
Bloyet D., Are sampling and hierarchitectural segmentation future
tools for automated quantitative immunochemistry in oncology ?,
5th ESACP, Oslo, May 1997, Analytical Cellular Pathology, 1997 ;
13, N. 2, 83.

HERLIN et al. 1997b Herlin P., Masson E., Duigou F., Plancoulaine B., Signolle J.-P.,
Angot F., Revenu M., Belhomme P., Joret J.-B., Datry T.,
Mandard A.-M., Bloyet D., Fully automated image analyzer for
DNA quantification of archival tumors, 5th ESACP, Oslo,
May 1997, Analytical Cellular Pathology, 1997 ; 13, N. 2, 83.

HERLIN et al. 1997c Herlin P., Masson E., Duigou F., Plancoulaine B., Signolle J.-P.,
Mandard A.-M., Angot F., Deman D., Belhomme P., Joret J.-B.,
Datry T., Rougereau O., Bloyet D., Automatisation de l’analyse
cytodensitométrique du contenu en ADN des tumeurs solides,
Bulletin du cancer, 1997 ; 84 (7) : pp. 685-692.
Annexes
Annexes 191

1. Les formats d’images ZEISS

Le microscope ZEISS LSM 3 du pôle Traitement et Analyse d’Images de Basse-


Normandie est commandé par un logiciel ZEISS LSM 310 version 3.96. Outre le réglage des
différents paramètres d’acquisition, ce logiciel contrôle la sauvegarde de deux principaux
types d’images : des images de volumes et des images de reliefs.

1.1. Images de volumes


En correspondance avec le principe de l’acquisition plan par plan, une image de volume est
enregistrée sous la forme d’une série d’images bidimensionnelles au format TIF (Tag Image
File Format). Le format TIF est un format de fichier très structuré dont la description peut être
trouvée dans différentes publications [MURRAY 1994]. Nous indiquons ici quelles sont les
informations contenues dans les fichiers créés par le logiciel ZEISS LSM.

Chacun de ces fichiers est structuré en 13 entrées :

• le champ « NewSubfileType » (=0) indiquant le début de l’image,

• la largeur de l’image,

• la hauteur de l’image,

• le nombre de bits par point (=8),

• le mode de compression (=1 : non compressé),

• le champ « PhotometricInterpretation » indiquant la correspondance entre les


niveaux de gris et l’intensité lumineuse (=1 : le niveau zéro correspond au noir),

• le fabriquant (Carl Zeiss, Oberkochen, Germany),

• le matériel (Laser Scan Microscope),

• la position des pixels de l’image,

• le nombre d’information pour chaque pixel (=1),

• le nombre de pixels (=largeur×hauteur),

• le logiciel (ZIF 1.81 MAR-93),

• un champ complémentaire ZEISS.

Ce dernier champ contient un grand nombre d’informations concernant l’acquisition : la


taille de l’image, le numéro de l’image 2D dans la série 3D, le nombre de lasers du
192 Annexes

microscope, les dimensions de chaque pixel dans les directions x et y, la distance entre chaque
plan d’acquisition, etc. La structure de ce champ est fournie par ZEISS dans le document ci-
dessous.

Offset Type Description


-------------------------------------------------------------------
0000h WORD Code 494Ch
0002h WORD Version (actual: 0002h)
0004h WORD Image type
Bit 0/1 Number of 8 bit planes
Bit 2/3 Number of channels per pixel
Bit 4 0: Original data,
1: Calculated data (animation)
Bit 5 1: Time series
Bit 6 Reserved (0 or 1)
Bit 7 1: Image is part of sequence
Bit 8 1: y-direction is Time
Bit 9 1: x-direction is Time
0006h WORD Reserved
0008h WORD x size of image
000ah WORD y size of image
000ch WORD x position of ROI
000eh WORD x position of ROI
0010h WORD x size of image display mask
0012h WORD y size of image display mask
0014h WORD Reserved
0016h WORD Reserved
0018h WORD Image position number in a sequence
001ah BYTE Reserved
001bh BYTE Number of valid channel parameters (1..3)
001ch BYTE Number of lasers (1..4)
001dh 3 bytes Reserved
0020h float x size of a pixel (µm or s)
0024h float y size of a pixel (µm or s)
0028h float z distance in a sequence (µm or s)
002ch float Sequence value (µm / s)
0030h 8 x WORD List of laser lines (nm)
----------------------------------------
0040h 64 bytes | Channel parameters 1 |
----------------------------------------
0080h 64 bytes | Channel parameters 2 (if available) |
----------------------------------------
00c0h 64 bytes | Channel parameters 3 (if available) |
---------------------------------------
0100h 16 x char User text 1
0110h 16 x char User text 2
0120h 16 x char Date and time text
0130h 16 x char Beam splitter text (channel 1, should be valid for all)
0140h time_t The time in seconds since midnight (00:00:00),
January 1, 1970, Universal Coordinated Time
0144h WORD Fraction of a second in milliseconds
0146h short Timezone difference in minutes
0148h short Daylight saving flag
014ah float Real scan time for one image (s)
014eh 2 bytes Reserved
0150h 16 x char Emission filter channel 1 text
0160h 16 x char Emission filter channel 2 text (if available)
0170h 16 x char Emission filter channel 3 text (if available)
0180h 32 x char Reserved for lens decription text
Annexes 193

Channel Parameters (64 bytes)


-----------------------------

Offset Type Description


-------------------------------------------------------------------
0000h BYTE Source
1 Conv Refl
2 Conv Trans
3 Conv Overl
4 Conv Fluor
5 LSM Refl1
6 LSM Refl2
7 LSM Refl3
8 LSM Trans
9 OBIC
10 Extern
0001h BYTE Pinhole
0002h BYTE Emission filter
0003h BYTE Flags
Bit 0 TV
Bit 1 Confocal
Bit 2 Reserved
Bit 3 Ratio
0004h BYTE Attenuation filter 1
0005h BYTE Attenuation filter 2
0006h BYTE Attenuation filter 3
0007h BYTE Laser (each bit represents one laser line)
0008h BYTE Scanning time
0009h BYTE Bandwidth
000ah BYTE Beam splitter
000bh BYTE Lens
000ch BYTE Scan function
000dh BYTE Averaging mode (reserved)
000eh WORD Number of averaging
0010h WORD Contrast
0012h WORD Brightness
0014h long x motor (in motor steps)
0018h long y motor (in motor steps)
001ch long z motor (in motor steps)
0020h WORD Zoom factor * 1000
0022h short Angle of rotation (0.1 degree)
0024h WORD Obic address 1
0026h WORD Obic address 2
0028h short Scan offset x
002ah short Scan offset y
002ch BYTE Attenuation filter 4
002dh 3 bytes Reserved
0030h float Objective magnification
0034h float Objective apperture
0038h float Reserved
003ch float Reserved

1.2. Images de reliefs


Une image de reliefs est une image représentant une surface dans un espace
tridimensionnel. Pour un domaine 2D échantillonné, l’acquisition de s sections optiques est
194 Annexes

effectuée entre deux altitudes extrêmes définies par l’utilisateur. Une image 3D est alors
construite, contenant l’intensité de chacun des points du volume. Pour chacun des points du
domaine 2D, l’altitude est déterminée par la recherche de la plus élevée des s intensités sur la
verticale du point. Par interpolation, cette altitude est quantifiée par un nombre, de 1 à 249.

La surface est enregistrée dans un fichier au format TOP (« Topography File » de ZEISS).
Pour chaque point, ce fichier contient l’altitude et l’intensité (de 0 à 255) à cette altitude. Pour
un domaine de l lignes et c colonnes, la taille du fichier est

t = 2 × l × c + 1024 .

La structure du fichier TOP est la suivante :

• l lignes de p colonnes d’octets représentant chacun l’altitude (0 lorsque aucune


altitude n’a pu être déterminée, entre 1 et 249 dans le cas contraire),

• l lignes de p colonnes d’octets représentant chacun l’intensité,

• 776 octets inutilisés,

• un entier court (2 octets selon le codage Intel) représentant c,

• un entier court représentant 2 × l ,

• 2 octets inutilisés,

• un entier long (4 octets) représentant s,

• un réel (4 octets) représentant en µm le pas d’échantillonnage en x,

• un réel représentant en µm le pas d’échantillonnage en y,

• un réel représentant en µm la distance entre deux sections,

• 226 octets inutilisés.

2. La bibliothèque PANDORE

2.1. Structure des fichiers images


Un fichier PANDORE est composé de trois parties principales : un entête caractéristique
indiquant de quel type d’objet PANDORE il s’agit, des attributs renseignant sur les dimensions
de l’image et le contenu effectif de l’image. Les différents champs utiles à la manipulation
d’images PANDORE sont déclarés ci-dessous :
Entête Magic number char magic[10]
Type du fichier Typeobj ohtype
Annexes 195

Auteur char ident[9]


Date de création char date[9]
Attributs Nombre de plans Long ndep
Nombre de lignes Long nlig
Nombre de colonnes Long ncol
Attributs facultatifs Nombre de régions Long nlabel
Nombre de sommets Long size
Données Voxels de l’image ou structure du graphe
2.2. Structure de graphe
Il existe en informatique deux méthodes classiques de représentation des graphes. Dans les
deux cas, les sommets doivent être numérotés mais chaque technique possède ses avantages et
ses inconvénients.

• Les matrices d’adjacence permettent un accès direct à l’arc reliant deux


sommets. Cependant, même si le nombre d’arcs est très faible, la taille de la
matrice est toujours s2 où s est le nombre de sommets du graphe : s = Card (S ) .
Dans le cas des graphes non orientés, le nombre d’informations peut être divisé
s.(s + 1)
par deux mais reste constant pour tout graphe de taille s : .
2

• Les listes d’adjacence sont des listes chaînées attachées à chaque sommet. Elles
présentent l’intérêt de ne représenter que les arcs existants mais obligent un
parcours de liste afin d’obtenir un arc particulier. Pour un graphe non orienté, il
faudrait choisir une convention pour n’enregistrer chaque arête qu’une seule fois.
Cependant, l’accès à tous les voisins d’un sommet est plus simple si on conserve
deux fois chaque arête.

Nous avons choisi d’utiliser une structure basée sur les listes d’adjacence afin d’optimiser
la taille des données manipulées. De plus, les listes chaînées permettent de parcourir
l’ensemble des voisins d’un sommet de manière plus intuitive que par l’intermédiaire d’une
matrice.

La structure de graphe (figure 114) doit également comporter des informations permettant
d’en faire une représentation graphique. Pour cela, on doit conserver une position pour chaque
n œud, ainsi que la taille de l’image correspondant au graphe. Les valeurs des n œuds et des
arêtes sont stockées au sein de la structure alors que les éventuelles informations
complémentaires concernant les n œuds doivent figurer dans un tableau annexe, indexé par les
identificateurs des n œuds.
196 Annexes

Graph

tnode size ndep nrow ncol

Hnode Lnode
1
2 neighbors index weight next
3 id
attr
seed
index weight next

size - 1
size
Figure 114 : structure des graphes utilisés.

Les différents champs ont les significations suivantes.

• Pour le graphe, size, ndep, nrow et ncol représentent respectivement le nombre


de n œuds, et le nombre de plans, de lignes et de colonnes de l’image d’origine.

• Chaque élément du tableau tnode est un pointeur vers une structure contenant
la liste des voisins du n œud (neighbors), l’identificateur du nœud (id), qui réfère
aux informations complémentaires, la valeur associée au n œud (attr) et la position
du point correspondant dans l’image (seed).

• Pour les listes chaînées, chaque cellule contient le numéro du nœud voisin dans
tnode (index), le poids de l’arête (weight) et un pointeur vers la suite de la liste
(next).

Pour manipuler des informations complémentaires, seul l’identificateur du nœud est utile
pour accéder à un tableau complémentaire. Cet identificateur est en général égal au rang dans
tnode. Cependant, cette égalité peut ne pas être vérifiée. Si l’image d’origine ne contient que
quelques points avec de grands numéros (entre 1 et n), le champ id permet de garder ces
numéros et de n’utiliser qu’un petit tableau pour manipuler le graphe (de 1 à size). D’autre
part, pour pouvoir gérer la fusion de n œuds, cet identificateur est utilisé pour conserver
l’indice du représentant de la fusion.

Afin de manipuler une large gamme d’informations (niveaux de gris, distances


euclidiennes, surfaces d’éléments particuliers des images,...), nous avons choisi d’utiliser des
entiers longs, entre 0 et 232-1, pour les valeurs des n œ uds et des arêtes (champsattr et weight).
Annexes 197

Pour que l’utilisation des graphes ne pose pas de problèmes avec celle des autres types de
données manipulés par les opérateurs de la bibliothèque PANDORE, il a été nécessaire de
trouver une numérotation commune pour les n œuds d’un graphe et les régions d’une carte. Par
convention, le n œud 0 et la région 0 ne correspondent pas à un élément de l’image et ne sont
pas utilisés.

2.3. Exemple d’opérateur PANDORE


Le fonctionnement général d’un opérateur PANDORE peut se découper en trois phases :

• lecture des fichiers d’entrée, masquage des données et transformation en objets


PANDORE, création des objets associés aux sorties (fonction ReadArgs),

• traitement des données d’entrée et création des résultats de l’opérateur


(fonction principale),

• masquage des résultats et création des fichiers de sortie (fonction WriteArgs).

En fonction des types des objets d’entrée, différents traitements sont possibles et
correspondent chacun à une fonction principale.
/*

* @(#)squelette.cc PANDORE 1.10 - 22/12/97 GREYC-ISMRA.


*
* Par Francois Angot.
*
* 6, boulevard du Marechal-Juin
* F-14050 Caen cedex
*/

#include <stdio.h>
#include <stdlib.h>
#include <pandore3d.h>

/*
* Fonction principale de l’operateur.
* Il faut autant de fonctions que de combinaisons sur les types des
* objets d’entree et de sortie.
*/
Errc
Squelette(Img3duc &ims,Img3duc &imd)
{

/* Instructions de la fonction. */

return(SUCCESS);
}

Errc
Squelette(Img3dus &ims,Img3dus &imd)
{

return(SUCCESS);
}
198 Annexes

Errc
Squelette(Img3dsf &ims,Img3dsf &imd)
{

return(SUCCESS);
}

#ifdef MAIN

/*
* Modify only the following constants, and the function call.
*/
#define USAGE "USAGE : %s [img_in] [img_out]\n"
#define PARC 0
#define FINC 1
#define FOUTC 1
#define REGP 0

int
main(int argc,char* argv[])
{
Errc result; // The result code of the execution.
Pobject3d* stencil; // The region stencil.
Pobject3d* objin[FINC+1]; // The input objects.
Pobject3d* objs[FINC+1]; // The source objects masked.
Pobject3d* objout[FOUTC+1]; // The ouput object.
Pobject3d* objd[FOUTC+1]; // The result object of the execution.
Float parv[PARC+1]; // The input parameters.

ReadArgs(argc,argv,PARC,FINC,FOUTC,&stencil
,objin,objs,objout,objd,parv,USAGE,REGP);

switch(objs[0]->Type())
{
case Po_Img3duc : {
Img3duc* const ims=(Img3duc*)objs[0];
objd[0]=new Img3duc(ims->ndep,ims->nrow,ims->ncol);
Img3duc* const imd=(Img3duc*)objd[0];
result=Squelette(*ims,*imd);
} break;
case Po_Img3dus : {
Img3dus* const ims=(Img3dus*)objs[0];
objd[0]=new Img3dus(ims->ndep,ims->nrow,ims->ncol);
Img3dus* const imd=(Img3dus*)objd[0];
result=Squelette(*ims,*imd);
} break;
case Po_Img3dsf : {
Img3dsf* const ims=(Img3dsf*)objs[0];
objd[0]=new Img3dsf(ims->ndep,ims->nrow,ims->ncol);
Img3dsf* const imd=(Img3dsf*)objd[0];
result=Squelette(*ims,*imd);
} break;
default :
fprintf(stderr,
"Operateur non encore defini pour de type d'objet.\n");
result=-1;
}

WriteArgs(argc,argv,PARC,FINC,FOUTC,&stencil,objin,objs,objout,objd);

Exit(result);
Annexes 199

#endif
2.4. Liste des opérateurs PANDORE 2D
En fonction de leur objectif et de leur fonctionnement, les opérateurs PANDORE 2D sont
répartis en plusieurs catégories :
amelioration Opérations d’amélioration d’images.
egalisation Recadrage des niveaux de gris par égalisation d'histogramme.
recadrage Recadrage dynamique des niveaux de gris.
sharp Rehaussement de contraste par convolution.

arithmetique Opérations arithmétiques.


add Addition de 2 images par moyennage.
decalage Décalage des valeurs des pixels d'une image.
dif Différence de deux images.
div Division de 2 images.
max Maximum de 2 images.
min Minimum de 2 images.
moins Soustraction de 2 images.
mult Multiplication de 2 images.
normalisation Normalisation des valeurs de pixels d'une image.
plus Addition de 2 images.

caracterisation Opération de sélection de régions.


allongement Sélection de régions sur leur valeur d'allongement.
compacite Sélection de régions sur leur valeur de compacité.
convexite Sélection de régions sur leur valeur de convexité.
elongation Sélection de régions sur leur valeur d'élongation.
encadre Sélection des régions ne touchant pas le bord (cadre) de l'image.
englobee Sélection de régions englobée par une seule autre.
excentricite Sélection de régions sur leur valeur d'excentricité.
moyenne Sélection de régions sur leur valeur de moyenne intérieure.
orientation Sélection de régions sur leur valeur d'orientation.
perimetre Sélection de régions sur leur valeur de périmètre.
rectangularite Sélection de régions sur leur valeur de rectangularité.
surface Sélection de régions sur leur valeur de surface.
variance Sélection de régions sur leur valeur de variance.

caract_graphe Opérations de caractérisation de graphes.


gad Caractérisation du désordre surfacique.
garf Caractérisation de l’Average Roundness Factor.
gbiparam Histogramme de 2 graphes.
gcaract Caractérisation de l’histogramme des attributs.
gcontraste Contraste des attributs.
gcooc22 Cooccurrence binaire.
gentropie Entropie des attributs.
ghisto Dessine l’histogramme des attributs.
ghisto2 Dessine l’histogramme des poids.
gmaxi Maximum des attributs.
gmaxi2 Maximum des poids.
gmini Minimum des attributs.
gmini2 Minimum des poids.
gmoment2 Moment d’ordre 2 des attributs.
gmoyen Moyenne des attributs
gmoyen2 Moyenne des poids.
grfh Roundness Factor Homogeneity.
gsomme Somme des attributs.
gsomme2 Somme des poids.
gvar Variance des attributs.
200 Annexes

gvar2 Variance des poids.

classification Classification de pixels.


binarisation Binarisation.
chanda Segmentation en régions à partir de matrice de co-occurence.
deravi Segmentation en régions à partir de matrice de co-occurrence.
entropie Segmentation en régions homogènes selon l'entropie.
fisher Segmentation en regions par partionnement de l'histogramme des niveaux de gris.
plage Segmentation en régions selon les longueurs de plage.
seuillage Seuillage.
valcontmoy Calcule la valeur qui détecte le maximum de contours.
valvarmax Calcul de la valeur qui maximise la variance interclasse.
varmax Seuillage d'une image par miximisation de la variance interclasse.
weszka Segmentation en régions à partir de matrice de co-occurrence.

contour Opérations de détection de contours.


aminciecontours Amincissement des contours d'une image à une épaisseur de 1 pixel.
distance Calcul d'une image de distance aux contours.
extension Extension des points terminaux dans la direction du contour.
fermeture Fermeture de contours par poursuite du gradient.
polygonalisation Approximation polygonale des contours d'une image.
supprimechaine Suppression des courbes ouvertes de faible longueur.
supprimefrontiere Suppression les courbes fermés de faible longueur.

differenciation Opération de dérivation.


gradient Calcul du module et de la direction du gradient par convolution.
laplacien Laplacien d'une image par convolution.
prewitt Module du gradient de Prewitt.
roberts Module du gradient de Roberts.
sobel Module du gradient de Sobel.

evaluation Opérations de caractérisation.


nbpix Compte le nombre de pixels non nuls dans une image.
sompix Calcule la somme des valeurs de pixels.

fusion Opérations de fusion dans les graphes.


compactage Compactage de graphe.
decimation Fusion des par décimation stochastique.
fusext Fusion de sommets.
fusion Fusion de sommets.
fusmax Fusion de sommets.
fusmin Fusion de sommets.
fusmoy Fusion de sommets.
fusmumford Fusion optimisée par le critère de Mumford et Shah.
fusmumreg Fusion optimisée par le critère de Mumford et Shah.
fusndg Fusion selon la moyenne des niveaux de gris.
merge Fusion élementaire.
mumford Fusion optimisée par le critère de Mumford et Shah.

image Opération diverses sur les images.


caract Caractérisation de l’histogramme des niveaux de gris.
contraste Contraste.
dilatrec Reconstruction par dilatation morphologique.
disteuclid Distance euclidienne.
energie Calcul de l’énergie des pixels.
entropy Calcul de l’entropie des pixels.
filtrevar Filtre par variance.
maxi Maximum d’une image.
mini Minimum d’une image.
moment2 Moment d’ordre 2 d’une image.
moyen Moyenne d’une image.
pourcentage Calcul le seuil donnant un pourcentage de pixels
Annexes 201

subrg Suppression d’une région dans une carte.


suprg Suppression d’une région dans une carte.
touchebord Suppression des régions en contact avec le bord de l’image.
var Variance de l’image.

lissage Opérations de régularisation.


exposym Exponentielle symétrique.
gauss Filtre gaussien.
ladapte Lissage d'une image préservant les contours.
lcm Lissage par diffusion non linéaire.
median Filtre médian.
moyenneur Filtre moyenneur.
nagao Filtre de Nagao
outrange Filtre de lissage adaptatif.
sigma Filtre de lissage moyenneur basé sur le choix des voisins.
snnmoy Filtre adaptatif : Symetric Nearest Neighbourghood.

localisation Opérations de localisation


amincissement Suppression des points non maxima dans une image d'amplitude de gradient.
barycentre Calcul les centres de gravité des régions.
coupe Détection des transitions de signe des niveaux de gris.
debruitage Estimation du bruit dans une image de gradient.
debruitage2 Estimation du bruit dans une image de gradient.
extrema Recherche des extrema locaux.
frontiere Localisation des frontières.
maxima Recherche des maxima locaux.
minima Recherche des minima locaux.
postamin Suppression des points qui ne garantissent pas la connexité.

logique Opérations logiques.


et ET logique.
intersection Intersection des éléments de deux cartes de régions.
inversion Inversion logique.
non Inversion logique.
ou OU logique.
oux OU excllusif.
union Union de régions.

modarc Opérations de pondérations.


frdiff Pondération canonique.
freuclid Distance entre les sommets.
frfront Pondération des arêtes.
frmindist Pondération des érêtes.
frmindist2 Distance au voisin le plus proche.
frmindist3 Distance au voisin le plus proche.
frmingap Minimum entre le poids et les deux attributs.
frmini Minimum sur les régions.
frmoyen Moyenne sur les régions.

modsom Opérations de valuation.


croissgraph Croissance prioritaire.
ginversion Inversion logique.
gmoyenneur Filtre moyenneur.
grdist Distance moyenne aux voisins.
grelong Valuation par l’élongation.
grmaxdist Distance au voisin le plus éloigné.
grmin Attribut minimal des voisins.
grmindist Distance au plus proche voisin.
grndg Valuation par la moyenne des niveaux de gris.
grorient Valuation par l’orientation.
grperim Valuation par le périmètre des régions.
grsurf Valuation par la surface des régions
202 Annexes

grtaille Valuation par la surface des régions.


grtaille2 Valuation par la surface des composantes connexes.
grtaille3 Valuation par le nombre de sommets des composantes connexes.
gvariance Filtrage par la variance.

modstr Changement de structures de graphe.


cutmax Partition optimale.
ebarbage Suppression des feuilles.
gbeta Béta-graphes.
gcoupe Coupure d’arêtes.
ginfluence Graphe d’influence.
gisole Suppression des sommets isolés..
mst Arbre de recouvrement minimal.
mst2 Arbre de recouvrement minimal.
partndg Partition optimale.

morphologie Opérations de morphologie mathématique.


dilatation Dilatation
epaississement Dilatation conditionnelle.
erodeultime Erodés ultimes.
erosion Erosion.
lpe Ligne departage des eaux.
morphograd Gradient morphologique.
morpholap Laplacien morphologique.
ndilatation Dilatation répétitive.
nerosion Erosion répétitive.
nfermeture Fermeture morphologique répétitive.
nouverture Ouverture morphologique répétitive.
reconstruction Reconstruction morphologique.
squelettisation Squelettisation d’objets binaires.

morph_graphe Opérations de morphologie mathématique sur les graphes.


gcroissance Croissance de composantes connexes.
gdistance Graphe de distances.
gmarquage Etiquetage de composantes.
gmaxreg Maxima régionaux.
gminreg Minima régionaux.
greconst Reconstruction morphologique.

passerelle Opérations de changement de types.


bmp2pan Conversion BMP.
gr2im Conversion.
horus2pan Conversion.
im2rg Conversion.
im2sf Conversion.
im2uc Conversion.
im2us Conversion.
imc2img Conversion.
pan2d23d Conversion 2D -> 3D.
pan2bmp Conversion BMP.
pan2ps Conversion PS.
pan2raw Conversion RAW.
ppm2pan Conversion PPM.
ras2pan Conversion RAS.
raw2pan Conversion RAW.
raw2ps Conversion.
rg2gr Conversion.
rg2im Conversion.
tiff2pan Conversion TIFF.
top2pan Conversion TOP.
voisins Conversion (Voronoï).
Annexes 203

region Opération sur des objets numérotés.


comblement Remplissage de trous.
enveloppeconvexe Enveloppeconvexe.
fusionenglobee Fusion de régions englobées dans d'autres.
fusionplusenglobante Fusionne les régions avec la région voisine la plus englobant.

segmentation Opérations de segmentation.


coloriage Etiquetage.
delaunay Construction du graphe de Delaunay.
etiquetage Etiquetage.
marquage Etiquetage.
reordonne Re-étiquetage.
voronoi Partition de Voronoï.

utilitaire Utilitaires divers.


bordure Ajout d'un bord homogène à une image.
bruitage Ajout d’un bruit à l’image.
courbe Tracé d’histogramme.
dessin Synthèse d’image.
disques Disques d’influence.
extraction Extraction d’une partie d’uneimage.
insertion Insertion d'une image dans une autre image.
interpolation Agrandissement d’image.
quid Renseignements.
rassemble Renumérotation.
rds Construction d'un Autostéréogramme ded type Random Dot Stereogram.
reduction Réduction de la taille de l’image.
rescnt Représentation de graphes.
resimg Représentation de graphes.
resnid Représentation de graphes.
resreg Représentation de graphes.
show Informations sur les objets.
statut Résultat du dernier opérateur.
synthese Synthèse d’image.
tramage Conversion d'une image de niveaux de gris en une image binaire équivalente.
trimet Projection trimétrique d’une image d’altitudes.
typepandore Retourne le moyen de créer une image.
valeur Valeur d’une image en un point.
visu Visualisation d’une image.
2.5. Liste des opérateurs PANDORE 3D
Les opérateurs PANDORE 3D sont répartis en plusieurs catégories :
accessoires Accessoires divers.
rassemble Renumérotation.
renumerotation Renumérotation.
supdernreg Suppression de régions.
supgrndreg Suppression de régions.
supreg Suppression de régions.
symetrie Transformation géométrique.

arithmetique Opérations arithmétiques.


ajout Décalage d’image.
difference Différence de 2 images.
division Division de 2 images.
max Maximum de 2 images.
min Minimum de 2 images.
multiplication Multiplication de 2 images.
soustraction Soustraction de 2 images.

caracterisation Opérations de caractérisstion


204 Annexes

debruitage Limite maximum du bruit d’une image.


maxi Maximum d’une image.
mini Minimum d’une image.
moyen Moyenne d’une image.
pourcentage Retourne le seuil nécessaire pour ne conserver qu’un pourcentage de voxels.
valvarmax Valeur maximisant la variance interclasse.

croissance Opérations de croissance.


croissance Croissance.
croisscont Croissance contrôlée a posteriori.
croissgraph Croissance dans les graphes.
croissmoy Croissance en fonction des niveaux de gris moyens.
distancee Distance euclidienne.
envconv Enveloppe convexe approchée.
lpe Ligne de partage des eaux.
voronoi Partition de Voronoï.

differenciation Opérations de dérivation.


gradfast Gradient rapide.
gradient Gradient de Prewitt 3D.
gradunif Gradient uniforme.
laplacien Laplacien.

fusion Fusion dans les graphes.


decimation Décimation stochastique.
fusion Fusion de sommets
variation Fusion de sommets par méthode variationnelle.

graphe Opérations sur les graphes.


canonique Pondération canonique.
compactage Compactage de graphe.
coupure Suppression d’arêtes.
cutmax Partition optimale.
distancee2g Pondération par la distance.
grattr Représentation visuelle.
grid Représentation visuelle.
isolement Suppression d’arêtes.
moyenne2g Valuation par les moyennes de niveaux de gris.
mst Arbre de recouvrement minimal
nbvoisins2g Valuation par le nombre de voisins.
submoy Valuation des sommets.
taille2g Valuation par la taille des composantes.
volume2g Valuation par le volume des régions.

lissage Opérations de régularisation.


difflin Diffusion linéaire.
diffpara Lissage par diffusion parabolique.
exposym Exponentielle symétrique.
mcm6 Diffusion par courbure moyenne.
mcm26 Diffusion par courbure moyenne.
median6 Filtre médian.
moyenneur6 Filtre moyenneur.

localisation Localisation de formes particulières.


barycentre Centres de gravité des régions.
cubext Cube englobant.
distancec Opération de distance de chanfrein.
dmaxima Maxima locaux directionnels.
dminima Minima locaux directionnels.
frontiere Localisation des frontières des objets.
maxima Maxima locaux.
minima Minima locaux.
Annexes 205

logique Opérations logiques.


et ET logique.
inversion Inversion logique.
ou OU logique.

morpho Morphologie mathématique.


dilatation Dilatation morphologique.
dilatrec Reconstruction par dilatation.
eroderec Reconstruction par érosion.
erosion Erosion morphologique.
fermeture Fermeture morphologique.
morphograd Gradient morphologique.
ndilatation Dilatation répétitive.
ndilatation_plan Dilatation répétitive plan par plan.
nerosion Erosion répétitive.
nerosion_plan Erosion répétitive plan par plan.
nfermeture Fermeture répétitive.
nouverture Ouverture répétitive.
ouverture Ouverture morphologique.

passerelle Opérateurs de changement de type.


fic2pan Conversion fichier non typé.
gr2im Conversion.
im2rg Conversion.
im2sf Conversion.
im2uc Conversion.
im2us Conversion.
pan2fic Conversion fichier non typé.
pan2raw Conversion RAW.
pan2sct Conversion SCT.
pan2tif Conversion TIF.
pan2vff Conversion VFF.
pan3d22d Conversion 3D -> 2D.
raw2pan Conversion RAW.
rg2gr Conversion.
rg2im Conversion.
tif2pan Conversion TIF.
vff2pan Conversion VFF.

segmentation Opérations de segmentation.


etiquetage Etiquetage de composantes.
touchebord Suppression des objets touchant les bords de l’image.

seuillage Opérations de classification de voxels.


binarisation Binarisation.
seuillage Seuillage.

trait_1D Traitements unidirectionnels.


interpolation Interpolation linéaire directionnelle.
normalisation_plans Normalisation d’histogramme plan par plan.
projection Projection orthogonale par maximum.
projectmoy Projection orthogonale par moyenne.

utilitaires Utilitaires divers.


agrandissement Zoom de l’image..
ajoutebord Ajout d’un cadre uniforme autour de l’image.
bruitage Ajout de bruit à l’image.
extraction Extraction d’une portion de l’image.
histo2d Dessin des histogrammes de chaque plan.
histogramme Dessin de l’histogramme global.
normalisation Normalisation d’histogramme.
206 Annexes

quid Informations sur l’image.


reduction Zoom réducteur de l’image.
selection Mise à zéro d’une partie de l’image.
show Informations sur l’image.
statut Résultat du dernier opérateur.
synthese Synthèse d’image.
tiff Information sur les fichiers TIFF.
valeur Retourne la valeur de l’image en un point.
visu Visualisation d’un plan de l’image.

3. Exemple de plan de résolution de problème

Afin d’illustrer notre approche méthodologique, nous présentons ici l’ensemble du plan de
résolution du problème de localisation des massifs tumoraux de l’application étudiée dans la
section IV.1. Il s’agit du résultat de la modélisation établie en collaboration avec Valérie
Ficet-Cauchard [FICET-CAUCHARD 1999].

Extraire les
regroupements
d’objets

Eliminer le Former les Extraire les


Former le
fond objets à partir groupes
graphe
des régions d’objets

B3 B4

Sélectionner Marquer les Supprimer


Extraire tous
le fond régions les petits
les groupes
groupes

B1 B2 B5 B6
Annexes 207

Sélectionner le Marquer les


B1 B2
fond régions

Passer un filtre Binariser suivant Calculer


l’image Etiqueter les
moyenneur la variance
régions
uniforme interclasse complémentaire

Calculer la Créer une


variance Binariser Numéroter
carte de
interclasse les régions
régions

moyenneur valvarmax binarisation inversion marquage im2rg


p:8 p: p : S, 255 p: p:8 p:
e : i1 e : i2 e : i2 e : i3 e : i4 e : i5
s : i2 s: s : i3 s : i4 s : i5 s : i6
r: r:S r: r: r: r:

Former les objets


B3 à partir des
régions

Lisser par Détecter les Séparer les Eliminer les


Numéroter Etiqueter les
exponentiel minima régions par petites
les minima régions
symétrique régionnaux lpe régions

Créer une
Numéroter
carte de
les régions
régions

exposym minima marquage lpe marquage im2rg surface


p : 60 p:3 p:8 p:1 p:8 p: p : 1, 32
e : i1 e : i6, i7 e : i6, i8 e : i6, i9, i1 e : i6, i10 e : i11 e : i12
s : i7 s : i8 s : i9 s : i10 s : i11 s : i12 s : i13
r: r: r: r: r: r: r:
208 Annexes

Former le
B4 graphe

Extraire les Créer le


germes graphe

cgrav rg2gr
p: p:
e : i13 e : i14
s : i14 s : i15, 16
r: r:

Extraire tous les


B5 groupes

Calculer les Séparer les


distances groupes suivant
entre objets la distance

Méthode Méthode
décomposée directe

Colorer les Calculer la Détecter les Calculer les Supprimer les Restructurer
régions suivant distance au minima de distances petits arcs le graphe
les sommets contour distance

resreg disteuclid frmini voisin gcoupe gisole


p: p:3 p:8 p: p : 0, 10 p:
e : i13, i16 e : i17 e : i15, i16, i18 e : i13 e : i19 e : i20
s : i17 s : i18 s : i19 s : i17, i18, i19 s : i20 s : i21
r: r: r: r: r: r:
Annexes 209

Supprimer les
B6 petits groupes

Numéroter les Calculer la Seuiller les Restructurer Numéroter


composantes taille de sommets du le graphe les objets
connexes chaque région graphe

gmarquage gtaille gseuillage gisole gmarquage


p: p: p : 200, 65535 p: p:
e : i21 e : i13, i22 e : i23 e : i24 e : i25
s : i22 s : i23 s : i24 s : i25 s : i26
r: r: r: r: r:

4. Préparation des cultures cellulaires

150 000 cellules sont ensemencées sur une lamelle de verre placée dans boîte de Pétri et
incubées dans du milieu DMEM à 10% de sérum de veau fœtal. Au temps voulu, les cellules
sont rincées 1 fois 1 mn puis 2 fois 5 mn avec du PBS (phosphate buffered saline)-BSA
(sérum albumine bovine) 0,5%-orthovanadate 1 mM (inhibiteur de phosphatases, Sigma). Les
cellules sont ensuite fixées 10 mn avec du paraformaldéhyde à 3% puis rincées 1 fois 1 mn,
2 fois 10 mn, 1 fois 15 mn avec du PBS-BSA 0,5%-orthovanadate 1 mM, puis perméabilisées
avec du Triton X 100 à 0,5% dans du PBS sans Ca2+ ni Mg2+ (2 mn) à 4°C, puis rincées 1 fois
1 mn, 1 fois 10 mn, 1 fois 15 mn, 1 fois 30 mn avec du PBS-BSA 0,5%. Les cellules sont
alors incubées en présence de l'anticorps anti-phosphotyrosines (Py-20, Tébu, France) dilué
au 1/20 dans du PBS-BSA 0,5% pendant 1 h à température ambiante, en chambre humide et à
l’obscurité. Les cellules sont à nouveau rincées 1 fois 1 mn, 3 fois 5 mn, 2 fois 10 mn avec du
PBS-BSA 0,5%, puis incubées en présence de l'anticorps secondaire conjugué à la FITC (F-
6257, Sigma, France) dilué au 1/30 dans du PBS-BSA 0,5% pendant 1 h à température
ambiante en chambre humide et à l’obscurité. Les cellules sont ensuite rincées 1 fois 1 mn,
3 fois 5 mn, 2 fois 10 mn avec du PBS-BSA 0,5% puis 5 mn dans de l’eau ultra-pure, puis
montées sur une lame en présence de Mowiol (Calbiochem, France) et séchées au moins une
nuit avant observation.
Segmentation d’images 2D et 3D ;
application à la quantification d’images histologiques
et cytologiques obtenues par microscopie
L’imagerie bidimensionnelle ne permet pas toujours de répondre aux questions posées lors de l’analyse de scènes provenant
de notre monde tridimensionnel. Cette thèse propose une étude de l’analyse d’images 3D, dans le domaine de la microscopie
cellulaire. Nous examinons pour cela chacun des processus impliqués, depuis l’acquisition jusqu’à la quantification des images,
en passant par leur représentation et leur traitement.
Nous exposons tout d’abord les caractéristiques des images acquises par microscopie confocale. Nous présentons les
avantages et les limites de ce type d’acquisition et nous montrons en particulier que les traitements tridimensionnels isotropes ne
sont pas adaptés aux images ainsi obtenues.
Nous présentons alors une représentation des images et des opérations de traitement permettant de prendre en compte les
spécificités des images et des objectifs à atteindre : identifier des populations d’objets biologiques et caractériser leur architecture
au sein des images. En particulier, afin de manipuler explicitement les relations de proximité et de ressemblance entre ces objets,
nous proposons une double représentation des images : en tant que grilles régulières de points et en tant que graphes de voisinage.
Nous détaillons ensuite l’intégration de nouveaux opérateurs de traitement dans la bibliothèque PANDORE, en mettant l’accent
sur l’analogie entre le traitement des graphes de voisinage et celui des grilles de points.
Enfin, nous appliquons notre approche à la résolution de divers problèmes de traitement d’images de microscopie cellulaire
2D et 3D. Nous présentons trois études menées en collaboration avec le Centre Régional de Lutte Contre le Cancer et le Groupe
Régional d’Études sur le Cancer. Nous proposons une caractérisation de l’architecture des cellules dans des coupes histologiques,
une quantification de la présence de contacts focaux dans des cellules de culture et une étude de l’architecture volumique de
transformations cellulaires.

Mots-clés
Traitement des images, Microscopie confocale, Tissus (histologie)

2D and 3D-image segmentation;


application to the quantification of histological
and cytological images obtained by microscopy
Two-dimensional imaging is not always able to cope with the issues raised by scene analysis coming from our three-
dimensional world. This thesis describes a study of three-dimensional image analysis, within the context of cellular microscopy.
For this purpose, each process, from the acquisition to the quantification of the images, including their representation and
processing is examined.
First the characteristics of the images obtained by confocal microscopy are presented and the advantages and the limits of this
kind of acquisition device are discussed. In particular, it is shown that isotropic three-dimensional processing cannot be applied to
the images obtained with this device.
We therefore describe an image representation and the related operations allowing to take into account the specificity of the
images and the goals to be reached: identify populations of biological objets and characterize their intrinsic architecture. In
particular, in order to explicitly manipulate proximity and similarity relations between objets, a dual representation of images is
proposed: as regular point grids and as neighborhood graphs.
We also detail the integration of new processing operators in the PANDORE library, while emphasizing the analogy between
the processing of neighborhood graphs and the processing of point grids.
Finally, our approach is applied to the solving of various image processing problems dealing with 2D and 3D cellular
microscopy images. Three studies carried out in collaboration with the Centre Régional de Lutte Contre le Cancer and the
Groupe Régional d’Études sur le Cancer are presented. We propose a characterization of cell architecture in histological sections,
a quantification of focal contacts in culture cells and a study of 3D architecture in transformation cells.

Keywords
Image processing, Confocal microscopy, Tissues

Groupe de recherches en informatique, image et instrumentation de Caen (GREYC)


Institut des sciences de la matière et du rayonnement (ISMRA)
6, boulevard du Maréchal-Juin
14050 Caen cedex

S-ar putea să vă placă și