Sunteți pe pagina 1din 74

Principes de bases des capteurs d'images

Introduction
Les capteurs numriques d'image sont omniprsents dans notre vie de tous les jours : appareil photographique, videoconfrence, webcam, et bien sr dans nos tlphones portables (quoique...). Les capteurs d'images reprsentent plus de 40% des ventes de composants optolectroniques. De 2002 2007, les ventes de capteurs d'images ont augment de 35%, ces ventes tant principalement composes de capteurs CMOS dans les appareils photos basiques des tlphones portables, et de CCD pour les appareils photos numriques. Durant la premire moiti de l'anne 2007, les ventes ont baiss de 12% par rapport 2006, anne pendant laquelle les capteurs CMOS avaient permis d'obtenir un chiffre d'affaires de 4,2 milliards de dollars, ce qui reprsente 30% de mieux qu'en 2005. Sur l'anne entire, les ventes de capteurs CCD et CMOS ont diminu de 7% ; cette baisse des ventes aurait t due au march des tlphones portables qui commenait stagner. A prsent, on prvoit que les ventes vont augmenter d'environ 14% par an jusqu' 2012, en raison de marchs mergents : en imagerie mdicale, jouets, jeux vidos, ... et atteindra 13,2 milliards de dollars en 2012 ; dj entre 2007 et 2008, le chiffre d'affaires a augment de 10%, passant de 6,9 milliards 7,6 milliards de dollars. Les ventes de capteurs CMOS ont atteint les 4,4 milliards de dollars en 2008, ce qui reprsente une hausse de 19%, aprs une chute du chiffre d'affaires de 12% en 2007. Quant aux CCD, leurs ventes ont baiss de 1% en 2008 (3,2 milliards de dollars) alors qu'elles n'avaient pas augment en 2007. Le march des capteurs explose et surtout l'analyse de l'offre demande de plus en plus de comptences pour bien choisir Son capteur . Mais quelles sont les contraintes dont il faut tenir compte, comment lire les donnes techniques et surtout comment valuer ses besoins et ses performances ??? Ce cours reprend les diffrentes questions sous forme littrale et essaie d'apporter au lecteur une rponse ou, au mieux, un cheminement qui lui permettra de dgager ses propres conclusions sur la pertinence de l'investissement effectuer. Dans tous les cas, il devra se poser la question clef QIQA : Quelle Image pour Quelle Application ? Nous supposerons ici que les notions d'imagerie sont bien connues du lecteur, et qu'il lui suffira d'utiliser ses connaissances pour choisir optique et capteur en adquation... Pour numriser une image, plusieurs scnarii sont possibles (Fig.1), soit par un balayage d'une ligne, soit point par point rpartis sur une surface (ces points pouvant eux-mmes tre des imagettes constitutives de l'image finale). La rsolution finale de l'image sera ds lors gouverne par sa taille et le nombre de pixels qui la constitue, et ce en fonction de la taille physique de chaque pixel. On trouve aussi une dfinition de l'image non plus en dpi (point par pouce), mais en lp/mm (paire de lignes/mm), sachant qu'il faut deux pixels pour gnrer une paire de lignes...

Figure 1: Principe de numrisation d'une image Ce cours est organis en une partie cours et une tude de cas. Quelques exercices compltent cette prsentation des capteurs d'images.

Rsum historique
Quelques dates cls :

1970 : CCD (Bell 's Lab) 1974 : Capteur 100 x 100 pixels (Fairchild) Sensibilit : IR et Visible 1993 : Capteur CMOS (NASA JPL) 2000 : Capteur 7186 x 9216 pixels (Philips) Sensibilit : IR, Visible, X 2007 : Capteur CCD 9216 x 9216 pixels (Fairchild) 2007 : Capteur CMOS SA1: 5400 fr/s pour 1Mpixel (Photron) 2009 : Capteur Dalsa pour Mamiya : 22Mpixels pour 36x48mm 2009 : Capteur photron SA5 : 5400fr/s pour 1Mpixel... en couleurs

Glossaire de base

Pixel : picture element, taille de quelques m, jointifs ou non Pitch : distance interpixel, varie selon le format du capteur Format : line, interline, field, frame, full frame Rsolution spatiale : lie au nombre de pixels et la taille du pixel Rsolution temporelle : lie la frquence d'acquisition en image (fr) par seconde Rsolution sensibilit : lie au semiconducteur et la numrisation en niveau de gris Binning : groupement de pixel Taux de transfert (en pix/s, ou en octets/s): dpend de la rsolution et du format vitesse de transfert d'un pixel Sensibilit : la quantit de lumire et sa couleur, en fonction du semiconducteur, du type de dopage, et du revtement Bruit : tout signal ne participant pas la transcription lectrique de l'image dsire

Les capteurs d'images


Introduction Matrices CCD Fonctionnement du CCD Architecture de la matrice Matrices linaires Matrices transfert de bloc complet ("Full Frame") Transfert de bloc Transfert interligne Balayage progressif Dcalage temporel et intgration Bruit des capteurs CCD Courant d'obscurit Eblouissement ( Blooming ) Efficacit quantique Transport et Conversion de la charge Tailles du chip CCD Dfauts Format et Architecture Capteurs CMOS Quantification du bruit Comparatif des CCD et CMOS

Introduction

Le but des capteurs d'images est de retranscrire, le plus fidlement possible, l'image d'un objet clair, ou d'une source lumineuse, forme leur surface par un systme optique adquat. Nous nous attacherons principalement dcrire les deux grandes familles de capteurs opticolectoniques utiliss de nos jours : les capteurs CCD et les capteurs CMOS :

CCD ( Charge Coupled Device ), qui ralise les oprations de Collection, Transfert et Conversion de la charge lectrique gnre par les photons incidents. CMOS ( Complimentary Metal Oxyde Semiconductor ), qui ralise les oprations de Collection et Conversion sur le site de collection de la charge gnre par les photons incidents.

Historiquement, les premires camras fonctionnaient avec des films photographiques, puis avec des tubes en tant que dtecteurs, et seule la partie centrale du tube tait utilise. Avec l'avnement des semiconducteurs, les premiers capteurs CCD sont apparus dans les annes 1970 et les progrs raliss tant en physique du solide qu'en lectronique (techniques de croissance, photolithogravure, nanoetching, ...) ont permis d'offrir des procds de fabrication de plus en plus simples et de plus en plus performants. A la fin des annes 1990, les capteurs CMOS supplantent dsormais les films photographiques ultrarapides pour l'acquisition d'images grande vitesse. Enfin, leur dveloppement explosif dans les annes 2000 et la mise en place de moyens de tlcommunication, large bande passante et haut dbit, ont entrain leur utilisation dans des domaines aussi varis que la tlsurveillance, la communication vido, ... ou tout simplement de capteur de prsence dans leur plus simple apparat (une seule photodiode). A terme, on s'attend d'ailleurs au remplacement total des mulsions photographiques, y compris dans des domaines scientifiques forte demande de rsolution spatiale tels que l'holographie, ou les imageries satellitaire et astronomique.

Matrices CCD
Les capteurs CCD (Charge Coupled Device : systmes transfert de charges) font rfrence une architecture semiconductrice dans laquelle la charge est transfre via une aire de stockage. La plupart des dtecteurs oprant dans la rgion du visible utilise une architecture CCD pour dplacer le paquet de charge, ils sont communment appels matrices CCD. Leur architecture a trois fonctions de base, outre la cration de la charge:

collection de la charge, transfert de la charge, conversion de la charge en une tension mesurable.

Comme les matrices oprant dans le visible sont des systmes monolithiques, la gnration de la charge est souvent considre comme la fonction initiale du CCD. La charge est cre en un pixel (pixel est la contraction de picture element : le plus petit morceau d'image) proportionnellement au niveau de lumire incidente en ce site.

L'effet d'agrgation de tous les pixels produit une reprsentation chantillonne de la scne continue.

Figure 2 : Bandes d'nergie dans une photodiode au silicium et Effet photolectrique La technologie de base sur laquelle repose le CCD est la capacit MOS (Metal Oxyde Semiconductor). La capacit est appele une porte ("gate"). Les paquets de charge sont transfrs squentiellement de capacit capacit jusqu' ce qu'ils soient mesurs au nud de dtection. La gnration des charges dans la plupart des systmes se produit par effet photolectrique (Fig.2) au niveau d'une capacit MOS (encore appele porte lumineuse "photogate"). Pour certains systmes, et notamment les systmes transfert interligne, des photodiodes crent la charge. Aprs la gnration de la charge, le transfert vers le nud de conversion (de la charge en tension) se produit dans des capacits MOS pour tous les systmes. Bien que les matrices CCD soient du domaine public, leur fabrication reste complexe. Le nombre d'tapes ncessaire leur ralisation peut varier entre une dizaine et une centaine suivant le degr de complexit de leur architecture. Les systmes peuvent tre dcrits fonctionnellement d'aprs leur architecture (transfert de bloc ( frame ), transfert interligne, ...) ou d'aprs leur application. Pour minimiser les cots,

la complexit de la matrice, et le traitement lectronique, l'architecture est typiquement choisie pour une application spcifique ( ASIC : Application Specific Integrated Circuit ). Les camras astronomiques utilisent classiquement des matrices bloc complet ("full frame"), tandis que les systmes vido utilisent gnralement le transfert interligne. Enfin, la sparation entre la tlvision professionnelle, les utilisateurs de camscopes, la vision artificielle, et les applications scientifiques ou militaires devient de plus en plus tnue avec les progrs de la technologie.

Fonctionnement du CCD
La technologie de base sur laquelle repose le CCD est la capacit MOS (Metal Oxyde Semiconductor) (Fig.3). Si un photon dont l'nergie est suprieure l'nergie du gap est absorb dans la zone de dpltion, il produit une paire lectron-trou. L'lectron reste dans la zone de dpltion tandis que le trou se dirigera vers l'lectrode de terre. La quantit de charge ngative (lectrons) qui peut tre collecte est proportionnelle la tension appliqu, l'paisseur d'oxyde et la surface de l'lectrode de porte. Le nombre total d'lectrons qui peut tre stock est appel contenance du puits ( well capacity ). Quand la longueur d'onde augmente, les photons sont absorbs une profondeur croissante. Ceci limite notamment la rponse aux longueur d'onde leves. On dispose actuellement de capteurs pouvant fonctionner de l'infrarouge lointain aux rayons X.

Figure 3 : Porte MOS pour silicium dop p Le registre CCD consiste en une srie de portes. La manipulation de la tension de porte, d'une manire systmatique et squentielle, transfre les lectrons d'une porte l'autre la manire d'un convoyeur. Pour le transfert de charge, les zones de dpltion doivent se chevaucher (Fig.4.a). Les zones de dpltion sont en gradient et les gradients doivent se chevaucher pour que le transfert de charge se produise. Chaque porte a sa propre tension de contrle qui varie en fonction du temps. La tension est un signal carr qui est appel horloge, ou signal d'horloge. Au dpart, une tension est applique la porte 1 et les photolectrons sont collects dans le puits 1 (b). Quant une tension est

applique la porte 2, les lectrons se dplacent vers le puits 2 la manire d'une cascade (c). Ce processus est rapide et la charge s'quilibre rapidement dans les deux puits (d). Lorsque la tension est rduite la porte 1, le puits de potentiel dcrot et les lectrons s'coulent nouveau en cascade dans le puits 2 (e). Finalement, lorsque la tension de la porte 1 approche de zro, tous les lectrons sont dans le puits 2 (f). Ce processus est rpt plusieurs fois jusqu' ce que la charge soit transfre travers tout le registre dcalage. Lorsque la tension de porte est basse, elle agit comme une barrire tandis que lorsque la tension est leve, la charge peut tre stocke. Un pixel peut tre constitu de plusieurs portes (de 2 4, voire plus), encore parfois appeles phases du systme. En fonction des signaux d'horloges (cf. infra), et taille de pixel gale, 50% de la surface du pixel est disponible pour le puits dans un systme quatre phases, contre 33% dans un systme 3 phases.

Figure 4 : Principe du transfert de charge entre deux portes adjacentes La matrice CCD est une srie de registres en colonnes (Fig.5). Aprs l'exposition et gnration de charge par effet photolectrique pour chaque pixel, la charge est conserve dans les lignes ou dans les colonnes par des canaux ou des blocs d'arrt et les rgions de dpltion ne se chevauchent que dans une seule direction (descendante pour les colonnes, et horizontale pour la ligne de lecture). Le transfert de charges s'effectue d'abord de ligne ligne par les sauts des portes intra puis inter-pixels (Fig.6). A la fin de chaque colonne se trouve un registre horizontal de pixels. Ce registre collecte une ligne la fois puis transporte les paquets de charge en mode srie vers un amplificateur de sortie. L'entiret du registre srie horizontal doit tre synchronis avec le nud de dtection avant que la ligne suivante n'entre dans le registre srie (Fig.6). Pour cela des horloges verticales et horizontales spares sont requises pour toutes les matrices.

Figure 5 : Principe du transfert de charge pour un capteur 3x3 pixels quatre phases par pixel (encadr en bleu pour le pixel numro 2) : Schma gnral

Figure 6 : Principe du transfert de charge pour un capteur 3x3 pixels quatre phases : Transfert d'une ligne complte et arrive au point de conversion

Figure 7 : Principe du transfert de charge pour un capteur 3x3 pixels quatre phases : Transfert du registre de lecture et conversion du pixel 9 L'interaction entre plusieurs milliers de transferts rduit le signal de sortie. La capacit transfrer la charge est spcifie par l'efficacit de transfert de charge (CTE). Bien que l'on puisse utiliser un nombre quelconque de sites de transfert (portes) par pixel la surface du dtecteur, on en utilise gnralement de deux quatre, voire mme un systme phase virtuelle qui ne demande qu'une seule horloge. Pour chaque systme mentionn, l'tape finale du processus est de convertir le paquet de charge en une tension mesurable. Ceci est ralis par une diode flottante ou une diffusion flottante. La diode, agissant comme un condensateur, gnre une tension proportionnelle au nombre d'lectrons, ne. Le signal peut ensuite tre amplifi, trait et encod numriquement par des processeurs lectroniques indpendants du dtecteur CCD. Avec plusieurs matrices, il est possible de dplacer plus d'une ligne de charge dans le registre srie. Similairement, il est possible de dplacer plus d'un lment du registre srie dans une porte de sommation juste avant le noeud de sortie. Ceci est appel groupement de charge, binning , super pixeling , ou encore agrgation de charges . Le binning augmente le signal de sortie et la dynamique du signal, mais au dtriment de la rsolution spatiale du capteur. Parce qu'il augmente le rapport signal sur bruit, le binning est intressant pour des applications faible niveau lumineux dans des cas o la rsolution est peu importante. Les registres srie et le nud de sortie demandent des puits d'une contenance de charge plus

leve pour le binning. Si le condensateur de sortie n'est pas rafrachi aprs chaque pixel, alors il peut accumuler la charge.

Architecture de la matrice
La structure de la matrice est directement lie son application. Les systmes transfert de bloc (frame fr ) complet ou partiel, tendent tre utiliss pour les applications scientifiques. Les systmes transfert interligne sont utiliss pour les camscopes grandpublic et les systmes de tlvision professionnels. Les capteurs linaires, balayage progressif et ceux avec retard temporel et intgration (TDI) sont utiliss pour des applications industrielles. Le balayage progressif signifie simplement que l'image est balaye squentiellement ligne par ligne (non entrelace). Ceci est important pour la vision artificielle car il fournit un chronomtrage prcis et il possde un format simple. Toute application qui requiert de la numrisation et une interface avec un ordinateur fonctionnera probablement mieux avec de l'imagerie balaye progressivement. Toutefois, peu de moniteurs peuvent directement afficher ce type d'imagerie et une interface est requise. Les cartes de capture de bloc peuvent fournir cette interface. Des matrices de grade scientifique peuvent tre aussi tendues que 5120 x 5120 lments voire plus (On arrive plus de 9000 x 9000 ...). Tandis que les matrices grand format offrent les rsolutions les plus leves, leur utilisation est restreinte par leurs limitations en vitesse de lecture. Un camscope grand-public oprant une cadence de 30 bloc/s (fr/s) possde une vitesse de transfert de donne en pixel ("pixel data rate") d'environ 10 Mpixels/s. Une matrice de 5120 x 5120 lments oprant 30 fr/s aura une vitesse de transfert de donne en pixel d'environ 768Mpixels/s. Des grandes matrices peuvent rduire les vitesses de lecture des sous-matrices en ayant des ports parallles multiples affects aux sous-matrices. Un compromis existe entre la vitesse de transfert de bloc et le nombre de ports parallles (complexit du CCD) et de l'interfaage avec l'lectronique en aval. Comme chaque sous-matrice est traite par des amplificateurs diffrents, que ce soit sur le chip ou en dehors, l'image peut prsenter des variations locales en contraste et en niveau. Ceci est provoqu par des diffrences d'ajustement des niveaux et des gains de chacun des amplificateurs (Le paroxysme tant atteint pour les capteurs CMOS, o chaque pixel possde son propre amplificateur, cf. infra). Actuellement, on peut galement disposer d'association de grandes matrices afin d'obtenir ce qu'on appelle des rseaux de matrices pour plan focal ( Focal Plane Array ). Ceci est principalement utilis pour des images trs tendues et plus particulirement pour des applications en astronomie. La rsolution spatiale est souvent prsente comme le nombre de pixels dans une matrice. La perception commune veut que le plus grand est le mieux , tant en terme de taille qu'en dynamique. Des matrices peuvent atteindre 9216 x 9216 avec une dynamique de 16 bits. Cette matrice requiert 9216 x 9216 x 16 soit 1.36Gbits de stockage par image. La compression de ce type d'image peut s'avrer ncessaire si l'espace disque est limit. Pour perdre le moins de rsolution possible, d'normes progrs des algorithmes de compression ont t et sont encore raliss.

Pour augmenter la rsolution temporelle de la squence d'images, on tend vers une acclration de la frquence d'acquisition et de la vitesse de transfert des images (On arrive des frquences d'acquisition de 5400fr/s pour 1Megapixel, avec un capteur CMOS!!!). Toutefois, l'utilisateur de ce type d'acquisition devra dcider quelles images sont significatives et via des algorithmes de rduction de donnes, enregistrer celles qui ont de la valeur. A dfaut, il risque d'tre submerg par des montagnes de donnes traiter.

Matrices linaires
L'arrangement le plus simple est la matrice linaire ou simple ligne de dtecteurs (photodiodes ou photoportes). Les matrices linaires sont utilises dans des applications o soit la camra, soit l'objet, se dplace dans une direction perpendiculaire l'alignement des capteurs. Elles sont utilises lorsqu'un contrle svre est impos sur le mouvement comme, par exemple, lors d'un scanner de document. Le registre dcalage du CCD se trouve juste ct de chaque dtecteur. Le registre est galement sensible la lumire et est couvert, ou blind, par un cran opaque mtallique. La taille totale du pixel est limite par la taille de la porte. La rsolution est inversment proportionnelle l'cart entre chaque dtecteur ( pixel pitch ).

Matrices transfert de bloc complet ("Full Frame")


Les anglo-saxons utilisent Full Frame Transfert , qu'ils abrgent par FFT, ne pas confondre avec Fast Fourier Transform. Aprs intgration de la lumire reue, les pixels de l'image sont lus ligne par ligne via un registre srie qui, ensuite, synchronise ses contenus sur le nud de dtection de sortie (Fig.8 et 9). Toute la charge doit tre transfre du registre srie avant que la ligne suivante ne soit transfre. Dans des matrices blocs complets, le nombre de pixels est souvent en puissance de deux (512 x 512, 1024 x 1024, ...) afin de simplifier l'occupation de la mmoire ( memory mapping ). Les matrices ddies aux applications scientifiques ont gnralement des pixels carrs afin de simplifier les algorithmes de traitement d'images. Pendant la lecture, les photosites sont continuellement irradis et il peut en rsulter une image avec des tranes. Cette trane ( smear ) sera dans la direction du transport de la charge dans la partie image de la matrice.

Figure 8 : Architecture d'un capteur full frame Un obturateur mcanique ou lectronique externe peut tre utilis pour isoler la matrice durant la lecture afin d'viter le smear . Si on utilise un clairage stroboscopique pour obtenir l'image, l'obturateur ne s'avre pas ncessaire si le transfert s'effectue entre les flashes. Si le temps d'intgration est beaucoup plus long que le temps de lecture, alors le smear peut tre considrablement lev. Cette situation se produit trs souvent lors des observations astronomiques.

Figure 9 : Architecture d'un capteur full frame subdivis Les vitesses de transfert de donnes sont limites par la bande passante de l'amplificateur et la capacit de conversion du convertisseur analogique-numrique. Afin d'augmenter la vitesse effective de lecture, la matrice peut tre divise en sous-matrices qui sont lues simultanment. A la figure 9, la matrice est divise en quatre sous-matrices. Comme elles sont toutes lues simultanment, la vitesse d'horloge effective est multiplie par quatre. Un logiciel reconstruit

ensuite l'image. Ceci est ralis par un processeur vido, externe au capteur CCD, o les donnes srie sont dcodes et reformates. Les systmes de surface tendue permettent souvent l'utilisateur de slectionner une sousmatrice en lecture. Donc, l'utilisateur peut grer le compromis entre la vitesse de transfert et la taille de l'image. Ceci permet d'obtenir des vitesses leves sur une rgion d'intrt (sousbloc). Toutefois, en fonction de l'architecture, certains capteurs ne permettent de slectionner que des lignes entires, et non pas des morceaux de lignes. De plus, certaines camras possdent de la mmoire embarque, et d'autres non. Dans tous les cas, le temps d'obturation reste le paramtre limitant la vitesse maximale. En dernire limite, pour les camras ne possdant pas de mmoire embarque, le facteur limitant sera le taux de transfert de l'information (en Mo/s) vers la mmoire dporte (RAM PC, disque SATA, ...). Le temps d'obturation permet, si il est suffisamment court, de figer les objets en mouvement. Si la vitesse de l'objet est leve, son image pourra tre en forme de trane floue. Depuis peu, on peut disposer d'un capteur Full Frame de 8cm par 8cm dont les pixels jointifs mesurent 8,75 x 8,75m, ce qui correspond une rsolution de 57lp/mm. Ce dtecteur permet des acquisitions 2fr/s (Source Fairchild, capteur CCD595), avec une rsolution quivalente aux films photographiques.

Transfert de bloc
Un systme transfert de bloc ( Frame Transfer ) consiste en deux matrices (X colonnes x Ylignes) quasi identiques, l'une dvoue aux pixels image et l'autre au stockage.

Figure 10 : Architecture d'un capteur transfert de bloc Les cellules de stockage sont structurellement identiques aux cellules sensibles mais sont recouvertes par un blindage optique mtallique pour viter toute exposition la lumire.

Aprs le cycle d'intgration, la charge est transfre rapidement des cellules sensibles aux cellules de stockage. Le temps de transfert vers la partie blinde dpend de la taille de la matrice mais est typiquement infrieur 500 s. Le smear est limit par le temps pris pour transfrer l'image vers la zone de stockage. Tout ceci requiert bien moins de temps qu'un systme transfert de bloc complet (FFT). Comme la taille du CCD est double, il est plus complexe qu'un simple systme bloc complet. La matrice doit avoir quelques puits de charge factices entre la partie sensible et la partie stockage. Ces puits collectent toute fuite anticipe de lumire. Certaines matrices peuvent mme parfois fonctionner en mode full frame (X x 2Y) ou en mode frame transfer (X x Y). Dans ce cas, c'est l'utilisateur qui doit construire le blindage pour le mode frame transfer .

Transfert interligne
La matrice transfert interligne ( Interline Transfer ) consiste en une srie de photodiodes spares par des registres verticaux de transfert qui sont recouverts par un blindage optique mtallique (Fig. 11).

Figure 11 : Architecture d'un capteur transfert interligne

Aprs intgration, la charge gnre par les photodiodes est transfre vers les registres CCD verticaux en 1 s environ et le smear est donc minimis. Le principal avantage du transfert interligne est que le transfert des pixels sensibles aux pixels de stockage est rapide. Il n'y a donc pas besoin d'obturer la lumire incidente. Ceci est communment appel obturation lectronique . Le dsavantage est qu'il laisse moins de place aux capteurs actifs. Le blindage agit comme un store vnitien qui obscurcit la moiti de l'information prsente dans la scne. Le facteur de remplissage surfacique ( area fill factor ) peut tre aussi bas que 20%. (Toutefois, on peut remdier ceci en apposant des microlentilles (Fig.12) juste devant la surface du capteur, afin de rediriger la lumire vers les cellules sensibles (capteur HAD : Hole Accumulated Diode ).

Pour les scnes en trs haute luminosit, une partie de la lumire incidente peut quand mme atteindre les registres verticaux. Pour des applications professionnelles, on aura alors recours une architecture transfert de bloc interligne ( Frame Interline Transfer ), o on retrouve un bloc de stockage blind sous la partie active tout comme pour le transfert de bloc. Comme les systmes interlignes sont le plus souvent utiliss dans des camscopes grandpublic, le design des registres de transfert est bas sur la synchronisation vido standard. Avec un entrelac 2:1, chaque champ est collect simultanment mais est lu alternativement. Ceci est appel l'intgration de frame. En EIA 170 (anciennement RS170), chaque champ est lu tout les 1/50 s (1/60 s US). Ceci permet un temps d'intgration maximum de 1/25s pour chaque champ. Le pseudo-entrelac ou intgration de champ est obtenu en changeant la tension de porte; on dcale le centrode de l'image d'un demi-pixel dans la direction verticale. Ceci gnre un recouvrement de 50% entre chaque champ. Les pixels ont deux fois l'tendue standard du transfert interligne standard et donc une sensibilit double. Toutefois ceci diminue la fonction de transfert de modulation (MTF).

Microlentilles
Le facteur de remplissage optique peut tre infrieur 100% cause de contraintes de fabrication dans les systmes transfert de bloc complets. Dans les systmes interlignes, l'aire de stockage blinde rduit le facteur de remplissage moins de 20%. Des assemblages de microlentilles (encore appeles rseau microlenticulaires ou rseau de mini lentilles) augmentent le facteur de remplissage optique effectif (Fig.12). Il n'atteindra toutefois pas 100% cause de lgers dsalignements du systme de microlentilles, d'imperfections de la minilentille, d'aires blindes non symtriques, et de pertes en transmission. Comme la tension de sortie de la camra dpend de la taille effective du capteur, augmenter le facteur de remplissage avec des microlentilles augmente la taille effective du dtecteur et ainsi la tension de sortie.

Figure 12 : Effet des microlentilles pour un capteur transfert interligne

Balayage progressif
Le balayage progressif ( Progressive Scan ) signifie simplement un balayage non-entrelac, ou squentiel, ligne par ligne de l'image.

Les matrices CCD ne scannent pas l'image mais il est plus simple de se reprsenter la sortie comme si c'tait le cas. Pour les applications scientifiques ou industrielles, ceci est parfois appel le balayage lent ( slow scan ). L'avantage principal du slow scan est que l'entiret de l'image est capture un instant donn, contrairement aux systmes entrelacs qui collectent chaque champ de manire squentielle. Chaque mouvement d'image vertical de champ champ trouble l'image entrelace d'une faon trs complexe. Les mouvements horizontaux dcoupent les lignes verticales en dents de scie. Si le mouvement est trop important, les deux champs vont montrer des images qui sont trop dcales l'une par rapport l'autre. Si on utilise un clairage stroboscopique pour figer le mouvement, l'image apparatra seulement sur le champ actif pendant le pulse lumineux. A cause de ces effets de mouvement, seul un champ de donnes peut tre utilis pour le traitement d'images. Ceci rduit la rsolution verticale de 50% et augmente l'aliasing vertical de l'image. Comme un bloc complet est captur, les systmes slow scan ne souffrent pas des mmes effets dus au mouvement de l'image que les systmes entrelacs. Ainsi il est dit des systmes slow scan qu'ils possdent une rsolution amliore par rapport aux systmes entrelacs. Pour les applications scientifiques, la sortie progressive est capture par une carte d'acquisition ( bord ou externe d'un ordinateur). Un post processeur reformate alors ces donnes en fonction de l'affichage dsir.

Dcalage temporel et intgration


Le dcalage temporel et intgration, TDI, ( Time-Delay and Integration ) est analogue enregistrer des expositions multiples du mme objet en mouvement et de les ajouter.

Figure 13 : Principe du capteur TDI Cette addition s'effectue automatiquement dans le puits de charge et c'est la synchronisation temporelle du capteur qui produit les images multiples. Comme application typique du TDI, on considre un simple objectif de camra qui inverse l'image de l'objet afin qu'elle se dplace l'oppos du mouvement de l'objet. Comme l'image est balaye le long de la matrice, les paquets de charge sont synchroniss la mme vitesse. Pour un scanner plat, le document est fixe et la camra ou un miroir se dplace. La figure 13 illustre le fonctionnement de quatre dtecteurs en mode TDI. Au temps T1 l'image est sur le premier dtecteur et cre un paquet de charge. A T2, l'image s'est dplace au second dtecteur. Simultanment, l'horloge pixel dplace le paquet de charge vers le puits du second dtecteur. Ici, l'image cre une charge additionnelle qui est additionne la charge cre par le premier dtecteur. Le signal (charge) augmente ainsi linairement avec le nombre de dtecteurs en TDI. Le bruit augmente galement mais comme la racine carre du nombre d'lments en TDI, NTDI. Il en rsulte ainsi une augmentation du rapport signal/bruit en NTDI 1/2 . C'est la capacit du puit qui limite le nombre maximum d'lments TDI qui peuvent tre utiliss. Pour que ce concept de TDI fonctionne correctement, il faut toujours que le paquet de charge soit synchronis avec l'image en dplacement. La prcision avec laquelle la vitesse de l'image est connue limite donc drastiquement l'utilisation des systmes TDI.

Bruit des capteurs CCD


Pour les capteurs CCD, et les capteurs d'images en gnral, on considre comme bruit tout ce qui ne correspond pas l'image dsire. Leurs origines peuvent tre diverses, de la collection des photons en charge, la conversion de la charge en tension, en passant par tous les processus de transfert entre lignes, colonnes, trames et blocs. On reprend notamment les phnomnes dus aux effets thermiques, l'irradiation lumineuse pendant le transfert, au remplissage et au dbordement des puits sur les voisins, etc.(Fig. 14)

Figure 14 : Types de bruit dans les capteurs CCD

Courant d'obscurit
La sortie du CCD est proportionnelle l'exposition, o ER est l'clairement la surface du Capteur CCD et le temps d'intgration. Le signal de sortie peut tre amlior en augmentant le temps d'intgration ... et des temps d'intgration longs sont gnralement utiliss pour les applications faible niveau lumineux. Toutefois, cette approche est vite limite par la gnration de courant d'obscurit, qui est intgr tout comme le photocourant. Le courant d'obscurit s'exprime en densit de courant [A/m2] ou en lectron/pixel/seconde [e-/pix/s] (Fig.15). Pour un grand pixel (24 x 24m2), on peut atteindre une densit de courant d'obscurit de 1000pA/cm2, qui produit 36000lectrons/pixel/seconde. Si le systme a une capacit puits plein (FWC) de 360000lectrons, le puits est rempli en 10 secondes. Le courant d'obscurit est seulement apprciable lorsque est grand. Ceci peut tre le cas dans des applications scientifiques bas niveau lumineux (tude de plasmons, photomission, matriau peu rflchissant, astronomie ...).

Figure 15 : Exemple de courant d'obscurit (Source Kodak, capteur KAF 0401) Un paramtre critique du design du chip sera de rduire sensiblement le courant d'obscurit. Il y a trois sources potentielles de courant d'obscurit:

gnration thermique et diffusion dans le matriau neutre (bulk), gnration thermique dans la zone de dpltion, gnration thermique due aux tats de surface.

Eblouissement ( Blooming )
Un pixel est satur lorsque sa capacit puits plein (FWC) est atteinte. Quand un puits de potentiel est rempli, la charge excdentaire peut dborder sur les puits voisins des pixels adjacents. On distingue deux types d'blouissement en fonction de la directionnalit du dbordement. Ces dbordements peuvent bien entendu tre vits en n'atteignant jamais la saturation de la FWC, donc en travaillant avec des temps d'obturation courts...ce qui n'est pas toujours possible en pratique pour tout ou partie de l'image.

Figure 16 : Images sans blooming (a) et avec blooming vertical(b) et horizontal (c)

Ceci est particulirement le cas dans le cas de scnes qui prsentent de fortes htrognits d'clairement (objets trs contrasts, flammes, explosions, galaxies, clairages de nuit, ...)

Eblouissement horizontal ( Blooming )


Dans ce cas, le dbordement de charges se produit dans les colonnes adjacentes. Pour l'viter, seuls des drains relatifs chaque pixel ou chaque colonne peuvent empcher la collection des charges voisines. Pour les systmes transfert interligne, ce procd s'appelle drain vertical de dbordement ( VOD ), reprsent en orange la figure 17. Toutefois, on peut noter nouveau que leur prsence rend l'architecture plus complexe , mais diminue galement le facteur de remplissage. La surface efficace diminue car la charge gnre par la lumire sur le drain sera directement limine.

Figure 17 : Blooming horizontal (pixel trois portes), (d'aprs Tulloch)

Par contre, on peut lier le fonctionnement du drain l'obturateur lectronique. Dans ce cas, on s'en servira pour purger l'image rapidement en cas d'acquisition asynchrone notamment.

Eblouissement vertical Traine (Smear)


Dans certains cas, l'exposition des capteurs peut persister pendant le transfert le long de la colonne. Dans ce cas, si la capacit puits plein est dpasse, les charges vont couler au cours de leur transfert en gnrant des lignes verticales, appeles traines ( smear ).(Fig.18)

Figure 18 : Blooming vertical

Le seul moyen de lutter activement contre ce dbordement est de raccourcir le temps d'obturation, ou d'opter pour une autre architecture, au dtriment du facteur de remplissage.

Efficacit quantique
L'efficacit quantique ( QE ) donne la qualit de transformation lumire/charge pour un capteur CCD. Elle est de l'ordre de 40% pour les CCD illumins de face. Cela reprsente 40 lectrons gnrs pour 100 photons incidents. Des efficacits quantiques suprieures 90% peuvent tre atteintes pour certaines longueurs d'onde, avec des CCD amincis et clairs par l'arrire (les films photographiques et l'il humain ont une efficacit quantique maximale de ...10%). La transmittance du polysilicium chute drastiquement pour des longueurs d'ondes qui tendent vers 600nm, et pour des longueurs d'onde infrieures 400nm, le polysilicium est opaque.

Figure 19 : Exemple de capteur tendu (source Kodak) On peut galement tendre le domaine de sensibilit spectrale en utilisant des phosphores disposs la surface du CCD (Fig.19). Ces phosphores absorbent par exemple l'ultraviolet (120 450nm) pour rmettre dans la fentre de sensibilit maximale du composant (540580nm). Tous les capteurs CCD sont illumins de face par principe, jusqu' ce qu'ils soient amincis et clairables par l'arrire. On passe alors de quelques centaines quelques dizaines de micromtres d'paisseur.

Transport et Conversion de la charge


La charge est transfre successivement de porte porte, puis est finalement convertie au nud de sortie. La qualit du signal de sortie dpend directement de deux paramtres vitaux : l'efficacit de transfert de la charge ( Charge Transfer Efficiency ) et l'efficacit de conversion en sortie.

Figure 20 : Schma du transport de la charge

Efficacit du transfert de charge


L'efficacit de transfert de charge permet de quantifier la qualit de passage de la charge d'une porte l'autre d'un pixel ou d'une ligne/colonne l'autre, ainsi qu' travers les portes du registre dcalage de lecture. L'efficacit de transfert de charge d'une porte est trs souvent proche de 1, toutefois le moindre cart peut avoir des rpercussions normes sur le signal final en fonction de la taille et du nombre de transfert de proche en proche. On peut la comparer avec la quantit d'eau qu'il resterait dans un seau aprs le transfert de tout son contenu dans un seau voisin. Le pourcentage de la quantit initiale d'eau transfr dans le second est la CTE. Les CCD de bonne qualit ont une CTE proche de 99.999%. Si on reprend l'exemple du capteur CCD595 de chez Fairchild, le nombre de pixels est de 9216 par 9216, 3 portes par pixel. Transfrer l'information du pixel du haut vers le bas et travers le registre de sortie requiert donc 9216 x 3=27648 transferts. L'efficacit de transfert vertical de charge est de l'ordre de 99,9999% donc seul 0,0001% du signal est perdu. Pour les 27948 transferts, seuls 2,7% de la charge seront perdus. Pour ce capteur prcis, l'efficacit du transfert horizontal de charge est lgrement diffrente car l'information ne parcourt que du nombre de pixels pour rejoindre le nud de sortie, et un systme seulement deux portes est utilis pour chacun des 4 registres de sortie. L'efficacit de transfert de charge horizontale mesure est de l'ordre de 99,995% et laisse ds lors 2,2% de charge perdue pour le dernier pixel. Si la CTE d'un CCD est trs mauvaise, des rayures ( streaks ) peuvent mme apparatre sur l'image.

Structure de sortie
A la fin de son parcours travers les diffrentes portes, la charge est finalement convertie en une tension par une diode flottante ou une diffusion flottante.

La diffrence de tension entre l'tat final de la diode et sa valeur prcharge est linairement proportionnelle au nombre d'lectrons, ne. La tension de signal aprs la source est

Le gain G est approximativement gal 1, q est la charge de l'lectron et le taux de conversion de charge Gq/C varie typiquement entre 0,1V/e- et 10V/e-. Le signal est ensuite amplifi, trait, et numris par des lectroniques externes au dtecteur CCD.

Tailles du chip CCD


Historiquement, les tubes vide vidicon utiliss pour les applications de tlvision professionnelle taient spcifis par le diamtre du tube. Afin de minimiser la distorsion et les non uniformits du tube, la taille recommande de l'image tait considrablement plus petite que le diamtre du tube complet. Lorsque les CCD ont remplac les tubes, l'industrie du CCD a maintenu la taille des images mais a aussi continu d'utiliser la nomenclature relative aux tubes (Tableau 1).

Tableau 1 : Taille de la matrice CCD pour les formats standards Bien que chaque manufacturier fournit une taille de capteur et de pixel lgrement diffrentes, les tailles nominales pour une matrice 640 x 480 sont donnes dans le tableau 2. Ces pixels tendent tre carrs. Toutefois, et en particulier pour les systmes transfert interligne, approximativement la moiti du pixel est ddicace au registre de transfert vertical blind. C'est dire que la largeur active du dtecteur vaut la moiti de la largeur du pixel. Ainsi la surface active d'un pixel est rectangulaire pour les systmes transfert interligne. Cette asymtrie n'apparat pas comme une source de perturbation significative de la qualit de l'image au regard des professionnels de la vido. Toutefois, il est bon de le savoir lors d'applications scientifiques faisant notamment appel la corrlation d'images ou la strophotogrammtrie. La diminution du format optique est lie au cot. Le prix des CCD est principalement dtermin par le cot du processus de fabrication des wafers de semiconducteurs. Lorsque la

taille du chip diminue, il est possible de placer plus de matrices sur un mme wafer et cela diminue le prix de chaque chip individuel. La tendance rduire la taille des chips continuera probablement longtemps encore tant que les performances optiques et lectriques des systmes imageurs ne changeront pas. Toutefois, des pixels plus petits rduisent la taille du puits de charge. A un niveau de flux lumineux et une ouverture donns, les capteurs plus petits auront une sensibilit moindre.

Tableau 2 : Taille nominale du pixel en format 640 x 480 De plus petits chips engendrent de plus petites camras. Toutefois, afin de maintenir la rsolution, seuls les pixels peuvent tre petits. Ici, le compromis est relatif la taille du pixel, la distance focale, et la taille totale du chip. Le tableau 3 prsente les capteurs les plus utiliss en photographie grand-public.

Tableau 3 : Taille nominale des capteurs photographiques

Dfauts
Les grandes matrices contiennent parfois des dfauts. Ceux-ci sont caractriss dans le tableau 4. Des matrices comportant peu de dfauts sont plus chres que celles qui en ont un grand nombre. Certains constructeurs classent leur chip en grades: le grade 1 tant de meilleure

qualit que le grade 2, etc....Ces grades sont attribus en fonction de la nature, du nombre et de la position des dfauts pour un clairement standard du capteur. En fonction de l'application, la localisation des dfauts peut tre importante. Le centre (sweet spot) doit tre compltement oprationnel, tandis que des dfauts plus consquents peuvent tre tolrs au fur et mesure que l'on s'approche de la priphrie de la matrice.

Tableau 4 : Dfinitions standards des dfauts des matrices CCD

Format et Architecture
Les critres de choix peuvent tre compltement dpendants de l'application, du budget, ou de l'histoire du laboratoire. Bien qu'il n'y ait pas de rgle gnrale, on retrouve souvent le mme type de matriel pour le mme type de laboratoire :

Applications scientifiques: transfert de bloc Tlvisions et grand public: transfert interligne Applications industrielles: capteurs linaires, balayage progressif, TDI, ... Applications militaires: tout ce qui conviendra ...

Les applications scientifiques sont plutt focalises sur de la haute rsolution spatiale, voire temporelle, et une haute rsolution en niveau de gris. Les applications grand-public doivent tre compatibles principalement avec les scnes fort contraste. Pour Monsieur tout le monde le bruit n'est pas forcment prpondrant, mais par contre pour les applications professionnelles mettant en jeu de nombreux relais, le bruit devra tre le plus bas possible. Pour les applications industrielles, c'est l'application, et plus prcisment son contexte, qui guideront notamment l'clairage mais aussi le choix du capteur. Le cot reste bien sr un enjeu fort selon les laboratoires. Enfin, pour les applications militaires, tout conviendra au but final : visualiser le phnomne dsir, et ce parfois cote que cote... Durant la dernire dcennie, les fabricants se sont attachs principalement, d'un point de vue de la gomtrie, maximiser le facteur de remplissage, donc couvrir la zone image le plus possible par des pixels sensibles. Cependant, l'augmentation du nombre de pixels pour augmenter la rsolution entraine une diminution de la sensibilit, une augmentation du rapport Signal/Bruit, et un rtrcissement de la gamme dynamique, puisque les pixels sont plus petits ; les Super-CCD permettent de rsoudre ces problmes et d'amliorer la qualit de l'image finale. En 2000, les premiers Super-CCD visent amliorer le rendement ; les gnrations suivantes visent amliorer la rsolution, puis la gnration d'aprs tend augmenter la sensibilit.

Figure 22 : Forme des photosites : CCD classique gauche et Super-CCD droite Les Super-CCD SR crs par Fuji permettent de beaucoup augmenter la gamme dynamique et de gagner en sensibilit, grce aux deux types de capteurs prsents dans ses photosites. Le fait que la photodiode soit octogonale (Fig.22) et la disposition des photosites en nid d'abeille a permis l'augmentation de la surface efficace de chaque photosite. La surface d'une photodiode dans un Super-CCD d'1/2 pouce et trois millions de pixels est 2,3 fois suprieure celle d'un CCD classique de mme taille. C'est grce cela que la sensibilit, le rapport Signal/Bruit et la gamme dynamique ont pu tre amliors. La disposition en nid d'abeilles des pixels permet galement de mieux se rapprocher de la qualit de la vision humaine.

Figure 23 : Comparaison des carctristiques du capteur S-CCD et CCD traditionnel (Fuji)

Figure 24 : Comparaison des rpartitions des photosites dans les 2 technologies

De leur ct, les Super-CCD HR offrent une bien meilleure rsolution ; ils interpolent un pixel au milieu de chaque paire de capteurs. Une autre des caractristiques avantageuses du Super-CCD HR est la finesse de ses lectrodes, qui diminue la profondeur des puits des photosites. Ainsi les photosites reoivent une plus grande proportion de lumire. De plus, les Super-CCD continuent voluer. On pointe notamment les modles Super-CCD SR, et le Super-CCD EXR, qui combine les performances des deux prcdents et permet d'obtenir une image trs proche de celle perue par l'il humain. Traditionnellement, il n'y a qu'une photodiode par photosite pour capturer toute la gamme de lumire ; dans les Super-CCD SR, il y a deux types de photodiodes diffrentes par photosite (Fig.25). Les photosites sont donc ddoubls ; les photodiodes S ont une haute sensibilit mais une gamme dynamique relativement troite ; elles capturent les couleurs sombres et moyennement claires. Les photodiodes R, quant elles, ont une plus faible sensibilit (c'est--dire qu'elles enregistrent une image plus sombre) ; cela leur permet de capter des dtails dans les zones de plus forte luminosit, ce qu'une photodiode conventionnelle ne peut pas faire. La combinaison de ces deux photodiodes permet d'obtenir une gamme dynamique quatre fois plus tendue qu'une photodiode conventionnelle, et donc de produire une image plus riche en dtails, notamment dans les zones d'ombre et de forte lumire de l'image.

Figure 25 : Evolution de l'architecture des Super-CCD De plus, l'augmentation de la gamme dynamique (ou latitude d'exposition) du capteur autorise, jusqu' un certain point, une exposition incorrecte (plus de tolrance pour les conditions d'clairage difficile, surexposition ou sous-exposition). Le Super-CCD SR se dcline en deux gnrations, pour lesquelles le principe est le mme, mais la disposition des photodiodes change. Dans la premire version, chaque photosite est spar en deux pour contenir les deux photodiodes ; dans la deuxime version, la photodiode S occupe toute la surface du photosite, et la photodiode R est mise en place entre les photosites octogonaux. Cette technique permet d'augmenter la sensibilit, puisque la surface des photodiodes S dans la version SR II est suprieure celle dans la version SR. Rvl en 2008, le capteur Super-CCD EXR est le rsultat de l'addition des caractristiques des Super-CCD HR et des Super-CCD SR ; il en rsulte un capteur universel trois en un , qui joue sur la trs haute rsolution, la haute sensibilit et une large gamme dynamique, et qui amliore donc radicalement la qualit des images. Le Super-CCD EXR est modulable, de faon modifier son comportement en fonction de l'objet photographi, afin d'obtenir la meilleure image possible. Ce capteur prsente trois modifications principales par rapport aux capteurs des gnrations prcdentes.

Tout d'abord, les filtres de couleur sont disposs diffremment sur la matrice.

Figure 26 : Position des filtres de couleurs sur le capteur EXR (source Fuji) Ce changement de disposition est d la ncessit d'avoir un bruit faible. En effet, pour gagner en sensibilit, on amplifie le gain lectronique en sortie du capteur, ce qui cre un bruit supplmentaire. Une technique pour rduire ce bruit consiste regrouper les pixels (pixels binning). Classiquement, le binning s'effectue par regroupement horizontal ou vertical des pixels, ce qui gnre des dfauts dus au trop grand loignement des pixels de mme couleur que l'on rassemble ; la suppression de ces dfauts entraine une grande perte de rsolution. Pour le Super-CCD EXR, la disposition des filtres colors permet un blooming diagonal (technologie appele concentration de pixels inclins adjacents ) et permet d'viter l'apparition des dfauts dus la distance inter-pixels. Ce blooming permet de doubler la surface de l'lment sensible, et donc d'augmenter la sensibilit alors que le bruit reste faible.

Figure 27 : Principe de fonctionnement pour une haute sensibilit bruit faible (Fuji)

Le deuxime avantage que prsente le Super-CCD EXR par rapport aux capteurs de la gnration prcdente est l'extension de sa gamme dynamique ; il permet de capter deux images diffrentes pour un mme objet, l'une en haute sensibilit, l'autre en faible sensibilit. En effet, s'inspirant de la technologie du Super-CCD SR, le EXR excute un Contrle de Double Exposition (Dual Exposition Control) : c'est--dire que deux pixels adjacents de mme couleur ont deux sensibilits diffrentes (la moiti des photodiodes du capteur a donc une haute sensibilit, l'autre moiti une faible sensibilit). Ceci s'opre grce au contrle du temps d'exposition des photodiodes. Tandis que les pixels A ont un temps d'obturation au 1/100me de seconde, les pixels B sont au 1/400me. Les pixels A enregistrent donc des dtails dans les tons sombres, tandis que les pixels B enregistrent les nuances des zones claires. La combinaison des deux rendus permet donc de bien conserver la lumire sur la totalit de l'image.

Au contraire du capteur SR, dans le capteur EXR, les photodiodes sont de tailles identiques, la plage dynamique est donc plus large et la sensibilit meilleure.

Figure 28 : Schma de principe d'extension de la dynamique de l'EXR

La troisime caractristique du Super-CCD EXR est sa haute rsolution ; sa structure lui permet d'exploiter tous les pixels, et son processeur lui permet d'optimiser le traitement du signal afin d'obtenir la meilleure rsolution possible. Malgr le fait qu'il ait t conu pour avoir une meilleure sensibilit (et donc, regroupement des pixels), il offre la mme qualit d'images qu'un autre capteur de 12 Mgapixels.

La technologie des capteurs CMOS (cf. infra) volue galement spatialement; dans une des dernires gnrations, le changement de disposition des photodiodes, qui pivotent de 45, permet de gagner en rsolution, jusqu' 1,4 fois la rsolution d'un capteur CMOS conventionnel de mmes caractristiques. Grce sa nouvelle structure, la gnration IMX021 de capteurs CMOS permet d'obtenir des images de haute qualit avec un bruit rduit. Quant aux capteurs Sony Exmor R, leurs photodiodes ne sont pas la mme place que sur les capteurs classiques ; elles se trouvent juste en dessous du filtre de couleur, ce qui permet d'augmenter la sensibilit et de beaucoup diminuer le bruit.

Figure 29 : Capteur IMX021 (source Sony)

Figure 30 : Principe du capteur EXMOR (source Sony)

Capteurs CMOS
Les capteurs CMOS sont apparus au dbut des annes 1990. Ils permettent notamment une conversion de la charge directement sur la photosite de gnration par la prsence d'un amplificateur sur le pixel. Cette particularit permet galement de supprimer de nombreux transferts et d'accroitre la vitesse de lecture. Leur principaux avantages sont issus de leur fabrication.

Fabrication identique (90%) aux chips informatiques ( et plus particulirement la DRAM Dynamical Random Access Memory) Production de masse bas cot Conversion directe de la charge sans transfert : pas de blooming ni de smearing Chaque pixel a son propre ampli, pas de shift register : Active Pixel Sensor Chaque pixel est adressable individuellement Pas d'horloges compliques Faible consommation lectrique (100 x moins que CCD) Cadence de lecture leve

Leur mergence par rapport aux capteurs CCD depuis quelques annes est directement lie leur utilisation en tlphonie mobile comme camra ou comme appareil photo embarqu. Ceci est une consquence directe de leur fabrication bas cot et de leur faible consommation. Pour les applications scientifiques, c'est leur vitesse de fonctionnement (cadence image), lie la conversion de la charge sur le site de cration, qui privilgie leur utilisation aux CCD's.

Un des capteurs de dernire gnration permet de numriser des images de 1024 par 1024 pixels une cadence de 5400 images/seconde... D'autre part, la possibilit de piloter (en manuel ou en automatique) chaque pixel indpendamment des autres, permet galement leur utilisation en vision pour des scnes fortement contrastes. Le biais introduit par leur fonctionnement peut toutefois gnrer de fortes diffrences entre les images perues par l'il humain et l'image brute issue d'un capteur CMOS.

Figure 31 : Exemples de prise de vue, CCD (gauche) et CMOS (droite) La taille des capteurs est voisine de celle des CCD et peut approcher le micromtre dans certains cas. Un des problmes apports par la technologie CMOS est une perte de rsolution spatiale par la prsence de l'amplificateur A sur le photosite (un peu comme le nerf optique sur la rtine pour l'il humain...). Ceci est illustr la figure 32 (surface sensible en gris et amplificateur en jaune). Au dbut, un seul transistor tait utilis pour l'amplification. A prsent, ces amplificateurs peuvent comporter de 3 5 transistors (3T et 5T CMOS) et le facteur de remplissage peut fortement diminuer.

Figure 32 : Principe du capteur CMOS Cette perte peut nanmoins tre compense par l'utilisation de microlentilles, tout comme pour les CCD transfert de ligne. Toutefois, le facteur de remplissage est toujours plus lev pour des Full Frame CCD que pour des capteurs 3T CMOS. Pour certains modles de CMOS, on peut galement noter que mme si la quantit d'information transfre est leve, les performances en terme de rapport signal bruit peuvent tre infrieures celles des CCD. Toutefois, leur utilisation est grandissante en photographie numrique et de nombreux fabricants les incluent leur boitier numrique. Depuis 2007, on avoisine ET ON DEPASSE le format 24 x 36mm cher la photographie, par des capteurs CMOS de plus de 12.4Megapixels effectifs. Plus rcemment, on associe le CMOS un convertisseur analogique/numrique par colonne, ce qui amliore la vitesse d'acquisition numrique jusqu' prs de 10 images/seconde. Enfin, on tend vers des camras intelligentes, o grce la rapidit de transfert du CMOS coupl du traitement embarqu, une image interprte est directement disponible en sortie. La camra intelligente prsente ds lors des de fonctions intgres directement au chip. Ce fonctionnement permet plus d'avantages en termes de taille et de simplicit. La Figure 33 prsente le schma comparatif des diffrentes possibilits d'acquisition d'une image.

Figure 33 : Principe du CMOS (source DALSA) Les capteurs CCD et CMOS ont prsent des cots comparables volume quivalent (les CMOS de qualit sont produits sur des lignes spares de la DRAM ...). Pour des applications performantes, la dcision finale n'est pas lie CCD ou CMOS mais bien l'adquation du produit la tche finale. On gardera en mmoire que si les CMOS permettent des hautes cadences, les CCD restent toutefois meilleurs pour leur dynamique leve et un facteur de remplissage plus lev.

Quantification du bruit
Nous proposons dans ce paragraphe une description des principales sources de bruit avec leur influence respective sur la qualit du signal.

Bruit de lecture
Le bruit de lecture est du la fluctuation de photo-charges aux bornes de la capacit de type MOS constitue par le pixel (Figure 34).

Figure 34 : Structure d'un pixel

La fluctuation de charge aux bornes d'une capacit C est donne par : avec k la constante de Boltzmann et T la temprature. Le nombre d'lectron thermiques gnrs dans C constitue le bruit de lecture. Il est calcul en valeur rms.

Nous avons : Par exemple, si nous avons C = 50 pF, alors on a :


= 2840 lectrons T = 230 K = 2709 lectrons T = 273 K = 2503 lectrons T = 233 K = 46 lectrons T = 77 K = 10 lectrons T = 4 K

On constate qu' temprature ambiante, le nombre d'lectrons du bruit de lecture est considrable et que nous avons intrt refroidir le capteur afin de limiter sa valeur. Le bruit de lecture conditionne la dynamique de stockage par pixel. En effet, la capacit de stockage est gale . La dynamique de stockage est alors dfinie par :

La dynamique de stockage est proportionnelle la tension applique sur le pixel.

Bruit d'obscurit
Il dpend du temps d'accumulation des charges, c'est dire du temps d'intgration du capteur, et du nombre d'lectron d'obscurit par seconde du capteur. Nous avons ainsi :

Bruit de photons
Le bruit de photons est du la nature quantique de la lumire. Un flux de photons est assimilable un flux de particule arrivant avec un taux nph sur le dtecteur (un pixel). Ce flux gnre donc pendant la dure tINT un nombre de photons gal Nph = n phtINT. La probabilit de dtecter n photons durant le temps d'intgration tINT est une distribution de Poisson, c'est dire que :

La valeur moyenne de ce bruit est gale :

et la variance de la statistique est :

La fluctuation de photons est donc en racine du nombre de photons. Pour un flux lumineux F incident sur le pixel nous en dduisons le nombre de photo lectrons du bruit de photons exprim par :

avec :

constante de Planck : h = 6,6256x10-34 J.s vitesse de la lumire : c = 299792458 m.s-1 efficacit quantique du pixel longueur d'onde de la lumire

Bruit de numrisation
Le bruit de numrisation dpend du nombre d'lectrons saturation (Nsat) et du nombre de bits de numrisation (Nbits). Pour un chelon de quantification , la statistique de l'erreur de quantification est une loi uniforme sur dont la variance est . Le nombre de niveaux de quantification est gal . Le nombre dlectons correspondant un chelon de quantification est donc gal :

d'o l'on peut dduire l'expression du bruit de quantification :

Comparatif des CCD et CMOS


Les principaux critres de comparaison sont repris ci-dessous, et sont en forte volution...

Facteur de remplissage

Exposition de saturation

Courant d'obscurit

CMOS ne permet pas un temps d'exposition long

Dispersion de la sensibilit des pixels (Pattern Noise)

Pour le CMOS, une correction possible aprs talonnage de la sensibilit des pixels (shading)

Dfaut linaire

CMOS non linaire avec flux reu

Usages et Prcautions

Choix du capteur Couleur Montage Connectique Et aprs... Rsum Photographies de diffrents capteurs

Choix du capteur
Typiquement, outre les considrations de prix (de 1k pour 200fr/s en 640 x 480 pixels 60k pour 5400fr/s pour 1 mgapixels, voire bien plus pour 100 images conscutives 106 fr/s), on s'orientera principalement en fonction de cinq critres :

Rsolution spatiale
Une rsolution accrue permet de mieux distinguer les dtails de la scne, mais parfois au dtriment de la vitesse de transfert. Une camra dont on choisit 200 x 100 pixels, donc 20000pixels, doit envoyer 20000 valeurs numriques au systme d'acquisition. Si le systme opre 25MHz, cela correspond 40ns par valeur, soit 0,0008s de temps pour une image complte, ce qui quivaut 1250fr/s. Si on passe en 640 x 480 pixels, soit environ 15 fois plus de pixels, on rduit la frquence d'acquisition environ 80fr/s.

Vitesse et Obturation
Lors du choix du capteur, il est indispensable de connaitre la vitesse de dplacement de l'objet capturer. Ce dplacement peut tre nul ou quasi-stationnaire, ou bien rapide, voire ultra rapide. En fonction de la vitesse de dplacement de l'objet, il faudra peut tre privilgier des temps d'obturation et des vitesses d'acquisition appropries. Le temps d'obturation permet de figer l'objet en mouvement, par exemple une petite particule en dplacement rapide. Tandis que la vitesse d'acquisition permet d'obtenir plusieurs images figes de la particule dans le mme champ de vision. Ceci est particulirement ncessaire pour des applications de corrlation ou de tracking. On peut galement russir ce genre de capture par des clairages appropris (laser puls, stroboscope) synchroniss la camra. En dernier recours, la longueur floue du trajet de la particule (trs rapide) pendant le temps d'obturation permet galement de remonter sa vitesse en une seule image

Cadence
La cadence d'une camra dfinit la capacit d'enregistrer des images compltes la suite en un temps donn. Elle s'exprime typiquement en image (frame) par seconde : fr/s. Cette cadence dpend non seulement de la taille de la matrice, mais surtout de son architecture. De plus, la cadence dpend galement du mode de connexion de la camra au systme d'acquisition du signal, et du fait qu'elle possde ou pas de la mmoire embarque. On peut, par exemple, format identique, transfrer 640 x 480 pixels 50 fr/s (mode CCIR) ou 200fr/s (IEEE1394b), voire plusieurs kfr/s en mmoire embarque ou en liaison SATA.

Rponse spectrale
La rponse spectrale dpend principalement du type de semiconducteur et du traitement du capteur (capteur clair de face ou par l'arrire, aminci ou pas aminci). Typiquement, tous les capteurs ont une rponse comprise entre 400nm et un peu moins de 1000nm. Toutefois, il faut toujours tenir compte qu'une camra une rponse donne un gain donn, et qu'une rponse leve obtenue un fort gain peut trs bien gnrer un bruit trs lev, rduire la dynamique et ainsi dgrad la qualit de l'image.

Profondeur du puits
Lors de la numrisation du signal de la charge, la capacit puits plein est discrtise en niveaux de gris. Cette profondeur du puits peut tre code sur 8 voire sur 16 bits ou plus. Le niveau 0 correspond 100% de noir, et le niveau 255 correspond 100% de clair, et quivalent pour 10 bits (1024 niveaux) et 32 bits (4096 niveaux). Ce poids du pixel affecte bien entendu la quantit d'information transfrer (en Mbit/s) et la bande passante du systme de transfert devra en tenir compte.

Couleur
La capture d'image en couleurs est parfois requise. Principalement, deux techniques sont privilgies pour numriser la couleur : soit on dcime la rsolution d'un seul capteur par un rseau de filtre couleur (filtre de Bayer, 3 couleurs (Fig.35) ou plus (Fig.36), soit on dcompose la lumire en plusieurs composantes avec un systme de prismes qui fabriquent chacun l'image de la composante couleur de l'objet sur un dtecteur ddi cette couleur (Fig. 37).

Figure 35 : Filtre de Bayer en 3 couleurs L'image finale est ensuite reconstruite par des algorithmes d'association des composantes, qui grent la sensibilit chromatique, le gain, et la dcomposition spectrale du signal lumineux. Ces algorithmes assurent la dmozasation de l'image 38.

Figure 36 : Filtre Bayer 4 couleurs sur capteur rel CMYG (Photo EMA)

Figure 37 : Sparation chromatique par prismes (source Dalsa)

Figure 38 : Reconstruction d'une image en couleurs Une dernire possibilit est d'empiler les diodes photosensibles et de raliser le filtrage par une slection de la longueur d'onde sur la profondeur du capteur (Fig.39).

Figure 39 : Principe du capteur Foveon

Montage
Peu importe le capteur utilis, il existe toutefois des prcautions d'usage respecter. Parmi les principales, on note particulirement l'attention qu'il faut porter la propret du capteur et notamment lors des nombreux changements d'objectifs. De plus, on peut tre amen changer de type de monture, car certains botiers (de camra) peuvent tre quips de convertisseur de monture (F ou C, voire CS), dont les distances de positionnement entre optique et capteur sont diffrentes. Les caractristiques des objectifs photographiques que l'on va utiliser conditionnent directement le capteur et la manire de l'utiliser. On insistera particulirement sur l'ouverture du diaphragme, qui conditionne la profondeur de champ mais surtout la quantit de lumire reue par le capteur, et donc le temps d'obturation qui permettra une acquisition rapide de l'image ou qui limitera cette possibilit. En AIGV, le facteur limitant sera toujours le flux reu par le capteur et ce flux sera toujours fonction de l'clairage et de la vitesse de l'optique utilise, sans compter bien entendu sur la coopration optique de l'objet (Fig.40).

Figure 40 : Pertinence des paramtres des optiques d'imagerie

Connectique
Plusieurs types de connectiques existent sur le march, et depuis l'avnement du tout numrique les connectiques analogiques tendent disparaitre en imagerie scientifique, et plus particulirement en acquisition d'images grande vitesse (AIGV). Ceci est directement li la bande passante et la vitesse de transfert de la connectique et du matriel y affrent. Si des formats du type PAL (CCIR) et les bons vieux connecteurs vido banane jaune existent encore dans le monde de la vido 25fr/s, on s'oriente terme vers des connectiques ddies l'instrument, telles les IEEE1394 a, et b (FireWire 2 ou FireWire Gigabit, fig.41)) qui se distinguent tant par la forme du connecteur que par leur taux de transfert, respectivement de 100 400 Mo/s et de 800 3200Mo/s. On trouve galement du Gigabit Ethernet,GigE interfac par des cbles RJ45, soit pour du transfert rapide et un streaming sur disque SATA, soit pour dcharger la mmoire embarque de camras ultrarapides.

Figure 41 : Les diffrents choix de connectiques en AIGV

Et aprs...
A terme, on se dirige vers des matrices de capteurs de plus en plus petites avec des pixels de plus en plus petits... mais les lois de l'optique, et plus particulirement celle de la diffraction, nous rappelleront l'ordre lorsque les pixels vont friser la taille limite de la longueur d'onde du visible. Dans ce cadre, il ne sera pas possible d'augmenter sans fin la rsolution des capteurs ...sans changer le format des optiques (le capteur Philips, de 8000 x 9000 pixels mesure 11cm par 9cm). Certains projets de matrices gantes, ralises partir de l'association de grand capteurs focaux (Focal Plane Arrays) sont dj utiliss en astronomie. Ainsi les projets SNAP (Supernovae Acceleration Probe) de 440 Megapixels (36 x 4k x 4k) ou LSST (Large Synoptic Survey Telescope) de 3,2 Gigapixels (200 x 4k x 4k). Enfin, une dernire solution consiste accoler (stitching) en gigapanoramique, par corrlations des bords, des photographies en haute rsolution issues d'un balayage de la zone imager ...

Rsum

Figure 42 : Diffrents types et architectures de capteurs La figure 42 reprend les tendances actuelles pour les capteurs d'image (source Dalsa) avec gauche un taux de remplissage plus lev et droite une complexit architecturale plus leve.

Photographies de diffrents capteurs


Ces photographies ont t ralises aprs dmontage complet (y compris les verres de blindage) d'un capteur couleur transfert interligne (Sony) et d'un capteur transfert de bloc (Kodak). Les photographies sont issues d'une loupe binoculaire et d'un microscope optique tous deux quips d'un systme d'acquisition d'images. D'autres images ont galement t ralises l'aide d'un Microscope Electronique Balayage, mais la prsence de certains vernis ou d'une pellicule de verre de protection n'a pas permis de rentrer plus profondment dans les capteurs... Nous les prsentons titre purement illustratif.

Figure 43 : Vue plein champ du capteur Sony (Photo EMA)

Figure 44 : Vue plein champ du capteur Kodak (Photo EMA)

Figure 45 : Pixels du Kodak Megaplus 1.4 (400x) (Photo EMA)

Figure 46 : Registre de sortie et drains du Kodak Megaplus 1.4 (200x) (Photo EMA)

Figure 47 : Registre de sortie et drains du Kodak Megaplus 1.4 (MEBE) (Photo EMA)

Figure 48 : Repres de fabrication Kodak Megaplus 1.4 (200x) (Photo EMA)

Figure 49 : Photosites de calibration Kodak Megaplus 1.4 (200x) (Photo EMA)

Figure 50 : Registre de sortie Kodak (MEBE) (Photo EMA)

Figure 51 : Microlentilles sur capteur SONY (Photo EMA)

Figure 52 : Capteur Sony aprs grattage des microlentilles (Photo EMA)

Figure 53 : Pixels du capteur Sony (aprs grattage des microlentilles) (Photo EMA)

Figure 54 : Pixel du capteur SONY (aprs grattage des microlentilles) (Photo EMA)

Figure 55 : Capteur 110 Mpixels, de 4 pouce, 10560*10560 pixels, Dalsa

Figure 56 : Capteurs commerciaux CCD grand format

Etude de cas

Introduction Dtermination de la configuration exprimentale optimale Exercice : clairage laser puls

Introduction
La comprhension de cette tude de cas demande des pr-requis en optique gomtrique et en photomtrie. ____________________________________________________________________ Cette tude de cas se propose d'aborder le cas du choix d'un capteur d'image pour imager une pastille de gel d'agarose contenant des bactries luminescentes immobilises. Les pastilles sont des petits carrs de surface . On utilisera un capteur de type CCD avec un objectif de focale f' = 18 mm, de transmission Topt = 0,9 de nombres d'ouverture N = {2,8 ;4 ;5,6 ;8 ;11,3 ;16 ;22,6 ;32}. La luminescence mise par les bactries est large bande autour de = 500 nm mais on considrera le pic de longueur d'onde pour les valuations. La luminance a t estime par une mthode spectro-photomtrique L0 = 1x10-4 W.sr-1.m-2. Pour le choix, on dispose de 3 capteurs dont les donnes techniques, extraites des donnes constructeur, sont indiques dans le Tableau 1.

Tableau 1 : Donnes techniques des capteurs d'images

Dtermination de la configuration exprimentale optimale


Introduction Optimisation de la relation objet-image Dtermination du temps de pose du capteur Dtermination du rapport signal sur bruit

Introduction
La dtermination de la configuration optimale consiste faire le meilleur choix de capteur en fonction des caractristiques des capteurs tout en optimisant la dtection du signal de luminescence. On s'attachera donc dterminer l'optimal de la relation gomtrique objetimage avant de dterminer le temps de pose idal et le rapport signal sur bruit. La dtermination de ces lments conduira au meilleur choix du capteur pour cette application.

Optimisation de la relation objet-image


Idalement l'image de la pastille doit couvrir toute la matrice de pixels de faon obtenir la meilleure rsolution spatiale sur l'image, donc doit avoir un grandissement transversal objetimage gal :

le signe de tant ngatif. Ce grandissement conditionne la position de la pastille vis vis de l'objectif d'imagerie. Pour simplifier on assimilera cet objectif une lentille mince de centre O, de sorte que la position de l'objet (A) est donne par :

Le Tableau 2 rsume les rsultats obtenus avec les 3 CCD.

Tableau 2 : Donnes d'optimisation gomtrique

Dtermination du temps de pose du capteur


Pour dterminer le temps de pose il faut dterminer le nombre d'lectrons gnrs par la source de photons pour 1 pixel (Ne- ) puis imposer que ce nombre est infrieur au nombre total d'lectrons saturation (non saturation sur l'image).

Pour dterminer Ne- on doit chiffrer l'clairement obtenu au niveau du capteur d'image. La Figure 1 illustre la configuration d'imagerie.

Figure 1 : Configuration d'imagerie et notations Le flux lumineux sortant de l'objectif d'imagerie est donn par :

avec

la surface de l'image.

Comme on a aussi :

o N = f'/2RPS est le nombre d'ouverture de l'objectif. L'clairement dans le plan image est donc [1] :

Pour un pixel de surface px xpy le nombre de photolectrons gnrs par l'clairement incident pendant une dure tINT, pour la longueur d'onde , est :

Avec les paramtres d'imagerie nous obtenons :

Juste saturation du dtecteur, on doit avoir d'exposition maximale donne par :

, d'o on peut dduire la dure

Cette relation montre que l'on a intrt ouvrir au maximum le diaphragme d'ouverture de faon minimiser le temps de pose et que plus les pixels auront une grande taille (surface) plus le temps de pose sera faible. Le Tableau 3 donne les rsultats du calcul du temps d'intgration du capteur.

Tableau 3 : Chiffrage du temps de pose

On constate que le CCD1 est disqualifi car son temps de pose peut tre au maximum de 1 min ce qui est insuffisant puisque qu'avec ce capteur il faudrait un temps de pose d'environ 7 min. Le choix se portera donc sur les CC2 et CCD 3. Pour finaliser ce choix, nous pouvons valuer le rapport signal sur bruit maximum que l'on peut esprer.

Dtermination du rapport signal sur bruit


Le chiffrage du rapport S/B (RSB) tient compte des sources de bruit. Dans la documentation du tableau, il n'est pas prcis le nombre de bits de quantification de chaque capteur. Les capteurs actuels ont des numrisations sur 12 bits et le bruit de numrisation est de loin trs infrieur toutes les autres sources de bruit du capteur (essentiellement bruit de lecture, bruit d'obscurit et bruit de photons). Le rapport signal/bruit est donn par :

Nous pouvons valuer ce RSB pour un temps d'intgration proche de la saturation tel que calcul au Tableau 3. Alors, on a :

avec :

Soit :

Le Tableau 4 donne le chiffrage du RSB pour les 2 capteurs CCD2 et CCD3.

Tableau 4 : Chiffrage du rapport signal sur bruit On constate que le meilleur RSB est obtenu pour le CCD3. A priori, sur la base de la discussion propose dans ce document, il faudrait plutt s'orienter vers le choix du CCD3. Selon le cahier des charges, d'autres paramtres pourraient tre prendre en compte, comme par exemple la rsolution spatiale ou bien la cadence d'acquisition.

Exercice : clairage laser puls


Pour dfinir un capteur interfromtrique, on s'intresse au bilan photomtrique du systme d'clairage de l'objet et de capture d'image. L'objet d'intrt est en acier d'albdo et de diamtre . L'objectif d'imagerie a une focale f' = 18 mm, une transmission Topt = 90% et possde une bague d'ouverture avec les nombres d'ouverture No. Pour des raisons de disposition l'objet sera clair avec une incidence moyenne = {2,8 ;4 ;5,6 ;8 ;11,3 ;16 ;22,6 ;32} . Le capteur CCD utilis possde MxN = 10241360 pixels de taille px = py = 4,65 mm, chaque pixel contient Nsat = 18000 lectrons la saturation et la frquence pixel est de 20 MHz. Le temps d'intgration peut tre rgl entre 5 ms et 65 s. On utilise un laser NdYAG puls et doubl avec un cristal de KDP, les impulsions dlivres ayant une dure de 20 ns. Le laser peut tre cadenc entre 30 et 60 Hz. Le dispositif exprimental d'imagerie laser est dcrit Figure 2. Un coupleur transmission variable (non dtaill ici) permet de sparer l'onde laser en une partie clairage objet (transmission ) et une partie rfrence qui vient directement clairer le capteur (transmission )

travers le cube (Tc = 50%). En premire approximation, on supposera qu'il n'y a pas de pertes dans le coupleur.

Figure 2 : Configuration d'clairage laser

La Figure 3 donne la courbe d'efficacit quantique du capteur, utilis en mode standard.

Figure 3 : Courbe de sensibilit du capteur

Dans cet exercice, on s'intresse chiffrer la puissance PL et l'nergie QL ncessaires du laser. Pour fixer les ordres de grandeur, on s'intressera la somme des nergies lumineuses des faisceaux objet et rfrence, value au niveau du capteur. Constantes fondamentales :

constante de Planck : h = 6,625610-34 J.s

vitesse de la lumire : c = 299792458 m.s-1 constante de Boltzmann : k = 1,38066210-23 J.K-1 charge de l'lectron : q = 1,6021765310-19 coulomb

Question
L'image de la zone d'intrt doit couvrir entirement le capteur. Quel doit tre le grandissement transversal g entre le plan de l'objet et le plan d'enregistrement ? En dduire la position de la zone d'coulement par rapport la camra.
Solution

Le grandissement transversal objet-image doit tre gal :

le signe de

tant ngatif. L'application numrique donne :

On retient . On assimile l'objectif une lentille mince de centre O, de sorte que la position de l'objet (A) est donne par :

Soit :

L'objet est donc situ 1,157 m de la camra.

Question
Dduire de la question prcdente la rsolution spatiale dans le plan de l'objet.
Solution

La rsolution spatiale Soit :

est due la taille du pixel projet sur l'objet.

Question
Donner la relation entre PL , QL et plan de l'objet ?
Solution

. Quel est l'clairement produit par le laser dans le

On a :

La puissance laser transmise par le coupleur variable est laser dans le plan de l'objet est simplement :

. L'clairement produit par le

Question
L'objet reoit l'clairement laser et on le considre comme un diffuseur lambertien [1]. Quelle est la luminance LS produite par cet objet ? Exprimer Lo en fonction de .
Solution

, QL ,

et

On considre l'objet comme tant lambertien. La luminance Lo produite par l'objet clair par le laser est [1] :

On a donc :

Question
Calculer l'clairement produit par l'objet dans le plan du capteur d'images.
Solution

Tenant compte de la transmission du cube et de l'optique d'imagerie, l'clairement est donn par :

Question
Calculer le nombre de photo-lectrons obtenus pour 1 pixel, Ne- , pendant la dure de l'impulsion laser en fonction de ER , px , py , , , h, c, ; puis exprimer Ne- en fonction de QL , px , py , , ,h,c, , Topt , , Tc , , N et .

Quelle est la valeur de l'efficacit quantique (


Solution

) du capteur d'images ?

D'aprs les rsultats de l'Etude de Cas, pour un pixel de surface px xpy le nombre de photo lectrons gnrs par l'clairement incident pendant une dure gale la dure d'impulsion laser et pour la longueur d'onde , est :

Avec les paramtres de la rponse prcdente nous obtenons :

D'aprs la courbe de la figure 3, pour

on a

Question
Quel est le nombre de photo-lectrons gnrs par le faisceau rfrence ? On supposera que toute l'nergie laser claire la surface du capteur.
Solution

Il suffit de reprendre le raisonnement prcdent. L'clairement produit sur le capteur par le faisceau de rfrence est :

Le nombre de photo-lectrons est alors :

Question
Exprimer la valeur de l'nergie laser QL pour saturer au moins un quart de chaque pixel, pour chaque faisceau (objet et rfrence). Calculer numriquement QL pour No = 2,8, No = 8 et No = 32. Prsenter les rsultats dans un tableau puis commenter ces rsultats.
Solution

Si on souhaite avoir

, on obtient l'nergie laser minimale pour le faisceau objet :

et pour le faisceau de rfrence :

Le calcul est men avec les donnes prsentes dans le Tableau 5. La transmission du coupleur variable est choisie gale . Ainsi on envoie seulement 10-3% de l'nergie laser vers le faisceau rfrence.

Tableau 5 : Chiffrage de l'nergie laser

On constate que l'nergie ncessaire produire photo-lectrons est nettement suprieure sur le trajet objet celle calcule sur le trajet rfrence. Ce rsultat est logique puisque le faisceau rfrence impacte directement le capteur alors que le faisceau objet est rflchi/diffuse par l'objet vers le capteur. Ceci signifie que si on souhaite rellement obtenir

pour ces deux faisceaux alors il faudra attnuer encore plus fortement le trajet rfrence, une valeur de l'ordre de 5x10-5%. On constate galement que si on travaille avec un objectif moins ouvert alors l'nergie laser ncessaire est considrable : suprieure 1kJ dans la situation 3. Si on considre que la situation 1 est acceptable et que le laser est cadenc 50 Hz alors la puissance moyenne du laser sera de l'ordre 488 mW pour l'objet de 300 mm de diamtre, gnrant un cout non ngligeable pour la source laser. Si l'objet est plus petit, la puissance sera moindre et le cout plus faible. On peut esprer diminuer l'nergie laser ncessaire en augmentant la taille des pixels mais au dtriment de la rsolution spatiale sur l'objet.

Question
Quelle stratgie adopter pour l'acquisition d'images si on souhaite tudier l'objet en vibration entre 5 kHz et 10 kHz ?
Solution

On peut estimer la cadence maximale d'acquisition du capteur d'images. Le capteur CCD possde M xN = 1024x1360 pixels et la frquence pixel est de 20 MHz. On a ainsi :

La cadence laser (30 Hz 60 Hz) et la cadence capteur sont insuffisants pour esprer suivre en temps rel la vibration. On est donc limit des objets stationnaires, c'est dire excits avec une frquence constante au cours du temps. Il faut donc se synchroniser sur l'objet et enregistrer les images de faon stroboscopique. On s'aperoit que comme le temps de pose minimum du capteur est de 5 s, on doit dclencher le capteur sur une impulsion laser choisie parmi la squence de tir. Cette impulsion sera elle mme lgrement en retard par rapport au signal d'excitation vibratoire de l'objet. En enregistrant une squence d'impulsions retardes par rapport la vibration, et permettant de couvrir une priode de vibration, nous serons capable de reconstruire l'amplitude et la phase de la vibration mcanique.

S-ar putea să vă placă și