Sunteți pe pagina 1din 49

UNIVERSITATEA POLITEHNICA DIN BUCUREŞTI

Facultatea Automatică și Calculatoare


Departamentul Automatică şi Ingineria Sistemelor

LUCRARE DE LICENȚĂ

Recunoașterea irisului utilizând OpenCV

Autor: Andrei BERCU


Conducător de doctorat: SL.dr.ing. Iulia Lidia IACOB

Bucureşti 2016
Cuprins

1. Introducere ............................................................................................................ 4
1.1. Generalităţi........................................................................................................ 4
1.2. Obiectivele lucrării ........................................................................................... 5
1.3. Structura lucrarii ............................................................................................... 6
2. Segmentarea regiunii irisului ................................................................................ 7
2.1. Generalităţi........................................................................................................ 7
2.2. Tehnici utilizate în metodele de segmentare tradiţionale ................................. 7
2.2.1. Operatorul integro-diferenţial al lui Daugman ........................................... 7
2.2.2. Transformata Hough .................................................................................. 8
2.2.3. Metode de detectare a contururilor .......................................................... 10
2.2.4. Filtrul median ........................................................................................... 16
2.3. Implementare .................................................................................................. 16
2.3.1. Localizarea şi delimitarea pupilei ............................................................ 16
2.3.2. Delimitarea exterioară a irisului ............................................................... 20
3. Normalizarea ...................................................................................................... 23
3.1. Principii generale ............................................................................................ 23
3.2. Modelul “rubber sheet” al lui Daugman ......................................................... 24
4. Codificarea caracteristicilor şi compararea şabloanelor ..................................... 25
4.1. Principii generale ............................................................................................ 25
4.2. Transformata wavelet ..................................................................................... 25
4.3. Filtre Gabor ..................................................................................................... 26
4.4. Filtre Log-Gabor ............................................................................................. 27
4.5. Laplacianul unei gaussiene (LoG) .................................................................. 28
4.6. Diferenţa a două gaussiene (DoG) .................................................................. 30
4.7. Algoritmul SIFT ............................................................................................. 31
4.7.1. Generalităţi ............................................................................................... 31
4.7.2. Identificarea punctelor de extrem local .................................................... 32
4.7.3. Localizarea punctelor cheie ..................................................................... 33
4.7.4. Determinarea orientării ............................................................................ 33
4.7.5. Determinarea descriptorilor caracteristici ................................................ 34
4.7.6. Compararea punctelor cheie..................................................................... 34
4.8. Implementare .................................................................................................. 35
4.8.1. Mascarea pixelilor corespunzători genelor .............................................. 35
2
4.8.2. Egalizarea histogramei regiunii irisului ................................................... 35
4.8.3. Împărţirea regiunii irisului în subdiviziuni .............................................. 36
4.8.4. Detectarea punctelor cheie şi calculul descriptorilor ............................... 37
4.8.5. Compararea şabloanelor ........................................................................... 38
5. Protocol de testare şi rezultate obţinute .............................................................. 41
5.1. Principii generale ............................................................................................ 41
5.2. Optimizarea parametrilor algoritmului SIFT .................................................. 43
5.3. Testarea metodei implementate cu parametrii optimi ..................................... 45
6. Bibliografie ......................................................................................................... 47

3
1. Introducere

1.1. Generalităţi

Recunoaşterea automată a persoanelor pe baza caracteristicile biologice a fost


întotdeauna un obiectiv atractiv. Dezvoltarea sistemelor biometrice reprezintă un domeniu ce
atrage tot mai mulţi cercetători. Sistemele biometrice se bazează pe trăsături biologice unice
ale oamenilor, cum ar fi: amprentele digitale, trăsăturile faciale, caracteristicile vocii,
geometria mâinii şi a degetelor, scrisul de mână, structura retinei, configuraţia venelor,
caracteristicile irisului sau structura AND-ului. Sistemele biometrice sunt mult mai sigure
decât metodele tradiţionale de identificare ce se bazează pe lucruri pe care utilizatorul le poate
uita (parole, PIN), le poate pierde (carduri, chei) sau chiar falsifica. Sistemele biometrice sunt
cu atât mai performante cu cât trăsăturile biologice pe care se bazează au un grad mare de
unicitate (astfel încât şansele ca două persoane să aibă aceleaşi caracteristici să fie minime), se
schimbă cât mai puţin odată cu trecerea timpului şi sunt uşor de capturat, astfel că utilizatorul
să fie cel mai puţin incomodat.

Una din cele mai precise şi sigure metode de identificare a persoanelor este cea bazată
pe caracteristicile irisului. Acestea prezintă un grad foarte ridicat de unicitate şi, spre
deosebire de caracteristicile feţei, rămân neschimbate pe tot parcursul vieţii. Irisul este un
muşchi ce ajustează dimensiunea pupilei, controlând în acest mod cantitatea de lumină ce
intră prin aceasta. Irisul se află în spatele corneei, calotă transparentă ce înveleşte ochiul
uman, iar în spatele irisului se găseşte cristalinul, umoarea sticloasă şi apoi retina, pe aceasta
formându-se imaginea inversată, transformată în impulsuri nervoase de către celule
specializate. Impulsurile nervoase sunt transmise apoi de nervul optic la creier. Irisul îşi
începe formarea în cea de-a treia săptămâna a sarcinii, iar elementele distinctive se
definitivează în săptămâna a opta, în timp ce procesul de pigmentare are loc şi în primii ani
după naştere. Informaţiile necesare măsurătorilor biometrice sunt colecţionate analizând
textura irisului, contururile din modelul acestuia şi motivele decorative. Dimensiunea pupilei
variază între 10% şi 80% din dimensiunea irisului, acesta având o dimensiune medie de
12mm. Chiar dacă pigmentarea irisului, ce îi determină culoarea, are o legătură genetică,
detaliile din modelul irisului sunt complet aleatoare şi necorelate. Textura irisului este
percepută şi vizualizată în mod diferit la spectre diferite ale luminii incidente, cauza fiind
fenomenul de reflexie şi absorţie a undelor electromagnetice în testuri. Irisul este scanat, de
regulă, de la o distanţă mai mică de 1m, prin intermediul unei camere digitale, în cele mai
multe cazuri utilizându-se lumina artificială, generată de LED-uri infraroşii, pentru o detectare
cât mai eficientă a caracteristicilor texturii irisului şi pentru a nu provoca discomfort
utilizatorului.

4
Utilizând diverse tehnici de procesare a imaginii, algoritmii ce stau la baza identificării
analizează textura irisului şi o codifică, generând un şablon ce se poate stoca într-o bază de
date. Aceste şabloane conţin o reprezentare matematică a informaţiei colectate. Atunci când
se doreşte identificarea unui individ, iniţial se fotografiază ochiul, apoi este generat şablonul
iar acesta este comparat cu celelalte şabloane stocate în baza de date.

Conceptul de recunoaştere a persoanelor pe baza irisului este relativ nou, prima


metodă fiind patentată abia în anul 1994 de către Dr. John Daugman [1], profesor de fizică şi
Computer Vision la universitatea din Cambridge . Cu toate că sistemul dezvoltat de acesta
este cel mai cunoscut, există şi alte metode, cea mai notabilă fiind dezvoltată de Wildes et al
[2].

1.2. Obiectivele lucrării

Scopul lucrării de faţă este atât explorarea şi analizarea metodelor existente de


identificare pe baza irisului şi a diverşilor algoritmi folosiţi în cadrul acestora cât şi
dezvoltarea unei metode proprii utilizând ideile de bază ale celor analizate, încercând atât
adaptarea algoritmilor existenţi pentru o funcţionare cât mai optimă cât şi menţinerea unei
complexităţi relativ scăzute a noii metode. De asemenea, se încearcă îmbunătăţirea metodelor
existente prin folosirea unor tehnologii noi şi se analizează rezultatele obţinute. În această
lucrare se pune accent strict pe componenta software ce realizează identificarea individului şi
nu pe partea hardware de capturare a imaginilor.

În dezvoltarea noii metode s-a folosit librăria OpenCV (Open Source Computer
Vision Library), atât pentru uşurinţa în dezvoltare cât şi pentru posibilitatea folosirii unor
tehnologii noi din domeniul vederii artificiale. Conform site-ului oficial [3], OpenCV conţine
mai mult de 2500 de algoritmi optimizaţi ce pot fi folosiţi pentru obiective precum detecterea
şi recunoaşterea feţelor, identificarea obiectelor, clasificarea mişcărilor persoanelor în video-
uri, urmărirea obiectelor ce se deplasează, crearea de modele 3D, identificarea imaginilor
similare într-o bază de date etc. Algoritmii sunt dezvoltaţi nativ în C++, iar librăria are
interfeţe în C++, C, Python, Java şi MATLAB. În altă ordine de idei, în alegerea tehnicilor
utilizate în implementarea metodei proprii s-a luat în considerare oferta de algoritmi a librăriei
OpenCV, incercandu-se pe cât posibil utilizarea acestora în locul unor metode tradiţionale
întâlnite în cadrul altor studii de specialitate. Atât pentru uşurinţa şi rapiditatea dezvoltării, cât
şi pentru faptul că este tot mai popular, ca limbaj de programare a fost ales Python.

Pentru a testa rezultatele obţinute, s-au folosit imagini din baza de date CASIA (The
Chinese Academy of Sciences – Institute of Automation). Aceasta este una din cele mai
importante şi cuprinzătoare baze de date folosită pentru testarea metodelor de identificare a
persoanelor pe baza irisului, fiind utilizată în numeroase lucrări ştiinţifice. Baza de date
conţine, în versiunea folosită CASIA-IrisV4, peste 54.000 de fotografii cu globul ocular,
imagini făcute în lumină infraroşie, în format JPEG, în tonuri de gri pe 8 biţi. Baza de date
cuprinde 6 subseturi, în lucrarea de faţă utilizându-se setul CASIA-Iris-Lamp, acesta

5
cuprinzând fotografii în care dimensiunea pupilei variază între valorile limită, testând
robusteţea metodei de extragere a informaţiilor bazate pe textura irisului [4].

Metodele de identificare pe baza irisului cuprind, de regulă, mai multe etape:


segmentarea, ce constă în izolarea regiunii irisului într-o imagine cu ochiul utilizatorului şi
presupune găsirea graniţelor dintre iris şi sclerotică şi dintre iris şi pupilă, normalizarea, ce
constă în transformarea acestei regiuni astfel încât să aiba dimensiuni fixe, codificarea şi
compararea, ce constau în extragerea caracteristicilor relevante şi crearea unui şablon
biometric ce permite compararea informaţiilor. În lucrarea de faţă sunt prezentate aceste
etape, descriindu-se atât metodele tradiţionale utilizate în literatura de specialitate, cât şi
metodele utilizate în implementarea propusă.

1.3. Structura lucrarii

Lucrarea de faţă este structurată pe etapele diferite ale metodelor de recunoaştere pe baza
caracteristicilor irisului. Astfel, Capitolul 1 prezintă atât noţiuni introductive în domeniul
sistemelor biometrice şi al recunoaşterii irisului, precum şi obiectivele pe care lucrarea şi le
propune. De asemenea, sunt prezentate ideile şi principalele instrumente care au stat la baza
dezvoltării metodei propuse.

În Capitolul 2 sunt analizate principalele metode de segmentare a regiunii irisului


utilizate în literatura de specialitate. Sunt prezentaţi algoritmi cu roluri diferite în cadrul
procesului de segmentare, iar la finalul capitolului este descrisă metoda propusă de
segmentare. În cadrul Capitolului 3 sunt prezentate conceptele de bază ale etapei de
normalizare şi algoritmul propus de J. Daugman în studiul [10].

Capitolul 4 îşi propune descrierea metodelor utilizate în studiile de specialitate în


cadrul algoritmilor de extragere a caracteristicilor irisului. O atenţie sporită este acordată
algoritmului SIFT, propus de D. Lowe în lucrarea [16]. De asemenea, este prezentat contextul
dezvoltării noii metode şi algoritmii utilizaţi de aceasta pentru codificarea informaţiilor
extrase şi compararea indivizilor.

Capitolul 5 prezintă experimentele de testare realizate cu scopul verificării


performanţelor noii metode ca un întreg. În cadrul acestui capitol sunt evidenţiate principalele
criterii de analiză a performanţei unui sistem de recunoaştere pe baza irisului şi, la final, sunt
prezentate rezultatele metodei propuse în funcţie de aceste criterii de performanţă.

6
2. Segmentarea regiunii irisului

2.1. Generalităţi

Prima etapă în cadrul identificării pe baza irisului este reprezentată de localizarea


propriu-zisă a acestuia în imaginea digitală. Regiunea irisului este aproximată, de regulă, prin
două cercuri, unul ce reprezintă graniţa exterioară, ce delimitează irisul de sclerotică, iar altul
ce reprezintă graniţa interioară, ce delimitează irisul de zona pupilei. Etapa de localizare a
irisului în cadrul imaginii este esenţială în procesul de identificare. În cazul în care irisul nu
este delimitat suficient de precis, codificarea şi crearea şablonului se vor realiza pe baza unor
date eronate, diminuând astfel şansele ca identificarea să aibă success. Totodată, precizia
segmentării poate fi afectată în cazul în care culoarea irisului este apropiată de cea a scleroticii
sau în cazul în care regiunea irisului este obturata de pleoape sau gene. Pupila însă este mai
uşor de delimitat, datorită culorii închise uniforme.

2.2. Tehnici utilizate în metodele de segmentare tradiţionale

Contururile ce definesc graniţa internă şi graniţa externă a irisului au forma unor


elipse. Cu toate acestea, în metodele tradiţionale aceste contururi sunt aproximate ca cercuri,
fără a fi afectată performanţa. În consecinţă, pentru delimitarea irisului sunt folosiţi, de regulă,
algoritmi de detectare a cercurilor. În literatura de specialitate sunt întâlnite două strategii
principale ce stau la baza acestor algoritmi. Există metode ce implică maximizarea unei
ecuaţii matematice bazată pe caracteristicile imaginii achiziţionate şi metode în care se
realizează mai întâi o detectare a contururilor din imagine, aplicând apoi algoritmi de
detectare a formelor geometrice.

2.2.1. Operatorul integro-diferenţial al lui Daugman

Una din cele mai întâlnite metode de delimitare a regiunii irisului în imaginea
ochiului este operatorul integro-diferenţial inventat de John Daugman in anul 1993 [5].
Această metodă realizează atât localizarea regiunilor irisului şi pupilei, cât şi detectarea
arcurilor de cerc ce separă ochiul de pleoape, acestea obturând de regulă o parte din imaginea
irisului.

Fig. 2.2.1.1. Delimitarea regiunii irisului utilizând operatorul lui Daugman


7
Prima operaţie în cadrul acestei metode este calcularea integralei curbilinii:

Dens(r) = ∮

Imaginea achiziţionată este notată cu I(x,y), iar cu (x0, y0) se notează coordonatele
centrului pupilei. Domeniul de integrare este delimitat de un cerc de rază variabilă r cu centrul
în (x0, y0). Această integrală măsoară gradul de intensitate al regiunii interioare cercului de
rază r. Valoarea razei r variază între 0 şi o valoare maximă, astfel că viteza de variaţie a
valorii integralei se modifică brusc în momentul în care valoarea razei r devine mai mare
decât valoarea razei pupilei. În momentul în care valoarea lui r devine mai mare decât
valoarea razei cercului ce defineşte graniţa exterioară a irisului, viteza de variaţie a valorii
integralei Dens(r) îşi modifică din nou, brusc, valoarea. Viteza de variaţie a valorii integralei
se convolutioneaza cu o funcţie gaussiană de deviaţie standard σ, notată cu Gσ(r). Această
operaţie are rolul de a îmbunătăţii estimarea, reducând variaţiile cauzate de zgomot astfel
încât măsurătoarea să fie cât mai precisă. Rezultatul va avea valori extreme pentru aceleaşi
valori ale lui r pentru care viteza de variaţie definită mai sus ia valori extreme. Astfel,
operatorul integro-diferenţial al lui Daugman devine:

| ∮ |

2.2.2. Transformata Hough

Transformata Hough reprezintă o tehnică de localizare în cadrul imaginilor a


instanţelor imperfecte de obiecte ce se încadrează într-o anumită clasă de forme geometrice
simple, cum ar fi linii sau cercuri [6]. Această tehnică implică o procedura de votare a
obiectelor candidat realizată într-un spaţiu parametric. În domeniul vederii artificiale apare
destul de des problema detectării formelor geometrice simple. De cele mai multe ori în
prealabil este folosit un detector de contur, iar transformata Hough este aplicată pe imaginea
furnizată de acesta. Totuşi, din cauza reprezentării incomplete a obiectelor în imaginea iniţială
sau din cauza imperfecţiunii detectorului de margini, contururile nu reprezintă de regulă
forme geometrice perfecte. Transformata Hough grupează punctele de contur sub forma unor
obiecte parametrizate peste care aplică o procedură de votare, atribuind fiecărui obiect un scor
de apartenenţă la forma geometrică selectată.

2.2.2.1. Transformata Hough pentru detectarea liniilor drepte

Cel mai simplu caz al utilizării transformatei Hough este detectarea liniilor drepte din
cadrul unei imagini. De regulă, o linie dreaptă reprezentată prin ecuaţia poate fi
reprezentată în spaţiul parametrilor ca un punct . Din cauza problemei puse de
reprezentarea liniilor verticale, a fost propusă ca metodă de reprezentare a liniilor drepte
forma normală Hesse: , unde reprezintă distanţa de la origine la cel mai
8
apropiat punct de pe linie, iar reprezintă unghiul dintre axa Ox şi linia ce uneşte originea de
acel punct.

Fig. 2.2.2.1.1. Reprezentarea liniilor în spaţiul parametrilor

Aşadar, orice linie din imagine are asociată o pereche . Transformata Hough
pentru linii drepte foloseşte pentru detectare o matrice, numită acumulator, fiecare poziţie în
această matrice reprezentând o pereche de valori cuantizate . Pentru fiecare pixel din
imagine, transformata Hough analizează vecinătatea acestuia şi determină posibilitatea ca
pixelul respectiv să aparţină unei linii. Dacă răspunsul este afirmativ, se vor calcula parametrii
şi ai acelei linii şi se va incrementa valoarea elementului corespunzător din accumulator.
Cele mai probabile linii sunt apoi extrase determinând maximele locale din spaţial
acumulatorului.

În metodele de delimitare a regiunii irisului, transformata Hough pentru linii drepte


este utilizată uneori pentru detectarea graniţelor dintre globul ocular şi regiunea pleoapelor.

Fig. 2.2.2.1.2. Utilizarea transformatei Hough pentru detectarea liniilor drepte în


metodele de segmentare a regiunii irisului

2.2.2.2. Transformata Hough pentru detectarea cercurilor

Metoda de detectare a cercurilor este similară cu cea de detectare a liniilor drepte. Un


cerc de rază cu centrul poate fi descris prin ecuatia:

Spre deosebire de transformata pentru detectarea liniilor, în acest caz spaţiul


parametrilor este tridimensional, fiecare poziţie fiind reprezentată de un grup .
Procesul presupune iterarea prin valorile posibile ale razelor şi pentru fiecare valoare se caută
în imagine cele mai probabile cercuri cu această rază, utilizându-se un spaţiu al parametrilor

9
bidimensional, fiecare element reprezentând coordonatele centrelor. Având valoarea razei
fixată, pentru fiecare punct al contururilor se defineşte un cerc cu centrul în acest punct,
având rază cunoscută. Punctele în care se intersectează un număr suficient de astfel de cercuri
vor reprezenta centrele cercurilor finale returnate, de rază stabilită. Algoritmul este sugerat în
figura următoare:

Fig. 2.2.2.2.1. Algoritm pentru detectarea cercurilor

Pentru fiecare din cele 4 puncte (colorate în alb) de pe cercul ce trebuie detectat, arătat
în figura din partea stângă, se va determina un cerc cu centrul în acest punct şi raza stabilită.
Matricea acumulator va fi utilizată pentru a urmări punctele de intersecţie şi numărul de
cercuri ce se intersectează în fiecare punct. Maximul local din matricea acumulator (punctul
roşu din centrul figurii din partea dreaptă) va reprezenta poziţia cercului iniţial, ce a fost
detectat.

O metodă de segmentare a regiunii irisului folosind transformata Hough pentru


detectarea cercurilor a fost utilizată de Wildes et al. [7]. De asemenea, aceştia au folosit
transformata Hough şi pentru detectarea elipselor, delimitând ochiul de regiunea pleoapelor.

Este important de notat faptul că transformata Hough prezintă şi anumite dezavantaje.


În primul rând, folosirea acestei tehnici presupune alegerea optimă a valorii de prag folosite în
funcţia de detectare a contururilor. Dacă această valoare nu este aleasă suficient de bine există
posibilitatea ca puncte esenţiale din contururile imaginii să nu fie detectate, rezultând într-o
detectare eronată a formelor geometrice dorite. În al doilea rând, transformata Hough necesită
şi foarte multe resurse, fapt ce împiedică în acest moment utilizarea acesteia în aplicaţiile în
timp real.

2.2.3. Metode de detectare a contururilor

2.2.3.1. Principii generale

În cazul utilizării unei tehnici de segmentare a regiunii irisului ce implică


recunoaşterea unor figuri geometrice, cum este transformata Hough, este necesară în prealabil
aplicarea unei metode ce evidenţiază contururile din imaginea iniţială, generandu-se o nouă
imagine ce va fi analizată de metoda de detectare a figurilor geometrice.

10
Detectarea muchiilor sau contururilor (Edge detection) reprezintă procesul ce
identifică punctele în care se produc schimbări abrupte sau discontinuităţi ale intensităţii
imaginii. Aceste discontinuităţi delimitează obiectele ce se află într-o imagine. Există mai
multe metode de a detecta margini, cele mai multe dintre ele încadrându-se în următoarele
două categorii:
 Detectori care folosesc operatori de gradient. Aceştia detectează muchiile
analizând minimele şi maximele derivatei de ordin întâi a imaginii.
 Detectori laplacieni, ce analizează derivatele de ordin doi ale imaginii, căutând
punctele în care aceasta are valoarea 0.

Gradientul unei imagini într-un anumit punct reprezintă un vector a cărui mărime şi
direcţie ilustrează variaţia maximă de intensitate în acel punct (pixel). Vectorul gradient este
definit în funcţie de derivatele parţiale ale funcţiei imagine :

În această ecuaţie, si reprezintă vectori unitari pe direcţiile orizontală şi verticală.


Magnitudinea gradientului este definită prin:

| | √( ) ( )

Direcţia gradientului este reprezentată de ecuaţia:

Presupunând că avem următorul semnal ce semnifică intensitatea pixelilor pe o


anumită direcţie, muchia este reprezentată de zona în care valoarea semnalului creşte [8]:

Fig. 2.2.3.1.1. Semnalul iniţial

Calculând gradientul semnalului iniţial, care în planul unidimensional este reprezentat


de derivata de ordin întâi, se obţine:

11
Fig. 2.2.3.1.2. Gradientul semnalului

Se observă că derivata de ordin întâi are valoare maximă în zona în care se află muchia
în semnalul iniţial. Această metodă de detectare a muchiilor face parte din familia detectorilor
cu operatori de gradient, una din cele mai întâlnite tehnici de acest tip fiind reprezentată de
metoda Sobel. Un anumit punct din imagine este declarat ca făcând parte dintr-o muchie dacă
valoarea gradientului depăşeşte o valoare de prag. Mai mult decât atât, în punctele în care
derivata de ordin întâi are valori maxime, derivata de ordin doi are valoarea 0. Prin urmare, o
altă metodă de a detecta muchiile este prin determinarea zerourilor derivatei de ordin doi.
Aceste metode poartă numele de laplaciene. Derivata de ordin doi a semnalului iniţial este
ilustrată în figura următoare:

Fig. 2.2.3.1.3. Derivata de ordin doi a semnalului iniţial

În cadrul imaginilor digitale, funcţia de intensitate reprezintă un semnal discret,


domeniul de definiţie fiind mulţimea pixelilor din acea imagine. Din cauza acestui lucru,
derivatele funcţiei de intensitate pot fi doar aproximate, dacă presupunem că aceasta a fost
obtinută prin eşantionarea unei funcţii continue a intensitătii imaginii. Aproximările acestor
derivate pot fi obţinute la nivele diferite de acurateţe, în funcţie de operatorul folosit.

În tehnicile de aproximare a derivatelor funcţiei de intensitate se aplică operaţia ce


poartă numele de filtrare spaţială. Această operaţie atribuie fiecărui pixel o nouă valoare a
intensitătii, în funcţie de intensitatea iniţială a acestuia şi a pixelilor alăturaţi, prin aplicarea
unei măsti de filtrare, numite şi kernel. Aplicarea acestei măsti de filtrare este realizată, de
regulă, printr-o operaţie de corelare sau de convolutie.

Presupunând un kernel pătratic F, având că dimensiuni un număr impar de pixeli


(2N+1)x(2N+1), operaţia de corelare a imaginii cu masca de filtrare F este definită de relaţia:

∑ ∑

12
Practic, operaţia de corelare presupune poziţionarea măştii „deasupra imaginii‟, cu
centrul pe poziţia pixelului de modificat, şi însumarea produselor dintre intensităţile pixelilor
imaginii şi valorile kernelului de pe aceleaşi poziţii.

Convoluţia unei imagini cu un kernel presupune aceleaşi operaţii aritmetice ca şi cele


din cadrul corelării, diferenţa fiind că înainte de aceste operaţii se inversează rândurile şi
coloanele măştii de filtrare. Utilizând aceleaşi notaţii, convoluţia este definită de relaţia:

∑ ∑

Se poate observa că atunci când măştile sunt simetrice, corelarea şi convoluţia


reprezintă operaţii identice. Cu toate acestea, operaţia de convoluţie are avantajul că este
asociativă, însemnând că dacă avem două măşti şi , iar reprezintă funcţia intensităţii
imaginii, atunci . Asociativitatea operaţiei de convoluţie reprezintă
un avantaj în momentul în care este necesară aplicarea consecutivă a mai multor filtre. De
exemplu, dacă trebuie să aplicăm mai multor imagini un filtru de netezire iar apoi să
determinăm derivata intensităţii acestora, putem convolutiona iniţial cele două filtre, obţinând
un nou filtru ce va realiza ambele operaţii, fără a mai fi nevoie să efectuăm operaţia de
convoluţie pe rând, cu fiecare dintre cele două filtre.

2.2.3.2. Operatorul Sobel

Operatorul, ce poartă şi numele de filtru Sobel, utilizează două matrici de dimensiuni


3x3 numite şi matrici kernel sau măşti. Pentru fiecare pixel al imaginii iniţiale se calculează o
nouă valoare, în funcţie de valoarea iniţială a sa şi a pixelilor vecini, ţinându-se cont şi de
valorile kernel-ului. Această operaţie poartă numele de convoluţie a imaginii cu un kernel şi
este folosită în acest caz pentru a oferi o aproximare a derivatelor de ordin întâi atât pe
direcţia orizontală cât şi pe verticală. Cele două măşti utilizate de operatorul Sobel sunt:

[ ] [ ]

Operaţia de convoluţie arată cât de mult variază intensitatea în fiecare punct al


imaginii, şi prin urmare care din aceste puncte îndeplinesc condiţia de muchie, precum şi ce
orientare ar putea avea aceasta. Un avantaj al folosirii unor măşti de dimensiune 3x3 în locul
măştilor de dimensiune 2x2 este că se reduc erorile cauzate de zgomot, luându-se în calcul
valorile mai multor pixeli vecini.

13
2.2.3.3. Operatorul Laplace

Acest tip de operator aproximează derivata de ordin doi a imaginii, determinând doar
magnitudinea gradientului, acesta având aceleaşi proprietăţi în toate direcţiile şi astfel fiind
invariant la rotaţia imaginii. Laplacianul este definit prin relaţia:

Imaginea de prelucrat este reprezentată printr-o matrice de pixeli, astfel că derivatele


de ordin doi din definiţia laplacianului sunt aproximate prin utilizarea unor măşti discrete,
cele mai întâlnite fiind:

[ ] sau [ ]

Operatorul Laplacian necesită mai puţine calcule, dar este foarte sensibil la zgomot,
analizând derivata de ordin doi a imaginii. De asemenea, în funcţie de valoarea de prag, poate
detecta la anumite contururi din imagine muchii duble [9].

2.2.3.4. Detectorul Canny

Acesta este considerat în literatura de specialitate [20] ca fiind cel mai performant
detector de contur. Obiectivele detectorului Canny sunt următoarele:
 Detectare performantă, prin aceasta urmărindu-se obţinerea unei probabilităţi
mici de eroare în detectarea punctelor ce reprezintă cu adevărat muchii şi
totodată obţinerea unei probabilităţi mici de detectare a muchiilor false. Cum
cele două probabilităţi depind strict de raportul semnal-zgomot, acest criteriu
implică maximizarea acestui raport, incercandu-se detectarea a cât mai multe
muchii reale posibile.
 O localizare precisă, urmărindu-se marcarea ca muchie a punctelor cât mai
apropiate de centrul muchiei reale. În consecinţă, muchiile detectate trebuie să
fie cât mai apropiate de cele reale.
 Minimizarea numărului de răspunsuri pentru o singură muchie. Acest criteriu
este în strânsă legătură cu primul, urmărindu-se ca zgomotul imaginii să nu
creeze muchii false.

Algoritmul aplicat de detectorul Canny este următorul [8]:


 Filtrarea zgomotului şi netezirea imaginii; datorită faptului că filtrul gaussian
poate fi obţinut prin simpla utilizare a unei măşti, acesta este folosit de
detectorul Canny în exclusivitate. După stabilirea unei măşti optime, filtrarea
gaussiană se poate efectua utilizând metodele standard de convoluţie a
imaginii. Masca de convoluţie este, de regulă, mult mai mică decât imaginea
propriu-zisă. Această masca este aplicată fiecărui pixel al imaginii, manipulând
14
valoarea acestuia şi a vecinilor săi. Cu cât masca gaussiană are dimensiuni mai
mari, cu atât detectorul este mai puţin sensibil la zgomot. Cu toate acestea,
alegerea unei măşti de dimensiuni mari poate duce la o localizare imprecisă a
muchiilor. Un exemplu de mască întâlnită foarte des în filtrarea gaussiană este:

[ ]

 Determinarea gradientului imaginii; în această etapă este utilizat un operator


Sobel ce măsoară gradientul imaginii pe direcţie orizontală (pe coloane) şi pe
direcţie verticală (pe linii). Utilizând măştile de convoluţie specificate Gx şi Gy,
magnitudinea gradientului general se va calcula după formula:

| | | | | |

 Determinarea direcţiilor muchiilor, folosind gradientul pe direcţia orizontală şi


cel pe direcţia verticală calculată anterior, fiind aplicate anumite restricţii
atunci când valoarea lui este 0.

 Rotunjirea direcţiilor calculate; odată ce au fost determinate direcţiile


vectorilor gradient, acestea trebuie rotunjite la direcţiile ce pot fi reprezentate
într-o imagine. Acestea sunt reprezentate de unghiurile de , , şi ,
iar rotunjirea direcţiei calculate se va face la cea mai apropiată dintre acestea.

 Suprimarea non-maximelor; muchiile sunt detectate în locurile în care apar


maximele gradientului. Pentru a anula toate celelalte puncte, se verifică pentru
fiecare pixel considerat muchie dacă magnitudinea gradientului său este mai
mare decât cea a pixelilor alăturaţi aflaţi pe direcţie perpendiculară pe direcţia
gradientului. În cazul în care această condiţie nu este îndeplinită, valoarea
gradientului va fi anulată.

 Eliminarea muchiilor neimportante; în această etapă este aplicată o metodă de


histerezis. În cazul în care s-ar folosi o singură valoare de prag, atunci în zona
pixelilor cu o valoare medie a gradientului aproximativ egală cu cea de prag
vor apărea discontinuităţi în reprezentarea muchiei, aceasta apărând ca o linie
punctată, fenomen cauzat în mare parte de zgomotul imaginii. Pentru a
combate acest fenomen sunt folosite două valori diferite de prag. Orice pixel ce
are o magnitudine a gradientului mai mare decât valoarea maximă de prag va fi
clasificat ca muchie. Apoi este marcat ca muchie orice pixel ce este alăturat
acestora şi are o magnitudine a gradientului mai mare decât valoarea minima
de prag. În consecinţă, odată ce se iniţializează marcarea unei muchii, aceasta
nu se termină decât în zona în care valoarea gradientului scade considerabil.

15
Un dezavantaj al metodei de detectare Canny este acela că filtrul gaussian aplicat, în
încercarea de a reduce zgomotul din imagine, va afecta şi zonele de muchie, cauza fiind faptul
că atât zgomotul cât şi muchiile au frecvenţe înalte. Pentru a atinge o performanţă ridicată în
detectarea muchiilor, este necesară aplicarea unui filtru adaptiv, ce va adăuga un efect de
netezire mare zgomotului dar un efect de netezire cât se poate de mic muchiilor.

2.2.4. Filtrul median

De cele mai multe ori, în aplicaţiile din domeniul vederii artificiale, înainte de
aplicarea metodelor de detectare a muchiilor se aplică imaginii originale un filtru ce are
scopul de a reduce zgomotul. Unele din cele mai întâlnite filtre utilizate sunt filtrul gaussian,
descris mai sus, şi filtrul median. Acest filtru are avantajul că reduce zgomotul imaginii,
păstrând într-o măsură destul de mare zonele corespunzătoare muchiilor neafectate. Astfel
este îmbunătăţit semnificativ rezultatul metodei de detectare a contururilor.

Filtrul median itereaza prin fiecare pixel al imaginii, înlocuindu-i intensitatea cu


valoarea mediană a intensităţii pixelilor alăturaţi. Valoarea mediană este calculată prin
sortarea tuturor valorilor intensităţilor pixelilor învecinaţi şi înlocuirea cu valoarea situată în
mijlocul mulţimii (de exemplu, valoarea mediană a mulţimii {2, 2, 4, 7, 15} este 4). Prin
aplicarea acestui algoritm asupra imaginii, acei pixeli nesemnificativi asociaţi zgomotului nu
vor afecta semnificativ valoarea mediană selectată. Totodată, datorită faptului că valoarea
mediană va fi întotdeauna valoarea intensităţii unui pixel real din vecinătate şi nu o valoare
medie calculată, filtrul median nu afectează zonele de muchie.

2.3. Implementare

2.3.1. Localizarea şi delimitarea pupilei

În cadrul metodei implementate, segmentarea precisă a pupilei este esenţială atât


pentru identificarea zonei de graniţă ce desparte regiunea acesteia de regiunea irisului, cât şi
pentru o mai bună localizare a graniţei exterioare a irisului, raza cercului exterior putând lua
valori într-un interval ce depinde de raza cercului ce aproximează regiunea pupilei.

Segmentarea pupilei a fost împărţită în mai multe etape:


 Aplicarea unui filtru median
 Filtrarea pixelilor în funcţie de intensitate
 Eliminarea reflexiilor cauzate de LED-uri în regiunea pupilei
 Identificarea liniilor de contur utilizând detectorul Canny
 Aplicarea transformatei Hough pentru detectarea cercurilor

În cadrul imaginilor utilizate din baza de date CASIA, intensitatea pupilei este destul
de consistentă, făcând posibilă localizarea acesteia în cadrul imaginilor. Imaginile bazei de
16
date sunt în format alb-negru, iar tonul de gri al fiecărui pixel este reprezentat pe 8 biţi, astfel
că acesta poate lua valori din intervalul [0,255], 0 semnificând tonul negru, cel mai închis, iar
255 semnificând tonul alb. Dacă analizăm histogramele imaginilor, se poate observa că
primul maxim local este cauzat de mulţimea pixelilor ce reprezintă regiunea pupilei, aceasta
fiind, de regulă, cea mai închisă regiune a imaginii.

Fig. 2.3.1.1. Exemple de histograme ale imaginilor din baza de date CASIA

Astfel, în urma experimentelor, s-a constatat că, de regulă, regiunea pupilei este
reprezentată de pixeli ce iau valori în intervalul [20,60], în funcţie de imaginea selectată. În
consecinţă, s-a ajuns la concluzia că regiunea pupilei ar putea fi delimitată provizoriu prin
filtrarea pixelilor cu un ton de gri mai închis decât o valoare de prag fixată, operaţie ce poartă
numele de threshold. Cu toate acestea, s-a constatat că există cazuri în care genele sau
zgomotul imaginii pot obstrucţiona regiunea pupilei, îngreunând delimitarea precisă a
acesteia. Astfel, înainte de aplicarea acestei filtrări a pixelilor cu tonuri închise s-a decis
aplicarea unui filtru care să reducă zgomotul imaginii, dar în acelaşi timp să afecteze cât mai
puţin liniile de contur ce separă pupila de regiunea irisului. A fost aleasă utilizarea filtrului
median (descris mai sus în aceasta lucrare), acesta îndeplinind cel mai bine criteriile
menţionate. Efectul aplicării filtrului median asupra imaginii este ilustrat în figura următoare:

Fig. 2.3.1.2. Exemplu de imagine înainte şi după aplicarea filtrului median

După aplicarea filtrului median, se efectuează operaţia de filtrare a pixelilor de culoare


închisă. Această procedură este ilustrată în figura următoare:

17
Fig. 2.3.1.3. Aplicarea threshold-ului

În urma experimentelor, s-a constatat că există imagini în care LED-urile folosite de


camera de achiziţionare a imaginilor pot produce reflexii în zona pupilei, îngreunând procesul
de delimitare a acesteia. În consecinţă, s-a decis efectuarea unei operaţii de umplere a
contururilor în cadrul imaginii rezultate în urma aplicării threshold-ului. Pentru aceasta, a fost
nevoie de inversarea tonurilor de gri filtrate anterior. În figura următoare este reprezentat
procesul de umplere al contururilor:

Fig. 2.3.1.4. Eliminarea reflexiilor prin umplerea conturului

După aplicarea threshold-ului şi eliminarea reflexiilor, se poate observa că regiunea


pupilei are o formă circulară. Astfel, a fost aleasă utilizarea transformatei Hough pentru
detectarea cercurilor. Cu toate acestea, în urma experimentelor utilizând OpenCV s-a observat
că această operaţie nu are o precizie satisfăcătoare dacă este aplicată direct, rezultate mai bune
obţinându-se atunci când se efectuează înainte o operaţie de detectare a muchiilor, iar
transformata Hough se aplică imaginii rezultate. Pentru efectuarea acestei operaţii a fost ales
detectorul Canny, algoritmul său fiind disponibil în OpenCV. De asemenea, s-a constatat că
transformata Hough are rezultate mai bune în cazul ingrosării liniilor de contur obţinute şi
aplicării unui filtru gaussian. Procesul de detectare a muchiilor este ilustrat în figura
următoare:

Fig. 2.3.1.5. Detectarea liniilor de contur

18
În urma aplicării transformatei Hough pentru detectarea cercurilor (descrisă mai sus în
cadrul acestei lucrări) se obţine, de regulă, un număr variabil de cercuri, în funcţie de valoarea
de prag selectată a matricii acumulator. Mai jos, în figura din partea stângă sunt reprezentate
cercurile cu cele mai multe voturi detectate de transformata Hough aplicată unei imagini
rezultate în urma aplicării detectorului de contur Canny. În figura din partea dreaptă sunt
transpuse aceste cercuri imaginii originale.

Fig. 2.3.1.6. Aplicarea transformatei Hough pentru detectarea cercurilor

În urma experimentelor, s-a constatat însă că aplicarea metodelor descrise mai sus cu
parametrii constanţi nu este suficient de robustă. De exemplu, valoarea optimă de prag a
operaţiei de filtrare a pixelilor de intensitate scăzută (threshold) diferă de la o imagine la altă.
De asemenea, pixelii ce definesc genele au aproximativ aceeaşi intensitate ca cei ce definesc
regiunea pupilei. Pentru ca aceasta să fie delimitată cât mai precis de restul imaginii, trebuie
să fie ales un nivel de netezire potrivit aplicat iniţial de filtrul gaussian, astfel încât să fie
redus pe cât posibil zgomotul cauzat de genele ochiului, dar totodată să nu afecteze
dimensiunea regiunii pupilei. Presupunând că nivelul de netezire şi valoarea de prag a
detectorului Canny au fost alese corespunzător, din cauza compromisurilor acceptate în
efectuarea acestor operaţii sau din cauza altor motive, cum ar fi faptul că ochiul poate fi
parţial închis, conturul ce defineşte regiunea pupilei poate reprezenta o formă mai puţin clară
de cerc. Astfel, este necesară alegerea unei valori de prag optime a matricii acumulator a
transformatei Hough.

Metoda implementată presupune iterarea prin mai multe nivele ale filtrului median şi
valori de prag ale detectorului de contur, rezultând un set de imagini filtrate peste care se va
aplica transformata Hough. Având în vedere faptul că această transformată va asocia fiecărui
posibil cerc un anumit scor de potrivire, s-a ales căutarea dinamică a valorii de prag a matricii
acumulator pentru care, din întregul set de imagini filtrate, se obţine un număr de cercuri ce
depăşeşte o valoare fixată. Având această mulţime formată din cele mai probabile cercuri,
cercul final returnat a fost ales ca o medie a acestora, astfel: poziţia centrului pe orizontală va
fi egală cu media poziţiilor pe orizontală a centrelor cercurilor, poziţia centrului pe axa
verticală va fi media poziţiilor centrelor pe verticală, iar raza cercului va fi egală cu media
razelor cercurilor mulţimii.

19
2.3.2. Delimitarea exterioară a irisului

Dupa identificarea cercului ce aproximeaza regiunea pupilei, acesta reprezentand


granita interioara a irisului, este necesara identificarea cercului ce aproximeaza granita
exterioara a acestuia. In literatura de specialitate, exista cazuri in care se presupune faptul ca
cercurile ce definesc granita interioara si cea exterioara a irisului sunt concentrice. In realitate,
cele doua cercuri nu sunt perfect concentrice in cele mai multe dintre cazuri, dar ideea ca
centrele lor sunt destul de apropiate este valabila.

Astfel, în metoda de faţă se caută cercurile (graniţă exterioară) ce au centrul la o


distanţă mai mică decât o valoare fixată aleasă dinamic în funcţie de raza cercului pupilei.
Mai mult decât atât, sunt căutate cercurile ce au o rază mai mare decât o valoare fixată, aleasă
de asemenea dinamic în funcţie de raza pupilei. Acestea sunt motivele pentru care delimitarea
precisă a pupilei este esenţială în cadrul procesului de segmentare.

Aproximarea precisă a graniţei exterioare a irisului este însă mai dificil de realizat
decât aproximarea cercului ce defineşte pupila, principalul motiv fiind diferenţa destul de
mică de intensitate între regiunea irisului şi cea a scleroticii. De asemenea, aproximarea
conturului exterior cu un cerc poate fi îngreunată de faptul că irisul poate fi incomplet
reprezentat din cauza închiderii parţiale a ochiului (irisul este obstrucţionat de pleoape) sau a
obstructionarii cauzate de gene. Cu toate acestea, s-a constatat că o metodologie similară cu
cea a delimitării pupilei poate da rezultate destul de bune.

Astfel, procesul de identificare a limitei exterioare a irisului este împărţit în


următoarele etape principale:
 Aplicarea unui filtru median
 Identificarea liniilor de contur utilizând detectorul Canny
 Aplicarea transformatei Hough pentru detectarea cercurilor

La fel ca în procesul de delimitare al pupilei, prima etapă constă în aplicarea filtrului


median. Nivelul de netezire setat este însă mai mare, astfel încât detectorul Canny să
identifice doar muchiile principale din imagine. De asemenea, la fel ca în cazul delimitării
pupilei, s-a constatat că transformata Hough pentru detectarea cercurilor are rezultate mai
bune în cazul îngroşării liniilor de contur şi aplicării unei măşti gaussiene asupra imaginii
acestora. În figura următoare este ilustrat un caz optim al aplicării filtrului median şi al
detectării liniilor principale de contur:

Fig. 2.3.2.1. Filtrare mediană şi detectarea muchiilor principale

20
Spre deosebire de cazul delimitării pupilei, unde detectorul Canny se aplică unei
imagini binare, în alb şi negru, obţinute în urma aplicării unei operaţii de threshold, în situaţia
delimitării irisului detectorul Canny este aplicat direct imaginii rezultate în urma filtrării
mediene. Din această cauză este esenţială alegerea optimă a valorilor de prag utilizate în
procesul cu histerizis al detectorului. În urma experimentelor, s-a constatat ca valoarea
minima de prag a detectorului poate fi fixată pe 0, fără a avea consecinţe negative
semnificative. Cu toate acestea, valoarea maximă de prag optimă diferă de la o imagine la
alta.

De asemenea, esenţială pentru bună detectare a liniilor de contur corespunzătoare


este şi alegerea optimă a nivelului de netezire în cadrul filtrării mediane iniţiale. Acesta are
rolul de a reduce zgomotul produs asupra regiunii irisului, zgomot ce poate fi cauzat atât de
prezenţa genelor cât şi de petele de culoare din interiorul regiunii irisului. În urma
experimentelor, s-a constatat că transformata Hough disponibilă în OpenCV este destul de
sensibilă la excesul linilor de contur, împiedicând astfel detectarea precisă a cercurilor
corespunzătoare. Pe de altă parte, setarea unui nivel de netezire prea mare al filtrului median
poate duce la afectarea regiunilor de graniţă ale irisului, reducând diferenţa de intensitate
dintre acesta şi regiunea scleroticii şi afectând astfel precizia detectorului Canny.

Pentru a face posibilă detectarea liniilor de contur corespunzătoare, este necesară


alegerea optimă atât a nivelului de netezire iniţial cât şi a valorii maxime de prag a
detectorului Canny. Există însă imagini pentru care aceste valori sunt destul de greu de găsit,
figura următoare ilustrând un asemenea caz:

Fig. 2.3.2.2. Detectare problematică a liniilor de contur

În acest caz, în interiorul regiunii irisului se găseşte o diferenţă pronunţată la nivelul


intensităţii pixelilor, diferenţă ce nu este eliminată complet de filtrul median şi este
identificată de detectorul de contur Canny. Mai mult, această linie de contur detectată are
forma unui arc de cerc, fapt ce va duce de detectarea unor cercuri necorespunzătoare de către
transformata Hough, chiar şi în cazul setării unei valori ridicate de prag a matricii acumulator.

La fel ca în cazul delimitării pupilei, în cadrul metodei de identificare a graniţei


exterioare a irisului a fost aleasă crearea unui set de imagini reprezentări de contur, set obţinut
prin iterarea prin mai multe nivele ale filtrului median şi printr-o mulţime de valori de prag
maxime ale detectorului Canny. Transformata Hough scade progresiv valoarea de prag a
matricii acumulator, iterând pentru fiecare valoare prin toate imaginile setului. La fiecare pas,
din mulţimea cercurilor detectate sunt păstrate doar cele care îndeplinesc condiţiile impuse de
21
centrul şi raza cercului ce delimitează pupila (condiţie descrisă la începutul capitolului).
Iteraţia este oprită în momentul în care este strâns un număr de cercuri mai mare decât o
valoare stabilită, colectându-se astfel cercurile cu cele mai multe voturi. În figura următoare
este ilustrată aplicarea transformatei Hough pentru o valoare optimă de prag a matricii
acumulator:

Fig. 2.3.2.3. Detectarea cercurilor ce definesc graniţa exterioară a irisului

În urma experimentelor s-a constat însă că, în majoritatea cazurilor, în această


mulţime de cercuri există şi elemente necorespunzătoare, care nu definesc suficient de precis
graniţa exterioară a irisului. Asfel, simpla calculare a unui cerc medie, metodă abordată în
cazul delimitării pupilei, nu mai este satisfăcătoare. În consecinţă, pentru a elimina cercurile
necorespunzătoare, s-a ales filtrarea mulţimii de cercuri după regulile următoare:
 Se calculează intervalele de deviaţie standard ale coordonatelor centrelor
cercurilor, atât pe direcţie orizontală, cât şi pe direcţie verticală
 Se elimină cercurile ale căror centre sunt situate în afara intervalelor de
deviaţie standard calculate
 Pentru fiecare cerc din mulţimea rămasă se calculează suma distanţelor dintre
raza acestuia şi razele celorlalte cercuri, identificându-se astfel cercul a cărui
rază este cea mai apropiată de celelalte raze
 Se calculează un interval de deviaţie standard a razelor, având ca centru raza
obţinută anterior
 Se elimină cercurile a căror rază nu face parte din intervalul de deviaţie
standard al razelor

Cercul medie este calculat apoi, la fel ca în cazul delimitării pupilei, în funcţie de
mulţimea filtrată a cercurilor. Filtrarea cercurilor detectate este ilustrată în figura de mai jos.
Cercurile considerate satisfăcătoare sunt reprezentate în culoarea verde, iar cele eliminate sunt
colorate în albastru:

Fig. 2.3.2.4. Filtrarea cercurilor detectate

22
În figurile de mai jos se pot observa rezultatele metodei complete de segmentare a
regiunii irisului. În culoare roşie este reprezentat cercul ce defineşte graniţa interioară a
irisului cu regiunea pupilei, iar cercul verde reprezintă graniţa exterioară a irisului cu regiunea
scleroticii. Cele două cercuri galbene sunt concentrice cu cercul ce delimitează pupila, având
raza în funcţie de raza pupilei. Cercul de culoare galbenă interior pupilei defineşte distanţa
limită a centrelor cercurilor ce definesc graniţa exterioară faţă de centrul pupilei. Cu alte
cuvinte, la aplicarea transformatei Hough pentru detectarea cercurilor de graniţă exterioară au
fost păstrate doar cercurile al căror centru s-a aflat în acest cerc galben interior pupilei. Cercul
galben exterior pupilei defineşte raza minima a cercurilor ce definesc graniţa exterioară. La
aplicarea transformatei Hough pentru detectarea cercurilor ce delimitează irisul de regiunea
scleroticii au fost păstrate doar cercurile a căror rază a fost mai mare decât raza acestui cerc
galben exterior pupilei.

Fig. 2.3.2.5. Rezultatele metodei de segmentare implementate

3. Normalizarea

3.1. Principii generale

Următoarea etapă în cadrul unora din sistemele de identificare pe baza irisului este
reprezentată de normalizarea regiunii segmentate. Aceasta presupune transformarea imaginii
segmentate astfel încât să aibă dimensiuni fixe, pentru a facilita compararea. Inconsistenţa
dimensiunilor irisului poate fi cauzată de comprimarea acestuia şi dilatarea pupilei în funcţie
de nivelul de luminozitate la care este expus ochiul. Alte cauze pot fi variaţia distanţei de la
care este capturată imaginea, înclinarea capului sau rotaţia ochiului în cadrul globului ocular.
Etapa de normalizare permite ca elementele de unicitate ce caracterizează irisul să aibă
aceleaşi coordonate în imaginea rezultată, chiar dacă fotografiile au fost achiziţionate în

23
condiţii diferite. În acest context, un fapt important de care trebuie ţinut cont la normalizare
este că pupila nu este întotdeauna concentrică cu regiunea irisului.

3.2. Modelul “rubber sheet” al lui Daugman

Modelul omogen aplicat de Daugman [10] este una din cele mai utilizate metode de
segmentare. Acesta asociază fiecărui punct din regiunea irisului o pereche de coordonate
polare , unde este cuprins în intervalul , iar este un unghi în intervalul .

Fig. 3.2.1. Modelul “rubber sheet” al lui Daugman

Transformarea regiunii irisului din coordonate carteziene în coordonate polare este


efectuată după modelul:

( )

cu şi definiţi prin:

unde reprezintă imaginea regiunii irisului, reprezintă coordonatele


carteziene, reprezintă coordonatele polare corespunzătoare, iar , şi , sunt
coordonatele graniţelor exterioare ale pupilei şi irisului de-a lungul axei . Modelul lui
Daugman ia în considerare posibilitatea dilatării pupilei şi variaţia dimensiunii irisului şi
produce o reprezentare a irisului în dimensiuni fixate, având ca referinţă centrul pupilei.

Fig. 3.2.2. Normalizarea regiunii irisului în coordonate polare

Chiar dacă modelul omogen al lui Daugman ia în considerare dilatarea pupilei,


distanţa de achiziţionare a imaginii şi faptul că pupila şi regiunea irisului nu sunt întotdeauana
24
concentrice, acesta nu compensează variaţiile de rotaţie a irisului. În sistemul lui Daugman,
aceste variaţii sunt luate în considerare la momentul comparării şabloanelor, deplasându-se
regiunea irisului pe axa θ până când cele două şabloane sunt aliniate.

4. Codificarea caracteristicilor şi compararea şabloanelor

4.1. Principii generale

Pentru a obţine un sistem performant de recunoaştere pe baza irisului trebuie


identificate cele mai semnificative caracteristici ale acestuia, elementele ce îi conferă
unicitate, în vederea comparării cu alţi indivizi.

Şablonul generat în procesul de codificare trebuie să fie alcătuit după reguli stabilite,
având la bază un set de parametrii, astfel încât la compararea cu alte astfel de şabloane să
rezulte o măsură de similitudine. Această măsură rezultată trebuie să fie diferită în cazul în
care se compară şabloane de la aceeaşi persoană faţă de cazul în care se compară şabloane de
la persoane distincte, astfel încât să se poată lua o decizie clară în privinţa identificării.

4.2. Transformata wavelet

În analiza compoziţiei spectrale a semnalelor (a informaţiei din domeniul frecvenţei)


este foarte des utilizată binecunoscuta transformată Fourier. Aceasta nu este însă
satisfăcătoare în situaţiile în care trebuie să cunoaştem compoziţia spectrală a unui semnal la
un moment de timp precizat (în cazul semnalelor unidimensionale). O soluţie ce îşi propune
rezolvarea acestei probleme este utilizarea transformatei Fourier pe termen scurt, aceasta
aplicând în mod repetat transformata Fourier pe porţiuni successive ale semnalului original.
Determinarea precisă a duratei de timp a unui semnal duce la scăderea preciziei în
determinarea informaţiei spectrale şi invers. Acest fenomen este reprezentat de principiul
incertitudinii al lui Heisenberg, care afirmă că “produsul dintre durata de timp şi frecvenţa
unui semnal este limitat inferior de o valoare nenulă”.

În timp ce în cazul analizei de tip Fourier pe termen scurt se adoptă o fereastră de


analiză de durată fixă, indiferent de frecvenţa semnalului, analiza wavelet foloseşte ferestre de
durate variabile: ferestre de durată scurtă pentru frecvenţele înalte şi ferestre de durată lungă
pentru frecvenţe joase. Astfel se obţine o localizare precisă în timp a componentelor de
frecvenţă ridicată (fără a putea fi precizată exact valoarea acestora) şi o determinare precisă a
valorii componentelor de frecvenţă joasă (în detrimentul aflării cu exactitate a momentelor de
apariţie) [11].

În comparaţie cu un semnal sinusoidal, care nu are durată limitată, este predictibil şi


omogen, wavelet-ul reprezintă un semnal cu durată limitată, valoare medie egală cu 0,
25
neregulat şi asimetric. În timp ce analiza Fourier presupune împărţirea unui semnal în semnale
sinusoidale componente de diferite frecvenţe, analiza wavelet implică împărţirea semnalului
original într-o serie de semnale ce sunt versiuni deplasate şi scalate ale undei wavelet
originale [12].

Fig. 4.2.1. Sinusoidă Fig. 4.2.2. Undă wavelet

În cadrul metodelor de codificare a texturii irisului, transformata wavelet este utilizată


pentru descompunerea datelor (semnale bidimensionale) în componente ce apar la rezoluţii
diferite ale imaginii. Această metodă face posibilă localizarea datelor spectrale, permiţând
recunoaşterea caracteristicilor ce apar la aceeaşi poziţie şi rezoluţie. Regiunii bidimensionale
a irisului îi este aplicat câte un filtru wavelet pentru fiecare rezoluţie, rezultatul acestora fiind
apoi codificat pentru a obţine o reprezentare compactă şi discriminatorie a texturii irisului.

4.3. Filtre Gabor

Filtrele Gabor reprezintă una din cele mai folosite metode de extragere a
caracteristicilor unei texturi, analizând informaţia spectrală a imaginilor. Alte domenii de
utilizare ale filtrelor Gabor sunt: recunoaşterea feţelor, recunoaşterea formelor sau detectarea
contururilor.

Un filtru Gabor este reprezentat de modulaţia în amplitudine a unui semnal sinusoidal


complex cu o distribuţie gaussiană, făcând posibilă extragerea informaţiilor din domeniile
spaţiu şi frecvenţă cu o incertitudine minimă. Unui semnal sinusoidal bidimensional i se poate
determina frecvenţa, dar nu poate fi localizat în spaţiu. Prin această modulaţie a semnalului
sinusoidal cu o gaussiană se poate obţine informaţia legată de poziţia în spaţiu, chiar dacă
acest fapt duce la o precizie mai scăzută a localizării în frecvenţă.

Fig. 4.3.1. Distribuţie gaussiana în spaţiu bidimensional

26
Filtrul Gabor este un filtru trece-bandă, iar pentru a extrage informaţiile
corespunzătoare mai multor benzi de frecvenţă este utilizat un set (numit şi banc) de filtre
Gabor. Frecvenţa centrală a benzii de trecere este reprezentată de frecvenţa semnalului
sinusoidal complex, iar lăţimea benzii este specificată de deviaţia standard a distribuţiei
gaussiene. În setarea parametrilor unui filtru Gabor se pot varia intervalul benzii de trecere,
orientarea semnalelor sau dimensiunea regiunii analizate din imagine. În urma analizei cu
filtre Gabor se obţin anumiţi vectori de trăsături ce caracterizează imaginea studiată.

Relaţia ce defineşte filtrele Gabor bidimensionale este:

( )
( )

unde , definesc lăţimea distribuţiei gaussiene în raport cu direcţiile şi , şi


definesc frecvenţa centrală a direcţiilor şi (frecvenţa la care filtrul produce răspunsul
maxim), iar şi reprezintă poziţia pixelului în imagine.

4.4. Filtre Log-Gabor

Deşi filtrele Gabor au o performanţă destul de bună în a extrage atât informaţia spaţio-
temporală a semnalelor cât şi informaţia spectrală, în anumite condiţii acesta nu este un filtru
ideal. La benzi de trecere mai mari decât un interval limită, filtrul Gabor va introduce o
componentă medie diferită de 0. Acest lucru poate fi evitat dacă se foloseşte un filtru Gabor
cu o distribuţie gaussiană la scară logaritmică. Acest tip de filtru se numeşte Log-Gabor, în
[13] arătându-se că utilizarea acestuia în extragerea caracteristicilor unei imagini este realizată
cu performanţe mai bune decât în cazul folosirii unui filtru Gabor original. Motivul este acela
că în cazul utilizării filtrului Gabor se pot scăpa din vedere semnalele cu frecvenţe foarte
înalte, fiind totodadata nevoie de un număr mare de filtre pentru a acoperi o gamă largă de
frecvenţe. Dacă distribuţia gaussiană este reprezentată la scară logaritmică, aceasta va avea o
pantă mai puţin abruptă spre infinit, uşurând astfel detectarea frecvenţelor înalte.

Fig. 4.4.1. Distribuţie gaussiană logaritmică (roşu) vs. liniară (verde)

27
4.5. Laplacianul unei gaussiene (LoG)

Filtrul Log (“Laplacian of Gaussian”) este utilizat în scopul detectării contururilor din
imagine.În acest caz, operatorul Laplace, ce aproximează derivata de ordin doi a funcţiei de
intensitate a imaginii, este aplicat unei imagini „netezite‟ de o aproximare a unui filtru
gaussian. Acest filtru are rolul de a reduce zgomotul imaginii, reducând astfel sensibilitatea
operatorului Laplace. Datorită proprietăţii de asociativitate a operaţiei de convoluţie, filtrul
Gaussian şi filtrul Laplace se pot convoluţiona înainte de momentul rulării, astfel aplicându-se
imaginii un singur filtru ce va efectua ambele operaţii şi reducându-se numărul de operaţii
aritmetice efectuate [14].

Dacă notăm cu distribuţia gaussiană bidimensională, atunci laplacianul


acesteia va fi definit prin:

Expresia distribuţiei gaussiene bidimensionale este dată de relaţia:

Calculând derivatele parţiale de ordin 1 şi 2 pe direcţiile si , se obţine:

Astfel, un filtru Log bidimensional centrat în origine este definit de relaţia:

unde reprezintă poziţia pixelului în imagine, iar reprezintă deviaţia standard a


distribuţiei gaussiene. În figura următoare este ilustrat acest filtru, axele şi având unitatea
de măsură egală cu deviaţia standard .

28
Fig. 4.5.1. Filtru LoG 2D

Un exemplu de mască de filtrare ce aproximează filtrul Log pentru o deviaţie standard


a distribuţiei gaussiene este calculată în [14]:

[ ]

De notat este faptul că dimensiunea matricii kernel, în acest caz 9x9, nu depinde de
valoarea deviaţiei standard a gaussienei, acestea două fiind mărimi independente.
Dimensiunea măştii utilizate influenţează strict precizia de aproximare discretă a filtrului
aplicat, în timp ce valoarea deviaţiei standard σ influenţează nivelele de „netezire‟ şi de
reducere a zgomotului aplicate de acest filtru.

Filtrul Log analizează derivatele de ordin 2 ale funcţiei de intensitate a imaginii. În


regiunile în care intensitatea este constantă, operatorul va returna valoarea 0. În zonele în care
este detectată o variaţie a intensităţii, acesta va returna un răspuns pozitiv în zona intensităţii
mai reduse şi un răspuns negativ în zona intensităţii mai ridicate. Astfel, la întâlnirea unei
muchii, răspunsul filtrului Log va fi:
 0 la o distanţă mare de muchie
 Pozitiv de o parte a muchiei
 Negativ de cealaltă parte a muchiei
 0 pe zona muchiei

În figura următoare se poate observa forma răspunsului unui filtru Log unidimensional
la detectarea unei variaţii de tip treaptă a funcţiei de intensitate:

29
Fig. 4.5.2. Răspunsul unui filtru Log 1D la variaţii treaptă ale intensităţii

4.6. Diferenţa a două gaussiene (DoG)

În literatura de specialitate sunt prezentate cazuri în care filtrul Log este aproximat
prin simpla diferenţă a unor distribuţii gaussiene cu deviaţii standard diferite. Filtrul ce
efectuează această operaţie poartă numele de filtru DoG (“Difference of Gaussians”).
Aplicând o filtrare gaussiană unei imagini, sunt eliminate componentele spaţiale de frecvenţe
înalte, filtrul Gauss fiind un filtru trece-jos. Efectuând operaţia de scădere între intensităţile a
două imagini obţinute prin filtrări gaussiene cu deviaţii standard diferite se păstrează doar
componentele spaţiale ce au o frecvenţă între aceste valori, rezultând astfel un filtru trece-
bandă asemănător filtrului Log [15]. În funcţie de valorile alese ale deviaţiilor standard, acest
filtru poate determina muchiile imaginii.

Cele 3 operaţii de efectuat asupra imaginii originale (2 operaţii de filtrare gaussiană şi


scăderea) pot fi înglobate într-un singur filtru, datorită proprietăţilor operaţiei de convoluţie.
Astfel, pornind de la relaţiile:

unde reprezintă funcţia intensităţii imaginii originale, şi reprezintă filtrele


gaussiene, iar şi reprezintă imaginile filtrate, se poate demonstra că:

( )

Operatorul Dog este definit de relaţia:

În figura următoare se poate observa forma a două distribuţii gaussiene cu deviaţii


standard diferite şi rezultatul diferenţei lor într-un spaţiu unidimensional:

30
Fig. 4.6.1. Distribuţii gaussiene 1D şi diferenţa lor

4.7. Algoritmul SIFT

4.7.1. Generalităţi

Algoritmul SIFT (“Scale Invariant Feature Transformation”) a fost inventat în anul


2004 de către D. Lowe [16], având ca scop general recunoaşterea de obiecte. SIFT detectează
aşa numite “puncte cheie” în reprezentarea unui obiect, făcând posibilă recunoaşterea acestuia
într-o altă imagine, indiferent de poziţie. Algoritmul este invariant la transformări de rotaţie şi
de scală, având un comportament robust şi în cazul transformărilor afine şi al variaţiilor de
iluminare sau de zgomot. De asemenea o proprietate importantă este reprezentată de gradul
mare de distinctivitate, însemnând că o anumită caracteristică poate fi identificată cu o
probabilitate ridicată într-o bază de date ce conţine caracteristici extrase dintr-un număr mare
de imagini. Algoritmul SIFT este cunoscut însă ca fiind mai lent decât alţi algoritmi de
extragere a caracteristicilor unei texturi, cum este cazul analizei regiunii irisului, având nevoie
de o putere computaţională destul de mare.

În cazul utilizării pentru extragerea caracteristicilor irisului, algoritmul SIFT are


avantajul, faţă de tehnicile descrise anterior, că nu are nevoie de o formă normalizată a
regiunii irisului. Astfel, datorită proprietăţilor sale de invarianţă de scală şi de rotaţie,
algorimul se poate aplica imediat după etapa de segmentare a regiunii irisului, fără a mai fi
nevoie de etapa de normalizare.

Acest algoritm este împărţit în patru etape:


 identificarea punctelor de extreme local, etapă în care imaginii îi sunt aplicate
diferite filtre şi se identifică potenţialele puncte cheie;
 localizarea precisă a punctelor cheie şi eliminarea celor necorespunzătoare
 determinarea orientării
 crearea unui vector de trăsături numit descriptor pentru fiecare dintre punctele
cheie

31
4.7.2. Identificarea punctelor de extrem local

Invarianţa algoritmului la variaţiile de scală ale imaginilor este importantă în contextul


în care, de exemplu, zona de îmbinare a două muchii (ce poate reprezenta un punct cheie)
poate apărea sub forma unui unghi ascuţit la o scală mică, dar privită la o scală mai mare,
aceasta poate avea un aspect rotunjit. De aceea, în analiza punctelor cheie, este de dorit
extragerea acestora la diferite transformări de scală ale imaginii. În acest scop, se pot utiliza
filtre Log (descrise mai sus în această lucrare) cu deviaţii standard diferite ale distribuţiei
gaussiene, această măsură a deviaţiei standard reprezentând de fapt un parametru de scală a
imaginii. În cazul analizei zonei de îmbinare a celor două muchii, filtrul Log cu o deviaţie
standard mică a gaussienei va returna o valoare mare pentru forma unghiului ascuţit, pe când
un filtru Log cu o deviaţie standard mare a distribuţiei gaussiene va returna o valoare mare
pentru forma rotunjită a zonei de îmbinare.

Filtrele Log sunt destul de costisitoare din punct de vedere al resurselor necesare, în
algoritmul SIFT utilizându-se filtre DoG (descrise mai sus în această lucrare) ce aproximează
filtrele Log printr-o diferenţă a două gaussiene cu deviaţii standard diferite. Primul pas
constă, aşadar, în convoluţionarea imaginii cu filtre gaussiene având diferiţi factori de scală,
operaţie reprezentată de relaţia:

Aplicarea acestor filtre gaussiene presupun practic reducerea dimensiunilor imaginii


pe diferite nivele. Imaginile obţinute astfel sunt grupate pe octave (o octavă reprezintă o
bandă de trecere în care frecvenţa maximă este de două ori mai mare ca frecvenţa minimă),
alegându-se un număr fix de imagini filtrate pentru fiecare octavă. Imaginile DoG se obţin
efectuând diferenţa între imagini filtrate anterior ce sunt alăturate din punct de vedere al
valorii de scală şi fac parte din aceeaşi octavă. În figura de mai jos sunt illustrate operaţiile
efectuate pentru obţinerea reprezentărilor DoG:

Fig. 4.7.2.1. Obţinerea reprezentărilor DoG

32
După ce au fost obţinute imaginile DoG, acestea sunt analizate în căutarea punctelor
de extrem local în spaţiul tridimensional definit de axele x, y şi axa factorilor de scală, astfel:
fiecare pixel este comparat atât cu cei 8 pixeli aflaţi în vecinătatea sa pe aceeaşi scală, cât şi
cu cele 2 grupuri de câte 9 pixeli aflaţi în imaginile corespunzătoare factorilor de scală
alăturaţi. Dacă pixelul reprezintă un punct de extreme local, atunci el este considerat un
posibil punct cheie. În figura următoare este ilustrat modul de căutare al punctelor de extrem
local în imaginile DoG:

Fig. 4.7.2.2. Identificarea punctelor de extrem local în reprezentările DoG

4.7.3. Localizarea punctelor cheie

Această etapă constă în determinarea precisă a poziţiei punctelor cheie, analizând


poziţia punctelor cheie din vecinătatea fiecăruia. De asemenea, sunt eliminate punctele cheie
cu un contrast scăzut şi punctele cheie ce caracterizează o muchie.

4.7.4. Determinarea orientării

În această etapă, fiecărui punct cheie i se asociază o orientare bazată pe direcţiile


vectorilor gradient din regiunea alăturată. Această operaţie are ca scop obţinerea invarianţei la
rotaţia imaginii, descriptorul caracteristic punctului cheie putând fi reprezentat relativ la
această orientare.

Sunt analizaţi vectorii gradient ai pixelilor învecinaţi din imaginea obţinută în urma
filtrării gaussiene. Determinarea orientării unui punct cheie este sugerată în figura următoare:

Fig. 4.7.4.1. Determinarea orientării unui punct cheie

33
În urma unor reguli se determină una sau mai multe orientări dominante. În cazul în
care se găsesc mai multe orientări dominante, sunt create noi puncte cheie ce au aceaşi poziţie
şi factor de scală ca cel original, fiecăruia fiindu-i asociată una din aceste orientări calculate.
Această abordare are ca scop un câştig de robusteţe al operaţiei de comparare a descriptorilor.

4.7.5. Determinarea descriptorilor caracteristici

Pentru a calcula descriptorul ce caracterizează punctul cheie, iniţial se creează o


fereastră de dimensiune 16x16 în jurul acestuia. Apoi se împarte această fereastră în 4x4
celule şi se calculează pentru fiecare celulă o histogramă de gradienţi pe 8 orientări, rezultând
un total de 128 de caracteristici ce vor compune descriptorul. În figura următoare este ilustrată
metoda de determinare a descriptorului caracteristic unui punct cheie:

Fig. 4.7.5.1. Calculul descriptorului

4.7.6. Compararea punctelor cheie

Compararea a două imagini constă în compararea descriptorilor fiecărui punct cheie


din prima imagine cu descriptorii fiecărui punct cheie din a doua imagine, în urma acestor
comparaţii obţinându-se măsuri de similitudine numite şi distanţe. În urma acestor măsurători,
fiecărui punct cheie din prima imagine i se asociază din a doua imagine punctul cheie cu care
are cele mai multe şanse de potrivire, adică punctul cheie al cărui descriptor este situat la
distanţa cea mai mică.

În unele cazuri însă, în a doua imagine se găseşte un al doilea punct cheie situat la o
distanţă apropiată de distanţa faţă de primul. În această situaţie, D. Lowe [16] recomandă ca,
dacă raportul dintre distanţa minima şi distanţa faţă de al doilea punct cheie este mai mare de
0.76, potrivirea să fie anulată. În studiul sau, D. Lowe notează că astfel sunt eliminate
aproximativ 90% din potrivirile false şi doar 5% din potrivirile adevărate. Metoda sugerată de
D. Lowe este ilustrată în imaginea de mai jos:

34
Fig. 4.7.6.1. Filtrarea potrivirilor în funcţie de distanţele între descriptorii punctelor
cheie

4.8. Implementare

În cadrul metodei implementate a fost aleasă utilizarea algoritmului SIFT, acesta fiind
disponibil în librăria OpenCV. Datorită proprietăţilor sale de invarianţă de scală şi de rotaţie a
imaginii nu a fost nevoie de normalizarea regiunii segmentate a irisului.

4.8.1. Mascarea pixelilor corespunzători genelor

Având coordonatele cercurilor ce definesc limita interioară şi cea exterioară a irisului,


primul pas constă în mascarea genelor ce apar în această regiune. Acesta este un pas
important în cadrul metodei de extragere a caracteristicilor irisului, prin această operaţie
reducându-se probabilitatea ca algoritmul SIFT să detecteze puncte cheie eronate cauzate de
prezenţa genelor în regiunea analizată. De altfel, mascarea genelor duce şi la o îmbunătăţire a
rezultatului operaţiei de egalizare a histogramei regiunii irisului, operaţie ce va fi descrisă în
continuare. Mascarea genelor a fost efectuată printr-o operaţie de threshold, observându-se că
pixelii ce reprezintă genele au o intensitate mult mai mică decât restul regiunii irisului.
Operaţia de mascare a pixelilor corespunzători genelor este ilustrată în imaginile următoare:

Fig. 4.8.1.1. Mascarea pixelilor corespunzători genelor

4.8.2. Egalizarea histogramei regiunii irisului

Operaţia următoare a constat în egalizarea histogramei regiunii irisului. Din cauza


faptului că pixelii din regiunea irisului pot avea valori ale intensităţii apropiate, această

35
operaţie are rolul de a mări contrastul, îmbunătăţind astfel performanţa algoritmului de
extragere a caracteristicilor reprezentative. În imaginea de mai jos este ilustrat efectul
operaţiei de egalizare a unei histograme oarecare:

Fig. 4.8.2.1. Egalizarea histogramei unei imagini

Egalizarea histogramei reprezintă o operaţie de referinţă şi în cadrul altor sisteme


biometrice, cum ar fi recunoaşterea feţelor. Această operaţie are efectul de a combate
diferenţele de iluminare la achiziţia imaginilor. Aplicată strict regiunii irisului, egalizarea
histogramei scoate în evidenţă formele şi petele de culoare ce se găsesc în cadrul acesteia,
după cum se poate observa în imaginile de mai jos:

Fig. 4.8.2.2. Egalizarea histogramei regiunii irisului

4.8.3. Împărţirea regiunii irisului în subdiviziuni

După efectuarea operaţiei de egalizare a histogramei şi accentuarea caracteristicilor,


pentru a îmbunătăţii performanţele algoritmului SIFT a fost aleasă împărţirea regiunii irisului
în trei părţi: partea dreaptă, partea stânga, partea inferioară. Partea superioară a fost eliminată
datorită faptului că în majoritatea cazurilor este obstrucţionată de gene sau pleoape, iar în
urma experimentelor s-a constatat că raportul dintre punctele cheie adevărate şi punctele cheie
detectate eronat de algoritmul SIFT nu este satisfăcător.

Împarţirirea irisului în mai multe regiuni are rolul de a impune anumite condiţii
geometrice la compararea punctelor cheie detectate. În mod logic, putem presupune că poziţia
unui punct cheie este aproximativ aceeaşi pe harta regiunii irisului în cadrul unor imagini
diferite. Cu alte cuvinte, un anumit element caracteristic irisului nu se poate afla pe partea
dreaptă a acestuia într-o imagine, iar în alta să se afle pe partea stângă. Prin această tehnică
sunt eliminate posibile potriviri false între puncte cheie detectate în două imagini diferite. De
36
asemenea, viteza efectuării comparaţiilor este redusă, algoritmul SIFT comparând punctele
cheie doar dacă acestea fac parte din aceeaşi regiune a irisului.

Cele 3 regiuni ale irisului au fost determinate în funcţie de coordonatele polare ale
pixelilor, astfel:
 Partea stângă a regiunii irisului cuprinde pixelii aflaţi pe o direcţie ce formează
cu axa orizontală un unghi cuprins între şi
 Partea dreaptă a regiunii irisului cuprinde pixelii aflaţi pe o direcţie ce
formează cu axa orizontală un unghi între şi
 Partea inferioară a irisului cuprinde pixelii aflaţi pe o direcţie ce formează cu
orizontala un unghi cuprins între şi

Astfel, cele trei zone ale regiunii irisului cuprind şi benzi comune de pixeli,
încercându-se reducerea pierderilor de informaţie cauzate de variaţii minore de rotaţie.
Procesul de divizare a regiunii irisului este ilustrat în figura următoare:

Fig. 4.8.3.1. Divizarea regiunii irisului

4.8.4. Detectarea punctelor cheie şi calculul descriptorilor

Având cele trei regiuni, următoarea etapă constă în utilizarea propriu-zisă a


algoritmului SIFT pentru detectarea punctelor cheie ale fiecărei regiuni în parte. Algoritmul
SIFT este disponibil în OpenCV, iar în această implementare constructorul clasei a fost apelat
cu parametrii default. În versiunea utlizata OpenCV-3.1.0, aceştia sunt enumeraţi mai jos (o
documentaţie detaliată se găseşte la [17]):
 nfeatures = 0
 nOctaveLayers = 3
 contrastThreshold = 0.04
 edgeThreshold = 10
 sigma = 1.6

În urma experimentelor, s-a constatat că algoritmul SIFT poate detecta puncte cheie
false în apropierea zonelor de graniţă ale regiunilor, astfel că a fost implementată o metodă ce
filtrează aceste puncte cheie în funcţie de poziţia lor în imagine. Punctele cheie detectate
37
iniţial (imaginile din partea stângă a fiecărei perechi) şi apoi cele filtrate (imaginile din partea
dreaptă) sunt reprezentate în figura de mai jos:

Fig. 4.8.4.1. Punctele cheie detectate utilizând alg. SIFT

După filtrarea punctelor cheie detectate sunt calculaţi descriptorii pentru fiecare din
acestea. La final, este salvat un obiect-şablon ce conţine punctele cheie şi descriptorii fiecărei
regiuni în parte, precum şi coordonatele cercurilor de delimitează regiunea irisului. În acest
mod, pe lângă coordonatele în cadrul imaginii ale punctului cheie, putem afla şi poziţia
relativă sau coordonatele polare ale acestuia în cadrul regiunii irisului.

4.8.5. Compararea şabloanelor

Compararea a două şabloane constă în compararea punctelor cheie pentru fiecare


dintre cele 3 subregiuni ale irisului. În metoda implementată a fost aleasă ca şi tehnică de
comparare algoritmul Brute-Force Matcher, disponibil în OpenCV. Conform [18], algoritmul
caută pentru fiecare descriptor din primul set descriptorul din al doilea set care are cea mai
mare măsură de similitudine, adică cea mai mică distanţă. La apelul constructorului obiectului
BFMatcher au fost folosiţi parametrii default (documentaţie detaliată la [19]):
 normType = NORM_L2
 crossCheck = False

A fost aleasă ca tehnică de filtrare a potrivirilor false metoda recomandată de D. Lowe


în [16]. Asfel, pentru fiecare descriptor din primul set au fost căutaţi cei mai apropiaţi doi
descriptori din al doilea set. Dacă se notează cu d1 distanţa dintre descriptorul primului set şi
cel mai apropiat descriptor din al doilea set, iar cu d2 distanţa dintre descriptorul primului set
şi al doilea cel mai apropiat descriptor din al doilea set, atunci, ca descriptorul primului set să
fie considerat „potrivit‟ cu cel mai apropiat descriptor din al doilea set este necesar ca raportul
distanţelor d1/d2 să fie mai mic decât o valoare fixată la alegere (D. Lowe recomandă 0.76).
Reprezentările potrivirilor înainte şi după filtrarea recomandată de D. Lowe sunt arătate în
cadrul imaginilor de mai jos:

38
Fig. 4.8.5.1. Reprezentarea potrivirilor înainte şi după filtrarea recomandată

În urma experimentelor, s-a constatat însă că această condiţie nu realizează eliminarea


în totalitate a potrivirilor false. S-a observat că există potriviri între puncte cheie din zone
diferite ale regiunilor irisului, fapt ce contravine proprietăţilor acestuia. În cazul potrivirilor
reale, liniile ce unesc punctele cheie sunt aproximativ paralele (datorită faptului că imaginile
de provenienţa sunt aşezate una în dreptul celeilalte).

În consecinţă, s-a considerat necesară adăugarea unei metode de filtrare a listei de


potriviri obţinute, impunându-se anumite constrângeri geometrice. În mod logic, datorită
posibilelor variaţii de rotaţie sau de scală ale imaginilor, coordonatele punctelor cheie
detectate în cadrul imaginii originale pot fi diferite. Cu toate acestea, poziţia unui anumit
punct cheie relativă la poziţia celorlalte puncte cheie este aproximativ aceeaşi. S-a decis astfel
filtrarea „potrivirilor‟ în funcţie de direcţiile celor două puncte cheie pereche faţă de centrele
celor două pupile.

Primul pas în cadrul operaţiei de filtrare constă în analiza potrivirilor şi crearea unui
vector de diferenţe unghiulare. Presupunând că şabloanele comparate provin de la acelaşi iris,
majoritatea potrivirilor detectate vor fi adevărate. Din cauza variaţiilor de rotaţie ale
39
imaginilor achiziţionate, punctele cheie ce definesc o potrivire nu vor fi pe aceeaşi direcţie
raportat la axa orizontală. În cazul potrivirilor reale însă, diferenţa dintre direcţiile celor două
puncte cheie va fi aproximativ aceeaşi pentru fiecare pereche. Astfel, după analiza
diferenţelor de direcţie între punctele cheie ce formează o potrivire, se pot elimina perechile a
căror diferenţă a direcţiilor se abate peste o valoare de prag de la diferenţa mediană a setului
total de diferenţe.

În urma experimentelor, s-a verificat că metoda de filtrare implementată reduce


semnificativ posibilitatea detectării eronate a potrivirilor, fără a se putea afirma totuşi că
acestea sunt eliminate complet în toate cazurile. Efectele procedurii utilizate de filtrare a
potrivirilor în funcţie de coordonatele polare unghiulare ale punctelor cheie sunt ilustrate în
figura de mai jos:

Fig. 4.8.5.2. Reprezentarea potrivirilor înainte şi după filtrarea în funcţie de


coordonatele polare unghiulare

40
5. Protocol de testare şi rezultate obţinute

5.1. Principii generale

În cadrul acestui capitol este analizată performanţa metodei implementate de


identificare bazate pe caracteristicile irisului. Algoritmul dezvoltat a fost tratat ca un tot
unitar, nefiind testate separat părţile sale componente (segmentarea irisului, extragerea
caracteristicilor, etc.). În cadrul experimentelor a fost utilizată baza de date CASIA (The
Chinese Academy of Sciences – Institute of Automation), în versiunea CASIA-IrisV4,
respectiv setul CASIA-Iris-Lamp. Imaginile disponibile în această bază de date au fost
achiziţionate şi sunt puse la dispoziţia cercetătorilor special pentru testarea algoritmilor de
recunoaştere a irisului. Datorită condiţiilor speciale de iluminare folosind LED-uri în
infraroşu, caracteristicile şi elementele de unicitate ale irisului sunt destul de vizibile astfel
încât să fie posibilă extragerea şi codificarea acestora. De asemenea, imaginile prezintă un
contrast satisfăcător între regiunile pupilei, irisului şi scleroticii, făcând posibilă segmentarea
regiunii de interes.

Setul utilizat cuprinde imagini ale globurilor oculare a 411 indivizi. Pentru fiecare din
cei doi ochi ai unui individ au fost achiziţionate câte 20 de imagini, în coditii de iluminare
diferite, ilustrându-se astfel mărimi variate ale pupilei şi respectiv ale irisului. Astfel, setul
conţine un total de: 411 x 2 x 20 = 16440 imagini. În cadrul testării au fost folosite exclusiv
imagini corespunzătoare ochilor drepţi ai indivizilor.

În literatura de specialitate, comparaţiile între două reprezentări ale aceluiaşi iris se


numesc comparaţii intra-class, în timp ce comparaţiile între reprezentări ale unor irisuri
diferite poartă numele de comparaţii inter-class. Obiectivul oricărui algoritm de recunoaştere
a irisului este separarea cât mai clară a distribuţiilor intra-class de cele inter-class. În cazul
implementării de faţă, aceste distribuţii sunt alcătuite din numărul de comparaţii ce au ca
rezultat un anumit număr total de potriviri. Cu alte cuvinte, comparaţiile (atât cele intra-class
cât şi cele inter-class) au fost distribuite în funcţie de numărul total de potriviri obţinut în
urma utilizării alforitmului SIFT (suma potrivirilor celor trei regiuni ale irisului).

Pentru a măsura nivelul de separare al celor două distribuţii s-ar putea măsura distanţa
dintre acestea (în cazul implementării de faţă ca număr de potriviri). Cu toate acestea, în cazul
algoritmilor de recunoaştere a irisului cele două distribuţii cel mai probabil se întrepătrund,
datorită unor valori aberante sau din cauza performanţelor slabe ale metodei dezvoltate. O
măsură de performanţă utilizată în studiile din domeniu poartă numele de “decidabilitate”,
această valoare calculându-se în funcţie de parametrii celor două distribuţii astfel:

| |

41
unde reprezintă decidabilitatea, reprezintă media distribuţiei intra-class,
defineşte media distribuţiei inter-class, iar şi reprezintă deviaţiile standard ale
distribuţiilor intra-class, respectiv inter-class. Cu cât este mai mare această valoare a
decidabilitatii, cu atât separarea dintre cele două distribuţii este mai evidentă, rezultând într-o
performanţă mai bună a procesului de identificare.

Astfel, dacă se stabileşte o valoare de prag pe axa absciselor celor două distribuţii, la
compararea a două şabloane se poate lua o decizie dacă acestea reprezintă acelaşi iris sau nu.
Cu toate acestea, după cum a fost menţionat mai sus, cele două distribuţii (intra-class şi inter-
class) au de cele mai multe ori un interval în care se suprapun, însemnând că există un anumit
număr de identificări greşite (“false accepts”) şi un anumit număr de neidentificari eronate
(“false rejects”), rezultate deşi cele două şabloane comparate ilustrau de fapt acelaşi iris. În
studiile de specialitate, aceste două mărimi poartă numele de “FRR” (“false reject rate”) şi
“FAR” (“false accept rate”), fiind ilustrate în figura de mai jos [20]:

Fig. 5.1.1. Valorile FAR şi FRR pentru două distribuţii intra-class şi inter-class în
funcţie de o valoare de prag stabilită

Astfel, mărimea FRR măsoară probabilitatea ca un individ existent în baza de date să


nu fie recunoscut de sistem, în timp ce mărimea FAR măsoară probabilitatea ca un individ să
fie identificat eronat ca fiind o altă persoană. Cele două valori sunt calculate ca arii
normalizate în funcţie de cele două distribuţii şi valoarea de prag aleasă. După cum se poate
observa şi în graficul prezentat, alegerea valorii de prag este definitorie pentru valorile FAR şi
FRR rezultate. Dacă valoarea de prag ar avea o valoare mai mare, FAR ar fi mai mică iar FRR
ar fi mai mare, în timp ce alegerea unei valori de prag mai mici ar produce efectul invers. De
aceea, în momentul alegerii valorii de prag optime trebuie făcut un compromis, având în
vedere cele două măsuri de eroare rezultate.

42
5.2. Optimizarea parametrilor algoritmului SIFT

În cadrul testării metodei implementate, primul pas constă în optimizarea parametrilor


folosiţi în cadrul etapei de extragere a caracteristicilor irisului. Astfel, a fost aleasă iterarea
prin 4 valori de prag ale raportului utilizat în cadrul filtrării „potrivirilor‟ în funcţie de
„distanţele‟ între descriptorii caracteristici punctelor cheie detectate de algoritmul SIFT
(filtrare recomandată de D. Lowe în [16], raportul recomandat fiind 0.76). De asemenea, a
fost aleasă testarea algoritmului propriu de filtrare a „potrivirilor‟ (în funcţie de coordonatele
polare unghiulare ale punctelor cheie relativ la poziţia în cadrul regiunii irisului) cu 7 valori
diferite ale abaterii permise de la direcţia presupusă corectă (diferenţă de direcţie este
acceptată dacă se află în intervalul ).

Performanţa celor două procese de filtrare este esenţială în cadrul extragerii


caracteristicilor irisului, acestea verificând dacă două potriviri detectate de algoritmul SIFT
sunt adevărate sau false. Cele 4 valori testate ale raportului distanţelor între descriptori au
fost: , , şi , iar cele 7 valori testate ale abaterii permise de la direcţia optimă
au fost: , , , , , si , rezultând un total de 28 de teste.

Pentru optimizarea parametrilor au fost utilizate imagini de la primii 100 de indivizi


disponibili în baza de date. S-au folosit 9 imagini ale ochiului drept al fiecărui individ, iar
pentru comparaţiile inter-class fiecare imagine a unui individ a fost comparată cu toate
imaginile corespunzătoare următorului individ din listă. Astfel, au fost realizate 100x81=8100
de comparaţii inter-class şi 100x36=3600 de comparaţii intra-class pentru fiecare din cele 28
de teste. Perechea de parametrii optimi a fost aleasă în funcţie de valoarea de “decidabilitate”
rezultată în urma fiecărui test.

Datorită dimensiunilor mari ale tabelului obţinut, mai jos sunt reprezentate doar
perechile de parametrii pentru care au fost obţinute cele mai mari 10 valori ale decidabilitatii.

Raportul distantelor Abaterea unghiulara Decidabilitatea


0.88 10 2.089464433
0.88 8 2.087076201
0.88 12 2.080288179
0.88 6 2.07244748
0.88 14 2.069352625
0.88 4 2.041584092
0.82 14 2.029854949
0.82 12 2.029497601
0.82 10 2.022296021
0.82 8 2.007166553

Tabelul 5.2.1. Parametrii optimi în funcţie de valoarea decidabilitatii

În imaginile de mai jos se poate observa distribuţia decidabilitatii în funcţie de cei doi
parametrii, în cadrul celor 28 de teste.
43
Fig. 5.2.1. Distribuţia decidabilitaţii obţinute în cadrul testelor

Se poate observa că valorile maxime ale decidabilitaţii (reprezentate prin culoarea roşu
închis) sunt întâlnite pentru perechile de parametrii notate în tabelul de mai sus. Analizându-
se parametrii optimi obţinuţi, se observă că valoarea de prag 0.88 a raportului distanţelor între
descriptori este destul de îndepărtată de cea recomandată de D. Lowe (acesta a recomandat în
lucrarea [16] utilizarea valorii 0.76 în cadrul filtrării). De altfel, media de potriviri obţinute în
cadrul comparaţiilor inter-class a fost pentru această pereche optimă , o valoare destul
de mare a potrivirilor false (deoarece comparaţiile inter-class reprezintă irisuri diferite).

Cu toate acestea, s-a notat că reducând nivelul de filtrare aplicat, creşterea numărului
de potriviri false este compensată de o creştere mai mare a potrivirilor reale, obţinute în cadrul
comparaţiilor intra-class, rezultând per total un nivel de separare ridicat al distribuţiilor de
comparaţie. Media numărului de potriviri obţinute în cadrul comparaţiilor intra-class a fost de
66.41. De asemenea, se poate observa că şi abaterea diferenţei unghiulare permise de 10° este
destul de mare, intervalul total de abatere fiind de 2*10°=20°, în timp ce regiunile în care a
fost împărţit irisul sunt definite de arcuri de cerc cu un unghi la centru de 50°. Aşadar, această
filtrare impune, la rândul ei, constrângeri destul de slabe, fapt ce pune la îndoială eficienţa
metodei de filtrare implementate.
44
Aşadar, obţinându-se parametrii optimi ai proceselor de filtrare a potrivirilor detectate
de algoritmul SIFT ( pentru valoarea de prag a raportului distanţelor între descriptori şi
pentru abaterea de la diferenţa unghiulară permisă), următorul pas constă în testarea
performanţei întregului algoritm de identificare pe baza caracteristicilor irisului.

5.3. Testarea metodei implementate cu parametrii optimi

Această etapă presupune ilustrarea distribuţiilor intra-class şi inter-class şi calcularea


celor două valori de eroare, FRR şi FAR, în funcţie de anumite valori de prag posibile. În
cadrul experimentului de testare au fost utilizate câte 9 imagini ale ochiului drept de la fiecare
din cei 411 indivizi disponibili în setul CASIA-Iris-Lamp, comparaţiile inter-class generandu-
se între fiecare doi indivizi consecutivi din listă, rezultând un total de de
comparaţii intra-class şi de comparaţii inter-class.

În figura de mai jos, distribuţia comparaţiilor inter-class obţinută în urma testului este
reprezentată în culoarea galbenă, iar cea a comparaţiilor intra-class este ilustrată în albastru:

Fig. 5.3.1. Distribuţiile inter-class (galben) şi intra-class (albastru)

Distribuţia inter-class are o medie de 14.53 de potriviri detectate şi o deviaţie standard


de 5.46, în timp ce distribuţia comparaţiilor intra-class are o medie de 60.65 de potriviri şi o
deviaţie standard de 33.72. În figura de mai jos sunt reprezentate grafic măsurile de eroare
obţinute, în funcţie de valorile de prag. Se observă că pentru o valoare aproape de 0 a FAR
(“false accept rate”), eroarea FRR (“false reject rate”) se ridică la peste .

45
Fig.5.3.2. Măsurile de eroare obţinute

46
6. Bibliografie

[1] J. Daugman. Biometric personal identification system based on iris analysis. United
States Patent, Patent Number: 5,291,560, 1994.
[2] R. Wildes. Iris recognition: an emerging biometric technology. Proceedings of the
IEEE, Vol. 85, No. 9, 1997.
[3] Documentatie OpenCV: http://opencv.org/about.html, accesat: Iunie, 2016
[4] Documentatie baza de date CASIA:
http://biometrics.idealtest.org/dbDetailForUser.do?id=4, accesat: Iunie, 2016
[5] Curs Online: http://www.tc.etc.upt.ro/teaching/stii/curs_STII_2008.pdf,
accesat: Iunie, 2016
[6] Documentatie transformata Hough: https://en.wikipedia.org/wiki/Hough_transform,
accesat: Iunie, 2016
[7] R. Wildes, J. Asmuth, G. Green, S. Hsu, R. Kolczynski, J. Matey, S. McBride. A
system for automated iris recognition, Proceedings IEEE Workshop on Applications of
Computer Vision, Sarasota, FL, pp. 121-128, 1994.
[8] Raman Maini, Dr. Himanshu Aggarwal. Study and Comparison of Various Image
Edge Detection Techniques.
[9] Zbăganu Alexandra, Stănoiu Iulia. Tehnici de detectie de contur.
[10] S. Sanderson, J. Erbetta. Authentication for secure environments based on iris
scanning technology. IEE Colloquium on Visual Biometrics, 2000.
[11] Studiu online. Sistem biometric multimodal de autentificare:
http://ares.utcluj.ro/PN2-ID-904_files/PN2-ID-904_files/sinteza2008.pdf, accesat: 2016
[12] Curs online. Transformata Wavelet:
http://ctmtc.utcluj.ro:8080/sites/pni/SACCDAV/Curs/Curs07_saccdmm.pdf, accesat: 2016
[13] D. J. Field. Relations between the statistics of natural images and the response
properties of cortical cells. J. Opt. Soc. Am. A, 1987, pp. 2379-2394.
[14] Studiu online. Laplacian of Gaussian:
http://homepages.inf.ed.ac.uk/rbf/HIPR2/log.htm, accesat: Iunie, 2016
[15] Michael W. Davidson, Mortimer Abramowitz. Molecular Expressions Microscopy
Primer: Digital Image Proccessing – Difference of Gaussians Edge Enhacement Algorithm,
Olympus America Incs., and Florida State University
[16] D. Lowe. Distinctive image features from scale-invariant key points, Inti Journal of
Computer Vision, vol. 60, no. 2, pp. 91-110,2004.
[17] Documentatie Algoritm SIFT în OpenCV:
http://docs.opencv.org/3.0.0/d5/d3c/classcv_1_1xfeatures2d_1_1SIFT.html#details,
accesat: 2016
[18] Tutoriale online OpenCV:
http://opencv-python-tutroals.readthedocs.io/en/latest/, accesat: 2016
[19] Documentatie Algoritm BFMatcher în OpenCV:
http://docs.opencv.org/3.0.0/d3/da1/classcv_1_1BFMatcher.html, accesat: 2016
[20] Libor Masek. Recognition of human iris patterns for biometric identification, Ph.D.
thesis, Technical Report, The school of Computer Science and Software Engineering, The
University of Western Australia, 2003.
[21] Izem Hamouchene, Saliha Aouat. A New Texture Analysis Approach for Iris
Recognition, 2014 AASRI Conference on Circuit and Signal Processing (CSP 2014).
47
[22] L. Latha, S.Thangasamy. A Robust Person Authentication System based on Score
Level Fusion of Left and Right Irises and Retinal Features, Procedia Computer Science 2
(2010) 111-120.
[23] Lin Ma, Kuanquan Wang, David Zhang. A universal texture segmentation and
representation scheme based on ant colony optimization for iris image processing, Computer
and Mathematics with Applications.
[24] C.M.Patil, Sudarshan Patilkulkarni. An Efficient Process of Recognition of Human
Iris based on Contourlet Transforms, Procedia Computer Science 2 (2010) 121-126.
[25] Poornima. S, C. Rajavelu, Dr. S. Subramanian. Comparisons and a Neural Network
Approach for Iris Localization, Procedia Computer Science 2 (2010) 127-132.
[26] Zhongliang Luo. Iris Feature Extraction and Recognition Based on Wavelet-Based
Contourlet Transform, Procedia Engineering 29 (2012) 3378-3582.
[27] K. Seetharaman, R. Ragupathy. Iris Recognition for Personal Identification System,
Procedia Engineering 38 (2012) 1531-1546.
[28] Jinghui Li, Bairui Tao, Yanchum Wang, Xibing Li. Research and Implementation of
Iris Recognition Algorithm, Procedia Engineering 29 (2012) 3353-3358.
[29] XiaoZhou Chen, ChangYin Wu, LiangLin Xiong, Fan Yang. The Optimal Matching
Algorithm for Multi-Scale Iris Recognition, Energy Procedia 16 (2012) 876-882.
[30] Prateek Verma, Maheedhar Dubey, Praveen Verma, Somak Basu. Daughman’s
Algorithm Method For Iris Recognition – A Biometric Approach, International Journal of
Emerging Technology and Advanced Engineering, 2012.
[31] Milena Bueno Pereira Carneiro, Antonio Claudio P. Veiga, Edna Lucia Flores and
Gilberto A. Carrijo. Solutions for Iris Segmentation, Federal University of Uberlandia –
Department of Electrical Engineering, Brazil.
[32] P. Radu, K. Sirlantzis, G. Howells, S. Hoque, F. Deravi. A versatile Iris Segmentation
Algorithm, School of Engineering and Digital Arts, University of Kent, Canterbury, United
Kingdom.
[33] Adrian Burlacu. Algoritmi de procesare a imaginii pentru aplicaţii de urmărire a
obiectelor în mişcare, Teză de doctorat, 2009.
[34] Gao Xiaoxing, Feng Sumin, Cui Han. Enhanced Iris Recognition Based on Image
Match and Hamming Distance, International Journal on Smart Sensing and Intelligent
Systems Vol. 8, No.2, Iunie 2015.
[35] Kevin W. Bowyer, Karen Hollingsworth, and Patrick J. Flynn. Image Understanding
for Iris Biometrics: A Survey, Computer Vision and Image Understanding 110 (2), 281-307,
Mai 2008.
[36] Alexandru Isar. Securitatea transmiterii informaţiei prin Internet – Curs, Facultatea
de Electronică şi Telecomunicaţii, Universitatea Politehnică Bucuresti.
[37] Oad Percy, Ahmad Waqas. Iris localization using Daugman’s algorithm, Bleckinge
Institute of Technology.
[38] Dr. Ing. Ionuţ Mironică. Interfaţa Vizuală Om-Masina; Analiza şi recunoasterea
gesturilor – Laboratorul de Analiză si Prelucrarea Imaginilor, Facultatea de Electronică şi
Telecomunicaţii, Universitatea Politehnică Bucuresti.
[39] Michael Boyd, Dragoş Carmaciu, Francis Giannaros, Thomas Payne, William Snell.
Iris Recognition – MSc Computing Science Group Project, Imperial College London, 2010.
[40] Paul Ungureanu, Liviu Goraş. Contribuţii la prelucrarea imaginilor cu aplicaţii în
clasificarea şi recunoaşterea formelor, Teză de doctorat, Universitatea Tehnică „Gheorghe
Asachi” din Iaşi, 2010.
[41] David G. Lowe. Distinctive Image Features from Scale-Invariant Keypoints,
Computer Science Department, University of British Columbia, 2004.
[42] Fernando Alonso-Fernandez, Pedro Tome-Gonzalez. Virginia Ruiz-Albacete, Javier
Ortega-Garcia. Iris Recognition Based on SIFT Features.

48
[43] Craig Belcher, Yingzi Du. Region-based SIFT approach to iris recognition, Optics
and Lasers in Engineering 47 (2009) 139-147.
[44] Rishabh Parashar, Sandeep Joshi. Comparative Study of Iris Databases and UBIRIS
Database for Iris Recognition Methods for Non-Cooperative Environment, International
Journal of Engineering Research & Technology, Iulie-2012.
[45]Sunita Lokhande, Vishram N. Bapat. Iris Recognition for Biometric Identification
using Wavelet Packet Decomposition, International Journal of Engineering Research &
Technology, Iunie-2012.
[46] Manisha M. Khaladkar, Sanjay R. Ganorkar. Comparative Analysis for Iris
Recognition, International Journal of Engineering Research & Technology, Iunie-2012.
[47] Kshamaraj Gulmire, Sanjay Ganorkar. Iris Recognition Using Gabor Wavelet,
International Journal of Engineering Research & Technology, Iulie-2012.
[48] Amrita (Student, Punjabi University, Patiala), Jsapreet Singh Cheema, Nirvair Neeru.
Detection and Removal of Noises in Iris Recognition System – A Review, International Journal
of Engineering Research & Technology, Aprilie-2013.
[49] Rajeev Gupta, Ashok Kumar. A study of Iris Template ProtectionTechniques for a
Secure Iris Recognition System, International Journal of Engineering Research & Technology,
Februarie-2015.
[50] Gurmail Kaur, Mr. Deepinder Singh. Iris Recognition as a Biometric Tool in
Unconstrained Environments, International Journal of Engineering Research & Technology,
Ianuarie-2016.

49

S-ar putea să vă placă și