Sunteți pe pagina 1din 21

Curs 7

Segmentarea regiunilor de interes din imagini luate de UAV_1

Segmentarea zonelor inundate din imagini luate de UAV, utilizând matricea de co-
ocurență
O metodă propusă pentru detectarea zonelor acoperite de inundații din imagini
achiziționate de un UAV consideră trăsături extrase din matricea de co-ocurență și dezvoltarea
unui algoritm de grupare k-means. Algoritmul k-means este o metodă de învățare nesupervizată,
care poate fi utilizată pentru clasificarea datelor în diferite grupări denumite clustere [174],
[175]. Parametrii de intrare pentru algoritmul k-means sunt datele care trebuie grupate și
numărul de clustere la care va fi asignat fiecare element din setul de date de intrare.
Metodologia constă în două etape:
➢ Extragerea energiei din matricea de co-ocurență asociată imaginii analizate.
➢ Segmentarea zonelor inundate din imaginea analizată folosind algoritmul k-
means.
Pentru a detecta și localiza zonele inundate, imaginea obținută cu ajutorul UAV-ului
este parcursă începând din colțul din stânga sus al imaginii folosind un pas de 50 pixeli pentru
deplasarea pe linie și pe coloană. Se extrag sub-imagini nesuprapuse cu dimensiunea de 50 ×
50 pixeli. Pentru fiecare sub-imagine extrasă, se realizează conversia în tonuri de gri, după care
se calculează matricea de co-ocurență pe cele opt direcții principale (00, 450, 900,…,3600)
folosind o distanță egală cu 5 pixeli, aleasă experimental. Din matricea de co-ocurență au fost
extrase și testate patru caracteristici: contrastul, corelația, energia și omogenitatea. Pe baza
rezultatelor experimentale, s-a stabilit că energia oferă informații relevante pentru clasificare.
După calcularea energiei pentru toate sub-imaginile s-a definit o matrice a tuturor
valorilor determinate, MEng, care stochează valoarea energiei pentru fiecare sub-imagine
extrasă. Mai departe, matricea MEng este folosită ca parametru de intrare pentru algoritmul de
grupare k-means, cu scopul de a grupa fiecare element din MEng.
În etapa următoare, s-a propus utilizarea a trei clustere astfel încât fiecare element din
MEng să fie atribuit unuia dintre cele trei clustere. Au fost propuse trei clustere deoarece prin
utilizarea unui număr mai mare, s-ar fi realizat o divizare a zonelor inundate.
În urma aplicării algoritmului k-means pe valorile matricei MEng și stabilirii unui număr
de trei clustere ca parametri de intrare, rezultatele obținute sunt salvate în matricea MCluster care
are aceeași dimensiune ca MEng, dar conține elemente având valorile 1, 2 și 3 ce corespund
numărului clusterului asignat pentru fiecare element din matricea MEng.
În etapa următoare a algoritmului, se generează o versiune a imaginii analizate pentru
fiecare cluster prin evidențierea sub-imaginilor ce au fost asignate clusterului respectiv. Astfel,
pentru fiecare cluster definit, se parcurge imaginea analizată și se extrag sub-imagini de aceeași
dimensiune 50 × 50 pixeli folosind același pas egal cu 50 pentru deplasarea pe linie și coloană.
Fiecare sub-imagine extrasă este evidențiată (cu negru în cazul algoritmului propus) în imaginea
clusterului (Cluster 1, Cluster 2 sau Cluster 3). În urma parcurgerii în totalitate a imaginii
analizate, imaginea rezultată pentru fiecare cluster este reprezentată în figura 1.

DSC04370 Cluster 1

Cluster 2

MEng Cluster 3

Figura 1. Rezultatele etapelor algoritmului propus bazat pe gruparea k-means

În etapa finală a algoritmului, imaginea corespunzătoare numărului maxim de sub-


imagini evidențiate este cea în care sunt segmentate cel mai bine zonele inundate.

Rezultate experimentale obținute prin utilizarea matricei de co-ocurență


După cum s-a menționat anterior, metoda propusă pentru detectarea zonelor inundate se
bazează pe un algoritm de segmentare nesupervizat utilizând energia extrasă din matricea de
co-ocurentă și algoritmul de grupare k-means [191]. Algoritmul propus pentru prelucrarea
imaginilor a fost dezvoltat folosind software-ul Matlab, iar soluția propusă a fost testată pe o
serie de 30 de imagini. Rezultatele obținute pe mai multe imagini sunt prezentate în figura 2.
Fiecare imagine testată a fost împărțită în sub-imagini și pentru fiecare sub-imagine a fost
calculată valoarea energiei pe baza matricei de co-ocurență. Ulterior, toate valorile obținute au
fost grupate în trei clustere cu scopul de diferenția valorile energiei pentru sub-imaginile
acoperite de inundații. În imaginea rezultată au fost acoperite toate părțile care nu au fost
detectate ca fiind inundații. În figura 2, pentru fiecare imagine testată este prezentată și imaginea
obținută după determinarea valorilor energiei pentru (MEng) iar apoi, în imaginea rezultată sunt
acoperite cu o mască toate porțiunile care nu au fost detectate ca fiind inundații.

DSC04359 MEng DSC04359 rezultat

DSC04376 MEng DSC04376 rezultat

DSC04529 MEng DSC04529 rezultat


DSC04881 MEng DSC04881 rezultat

DSC04412 MEng DSC04412 rezultat

DSC05189 MEng DSC05189 rezultat

Figura 2. Rezultate obținute în urma aplicării algoritmului

Ulterior, pe fiecare imagine rezultată s-a determinat procentul de inundații (tabelul 1),
iar pentru fiecare imagine testată au fost calculați parametrii de performanță (precizia și
acuratețea) [192].
Tabelul 1. Determinarea procentului de inundații din imaginile testate și a parametrilor de performanță
Imaginea testată Procent inundații Precizie Acuratețe
DSC04359 41% 99.88% 95.7%
DSC04376 50% 95.59% 94.58%
DSC04529 8% 97.37% 95.26%
DSC04881 6% 94.32% 95.18%
DSC04412 45% 82.92% 98.44%
DSC05189 60% 92.76% 91.98%
Soluția propusă este utilă deoarece se reduce foarte mult timpul de detectare a zonelor
inundate, timpul de procesare pentru detectarea zonelor inundate a fost de 40 de secunde pe un
calculator cu procesor i5-3317U, 1,70 GHz și 6 GB de memorie RAM.
Algoritmul a detectat zonele acoperite în totalitate de inundații. Zonele în care apar apă
cu vegetație sau apă cu pământ nu au fost detectate deoarece pentru determinarea valorii
energiei au fost utilizate numai sub-imagini acoperite în întregime de inundații. Rezultatele
experimentale obținute demonstrează că UAV-ul este o platformă ideală pentru monitorizarea
inundațiilor.

Determinarea regiunilor de interes din imagini aeriene (UAV) pe baza operatorului


LBP
O altă modalitate de a segmenta regiunile de interes din imagini aeriene constă în
utilizarea operatorului LBP, extins pe diferite canale ale spațiilor de culoare RGB și HSV [176],
pentru a-l folosi într-o metodă de segmentare supervizată. Într-o primă fază au fost selectate
canalele care au dat cele mai bune rezultate: canalele R și G din RGB și H din HSV. Canalul B
din RGB nu este selectat deoarece această culoare este prezentă în cantități foarte mici în
imaginile utilizate și, în intensitate, transformata ar întuneca imaginea. În ceea ce privește
spațiul de culoare HSV, componenta V nu este potrivită deoarece este foarte sensibilă la variația
iluminării. Pe de altă parte, componenta H nu este afectată de aceste variații. Scopul aplicației
este acela de a recunoaște zone acoperite de inundații, zone acoperite de vegetație și zone
acoperite de clădiri din imagini achiziționate cu un UAV.
În etapa de învățare (figura 3), au fost selectate sub-imagini reprezentative care definesc
zonele acoperite de inundații, zonele acoperite de vegetație și zonele acoperite de clădiri. Pentru
cele trei clase, a fost aplicat operatorul LBP în vederea determinării unui vector histogramă
reprezentativ fiecărei clase. În finalul etapei de învățare, fiecare clasă este reprezentată de un
vector histogramă mediu obținut prin calcularea mediei aritmetice a vectorilor histogramă
calculați pentru sub-imaginile utilizate în această etapă.
În etapa de testare (figura 3), se aplică operatorul LBP pe sub-imaginea citită, iar apoi
se realizează atribuirea sub-imaginii testate la una dintre cele trei clase propuse, prin
compararea vectorului histogramă al sub-imaginii testate cu vectorii histogramă calculați în
etapa de învățate pentru fiecare clasă definită. Atribuirea sub-imaginii către una dintre cele trei
clase este realizată prin calcularea distanței euclidiene între acești vectori și determinarea valorii
minime.
Etapa de învățare Etapa de testare
Achiziția imaginilor UAV Achiziția imaginilor UAV

Selectarea sub-imaginilor Selectarea unei sub-imagini dintr-o


reprezentative pentru fiecare anumită zonă a imaginii inundate
clasă

Descompunerea sub-imaginii pe
Descompunerea sub-imaginilor componente de culoare (R,G si H)
pe componente de culoare

Aplicarea operatorului LBP pe toate


Aplicarea operatorului LBP pe componentele de culoare
toate componentele de culoare
ale fiecărei sub-imagini
Determinarea vectorului histogramă
pentru fiecare componentă de culoare
Determinarea vectorilor selectată
histogramă medii pentru cele
trei clase Calcularea distanței euclidiene de la
vectorii histogramă ai sub-imaginii testate
la vectorii histogramă medii pentru cele
trei clase

Atribuirea sub-imaginii testate la una din


cele trei clase

Figura 3. Diagrama algoritmului propus

Distanța euclidiană dintre vectorul histogramă VT al unei sub-imagini testate și vectorii


histogramă ai claselor definite în etapa de învățare se calculează după cum urmează în (1), (2)
și (3):

𝑛
2
𝑑(𝑉𝑇 , 𝑉𝐶𝐼 ) = √∑[𝑉𝑇 (𝑖) − 𝑉𝐶𝐼 (𝑖)] (1)
𝑖=1

𝑛
2
𝑑(𝑉𝑇 , 𝑉𝐶𝑉 ) = √∑[𝑉𝑇 (𝑖) − 𝑉𝐶𝑉 (𝑖)] (2)
𝑖=1

𝑛
2
𝑑(𝑉𝑇 , 𝑉𝐶𝐶 ) = √∑[𝑉𝑇 (𝑖) − 𝑉𝐶𝐶 (𝑖)] (3)
𝑖=1

în care:
➢ 𝑉𝐶𝐼 este vectorul histogramă medie pentru clasa „inundații”;
➢ 𝑉𝐶𝑉 reprezintă vectorul histogramă medie pentru clasa „vegetație”;
➢ 𝑉𝐶𝐶 este vectorul histogramă medie pentru clasa „clădiri”.

În final, procesul de decizie este realizat pe baza condiției ca sub-imaginea testată să fie
asignată la o anumită clasă pentru cel puțin două componente de culoare. Dacă această condiție
este îndeplinită, sub-imaginea testată aparține acelei clase.

Rezultate experimentale obținute prin utilizarea operatorului LBP


Operatorul LBP a fost aplicat pe 12 imagini pentru a clasifica anumite zone de interes
[176]. În cazul acestor imagini au fost determinați vectorii histogramă medii pentru cele trei
clase (regiuni) de interes: vegetație, clădiri și inundații. Acestea sunt prezentate în figura 4,
unde, pentru fiecare sub-imagine este indicată imaginea din care a fost luată. Trebuie remarcat
faptul că dimensiunea sub-imaginii trebuie să fie adecvată pentru calcularea caracteristicilor
texturii. Având în vedere sub-imaginile de dimensiuni mai mari, probabilitatea ca acele sub-
imagini să conțină amestec de texturi este crescută. Acest lucru poate prejudicia comparația,
deoarece texturile de referință conțin numai caracteristici ale modelelor individuale. Pe de altă
parte, dacă dimensiunea ferestrei este prea mică, este imposibil să se calculeze o măsură de
textură deoarece dispare calitatea de textură.

I_4359 I_4370 I_4376 I_4881

I_4359_Inundații I_4370_ Inundații I_4376_ Inundații I_4881_ Inundații

I_4412 I_4897 I_4898 I_4904


I_4412_Vegetație I_4897_ Vegetație I_4898_ Vegetație I_4904_ Vegetație E_S

I_4882 I_4883 I_4889 I_4902

I_4882_Clădiri I_4883_ Clădiri I_4889_ Clădiri I_4902_ Clădiri

Figura 4. Imagini și sub-imagini selectate pentru calculul vectorilor histogramă LBP pentru cele
3 clase
În urma aplicării algoritmului propus, histogramele medii rezultate pe fiecare
componentă de culoare, pentru fiecare clasă, sunt prezentate în figura 5. Histogramele astfel
determinate sunt utilizate ca descriptori de texturi pentru cele trei clase.

Inundații Vegetație Clădiri


G

R
H

Figura 5. Histogramele LBP medii obținute pe canalele R, G, H pentru cele trei clase

După cum se poate observa, histogramele pentru clasa „inundații”, pentru toate
componentele, evidențiază faptul că numărul de coduri LBP cu valori mai mari de 200 este mult
mai mare decât numărul de coduri LBP cu valori mai mici de 200.
Pe altă parte, histogramele claselor „vegetație” și „clădiri” conțin un număr mai mare
de coduri LBP cu valori mai mici de 200. În urma acestui lucru, există o diferență considerabilă
între clasa „inundații” și clasele „vegetație” și „clădiri”. După cum se poate observa,
histogramele LBP rezultate oferă o bună discriminare în ceea ce privește informațiile legate de
modele.
Tabelul 2 prezintă o selecție din rezultatele obținute cu ajutorul algoritmului propus,
în care sunt afișate, distanțele dintre vectorul histogramă al sub-imaginii testate și vectorii
histogramă medii ale claselor definite. Pentru că distanțele obținute au valori între 1000 și
50000, tabelul 2 conține valorile distanțelor normalizate (împărțite la 1000), cu scopul de a
simplifica prezentarea.

Tabelul 2 Rezultate obținute


Distanța față de
Componenta de Decizia de apartenență la
Sub-imaginea
culoare clasa
Inundații Vegetație Clădiri

I_4359 14.63 30.31 40.25 H

7.51 31.61 32.17 R Inundații

1.39 24.52 8.76 G

I_4376 6.11 9.79 19.84 H

1.42 37.50 38.84 R Inundații

1.45 26.99 25.62 G

I_4892 1.41 14.43 24.36 H


Inundații
2.52 36.40 37.73 R
Distanța față de
Componenta de Decizia de apartenență la
Sub-imaginea
culoare clasa
Inundații Vegetație Clădiri

2.77 28.34 26.98 G

I_4889 5.56 10.88 20.98 H

31.55 8.92 9.04 R Vegetație

21.95 5.53 13.50 G

I_4897 8.59 7.48 17.53 H

38.49 3.32 3.60 R Vegetație

26.29 1.68 3.70 G

I_4898 19.84 4.22 6.03 H

40.86 2.42 3.51 R Vegetație

27.16 1.67 4.74 G

I_4897 19.25 4.47 6.68 H

36.32 7.02 5.26 R Clădiri

24.37 5.32 3.55 G

I_4898 24.03 8.90 2.67 H

37.37 6.22 3.46 R Clădiri

25.16 4.55 1.97 G

I_4899 21.71 6.55 4.36 H

36.68 7.06 4.56 R Clădiri

24.54 5.57 2.92 G

Conform tabelului 2, sub-imaginea I_4359 este atribuită clasei „inundații” deoarece pe


toate cele trei componente de culoare distanțele la această clasă sunt cele mai mici. Există și
cazul sub-imaginii I_4889 care este eligibil pentru clasa „vegetație” doar pe două componente
de culoare. În urma aplicării metodologiei propuse, această sub-imagine a fost clasificată ca
făcând parte din clasa „vegetație”. În tabelul 3 sunt prezentați vectorii reprezentanți pentru cele
trei clase (inundații - 𝐻𝑖𝑅 , 𝐻𝑖𝐺 , 𝐻𝑖𝐻 , vegetație - 𝐻𝑣𝑅 , 𝐻𝑣𝐺 , 𝐻𝑣𝐻 și clădiri - 𝐻𝑐𝑅 , 𝐻𝑐𝐺 , 𝐻𝑐𝐻 ) și
vectorii sub-imaginilor I_4359 și I_4889, pe baza cărora s-au obținut distanțele prezentate în
tabelul 2.
Tabelul 3 Valorile vectorilor histogramă pentru cele trei clase și pentru sub-imaginile I_4359 și I_4889
Inundații
𝐻𝑖𝑅 = [1114 1558 1390 133 1361 1428 745 1791 1959 54057]
𝐻𝑖𝐺 = [3288 2799 3322 427 3334 3698 1692 3677 4261 39037]
𝐻𝑖𝐻 = [3089 2731 3425 599 2033 4209 1357 2524 3856 41713]
Vegetație
𝐻𝑣𝑅 = [11045 8028 4267 1462 4213 4221 2339 3559 8345 18057]
𝐻𝑣𝐺 = [11279 8130 5111 1731 4433 4279 2082 4780 8146 15563]
𝐻𝑣𝐻 = [6266 3567 5319 1015 4074 6186 2126 3877 6135 26971]
Clădiri
𝐻𝑐𝑅 = [10971 6446 6317 1389 4086 6935 1594 6018 4477 17299]
𝐻𝑐𝐺 = [6519 3398 5462 851 2562 7473 6645 3616 3263 30724]
𝐻𝑐𝐻 = [9698 5539 5890 1434 5147 6870 1798 5007 6347 17806]
I_4359
𝐻𝑅 = [1855 2021 2357 285 2403 2637 1226 2794 2966 46992]
𝐻𝐺 = [3597 2808 3537 465 3667 3997 1711 3677 4305 37772]
𝐻𝐻 = [472 1010 2317 20 347 2985 262 294 2329 55500]
I_4889
𝐻𝑅 = [6888 4621 4896 817 5496 5520 2285 4575 6035 24403]
𝐻𝐺 = [9298 5564 5418 1124 6115 6123 2067 4876 6256 18695]
𝐻𝐻 = [3107 2276 5237 289 2305 5455 1459 2669 5737 37002]

Algoritmul prezentat pentru clasificarea și detectarea zonelor cu vegetație, clădiri și


inundații a fost testat pe un număr de 100 sub-imagini extrase din diferite imagini care conțin
zone cu inundații. În total, 98 de imagini din 100 au fost clasificate corect, ca aparținând uneia
dintre cele trei clase stabilite („vegetație”, „clădiri” sau „inundații”). Rezultatele indică, de
asemenea, faptul că, o mare parte din informațiile legate de textură se află în componentele de
frecvență înaltă. Prin urmare, este justificată utilizarea operatorului LBP.

Segmentarea regiunii de interes din imagini aeriene utilizând operatorul HOG și


intensitatea imaginii
Metoda de segmentare supervizată prezentată în continuare pentru detectarea zonelor
inundate și a zonelor acoperite de vegetație din imaginile dinamice achiziționate cu un UAV se
bazează pe calculul descriptorului HOG și pe determinarea caracteristicii de intensitate medie
pentru sub-imaginile extrase din imaginile analizate utilizând algoritmul sliding box [177].
Vectorul histogramă al orientării gradienților HHOG este definit ca un vector cu 9
elemente [178], [179], fiecare coloană reprezentând un sub-interval de dimensiunea 200 din
intervalul 00÷1800:
𝐻𝐻𝑂𝐺 = [𝑐1 , … , 𝑐9 ] (4)
Modul de calcul al vectorului HHOG este descris în figura 6.

Citește sub-imaginea

Calculează gradienții imaginii pe direcțiile x și y (Gx și Gy)

Calculează magnitudinea (Gmag) și orientarea (Gdir)

Calculează vectorul histogramă al orientării


gradienților HHOG conform metodologiei propuse

Figura 6. Obținerea descriptorului HOG

După calcularea descriptorului HOG, a fost determinată valoarea intensității medii IG a


imaginii rezultate în urma conversiei în tonuri de gri. Deoarece imaginile aeriene sunt puternic
influențate de condițiile meteorologice, reprezentarea RGB nu este recomandată. Prin urmare,
s-a ales spațiul de reprezentare al culorilor HSV pentru a evalua eficiența operatorului HOG
deoarece acest spațiu de reprezentare al culorilor separă foarte bine informațiile legate de
culoare. Pornind de la cele două caracteristici (vectorul histogramă HHOG și intensitatea medie
IG), am propus un clasificator cu rolul de a detecta și de a localiza regiunile acoperite de
inundații, de vegetație și regiunile mixte.
Metoda propusă are o etapă de învățare în care sunt determinate ambele caracteristici
(vectorul histogramă HHOG și intensitatea medie IG) pentru o serie de sub-imagini reprezentative
din fiecare clasă și o etapă de testare în care, pe baza caracteristicilor determinate, fiecare sub-
imagine extrasă dintr-o imagine analizată este atribuită unei clase de apartenență.
Deoarece scopul principal al metodei este acela de a detecta cele două tipuri de zone din
imagini aeriene, au fost executate în paralel două sarcini: una pentru detectarea zonelor inundate
și una pentru detectarea zonelor de vegetație. Pentru sub-imaginile în care nu au fost detectată
nicio clasă, există două posibilități:
a) sub-imaginea să conțină atât vegetație cât și inundație;
b) sub-imaginea să nu conțină nici inundație și vegetație.
Astfel, în etapa de învățare sunt definite două clase (inundații și non-inundații) pentru
sarcina de detectare a zonelor inundate și de alte două clase (vegetație și non-vegetație) pentru
sarcina de detectare a zonelor de vegetație.
Pentru fiecare clasă au fost utilizate câte 30 de sub-imagini reprezentative. În figura 7
este prezentată o selecție din aceste sub-imagini.

Sub-imagini reprezentative pentru clasa inundații


Sub-imagini reprezentative pentru clasa non-inundații

Sub-imagini reprezentative pentru clasa vegetație

Sub-imagini reprezentative pentru clasa non-vegetație

Figura 7. Sub-imagini utilizate în cadrul etapei de învățare

Caracteristicile reprezentative propuse pentru o clasă sunt valorile medii pentru vectorul
histogramă HHOG și pentru intensitatea medie IG calculate pe baza sub-imaginilor ce aparțin
clasei respective. Cu scopul de a obține aceste caracteristici reprezentative, se definește
matricea CDATA_clasă (5) ce conține n linii reprezentând numărul de sub-imagini utilizate în etapa
de învățare și 10 coloane în care primele 9 coloane reprezintă cele 9 elemente ale vectorului
histogramă HHOG pentru fiecare sub-imagine și ultima coloană este valoarea intensității medii
IG. În (5), s1 reprezintă prima sub-imagine utilizată în etapa de învățare pentru clasa respectivă
și sn ultima sub-imagine, iar 𝑐𝑖 (𝑠𝑗 ), i=1,...,9, j=1,...,n semnifică elementul i din vectorul
histogramă HHOG al sub-imagini sj în timp ce 𝐼𝐺 (𝑠𝑗 ), j=1,...,n reprezintă valoarea intensității
medii pentru sub-imaginea sj.
[𝑐1 (𝑠1 ), … , 𝑐9 (𝑠1 ), 𝐼𝐺 (𝑠1 )]
𝐶𝐷𝑎𝑡𝑎_𝑐𝑙𝑎𝑠ă = [ ⋮ ⋮ ⋮ ] (5)
[𝑐1 (𝑠𝑛 ), … , 𝑐9 (𝑠𝑛 ), 𝐼𝐺 (𝑠𝑛 )]

După definirea matricei CDATA_clasă, în (6) și (7) sunt prezentate formulele de calcul
pentru caracteristicile reprezentative HHOG_clasă și IG_clasă, pentru o clasă cu un număr de n
sub-imagini utilizate pentru învățare.
∑𝑛𝑗=1 𝐶𝐷𝑎𝑡𝑎_𝑐𝑙𝑎𝑠ă (1: 9, 𝑗)
𝐻𝐻𝑂𝐺_𝑐𝑙𝑎𝑠ă = , 𝑗 = 1, … , 𝑛 (6)
𝑛

∑𝑛𝑗=1 𝐶𝐷𝑎𝑡𝑎_𝑐𝑙𝑎𝑠ă (10, 𝑗)


𝐼𝐺_𝑐𝑙𝑎𝑠ă = , 𝑗 = 1, … , 𝑛 (7)
𝑛

În figura 8 sunt prezentați pașii principali din cadrul etapei de învățare pentru o clasă
cu n imagini reprezentative.

Citire sub-imagine 𝑖

Extragerea componentei Transformarea sub-


H imaginii în tonuri de gri

Determinarea vectorului Determinarea intensității


HHOG medie IG

Adăugarea caracteristicilor HHOG și IG


în CDATA_clasă

𝑖≤𝑛 DA

NU

Determinarea caracteristici Determinarea caracteristici


reprezentative reprezentative
HHOG_clasă IG_clasă

Figura 8. Pașii parcurși în etapa de învățare

După aplicarea algoritmului de mai sus pe cele două clase, rezultatul etapei de învățare
este:
➢ HHOG_inundații și IG_inundații pentru clasa inundații;
➢ HHOG_non_inundații și IG_non_inundații pentru clasa non-inundații;
➢ HHOG_vegetatie și IG_vegetație pentru clasa vegetație;
➢ HHOG_non_vegetatie și IG non_vegetație pentru clasa non-vegetație.

Etapa de testare este construită pe caracteristicile reprezentative ale fiecărei clase și


efectuează două sarcini care se desfășoară în paralel:
➢ una pentru detectarea zonelor cu inundații;
➢ una pentru detectarea zonelor cu vegetație.

Pentru a stabili tipurile de regiuni dintr-o imagine testată, imaginea este parcursă cu o
fereastră glisantă, cu pasul de 30, pentru a extrage sub-imaginile care compun imaginea
respectivă. Algoritmul parcurge toate imaginea din colțul din stânga sus și o împarte în sub-
imagini de dimensiunea 128 × 128 pixeli. Pentru fiecare sub-imagine obținută, sunt calculate
caracteristicile HHOG și IG.
În final, pentru a determina apartenența sub-imaginii extrase la una din clasele
predefinite în etapa de învățare, s-a determinat distanța euclidiană între caracteristicile fiecărei
sub-imagini (HHOG , IG) (8) și caracteristicile fiecărei clase (𝐻𝐻𝑂𝐺 𝑐𝑙𝑎𝑠ă , 𝐼𝐺 𝑐𝑙𝑎𝑠ă ) (9) și a fost
identificat cazul în care distanța euclidiană a avut valoarea minimă.

9
2
𝑑𝐸 (𝐻𝐻𝑂𝐺 , 𝐻𝐻𝑂𝐺 𝑐𝑙𝑎𝑠ă ) = √∑[𝐻𝐻𝑂𝐺 (𝑖) − 𝐻𝐻𝑂𝐺 𝑐𝑙𝑎𝑠ă (𝑖)]
𝑖=1
(8)

𝑑𝐸 (𝐼𝐺 , 𝐼𝐺 𝑐𝑙𝑎𝑠ă ) = |𝐼𝐺 − 𝐼𝐺 𝑐𝑙𝑎𝑠ă | (9)

În consecință, în cazul sarcinii de detectare a zonelor cu inundații, se calculează


distanțele dE(HHOG, HHOG_inundații) și dE(HHOG, HHOG_non_inundații) pentru caracteristica HOG și
dE(IG, IG_inundații) și dE(IG, IG_non_inundații). Aceleași determinări sunt efectuate și pentru clasa
vegetație și non-vegetație.
Procesul decizional al metodei propuse se bazează pe faptul că o sub-imagine este
atribuită unei clase (inundații sau vegetație) dacă are distanța minimă între propriile
caracteristici HHOG și IG și caracteristicile HHOG și IG ale clasei respective.
Deoarece scopul aplicației este de a detecta numai sub-imaginile care aparțin unei zone
(inundație/vegetație), nu sunt evidențiate toate celelalte sub-imagini care fac parte din alte tipuri
de zone din imaginea testată.
Astfel, dacă dE(HHOG, HHOG_inundații) este mai mică decât dE(HHOG, HHOG_non_inundații) și
dE(IG, IG_inundații) este mai mică decât dE(IG, IG_non_inundații), sub-imaginea respectivă este atribuită
clasei inundații. Aceeași comparație între distanțe se face și pentru clasele vegetație și non-
vegetație pentru a stabili dacă o sub-imagine aparține zonei de vegetație.
Astfel, algoritmul etapei de testare ia în considerare două clase C1 (inundații) și C2
(vegetație) definite de caracteristicile HHOG și IG. Scopul algoritmului este de a determina dacă
o sub-imagine poate fi afiliată la una din clase. Procesul de afiliere se bazează pe compararea
caracteristicilor sub-imaginilor cu caracteristicile claselor C1 și C2 și este prezentat în pașii
enunțați de mai jos:
➢ citire sub-imagine;
➢ extragerea componentei H și calcularea vectorului histogramă a orientării
gradienților HHOG;
➢ transformarea sub-imaginii în tonuri de gri și determinarea valorii intensității medie
IG pe versiunea în tonuri de gri a sub-imaginii;
➢ calcularea distanțelor euclidiene către clasele predefinite și determinarea distanței
minime;
➢ asignarea sub-imaginii la una din clase predefinite pe baza distanței minime.

În cele din urmă, după finalizarea celor două sarcini de testare pentru detectarea zonelor
cu inundații și detectarea zonelor cu vegetație, rezultatele pot fi comparate pentru a determina
sub-imaginile comune care au fost detectate ca aparținând ambelor clase. Identificând aceste
sub-imagini, se determină practic granițele specifice între zonele cu inundații și zonele cu
vegetație.

Rezultate experimentale obținute prin utilizarea operatorului HOG și intensitatea


imaginii
Metoda bazată pe operatorul HOG combinat cu valoarea intensității medii are scopul de
a detecta zonele acoperite de vegetație / inundații și, totodată, de a evalua gradul de extindere
al inundațiilor asupra zonelor de vegetație, oferind, de asemenea, o delimitare satisfăcătoare
între aceste două tipuri de zone [177].
Soluția propusă a fost implementată folosind software-ul Matlab și au fost testate un
număr de 30 de imagini achiziționate de UAV. Pentru etapa de învățare au extrase 40 de sub-
imagini din ortofotoplan cu scopul de a stabili clasele „inundații” / „non-inundații” și clasele
„vegetație” / „non-vegetație”.
Tabelul 4 prezintă valorile caracteristicilor HHOG și IG obținute pentru toate clasele în
timpul etapei de învățare.

Tabelul 4 Valorile obținute în etapa de învățare pentru reprezentanții claselor


Inundații Non-inundații Vegetație Non-vegetație
29.50 94.34 278.98 287.36
HHOG 12.17 43.61 130.51 88
17.57 50.60 249.63 248.60
Inundații Non-inundații Vegetație Non-vegetație
26.40 61.71 325.56 301.86
81.31 157.25 679.13 809.42
25.80 65.37 337.04 325.06
17.27 51.78 260.10 246.56
12.16 43.71 119.93 68.66
30.07 96.90 312.31 315.04
IG 103.29 50.06 45.18 104.65

După determinarea reprezentanților tuturor claselor, etapa de testare este exemplificată


în figura 9. După cum se poate observa, rezultatele etapei de testare sunt prezentate astfel încât
zonele detectate ca fiind inundate sunt evidențiate în albastru prin detectarea zonelor inundate,
iar zonele acoperite de vegetație detectate, sunt evidențiate în verde.

Detectarea inundațiilor Detectarea vegetației

Figura 9. Exemplificarea algoritmului propus


Aceeași convenție care reprezintă clasele în procesul de segmentare (albastru - inundații,
verde - vegetație și roșu - mixt) este menținută și în figurile 10 și 11. După cum se poate observa
în rezultatul obținut pe imaginea testată DC04370, există anumite porțiuni pe care algoritmul
le-a omis deoarece în acea zonă apa este amestecată cu pământul, posibil ca urmare a retragerii
inundației.
Imaginea testată Imaginea rezultată

DSC04359 DSC04359_r

DSC04364 DSC04364_r

DSC04370 DSC04370_r

DSC04412 DSC04412_r
Figura 10. Rezultate obținute din afara localităților
În figura 11 sunt prezentate o serie de rezultate obținute pentru zone aflate în interiorul
localităților. Așa cum se poate observa din imaginile testate, algoritmul a oferit o delimitare
bună a inundațiilor și a vegetației în ambele tipuri de imagini.
În ceea ce privește zonele de delimitare, algoritmul indică o limitare în detectarea
pixelilor de inundații din zonele în care inundația se retrage, iar nivelul apei este mic. Pe de altă
parte, în zonele din localități, zonele inundate și cele acoperite de vegetație se disting bine față
de restul zonelor.
Imaginea testată Imaginea rezultată

DSC05189 DSC05189_r

DSC05192 DSC05192_r

DSC05349 DSC05349_r

DSC04529 DSC04529_r
Figura 11. Rezultate obținute pe imagini cu zone din interiorul localităților
Partea finală a algoritmului constă în determinarea valorii procentuale a zonelor
detectate din imaginile testate. În acest sens, în tabelul 5 sunt prezentate aceste valori, pentru
fiecare imagine testată. Fiecare tip de zonă, inclusiv părțile comune dintre zonele de inundații
și vegetație și zonele din imagine care nu au fost atribuite niciuneia dintre aceste clase sunt
estimate prin numărarea tuturor pixelilor atribuiți fiecărei clase și calcularea unui procent pe
baza numărului total de pixeli din imaginile testate.
Deoarece există sub-imagini amestecate (cu apă și, de asemenea, cu vegetație), s-a
definit o nouă clasă (părțile mixte) ca logică ȘI între deciziile binare ale clasificatorilor. Pentru
fiecare imagine s-a calculat procentul părților inundate, cel al zonelor acoperite de vegetație și
cel al părților comune.
Tabelul 5. Determinarea procentelor zonelor detectate
Imaginea Părți mixte Alte zone
Zona afectată de Zona acoperită de
testată
inundații vegetație
(c)
DSC04359 38.37% 58.90% 1.84% 4.57%
DSC04364 20.28% 77.43% 1.69% 3.98%
DSC04370 33.94% 60.22% 1.64% 7.49%
DSC04529 6.03% 79.28% 4.55% 26.24%
DSC04412 29.54% 65.06% 3.55% 8.95%
DSC05189 32.38% 43.67% 4.24% 28.19%
DSC05192 17.78% 58.60% 4.17% 27.79%
DSC05349 41.02% 39.33% 2.42% 22.09%

De asemenea, precizia procesului de detectare a zonelor acoperite de


inundații/vegetație este prezentată în tabelul 6.
Tabelul 6. Precizia și acuratețea zonelor detectate
Precizia Acuratețea
Imaginea testată
inundații vegetație inundații vegetație
DSC04359 99.99% 93.04% 97.32% 94.76%
DSC04364 99.96% 82.19% 97.12% 85.34%
DSC04370 99.85% 64.69% 94.46% 77.89%
DSC04412 86.14% 55.59% 96.1% 68.25%
DSC04529 91.68% 53.23% 97.89% 61.81%
DSC05189 92.82% 45.07% 92.31% 74.67%
DSC05192 85.24% 39.89% 95.65% 64%
DSC05349 87.59% 37.66% 94.07% 75.45%

Conform soluției prezentate, suprafața totală acoperită de inundații din toate imaginile
testate se obține cu o precizie medie de 92,9% și o acuratețe medie de 95,61%, iar pentru zonele
acoperite de vegetație precizia medie obținută este de 59,92% iar acuratețea medie este 75,27%
din cauza faptului că operatorul HOG nu diferențiază zonele acoperite de vegetație de zonele
cu pământ formate în urma retragerii inundațiilor.

S-ar putea să vă placă și