Sunteți pe pagina 1din 40

Telerilevamento e

fotointerpretazione

Fatte da Rico
Introduzione al Telerilevamento

A cosa serve il telerilevamento (TR)?

Il compito prioritario del TR è procedere alla classificazione delle superfici che definiscono il paesaggio
dell’area di studio. Possiamo affermare che ha due principali tipologie di applicazione:

➢ Produrre carte tematiche del territorio (carte forestali, del suolo…)  TR qualitativo
o Grandi scale: 1:5000, 1:10000…
o Piccole scale: 1:50000, 1:100000…
➢ Mappare parametri eco-fisiologici in modo quantitativo  TR quantitativo

Compiti non secondari sono anche quelli di:

➢ Mappare funzioni indice spazio-dipendenti utili per caratterizzare dinamiche bio-fisiche


dell’ambiente osservato (evapotraspirazione della vegetazione, attività fenologica…)
➢ Aiutare modelli di interpolazione spaziale nella stima di parametri bio-fisici (concentrazione
inquinanti in acqua, stima della biomassa…)

In queste applicazioni il processamento dei dati richiede maggiore rigore e dati ausiliari di campo.

Spesso le mappe della grandezza di interesse, ad esempio per la concentrazione di inquinante, è


condotta relazionandola con indici derivabili da dati remoti attraverso opportuni modelli fisico-
matematici.

Un po’ di definizioni…

• Telerilevamento: il TR è un insieme di metodologie utilizzate per


ottenere informazioni relative ad oggetti (superfici) posti a 2
distanza rispetto allo strumento rilevatore (assenza di contatto
fisico).
• Dato: misura effettuata con strumentazione idonea (è un
numero!). Il dato è acquisito dal sensore.
• Informazione: è il dato interpretato e serve a comprendere il
fenomeno. Richiede l’intervento di specifiche competenze.

Tipologie di TR

Classificazione per tipo di segnale

✓ TR elettromagnetico: attraverso onde elettromagnetiche  fotografia analogica e digitale, TR


ottico e radar, spettroscopia, radiologia, ecc.
✓ TR acustico: attraverso onde sonore  SONAR, geosismica, ecc.
✓ TR elettrico: attraverso onde elettriche  geoelettrica, ecc.

Classificazione per modalità di acquisizione

✓ TR attivo: la sorgente di segnale costituisce parte del sistema rilevatore  radiografie, RADAR,
SONAR, geofisica, ecc. quindi attraverso l’ECO
✓ TR passivo: la sorgente di segnale è esterna al sistema rilevatore  TR ottico da terra, da aereo o
da satellite.

Il TR che utilizziamo noi opera attraverso il campionamento regolare del contributo riflettivo
(telerilevamento ottico) o emissivo (termografia) delle superfici. I contributi energetici, ricevuti dalle

Riccardo Conti Telerilevamento Non Rubare! 😊


superfici sotto forma di energia elettromagnetica, vengono codificati sotto forma di immagini digitali (dati
raster, ovvero le immagini suddivise in pixel).

Come operano quindi?

TR attivo attraverso l’eco.

TR passivo

Attraverso la riflessione
(avviene solo di giorno) o
l’emissione (termografia).

Schema operativo del telerilevamento

Incoming REM

Reflected REM

Emitted REM.

Energia Elettromagnetica

Innanzitutto la luce è un’onda che trasporta energia formata da fotoni. L’energia è proporzionale alla
frequenza dell’onda che la trasporta ( onde ad alta frequenza portano fotoni ad alto contenuto di E).

Il fondamento è l’interpretazione quantistica della Radiazione Elettro-Magnetica -REM- (legge di Planck) 


energia di 1 fotone (pacchetto di energia che viene trasportato sotto forma d’onda).

𝒉𝒄
𝑬 = 𝒉𝒗 =
𝝀

Riccardo Conti Telerilevamento Non Rubare! 😊


Dove:

▪ E = energia di 1 fotone [Joule]


▪ h = costante di Planck: 6.626 ∙ 10-34 [J ∙ sec]
▪ v = frequenza [Hz]
▪ λ = lunghezza d’onda [m]
▪ c = v ∙ λ  velocità della luce nel vuoto [m/s]

Conseguenze della Legge di Planck

➢ la REM porta energia  la luce è vettore di energia!


➢ L’energia trasportata dipende solo dalla λ

Grandezze delle funzioni d’onda

• Lunghezza d’onda (λ, [m])


• Ampiezza (a, [m])
• Frequenza (v, [s-1 o Hz])
• Periodo (T, [tempo di un’oscillazione = 1/v])

Spettro elettromagnetico

Un fascio di REM è un insieme più o meno esteso di onde aventi


differenti lunghezze d’onda. L’insieme di tutte le lunghezze d’onda
individuate formano lo spettro elettromagnetico che può essere
interpretato come una rappresentazione simbolica della REM emessa
da una sorgente. La sorgente di energia EM è costituita da qualunque
superficie (di corpo) avente temperatura superiore allo zero assoluto 4
(0 °K = -273,15 °C).

La luce è interpretabile come un fascio complesso costituito da segnali


multipli rappresentati dalle diverse componenti d’onda (appartenenti
potenzialmente all’intero spettro EM). Scomporre il segnale
complesso nelle sue componenti elementari sta alla base del
telerilevamento ottico passivo. Una materializzazione visiva dello
spettro EM può essere ottenuto attraverso un prisma sfruttando
differenti indici di rifrazione che un materiale trasparente presenta nei
confronti delle diverse lunghezze d’onda.

Regione del visibile (VIS)

È una parte molto stretta dello spettro EM che va dalla


banda del viola-blu (λ corte) a quella del rosso (λ
lunghe). [0.4 – 0.7 μm]

• Viola: 0.4 – 0.446 μm


• Blu: 0.446 – 0.500 μm
• Verde: 0.500 – 0.578 μm
• Giallo: 0.578 – 0.592 μm
• Arancione: 0.592 – 0.620 μm
• Rosso: 0.620 – 0.7 μm

Riccardo Conti Telerilevamento Non Rubare! 😊


Regione dell’infrarosso (IR)

Lunghezza d’onda maggiori del visibile, ma a minore energia. Nella regione dell’IR sono individuati:

• Infrarosso vicino – NIR (Near IR) [0.7 – 1 μm]  usata dai sensori passivi che registrano la
componente riflettiva delle superfici.
• Infrarosso medio – MIR o SWIR (Shortwave IR) [1.0 – 3.0 μm]  usata dai sensori passivi che
registrano la componente riflettiva delle superfici. Si suddivide in:
▪ MIR1 o SWIR1 [1.0 – 1.5 μm]
▪ MIR2 o SWIR2 [1.5 – 3.0 μm]
• Infrarosso termico – TIR (Longwave IR o Thermal IR) [3.0 – 30 μm]  usata dai sensori passivi che
registrano la componente emissiva delle superfici (termocamere)

Sorgenti di energia EM:

• Corpo nero (o radiatore integrale): oggetto che è in grado di assorbire tutta la radiazione che lo
investe e che emette tutta l’energia ricevuta alle varie lunghezze d’onda. Un tale oggetto quindi
non riflette nulla e pertanto lo si può ben immaginare come nero. In realtà in natura nessun
oggetto si comporta integralmente come corpo nero, però alcune superfici naturali presentano tali
caratteristiche in alcune porzioni di spettro, per esempio gli oggetti che ci appaiono neri nel visibile.
• Emissività o Emittanza di un corpo: è il rapporto tra la radianza effettivamente emessa dal corpo e
quella che emetterebbe un corpo nero di pari temperatura.

𝑹𝑪 (𝝀)
𝜺𝝀 = 5
𝑹𝑪𝑵 (𝝀)
𝑊
R= flusso di potenza  𝑅 =
𝑊 2 ∙𝜇𝑚∙𝑆𝑟

• Corpo grigio: corpo tale che ελ < 1 ed uguale per tutte le λ

Legge di Kirchoff: questa rapporta l’energia assorbita da un corpo rispetto a quella emessa. La capacità di
un corpo di emettere energia a una data temperatura è definita emissività e viene indicata con il parametro
ε che ha valori tra 0 e 1. La proprietà di assorbire l’energia incidente, invece, è definita dal coefficiente di
assorbimento ed è espressa dal parametro α. Per la legge di Kirchoff l’emissività di qualsiasi corpo è pari al
suo coefficiente di assorbimento ovvero:

𝜺𝝀 = 𝜶𝝀
In generale, un corpo con grandi capacità di assorbire energia, detto “assorbitore”, mostra una buona
capacità di riemetterla e viceversa. Se un corpo assorbe tutta l’energia incidente avrà un valore di α uguale
ad 1; conseguentemente la sua ε avrà anch’essa valore unitario, in altre parole, tale corpo emetterà tutta
l’energia assorbita. Queste, sono le caratteristiche proprie di un corpo nero ovvero di un corpo che mostra
massima capacità di assorbimento ed emissione per tutte le lunghezze d’onda.

Legge di Emissione di Planck (o di Wien-Planck): esprime come un corpo nero, con temperatura T
superiore allo zero assoluto, emette energia sotto forma di radiazioni. Essa descrive inoltre come tale flusso
radiante aumenta in funzione della temperatura e come varia alle diverse lunghezze d’onda

𝟐𝝅𝒄𝟐 𝒉 𝟏
𝑹(𝝀) = ∙
𝝀𝟓 𝒉𝒄
𝒆𝝀𝒌𝑻 − 𝟏

Riccardo Conti Telerilevamento Non Rubare! 😊


Dove:

- R(λ): Exitanza [W ∙ m-2 ∙ μm-1]


- c: velocità della luce nel vuoto [m/s]
- λ: lunghezza d’onda considerata [m]
- T: temperatura di corpo nero [°K]
- h: costante di Planck 6.626 ∙ 10-34 [J ∙ sec]

Variando le temperature cambiano le


campane del grafico

Legge di Wien: Dall’analisi delle curve illustrate si può osservare che la lunghezza d’onda corrispondente
alla massima emissione λmax non è sempre la stessa ma dipende dalla temperatura T. Grazie a questa legge
si individua la λ per cui si realizza il massimo di emissione da parte di un corpo nero posta alla temperatura
assoluta T. Il punto massimo di emissione per una certa temperatura T può essere determinato con la
seguente formula:
𝟐𝟖𝟗𝟖
𝝀𝒎𝒂𝒙 =
𝑻
Tsole ≈ 5770K  λsole ≈ 0.50 μm
Formula dell’iperbole y = k/x
Tterra ≈ 300K  λterra ≈ 9.66 μm 6

La relazione mostra come la lunghezza d’onda λmax si sposti verso valori più piccoli man mano che cresce la
temperatura T della superficie. I valori di picco di emissione per le 2 sorgenti nell’esempio risultano quindi
essere: 9,66 μm per la superficie della Terra (nell’infrarosso termico) e 0,50 μm per il Sole (nel blu-verde, e
quindi nel visibile).

Riccardo Conti Telerilevamento Non Rubare! 😊


Legge di Stefan-Boltzmann

Indica la quantità di energia Mλ emessa da un corpo nero, ad una data temperatura T e su tutte le
lunghezze d’onda, si ottiene integrando la funzione M [λ, T] su tutto lo spettro:

𝑴𝝀 = ∫ 𝑅(𝜆) ⋅ 𝑑𝜆 ≅ 𝝈𝑻𝟒
0 7
Dove:

▪ T: temperatura di un corpo nero [°K]


▪ σ: costante di Stefan-Boltzmann = 5.6697 ∙ 10-8 [Wm-2K-4]

Quindi, indica come la quantità totale di energia emessa


complessivamente da un corpo nero, sia proporzionale alla
quarta potenza della sua temperatura T e quindi aumenta
molto rapidamente al crescere della stessa, come mostrato
dai grafici della legge di Planck. Essa infatti corrisponde
all’area compresa tra una curva di Planck e l’asse delle
lunghezze d’onda, che è assai più grande per il corpo nero
che approssima il Sole rispetto a quello che approssima la
Terra.

Valori di radiazione emessa (radianza) del Sole e della Terra:

Mλsole ≈ 73,48 MWm-2

Mλterra ≈ 460 Wm-2

Riccardo Conti Telerilevamento Non Rubare! 😊


Le superfici e la radiazione EM: Legge di conservazione dell’energia

Quando la radiazione elettromagnetica, dopo


aver attraversato l’atmosfera, colpisce una Sole
Sensore passivo
superficie, a seconda della natura fisica e del Er(λ)
grado di rugosità di questa, sono possibili tre Ei(λ)
meccanismi di interazione: una parte del
flusso radiante incidente viene riflessa, una
parte viene assorbita e la restante viene
trasmessa.

𝑬𝒓 (𝝀) + 𝑬𝒕 (𝝀) + 𝑬𝒂 (𝝀) = 𝑬𝒊 (𝝀)


Dove:
Ea(λ)
- Er(λ) = radianza riflessa Superficie

- Et(λ) = radianza trasmessa

- Ea(λ) = radianza assorbita Et(λ) = 0 per


superfici opache
- Ei(λ) = irradianza alla superficie

questi meccanismi vengono descritti con dei coefficienti specifici detti rispettivamente:

𝑬𝒓 (𝝀)
𝝆𝝀 = → 𝑹𝒊𝒇𝒍𝒆𝒕𝒕𝒂𝒏𝒛𝒂
𝑬𝒊 (𝝀)
𝑬𝒕 (𝝀) 8
𝝉𝝀 = → 𝑻𝒓𝒂𝒔𝒎𝒊𝒕𝒕𝒂𝒏𝒛𝒂
𝑬𝒊 (𝝀)
𝑬𝒂 (𝝀)
𝜶𝝀 = → 𝑨𝒔𝒔𝒐𝒓𝒃𝒂𝒏𝒛𝒂
𝑬𝒊 (𝝀)

Esprimibili, per il principio di conservazione dell’energia, nella seguente relazione: 𝝆𝝀 + 𝝉𝝀 + 𝜶 𝝀 = 𝟏


Solo un corpo nero presenta una condizione ideale dove tutta la radiazione incidente viene assorbita e poi
trasformata in energia emessa, per questo corpo τ e ρ saranno uguali a zero ovvero l’energia non verrà
trasmessa né riflessa in ogni lunghezza d’onda: 𝜶𝝀 = 𝜺𝝀 = 𝟏.

Nel caso di corpi opachi, e cioè per la gran parte delle superfici naturali, τ risulta generalmente trascurabile.
Se poniamo ad esempio un oggetto davanti al Sole, questo ci schermerà dalla luce proiettando un’ombra
nella regione di influenza, e quindi la relazione precedente si semplifica nella seguente: 𝝆𝝀 + 𝜶𝝀 = 𝟏

Dalla legge di Kirchoff si è visto come l’energia assorbita viene poi riemessa per cui, sostituendo α con il
valore dell’emissività ε, si ha anche che: 𝝆𝝀 + 𝜺𝝀 = 𝟏

Per comprendere meglio questo fenomeno, basta ricordare ciò che accade ad un’automobile nera che
rimane esposta per un’intera giornata al sole. A causa del suo colore scuro, l’auto riflette poca luce e quindi
assorbe tanta energia solare riemettendola sotto forma di calore. Questo spiega come mai, alla fine della
giornata, l’abitacolo dell’auto sarà talmente caldo da non consentire di toccare neanche il volante.

Riccardo Conti Telerilevamento Non Rubare! 😊


Ricapitolando…

✓ Exitanza [W/m2 ∙ μ]  sono i raggi emessi dalla sorgente ovvero la densità di flusso radiante in
uscita
✓ Irradianza [W/ m2 ∙ μ]  sono i Watt che arrivano a terra. Il significato del m2 cambia dalla Exitanza.
Nella prima sono i Watt emessi al m2, nella seconda sono i Watt che colpiscono 1 m2 di terreno.
Ovvero la densità di flusso radiante incidente
✓ Radianza [W/ m2 ∙ μ ∙ Sr]  La radianza è costituita dall’ammontare di radiazione da un oggetto.
Viene definita come il flusso radiante per unità di superficie e di angolo solido, per una data
direzione e misurato su un piano perpendicolare alla direzione data. Per flusso radiante si intende
la quantità di energia radiante (cioè trasportata dalle onde elettromagnetiche), trasferita da un
punto o superficie ad un’altra superficie nell’unità di tempo. La radianza si misura in W ∙ m-2 ∙ Sr-1
(Watt allo steradiante per unità di superficie)
o Steradiante (Sr)  è l’angolo solido. Sr = 2π (1 – cosα)

E R

Specularità e rugosità delle superfici

Le superfici, a parità di riflettività, si possono comportare in modo molto diverso in forza della loro rugosità
9
che condiziona la geometria della riflessione. Tale geometria può assumere forme diverse variabili tra due
estremi comportamentali: quello lambertiano (o uniforme) e quello speculare (o direzionale).

Una superficie si dice lambertiana se riflette uniformemente in tutte le direzioni; si dice quasi-lambertiana
se riflette con una direzione prevalente; si dice speculare se riflette in una sola direzione.
𝜆
Attraverso il Criterio di Rayleigh, una superficie si considera rugosa se: ∆ℎ ≥
8 sin(𝛽)

Superfici a pari riflettività possono comportarsi molto diversamente  ad esempio un foglio di carta bianco
e uno specchio. Entrambi hanno riflettività, nel visibile, prossima a 1. Tuttavia, in forza della loro rugosità,
generano effetti visivi molto diversi. Le superfici speculari costituiscono un problema per i sistemi di

Riccardo Conti Telerilevamento Non Rubare! 😊


acquisizione  il segnale riflesso può essere registrato lungo un’unica direzione. Se il sensore non
intercetta tale direzione nessun segnale viene registrato e quindi l’oggetto non si vede.

Firme spettrali

Il telerilevamento passivo utilizza la riflettanza per


caratterizzare le superfici attraverso le firme
spettrali. Queste hanno un comportamento riflettivo
delle superfici al variare della lunghezza d’onda.
Servono a riconoscere le superfici e quindi a
classificarle.

Di seguito vengono riportati alcuni esempi di firme:

Acqua

10

Suolo sabbioso

Suolo argilloso

Riccardo Conti Telerilevamento Non Rubare! 😊


Suolo limoso

Neve

Vegetazione
11
La firma della
vegetazione varia a
seconda dei cicli
fenologici. (se il
contenuto di acqua
diminuisce, il picco nel
verde si abbassa e la
curva del MIR si alzerà)

Firme a confronto

Riccardo Conti Telerilevamento Non Rubare! 😊


Sensori ottici per il TR

Schema generico di sensore:

• Sistema ottico di lenti che collettano la radiazione


• Filtri dedicati in grado di separare le bande spettrali  è il prisma che divide la luce bianca nelle
diverse bande
• Uno o più rilevatori (o detector) di segnale (CCD o Dal segnale analogico a quello digitale si utilizza il codice binario
CMOS)  il più usato è quello in CCD (Charge
Coupled Device o Dispositivo ad accoppiamento di
carica). I raggi che vanno sul detector sono dei
fotodiodi. Quindi, venendo colpiti da E fanno
partire elettroni a quantità pari dell’energia
ricevuta. Diventa così un messaggio elettrico,
molto più facile da codificare.
• Convertitore di segnale elettrico da analogico a
digitale (convertitore A/D)  da questo esce fuori
un numero che può andare da 0 a 255, ottenendo
cioè un’immagine digitale.
o 0 = quantitativo minimo di energia che
riesce a codificare
o 255 = quantitativo massimo di energia che riesce a codificare

Immagine digitale  consiste in un insieme di elementi discreti organizzati per righe e colonne in modo da
formare una matrice bidimensionale. Ogni elemento, chiamato pixel, è descritto da un numero che
rappresenta la radianza media di una piccola area, o cella elementare, della scena. La dimensione degli 12
elementi influisce sulla riproduzione dei dettagli ed è determinata dall’altezza del sistema di ripresa e delle
sue caratteristiche di costruzione, in particolare dal campo di vista istantaneo. È quindi una matrice
numerica i cui elementi rappresentano il valore di radianza riflessa (Numero indice o Digital Number, DN)
dalla porzione di superficie che essi rappresentano.

Il Digital Number indica quindi il numero intero che rappresenta il valore di radianza misurato per una cella
di risoluzione e che è una delle caratteristiche di ogni pixel delle immagini. Ogni DN è esprimibile
informaticamente da uno o più byte ( 1 byte = un pacchetto di 8 bit). Quindi con 1 byte è possibile
rappresentare 256 valori di DN (0 – 255) [0 = Nero; 127 = Grigio; 255 = Bianco].

10010101  A127 + A226 + A325 + A424 + A523 + A622 + A721 + A820 = 256

L’immagine viene registrata come un file cioè una


sequenza ordinata di bit.

L’insieme di bande, detto anche stack, costituisce


l’immagine digitale multispettrale. Che alla fine
sono quelle che usiamo noi.

Riccardo Conti Telerilevamento Non Rubare! 😊


P’

C IFOV
FOV

P
GSD
SWATH
➢ Risoluzione geometrica o Ground Sample Distance, GSD  l’impronta a terra espressa in m del
pixel fisico
➢ Campo di vista istantaneo o Istantaneous Field Of View, IFOV  superficie sottesa dall’angolo
solido che si ottiene proiettando la superficie del rivelatore attraverso l’ottica antistante: è quindi
l’area al suolo investigata istantaneamente dal rivelatore. Ovvero l’angolo sotteso di ogni GSD.
➢ Campo di vista o Field Of View, FOV  costituito dall’insieme dei singoli campi istantanei di vista
che costituiscono la linea di scansione. Ovvero l’angolo sotteso dell’intera scena.
➢ Swath  rappresenta la lunghezza di una linea, cioè l’insieme di pixel in successione. Costituisce la
larghezza in m dell’immagine.
➢ Distanza focale  è la distanza che c’è tra P’ e C. Al variare della distanza focale varia il FOV.
13

Esistono diverse modalità e tipi di scansione:

• Scansione ACROSS-TRACK o Trasversale  trasversale alla direzione di volo del satellite


• Scansione ALONG-TRACK o Longitudinale  sfrutta il movimento del satellite, ed è quindi parallela
alla sua direzione di volo.

Scansione di tipo WHISKBROOM  viene acquisita


una cella alla volta (1 rilevatore per banda). La
scansione della scena avviene:

▪ Across-Track per effetto dello specchio


oscillante o rotante a IFOV costante;
▪ Along-Track per effetto del movimento del
satellite.

Riccardo Conti Telerilevamento Non Rubare! 😊


Scansione di tipo PUSHBROOM  viene acquisita una linea alla volta
(riga di rilevatori) e le distorsioni sull’immagine sono più contenute.
Una distorsione è una modificazione sull’immagine della posizione
relativa di punti rappresentativi della scena dovuta al modo di
funzionamento dello strumento di ripresa. Questo tipo di scansione è
quindi effettuato tramite sistema Along-Track.

Scansione di tipo FRAME  tutta la scena viene


acquisita istantaneamente, non è possibile oggi
su sensori digitali per problemi di trasferimento
dati. Gli unici sensori satellitari FRAME sono di
tipo analogico -> film.

Anche questo tipo utilizza il sistema Along-Track.


14

A seconda del metodo di scansione avremo diversi metodi di salvataggio:

▪ BSQ – Band Sequential  tipico dei sistemi FRAME

Riccardo Conti Telerilevamento Non Rubare! 😊


▪ BIL – Band Interleaved by Line  tipico dei sistemi PUSHBROOM. Salva i
file linea per linea.

▪ BIP – Band Interleaved by Pixel  tipico dei sistemi WHISKBROOM.

15

Definiamo quindi:

✓ Immagine in banda singola: una matrice numerica dimensione (1 solo strato) in toni di grigio
relativa alla radiazione riflessa in uno specifico intervallo di λ.
✓ Immagine multispettrale: una matrice numerica dimensionale (più strati) relativa alla radiazione
riflessa in più intervalli di λ. Ciascun strato costituisce una banda ed è rappresentato da un’indagine
in toni di grigio.
✓ Immagine pancromatica: una matrice numerica dimensionale (1 solo strato) in toni di grigio relativa
alla radiazione riflessa in un intervallo di λ ampio comprendente più intervalli spettrali
comunemente individuati (es. tutta la regione del visibile).

Immagine digitale satellitare

L’elemento minimo dell’immagine che rappresenta la radianza registrata dal singolo rilevatore è detta cella.
La sua rappresentazione a video è il pixel. Data un’immagine digitale si dice pixel ognuna delle superfici
elementari che la costituiscono. Ogni pixel è caratterizzato da tre valori: 2 coordinate che individuano la
posizione del pixel all’interno dell’immagine e 1 numero d’indice (DN). Ogni pixel corrisponde a una cella di
risoluzione a terra le cui dimensioni sono definite dalle caratteristiche dello strumento di ripresa mentre, il

Riccardo Conti Telerilevamento Non Rubare! 😊


numero indice rappresenta la radianza media della cella di risoluzione a terra che corrisponde al pixel
nell’intervallo spettrale in cui il sensore vede la scena.

Caratteristiche dell’immagine

• Risoluzione geometrica [m]  esprime le dimensioni della più piccola area rilevabile. Per i satelliti
la dimensione dell’area risolta al suolo varia da una dimensione nell’ordine di grandezza dei metri
fino a qualche chilometro. La dimensione del pixel influisce sulla riproduzione dei dettagli della
scena ed è determinata dall’altezza del sistema di ripresa e dalle sue caratteristiche di
funzionamento, in particolare dall’angolo di vista del sensore che determina l’area-impronta sulla
superficie terrestre vista, l’IFOV. Un oggetto, quindi, per poter essere distinto nell’immagine, deve
avere una dimensione uguale o maggiore rispetto alla risoluzione del sistema. In pratica è il GSD.
(Pixel: 10m  160x160; Pixel: 40m  40x40; ecc.)
• Risoluzione radiometrica [bit]  L’energia che arriva ad ogni misuratore elettronico viene
trasformata da un flusso continuo in una serie di intervalli discreti registrati come numeri interi
(DN). Questi intervalli costituiscono la risoluzione
radiometrica del sensore (e conseguentemente
dell’immagine). Tale risoluzione si riferisce quindi al
numero di livelli nei quali viene espresso un segnale
registrato dal sensore. Generalmente più grande è il
numero dei livelli, migliore è il dettaglio delle informazioni
presenti sull’immagine. Il numero dei livelli radiometrici è
generalmente espresso in termini dei bit necessari per
registrare il valore più elevato della scala discreta. Così, ad
esempio, per esprimere i 256 livelli di risoluzione
radiometrica (da 0 a 255) del sensore TM di Landsat 5, 16
sono necessari 8 bit, per Landsat 7 12 bit (da 0 a 4096), per
OLI di Landsat 8 16 bit (da 0 a 65535).
• Risoluzione spettrale [n. bande]  Si riferisce al numero e all’ampiezza degli intervalli dello spettro
elettromagnetico alle quali il sensore del satellite è sensibile. Il numero degli intervalli corrisponde
alle bande rese disponibili in layer diversi nell’immagine. Un’immagine può quindi essere costituita
da:
o un solo layer, risultato della risposta spettrale ad una lunghezza d’onda molto ampia (es.
banda pancromatica di alcuni sensori, che copre l’intera lunghezza d’onda del visibile,
ovvero blu, verde e rosso);
o alcuni layer, ognuno dei quali è relativo ad una banda con lunghezza d’onda abbastanza
ampia (immagini multispettrali);
o molti layer, relativi ad intervalli di lunghezza d’onda molto piccoli (immagini iperspettrali,
registrate da sensori aviotrasportati, bande dal visibile all’infrarosso termico).
• Risoluzione temporale [gg]  La risoluzione temporale di un sensore specifica quanto spesso
questo è in grado di registrare una scena nella stessa zona. La ripetizione del passaggio del satellite
sulla stessa area dipende dall’orbita compiuta e dalla sua altezza sul suolo. È quindi la distanza
temporale tra due acquisizioni successive della stessa zona.

Non è possibile costruire un sensore che acquisisca immagini a massima risoluzione geometrica, spettrale e
radiometrica contemporaneamente. Infatti per ottenere immagini di radianza rappresentative della realtà a
terra occorre che il segnale di radianza registrato dal sensore sia molto maggiore rispetto al “rumore”
strumentale, cioè una qualsiasi variazione del segnale dovuta a fattori che non siano l’oggetto di studio.
Immaginiamo, infatti, di avere a disposizione un sensore ad alta risoluzione geometrica. Tali sensori sono
caratterizzati da un piccolo angolo di vista IFOV, il qual fatto comporta la visione di una piccola porzione di

Riccardo Conti Telerilevamento Non Rubare! 😊


suolo e conseguentemente verrà raccolta una piccola quantità di energia. Per aumentare la quantità di
energia che riceve il sensore è necessario diminuire la risoluzione spettrale oppure quella radiometrica.

Es. Landsat

▪ RG: 30 m
▪ RR: 12 bit
▪ RS: 7 bande
▪ RT: 16 gg

La diffusione atmosferica (Scattering)

17

La diffusione (o scattering) si ha quando la radiazione, nell’impatto con le particelle costituenti l’atmosfera,


viene deviata in modo differente nelle varie direzioni. La modalità di diffusione dipende da molti fattori, tra
cui la lunghezza d’onda della radiazione incidente, la quantità di particelle o gas presenti nell’atmosfera e la
distanza che la radiazione percorre attraverso l’atmosfera. In generale, la diffusione è responsabile
dell’effetto foschia e delle diverse colorazioni del cielo. Questi effetti sono più evidenti nel visibile e
nell’infrarosso, mentre sono praticamente trascurabili nel dominio delle microonde.

Tre tipologie di diffusione

• Diffusione selettiva o di Rayleigh: si verifica quando le particelle sono più piccole della lunghezza
d’onda della radiazione. Più corta è la lunghezza d’onda, maggiore sarà la quantità di radiazione
diffusa. Questo fenomeno determina effetti diversi ed è responsabile delle svariate colorazioni che
può assumere il cielo nelle varie giornate o in diversi momenti della stessa giornata  geometria
isotropa
o Effetti:
▪ colorazione del cielo che dipende dal cammino ottico del segnale, quindi dall’ora
del giorno.
▪ retrodiffusione del segnale verso il sensore che registra anche una componente
atmosferica.

Riccardo Conti Telerilevamento Non Rubare! 😊


o Dal grafico, inizialmente prevale il blu, ma nel caso la
concentrazione d’acqua aumentasse, la curva si
alzerebbe fino a diventare una diffusione non
selettiva, ovvero con il cielo nuvoloso.
• Diffusione di Mie: si ha quando la lunghezza d’onda della
radiazione incidente è delle stesse dimensioni delle particelle
incontrate. Essa tende a influenzare le lunghezze d’onda più
lunghe nel visibile, dal giallo al rosso, e in situazioni del tutto
particolari.
o Esempi sono i fumi e le polveri nella bassa atmosfera
che provocano foschia, di solito giallastra, come
succede spesso nei cieli delle aree fortemente industrializzate e popolate
• Diffusione non selettiva: così chiamata perché influenza quasi allo stesso modo tutto il visibile,
l’infrarosso vicino e l’infrarosso medio. Essa si verifica quando le particelle dell’atmosfera, in
particolare le goccioline d’acqua e le polveri, dell’ordine del micron e oltre, sono molto più grandi
delle lunghezze d’onda della radiazione con cui interagiscono.
o Il fenomeno è responsabile dell’aspetto bianco lattiginoso in cui appare il cielo in presenza
di nebbia e nuvole.
Se non vi fosse il fenomeno della diffusione, il cielo apparirebbe nero come effettivamente è nello
spazio extra-atmosferico, dove il vuoto, cioè l’assenza di particelle, impedisce qualunque tipo di
interazione.

Finestre atmosferiche

L’atmosfera è selettiva rispetto alle diverse bande della


radiazione che la attraversa  attenua il segnale in modo 18
differenziale rispetto alle diverse bande. Le regioni dello spettro
per le quali l’atmosfera risulta trasparente (trasmittanza circa 1)
sono dette finestre atmosferiche. L’effetto che ne risulta è una
modulazione della curva di emissione di corpo nero. I sensori
montati su satellite devono necessariamente lavorare con
bande corrispondenti alle finestre atmosferiche.

Formalizzazione del fenomeno radiativo (dalla sorgente al sensore)

Le immagini, per poter


essere utilizzate, devono
essere calibrate con un
opportuno modello di
I∙ trasferimento radiativo, che
consenta di convertire le
K radianze (Lλ) in riflettanze
(ρλ) al suolo.

(a pag. 33 c’è la parte sulla


pre-elaborazione
radiometrica!!)

I∙K∙
τλ ρλ

Riccardo Conti Telerilevamento Non Rubare! 😊


La radianza Lλ è ciò che viene codificato, ed è ciò che esce dal DN. Questa è fatta di 2 parti: Lλatm
(componente diffusiva) e Lλ – Lλatm. Quella uscente è pari a Lλ – Lλatm/τλ.

La riflettanza ρλ è la proprietà di una superficie quanto riflette rispetto a una λ. Equivale alla radiazione
uscente/radiazione incidente: 𝜌𝜆 = 𝑅 ⁄𝐼 .

𝐿𝜆 − 𝐿𝜆𝑎𝑡𝑚
𝑅= → 𝑑𝑒𝑣𝑒 𝑒𝑠𝑠𝑒𝑟𝑒 𝑚𝑜𝑙𝑡𝑖𝑝𝑙𝑖𝑐𝑎𝑡𝑜 𝑝𝑒𝑟 𝜋
𝜏𝜆𝑜𝑢𝑡
Moltiplicando per π arrivo ad una R complessiva (ho un’unità di steradiante)

Per conoscere I noi abbiamo già l’exitanza che è funzione della distanza dal sole  K è il fattore
moltiplicativo: 𝐾 = 1⁄𝑑 2 (d2 è la distanza dal sole in unità astronomiche).

L’exitanza e K, entrando in atmosfera fino al suolo viene modulata per un fattore 𝜏𝜆𝑖𝑛  I ∙ K ∙ 𝜏𝜆𝑖𝑛
Quindi:

𝜋 ∙ (𝐿𝜆 − 𝐿𝜆𝑎𝑡𝑚 )
𝜌𝜆 =
𝜏𝜆𝑜𝑢𝑡 (𝐼 ∙ 𝐾 ∙ 𝜏𝜆𝑖𝑛 ) + 𝜋 ∙ 𝐿𝜆𝑎𝑡𝑚

π ∙ Lλatm lo si mette perché al suolo arriva anche una componente diffusiva verso il basso. Cioè tiene conto
della lambertianità della superficie, quindi della diluizione della radiazione riflessa in tutte le direzioni

Si deve tener conto anche dell’angolo di incidenza solare  il flusso è calcolato nella direzione normale,
quindi I va moltiplicato per il seno dell’angolo, ovvero senβ. Ovviamente questo cambia in funzione della
topografia. β si può conoscere sapendo la posizione del sole quando è stata fatta la foto e conoscendo la 19
topografia (DTM e DEM).

Quindi:

𝜋 ∙ [𝐿𝜆 − 𝐿̂𝜆𝑎𝑡𝑚 ] 𝝅 ∙ [𝑳𝝀 − 𝑳̂𝝀𝒂𝒕𝒎 ]


𝜌𝜆 = ⟹ 𝝆𝝀 =
𝜏𝜆𝑜𝑢𝑡 ∙ [𝐼 ∙ 𝐾 ∙ 𝜏𝜆𝑖𝑛 ∙ sin 𝛽 + 𝜋 ∙ 𝐿𝜆𝑎𝑡𝑚 ] 𝝉𝒐𝒖𝒕 𝒊𝒏
𝝀 ∙ [𝑰 ∙ 𝑲 ∙ 𝝉𝝀 ∙ 𝒔𝒊𝒏 𝜷 + 𝜶]

Satelliti

Classificazione in base alle orbite

• Satelliti geostazionari
o 36000 km di quota
o Inquadrano una zona fissa (es. satelliti meteorologici come METEOSAT, GOES, GMS)
o Forza gravitazionale centrifuga e centripeta
devono essere uguali così che non si muovano
• Satelliti eliosincroni
o 400 – 800 km di quota
o Inquadrano successivamente tutta la superficie
terrestre sfruttando il proprio moto combinato a
quello terrestre (es. satelliti per l’osservazione
della terra EO)
o Orbite quasi-polari
Ricoprimento globale garantito dalle orbite eliosincrone quasi-
o Sorvolano la stessa area alla stessa ora locale.
polari

Riccardo Conti Telerilevamento Non Rubare! 😊


IKONOS 2 – Commerciale USA dal 1999

QUICKBIRD – Commerciale USA dal 2001

EROS A – Commerciale israeliano dal 2001

20
EROS B – Commerciale israeliano dal 2006

ORBVIEW 3 Commerciale USA dal 2003

CARTOSAT – Indian Space Research Organization dal 2005

E tanti altri ancora…

Riccardo Conti Telerilevamento Non Rubare! 😊


LANDSAT 7 TM (Thematic Mapper) – NASA dal 1999

LANDSAT 8 OLI (Operation Land Imager) – NASA dal 2013

21

TERRA: satellite dotato di diversi sensori

Sensore ASTER (Advanced Spaceborne Thermal Emission and Reflection Radiometer): è un sistema
modulare costituito da 3 sensori con caratteristiche differenti:

• Spettrometro GSD da 15m;


• Spettrometro GSD da 30m;
• Termografo TIR-GSD da 90m.

Riccardo Conti Telerilevamento Non Rubare! 😊


Teoria del colore

Il colore per definizione scientifica non esiste, è una sensazione legata all’interpretazione di un fenomeno
fisico esterno legato alla propria testa e ai propri occhi. È quindi l’effetto visuale che crea la REM incidente
sulla retina dell’occhio umano. Come già detto, l’occhio è sensibile al campo spettrale compreso tra 0,4 e
0,7 μm ovvero nello spettro del visibile.

• Processo acromatico: solo la luminosità cumulativa dell’oggetto


o le variazioni di intensità luminosa vengono percepite
22
(immagini b/n o a toni di grigio)
• Processo cromatico: le relative intensità di differenti lunghezze
d’onda vengono composte e percepite (visione a colori)

Sintesi additiva e sintesi sottrattiva: Studi sperimentali sulla fisiologia


dell’occhio umano hanno mostrato come, a partire dalla sensibilità
dell’occhio alle diverse radiazioni dello spettro elettromagnetico, sia
possibile riprodurre tutti i colori percepibili combinando tra loro tre
colori primari: il blu, il verde e il rosso. Il processo di tale combinazione
è stato chiamato sintesi additiva. Provando a proiettare questi colori
primari a coppie su di uno schermo bianco, si nota che essi producono,
rispettivamente, altri tre colori: ciano, magenta e giallo, definiti colori
complementari. Ma questi colori si possono ottenere anche per
sottrazione di un colore primario dalla luce bianca (sintesi sottrattiva).

Sintesi additiva:

• R+G+B=W

Sintesi sottrattiva:

• Y + M + C = Bk
• W–B=Y
• W–G=M
• W – R = C.

Riccardo Conti Telerilevamento Non Rubare! 😊


Dosando in modo opportuno le componenti di segnale ottengo un colore diverso. Le combinazioni possibili
sono 2563 ≈ 16.000.000 di colori.

Il cubo del colore è un modello descrittivo della sintesi additiva.

Nella tabella ci
sono alcuni
esempi di sintesi
additiva:

Se associo la banda del rosso al canale rosso e così per il verde e il blu otterrò la cosiddetta immagine true
color, ovvero a colore reale o vero. Tutte le altre rappresentazioni sono invece in falso colore. Il falso colore
per eccellenza ha il NIR sul canale del rosso, il rosso sul verde e il verde sul blu. In questa, tutto ciò che
viene rappresentato in rosso è la vegetazione. Le tegole dei tetti invece saranno sul verde poiché la banda
rossa è nel canale del verde, mentre le parti colorate di ciano rappresentano zone cementate. Quindi
23
questa rappresentazione è molto utile anche per vedere l’espansione urbana dal centro storico (dove il
colore predominante sarà il verde) alla periferia (dove il colore predominante sarà il ciano). Le immagini in
pseudo-colore sono immagini a una singola banda che vengono rappresentate a colori al posto che in toni
di grigio, quindi, i colori sono ottenuti per associazione convenzionale e non per sintesi additiva.
Ricapitolando:

➢ immagine Colore Reale (sintesi 3-2-1):


▪ Canale rosso con banda rossa
▪ Canale verde con banda verde
▪ Canale blu con banda blu

➢ Immagine Falso Colore (sintesi 4-3-2)


▪ Canale rosso con banda NIR
▪ Canale verde con banda rossa
▪ Canale blu con banda verde

➢ Immagine Falso Colore (sintesi 5-4-3)


▪ Canale rosso con banda SWIR
▪ Canale verde con banda NIR
▪ Canale blu con banda rossa

Riccardo Conti Telerilevamento Non Rubare! 😊


Caratteristiche delle immagini digitali

A differenza delle stampe fotografiche le immagini digitali sono dinamiche, cioè possono variare
selettivamente la propria apparenza garantendo migliore interpretabilità.

1. Istogramma di frequenza (luminosità e contrasto)


2. Enfatizzazione del contrasto
3. La LUT (Look-Up-Table)
4. Density slice o Re-Classify (affettamento dell’istogramma)
5. Lo scatterogramma o diagramma di dispersione (correlazione tra bande)
6. Operazioni tra bande (bande sintetiche e indici)
7. Filtri digitali

1. Istogramma di frequenza: Per istogramma di


un’immagine intendiamo una rappresentazione in grafico

Frequenza
della frequenza con cui compare ogni valore di DN
(normalmente da 0 a 255) nella scena. Nel grafico della
funzione istogramma di una immagine digitale, sull’asse x
compaiono i numeri indice DN e sull’asse y la frequenza,
assoluta o relativa, cioè il numero di pixel che all’interno
della matrice immagine hanno quel livello di grigio DN.
Ogni banda ha un suo istogramma di frequenza e
caratterizza un’immagine dal punto di vista statistico, ma
non fornisce alcuna informazione circa la disposizione
spaziale dei livelli di grigio nell’immagine stessa.
DN
L’istogramma fornisce informazioni sul valore minimo e 24
Istogrammi di due immagini differenti: sull’asse delle x ci sono i
massimo dei livelli di grigio dell’immagine, inoltre, è
valori che un pixel può assumere nell’immagine, e sull’asse delle y
possibile verificare i valori di DN per cui è massima la il numero di pixel che hanno assunto quel valore nell’immagine.
frequenza, cioè la moda dell’istogramma. Dall’istogramma Nel grafico si può vedere anche il valor medio e la varianza delle
possiamo anche ricavare il valore medio e la varianza due immagini. L’immagine rossa dunque presenta molti pixel con
dell’immagine. La media dà un’idea della luminosità valore vicino al medio, e ha una varianza bassa; l’immagine blu,
viceversa, ha pixel che assumono un range più ampio di valori
dell’immagine: se è bassa, ci si aspetta che l’immagine sia (alta varianza).
rappresentata con livelli di grigio scuri cui corrispondano
valori di radianza bassi; se il valore medio è alto, avviene il contrario. Il valore medio da solo non descrive in
modo adeguato l’insieme di dati. È interessante infatti conoscere come i valori dei pixel variano rispetto al
loro valore medio. La varianza descrive il contrasto dell’immagine, se la varianza è bassa, ci si aspetta di
trovare poche variazioni nei livelli di radianza e quindi l’immagine apparirà piuttosto omogenea e, in
generale, con un valore basso di contrasto.

Per le immagini satellitari la forma della campana tende ad una log-normale (sensori tendono alla sotto-
esposizione) e il campo di esistenza delle ascisse dipende dalla risoluzione radiometrica dell’immagine.

2. Enfatizzazione del contrasto: Aumentare il contrasto di un’immagine implica un’operazione che


influenza direttamente la gamma del segnale e questo tipo di elaborazione viene in generale chiamato
contrast stretching (letteralmente: stiramento del contrasto). La tecnica maggiormente utilizzata è quella di
espansione lineare del contrasto (linear contrast stretching). Questa procedura espande in modo lineare
l’intervallo dei valori radiometrici presenti nell’immagine in modo da portare il valore minimo e il valore
massimo a coincidere con il valore minimo e massimo della scala di intensità (o livelli di grigio) del
dispositivo di visualizzazione. Una caratteristica di questo miglioramento lineare del contrasto è che esso
non modifica la forma dell’istogramma e quindi preserva le relazioni di radianza.

Riccardo Conti Telerilevamento Non Rubare! 😊


L’immagine (il file) possiede un solo istogramma di OUT
frequenza. La sua rappresentazione (il video) può (VIDEO)
assumere infiniti istogrammi. In assenza di enfatizzazione 2
l’uscita del segnale a video (come vedo l’immagine) 5
coincide con il segnale originale (salvato nel file).

0
2n IN (FILE)

In presenza di stretching invece…

… enfatizzo i toni centrali. Quindi tutto ciò


OUT che è sotto m viene perso e rappresentato
(VIDEO) in nero e tutto ciò che c’è sopra M viene
255 perso e rappresentato in bianco. Nel
mezzo avremo un aumento delle tonalità.
Allargando l’istogramma si distanziano i
toni radiometrici adiacenti fino a riuscire a
vedere differenze radiometriche prima
impercettibili. C’è però da constatare che
m M
0 facendo ciò si ha una perdita di
2n IN (FILE) informazioni sugli estremi in favore
dell’area centrale.
𝑫𝑵𝒊𝒏 − 𝒎 25
𝑫𝑵𝒐𝒖𝒕 = ∙ 𝟐𝟓𝟓
𝑴−𝒎
Una generica trasformazione può definire la
corrispondenza tra DN originali e loro OUT
rappresentazione a video. Esistono alcune (VIDEO)
funzioni caratteristiche quali:
255
✓ equazione dell’istogramma
✓ enfatizzazione gaussiana
✓ Piecwise (a pezzi)

𝑫𝑵𝒐𝒖𝒕 = 𝒇(𝑫𝑵𝒊𝒏 ) 0
2n IN (FILE)

Di quanto si distanziano due toni radiometrici adiacenti (DN e DN+1) a seguito di stretching?
𝑫𝑵𝒊𝒏 − 𝒎 𝑫𝑵𝒊𝒏 + 𝟏 − 𝒎
∆𝑫𝑵𝒐𝒖𝒕 = ∙ 𝟐𝟓𝟓 − ∙ 𝟐𝟓𝟓
𝑴−𝒎 𝑴−𝒎
𝟐𝟓𝟓
∆𝑫𝑵𝒐𝒖𝒕 = >𝟏
𝑴−𝒎
Il rapporto tra i due è sempre > 1 e l’ampliamento di intervallo è tanto più marcato quanto minore è la
distanza tra M e m.

Riccardo Conti Telerilevamento Non Rubare! 😊


3. La LUT (Look-Up-Table)

Per visualizzare un layer telerilevato è necessaria un'operazione di lookup. Questa consiste nell’ottimizzare
l’attribuzione di un’intensità di colore ad ogni pixel. Sulla base di una funzione di trasformazione vengono
create le tavole di lookup, che collegano i DN in entrata ad un valore di uscita in lookup a video. La funzione
di trasformazione può essere di primo grado (retta) o di grado superiore e la sua forma condiziona il
contrasto del layer visualizzato a schermo. Tale operazione permette di ovviare a problemi collegati alla
resa a video di particolari layer che hanno degli istogrammi di frequenza concentrati in un intervallo più
ristretto di 0 – 65535 (nel caso di un sensore a 16 bit). Variabilità lookup = variabilità dei pixel.

6. Operazioni tra bande (calcolatore raster)

La natura matriciale delle immagini digitali ne favorisce l’interazione numerica. Le bande (o le immagini,
purché omologhe) possono combinarsi con operazioni:

• Aritmetiche (+, -, x, /)
• Trigonometriche (sin, cos, tan…)
• Logiche (and, or, xor, not)
• Di confronto (<, >, =…)

Le operazioni applicate alla banda singola (o facendo interagire più bande) agiscono su tutti gli elementi
della matrice secondo le dinamiche di un ciclo. Ogni software ha una sua sintassi per la formalizzazione
delle formule. Alcuni presentano GUI (interfacce) sotto forma di raster calculator. Il risultato di tali
operazioni è una nuova matrice i cui elementi risultano dal risultato della singola operazione.

Indici spettrali

Tale potenzialità delle immagini ha consentito la derivazione di bande sintetiche (ottenute per la 26
combinazione di più bande originali) la cui utilità applicativa ne ha suggerito l’adozione come indici. Infatti,
l’informazione insita in una firma spettrale è spesso sintetizzabile in un indice spettrale che si ottiene
mediante la combinazione di più bande spettrali lungo formulazioni matematiche:

𝐼𝑛𝑑𝑖𝑐𝑒 = 𝑓(𝑏1 , 𝑏2 , … , 𝑏𝑛 )
Attraverso gli indici è possibile indagare, nota la natura della superficie osservata, le caratteristiche
fisiologiche delle colture e la loro variabilità nello spazio e nel tempo.

Indici di vegetazione (es. NDVI – Normalized Difference Vegetation Index)

La curva di riflettanza della vegetazione può variare in funzione di molti fattori quali il tipo di vegetazione e
la sua densità, il momento della sua stagione di crescita, il contenuto di
umidità. Grazie a queste caratteristiche spettrali sono stati sviluppati degli
indici di vegetazione, che vengono calcolati per mezzo di operazioni
algebriche tra i valori di riflettanza nelle diverse zone dello spettro in cui la
vegetazione mostra dei comportamenti peculiari. Gli indici di vegetazione
sono uno strumento molto utile per il monitoraggio delle condizioni della
vegetazione. In particolare, la loro correlazione con la biomassa ci permette
di monitorarne il vigore, di evidenziare eventuali stress che avvengono
durante la stagione di crescita, di valutare la resa stagionale della coltura o la
quantità di carbonio fissata per fotosintesi negli ecosistemi naturali. È facile
discriminare le superfici vegetate dalle altre dividendo la banda del NIR e
quella del rosso. In queste due porzioni di spettro, infatti, la vegetazione
mostra alta riflettività nella porzione del NIR in seguito alla struttura delle
foglie e della chioma. La stessa vegetazione, però, assorbe fortemente nel

Riccardo Conti Telerilevamento Non Rubare! 😊


rosso per la presenza di pigmenti come la clorofilla, e a seconda se goda di buona o cattiva salute mostra un
diverso comportamento spettrale. La vegetazione stressata rispetto a quella sana, infatti, ha una riflettività
più alta nel rosso e più bassa nell’infrarosso, come si vede nella figura. L’indice di vegetazione più utilizzato
è il Normalized Difference Vegetation Index (NDVI) che viene calcolato dalla formula:
𝝆𝑵𝑰𝑹 − 𝝆𝑹𝒆𝒅
𝑵𝑫𝑽𝑰 =
𝝆𝑵𝑰𝑹 + 𝝆𝑹𝒆𝒅
Per utilizzare questo indice bisogna partire dalla firma spettrale (bande calibrate in riflettanza) e non dai
dati grezzi!)
𝜌𝑁𝐼𝑅
𝑉𝐼 =
𝜌𝑅𝑒𝑑
Inoltre, da un giorno all’altro i valori assoluti cambiano, devono
quindi essere normalizzati alla quantità totale. L’NDVI ha un valore
variabile tra -1 (minima attività) e +1 (massima attività).

Range NDVI:

• Vegetazione: 0.35 – 1
• Suoli nudi: 0.1 – 0.35
• Acqua: -1 - 0
• Neve: -0.8 - 0

Altri indici molto usati sono l’EVI (Enhanced Vegetation Index) ottimizzato per le superfici ad elevata
densità vegetativa impiegando anche la banda del blu; il SAVI (Soil Adjusted Vegetation Index) indice di
vegetazione che tiene conto anche del suolo attraverso un coefficiente (tra 0.9 e 1.6) che permette di
modulare le riflettanze sulla base della copertura al suolo (> è la densità vegetativa, < è il valore del
27
coefficiente). Molto importante è l’NDWI (Normalized Difference Water Index) ricondotto al contenuto di
acqua delle superfici osservate. Più è alto il valore assunto, maggiore sarà il contenuto di acqua.
𝝆𝑮𝒓𝒆𝒆𝒏 − 𝝆𝑺𝑾𝑰𝑹𝟏
𝑵𝑫𝑾𝑰 =
𝝆𝑮𝒓𝒆𝒆𝒏 + 𝝆𝑺𝑾𝑰𝑹𝟏
Per finire, altro molto importante è l’NDSI (Normalized Difference Snow Index).
𝝆𝑺𝑾𝑰𝑹𝟏 − 𝝆𝑮𝒓𝒆𝒆𝒏
𝑵𝑫𝑺𝑰 =
𝝆𝑺𝑾𝑰𝑹𝟏 + 𝝆𝑮𝒓𝒆𝒆𝒏
NDVI come predittore (o Proxy)

NDVI Durata della stagione • SOS: Start of Season


• EOS: End of Season

Il SOS lo trovi quando c’è un cambio repentino


Max NDVI

della derivata (= pendenza locale della curva).

È quindi utile avere diverse campane nel


tempo così, in base alla posizione del SOS,
dell’EOS, della durata di stagione e del max
NDVI, si possono avere indicazioni riguardanti
SOS EOS 365 t
il cambiamento climatico.

Riccardo Conti Telerilevamento Non Rubare! 😊


Si può per esempio calcolare il LAI (Leaf Area Index) tramite interpolazioni spaziali dopo aver fatto misure in
campo e averle georiferite. Dall’NDVI al LAI…

ID LAI NDVI LAI x x x


x x x
x x
•1 •L1 •N1
x x x x
•2 •L2 •N2 x x
x
•3 •L3 •N3 L1 x x
•4 •L4 •N4
•... •... •...
•n •Ln •Nn

Misure in campo N1 NDVI


georiferite

Si ipotizza che la correlazione sia parabolica  f(x) = ax2 + bx + c  LAI = a1NDVI2 + a2NDVI + a3.

Per trovare la parabola più simile utilizzo il metodo dei minimi quadrati. Per quanto riguarda a1/2/3 si
stimano i valori che facciano passare la parabola per i punti che si hanno già.

 errore di dispersione: ogni punto misurato ha un errore ε > o < di 0  errore quadratico medio (RMSE)
da non confondere con la deviazione standard, che è lo scarto quadratico medio.

∑ 𝜺𝟐𝒊
𝑹𝑴𝑺𝑬 = √
𝒏−𝟏
28
2
R : per vedere se c’è una correlazione tra le variabili

RMSE: quanto è modellizzabile la correlazione  prestazione del modello

Produzione di una cartografia tematica a risoluzioni geometriche medio-alte

Schema di lavoro:

1. Pre-elaborazioni
• Geometriche
o Georeferenziazione (più grezzo, non adatto ad ambienti montani)
o Ortoproiezione (più raffinato)
• Radiometriche
o Calibrazione
o Correzione atmosferica
2. Classificazione
• Assistita (Supervised)
• Automatica (Un-Supervised)
3. Controllo
• Matrici di errore
• Campagne di misura
4. Correlazione con misure di campo (es. LAI)

1a – Pre-elaborazioni geometriche: Georeferenziazione

Riccardo Conti Telerilevamento Non Rubare! 😊


L’obiettivo è quello di rimuovere le distorsioni geometriche presenti nell’immagine (terrestre, aerea o
satellitare) collocandola all’interno di un sistema cartografico opportuno. Le distorsioni geometriche
possono essere imputabili a differenti cause:

✓ sensore (pushbroom, wiskbroom);


✓ rotazione terrestre (skew);
✓ curvatura terrestre;
✓ ottica; P
✓ prospettiva/assetto angolare;
✓ discontinuità altimetriche (relief displacement); 
✓ rifrazione atmosferica.

Si rende quindi necessario modellizzare tali distorsioni al fine di Pa RD P’


generare una nuova immagine che ne sia priva e collocabile
correttamente all’interno di un opportuno sistema di coordinate cartografiche (o geografiche).

Applicazioni:

➢ rendere l’immagine sovrapponibile alla cartografia. Tale operazione viene denominata “Image to
Map Registration”. L’immagine ottenuta possiede la valenza metrica di una cartografia  è
possibile effettuare misure planimetriche corrette sull’immagine.
➢ Rendere omologhe immagini della stessa area acquisite in periodi diversi o da sensori diversi per
effettuare confronti multitemporali. Tale operazione viene denominata “Image to Image
Registration”. L’immagine ottenuta può anche non possedere qualità metriche assolute.

Metodo:

➢ effettuare una trasformazione geometrica tra sistemi di riferimento (SR) differenti, ovvero stimare i 29
parametri della trasformazione tra il SRin dell’immagine e il SRout cartografico o locale.

Partendo quindi da un’immagine grezza, noi conosciamo le colonne e le righe, queste le si dovranno
rendere parallele alle coordinate Nord (N) per le colonne ed Est (E) per le righe.

L’utilizzo di un modello matematico che sia ritenuto idoneo alla soluzione di un certo problema presuppone
le seguenti operazioni:

1. scelta di un modello di trasformazione  trovare la f(x) matematica che lega un’immagine all’altra.

𝐶 = 𝑓(𝐸, 𝑁)
{
𝑅 = 𝑓(𝐸, 𝑁)
2. stima dei parametri del modello sulla base di un sufficiente numero di osservazioni  necessità di
avere dei punti di appoggio

Riccardo Conti Telerilevamento Non Rubare! 😊


3. verifica degli errori del modello  RMSE
4. applicazione del modello  georeferenziazione dell’immagine

1 - Modelli possibili  modello polinomiale di 1° ordine (6 parametri)

𝑐 = 𝑎0 ∙ 𝐸 + 𝑎1 ∙ 𝑁 + 𝑎2
{
𝑟 = 𝑎3 ∙ 𝐸 + 𝑎4 ∙ 𝑁 + 𝑎5
a = parametri del modello, inizialmente sono incognite, per stimarle si usa il metodo dei minimi quadrati

2 – I 6 parametri incogniti possono essere determinati, generalmente attraverso una stima ai minimi
quadrati, qualora siano noti un sufficiente numero di punti di coordinate immagine (c, r) e cartografiche (X,
Y) note (Punti di Appoggio). I punti di appoggio (GCP – Ground Control Point) sono punti corrispondenti ad
oggetti riconoscibili sia sull’immagine da georiferire che sul supporto cartografico di riferimento (cartografia
digitale raster, ortofoto, misure di campo…)  è consigliabile collimarli in modo omogeneamente
distribuito in corrispondenza di manufatti o elementi naturali stabili nel tempo. Inoltre, è opportuno
utilizzare una cartografia di riferimento ad una scala nominale tale da garantire una precisione superiore a
quella desiderata per l’immagine georiferita.

30

I dati nella tabella serviranno per risolvere le equazioni

ID c r E N
1 c1 r1 E1 N1
2 c2 r2 E2 N2
n cn rn En Nn

𝑐 = 𝑎0 ∙ 𝐸1 + 𝑎1 ∙ 𝑁1 + 𝑎2
{ 1
𝑟1 = 𝑎3 ∙ 𝐸1 + 𝑎4 ∙ 𝑁1 + 𝑎5
𝑐 = 𝑎0 ∙ 𝐸2 + 𝑎1 ∙ 𝑁2 + 𝑎2
{ 2
𝑟2 = 𝑎3 ∙ 𝐸2 + 𝑎4 ∙ 𝑁2 + 𝑎5
𝑐 = 𝑎0 ∙ 𝐸𝑛 + 𝑎1 ∙ 𝑁𝑛 + 𝑎2
{ 𝑛
𝑟𝑛 = 𝑎3 ∙ 𝐸𝑛 + 𝑎4 ∙ 𝑁𝑛 + 𝑎5
Il numero minimo di punti è funzione del numero di parametri della trasformazione utilizzata. Ogni punto di
appoggio determina 2 equazioni. Nel caso della trasformazione polinomiale del 1° ordine sono necessari 3
punti (6 parametri). Per effettuare una stima ai minimi quadrati è ovviamente necessario avere a
disposizione un numero di punti superiore a quello minimo richiesto (ridondanza). Si ammette che una
ridondanza di osservazioni atta a garantire una sufficiente rappresentatività (o robustezza) della soluzione

Riccardo Conti Telerilevamento Non Rubare! 😊


determini un numero di equazioni pari almeno a 3-5 volte il numero minimo di quelle richieste dal modello
selezionato.

3 – Poiché quella ai minimi parametri costituisce una soluzione di compromesso tra le differenti soluzioni
ammissibili, le stime che essa determina delle osservazioni (nel caso della georeferenziazione le coordinate
immagine c, r) non coincidono con i valori collimati. Pertanto a fronte
della soluzione si determinano, per ogni GCP, degli scarti ε alle Punto spostato dall’RMSE
osservazioni (diversi per ogni GCP per le due coordinate immagine c, r).
La precisione media di una georeferenziazione viene generalmente ε εr
valutata attraverso un parametro globale, l’RMSE (Root Mean Squared Punto vero
Error), l’errore quadratico medio. εc
𝜀 = √𝜀𝑐2 + 𝜀𝑟2
Sulla tabella di prima quindi si aggiungeranno 3 nuove voci:

ID c R E N εc εr ε
1 c1 r1 E1 N1 εc1 εr1 ε1
2 c2 r2 E2 N2 εc2 εr2 ε2
n cn rn En Nn εcn εrn εn

 RMSE ok se < 0.5 pixel

Risulta maggiormente cautelativo, al fine di stimare la precisione della georeferenziazione, calcolare i


precedenti parametri utilizzando punti di coordinate note ma che non siano stati utilizzati per la stima dei
parametri della trasformazione. Tali punti, collimati con modalità analoga a prima, sono denominati punti 31
di controllo (CP – Check Point).

4 – una volta determinati i parametri incogniti è possibile applicare la


relativa trasformazione a tutte le celle dell’immagine di partenza per
ottenere un’immagine geometricamente perfetta (warping).

Dal punto di vista pratico i software non operano una trasformazione dal
sistema di riferimento immagine a quello cartografico, ma effettuano
l’operazione inversa nota come ricampionamento inverso. Le relazioni
illustrate in precedenza sono infatti del tipo (𝑐, 𝑟) = 𝑓(𝑋, 𝑌) e non
(𝑋, 𝑌) = 𝑓(𝑐, 𝑟).

Il ricampionamento inverso impedisce che vi siano celle dell’immagine


corretta a cui non sia stato attribuito nessun DN. Quindi sullo spazio carta si
aprirà una matrice vuota che accoglierà lo spazio immagine. Questo,
chiederà che pixel voglio usare. Per ogni pixel si chiede il valore e quelli fuori campo li fa diventare neri.

Riccardo Conti Telerilevamento Non Rubare! 😊


Ogni cella dell’immagine si sovrappone a più celle dell’immagine originale. Quale DN viene attribuito??

È necessario scegliere a priori il metodo di ricampionamento da utilizzare e la risoluzione geometrica


dell’immagine corretta che si vuole ottenere. Tra i metodi più diffusi ci sono:

• Nearest neighbour  Il valore di radianza DN (x, y), attribuito al pixel di


output, è il valore corrispondente al pixel in coordinate riga-colonna (r, c) più
vicine alle coordinate (x, y) ottenute dalla trasformazione. La tecnica è
importante per georeferenziare mappe del suolo, infatti essa permette di
non trasformare i valori dei pixel originali. Da un effetto di sgranatura.
• Bilinear  il nuovo valore di radianza DN viene definito mediante
un’interpolazione che coinvolge le quattro celle più vicine alle coordinate
immagine ottenute dalla trasformazione geometrica. I valori di radianza
32
originali vengono modificati e l’immagine che ne risulta presenta contrasti
meno marcati con passaggi più graduali. La cosa può essere poco
desiderabile se si intendono fare delle classificazioni dopo il
ricampionamento. In questo caso è consigliabile effettuare la trasformazione
dopo la classificazione.
• Cubic convolution  si opera un’interpolazione di
ordine superiore nella quale vengono coinvolti i sedici
pixel più vicini. Da un punto geometrico questo metodo risulta essere il più
fedele, per contro, il contenuto radiometrico viene alterato fortemente. Quindi
questa tecnica ben si presta per l’interpolazione visiva dell’immagine ma non
deve essere utilizzata per analisi strettamente radiometriche.

1b - Pre-elaborazioni radiometriche: dai DN alle riflettanze

Le firme spettrali osservabili su immagini multispettrali sono delle approssimazioni discrete della firma
spettrale reale. La similitudine tra le due è tanto maggiore quanto maggiore è la risoluzione spettrale delle
immagini. Tuttavia, i dati grezzi acquisiti dai sensori, non rappresentano riflettanze bensì, radianze e
pertanto, prima di qualunque interpretazione, le seconde devono essere tradotte localmente nelle prime
attraverso l’applicazione di modelli di trasferimento radiativo più o meno complessi.

Riccardo Conti Telerilevamento Non Rubare! 😊


1- Recupero delle radianze a partire dai DN

I DN costituiscono una rappresentazione simbolica funzionale della radianza che raggiunge il sensore in
corrispondenza del generico pixel della banda considerata. Per “tradurre” i DN nei corrispondenti valori di
radianza (non riflettanza) occorre conoscere le curve di calibrazione dei sensori. Esse sono specifiche di
ciascun rilevatore, quindi anche di ciascuna banda.

Radianza
Le curve di calibrazione sono rette e mettono in relazione il DN
alla radianza.

𝑳𝝀 = 𝑮𝑨𝑰𝑵𝝀 ∙ 𝑫𝑵𝝀 + 𝑶𝑭𝑭𝑺𝑬𝑻𝝀


𝐿𝑚𝑎𝑥 − 𝐿𝑚𝑖𝑛
𝐺𝐴𝐼𝑁 = ( )
2𝑟
𝑂𝐹𝐹𝑆𝐸𝑇 = 𝐿𝑚𝑖𝑛
Lmax e Lmin sono rispettivamente il limite superiore e inferiore
delle radianze registrabili dal singolo rilevatore.
r è la risoluzione radiometrica espressa in numero di bit.

2 – Trasmissività (τ) e componente diffusiva atmosferica (Latm)

Queste due possono essere stimate attraverso due tipi di approcci:

➢ procedimenti rigorosi fisicamente basati che prevedono la modellizzazione dell’atmosfera al


momento dell’acquisizione e la conoscenza dei parametri fisici coinvolti. Nel corso non ne parliamo
(i modelli più diffusi sono ATCOR3/4, FLAASH, MODTRAN…)
➢ procedimenti empirici di tipo statistico semplificati, ma sufficientemente accurati per molti tipi di 33
applicazioni (non per ambiti di studio delle acque per es.). Questi prevedono l’utilizzo di valori di
riferimento per la trasmissività tabellati per diversi ambiti territoriali (es. medie-alte latitudini) e
sistemi semplificati per la stima della componente diffusiva atmosferica detti DOS (Dark Object
Subtraction). Quindi il τout viene assunto uguale a τin per tutta la scena.

Sistemi DOS - Dark Object Subtraction

La ricerca della componente diffusiva atmosferica avviene sotto le seguenti ipotesi:

✓ le zone in ombra non riflettono che la componente diffusa di illuminazione


✓ le zone d’ombra coincidono con zone in cui si registrano i minimi di radianza
✓ i valori di radianza retro-diffusa dall’atmosfera in ciascuna banda si mantengono costanti per l’area
osservata (vero solo per scene di estensioni limitate)

la ricerca della componente diffusiva atmosferica, attesa diversa per


ogni banda con valori decrescenti in accordo alla legge della
diffusione selettiva di Rayleigh, può essere effettuata in diversi modi.
In questo corso si suggerisce l’approccio basato sulla lettura
dell’istogramma di frequenza di ciascuna banda precedentemente
calibrata in valori di radianza per mezzo delle curve di calibrazione.

Riccardo Conti Telerilevamento Non Rubare! 😊


Il valore di radianza, assumibile come una stima della
componente diffusiva atmosferica nella banda considerata,
può assumersi uguale al valore che precede il repentino
cambio di pendenza dell’istogramma di frequenza.

Range: 0 a 1  bisogna sanare i dati < a 0 e > di 1

3 – Irradianza solare (I) e il suo fattore correttivo stagionale (k)

I valori di irradianza solare sono ricavabili nota l’exitanza solare (curve di emissione di Planck per il sole) e il
fattore correttivo di diluizione stagionale che tiene conto della distanza Terra-Sole al momento
dell’acquisizione. Per qualunque sensore è possibile calcolare le exitanze corrispondenti attraverso processi
di integrazione della curva di Planck tra gli estremi di banda.

Il fattore k è normalmente riportato all’interno dei metadati rilasciati con le immagini in forma diretta o
come d (distanza Terra-Sole in Unità Astronomiche (k = 1/d2)) 34

2 - Classificazione delle immagini

Esistono molte metodologie di classificazione, che utilizzano algoritmi diversi e forniscono risultati più o
meno precisi. Il metodo di classificazione prescelto dovrebbe dipendere strettamente dal modo di
considerare il pixel che compone l’immagine:

▪ il pixel è un elemento isolato ed omogeneo, non divisibile. La classificazione è realizzata


solamente sulla base delle caratteristiche spettrali del pixel;
▪ il pixel è un elemento isolato non omogeneo, in quanto può essere composto da elementi di
classi diverse che sono stati mediati per fornire i DN alle varie bande (pixel misti);
▪ il pixel è un elemento omogeneo nel suo contesto di relazione posizionale con gli altri pixel
dell’immagine. In tal caso, oltre alle caratteristiche spettrali del pixel, si analizza anche la
geometria delle forme disegnate da più pixel contigui, omogenei dal punto di vista spettrale.

La classificazione per pixel può essere realizzata con il metodo automatico (un-supervised), o assistito
(supervised):

➢ Automatica (un-supervised o cluster analysis): è l’algoritmo che si


incarica di riconoscere le somiglianze spettrali (firme spettrali simili) tra
le celle e accorparle in classi dette clusters.

Riccardo Conti Telerilevamento Non Rubare! 😊


➢ Assistita (supervised): è l’operatore che sulla base di misure in
campo o per fotointerpretazione individua delle firme spettrali
di riferimento, cioè dei gruppi di celle dell’immagine
multispettrale da usare come modello. Questi gruppi di celle
campione sono detti ROI (Region Of Interest) o AOI (Areas Of
Interest).

Classificazione automatica (un-supervised)

Non richiede alcun intervento nel fornire una firma spettrale di riferimento  cluster analysis: vengono
aggregati in cluster firme spettrali simili. Può essere utile quando si cercano differenze spettrali di cui non è
nota la posizione.

Il pixel (P) è una variabile multivariata (vettore) e ognuno di essi è potenzialmente descrivibile come un
punto con date coordinate  scatterogramma
𝜌1
̅ 𝜌
𝑃 = [ 2 ] ⟶ 𝑟𝑖𝑠𝑜𝑙𝑢𝑧𝑖𝑜𝑛𝑒 𝑠𝑝𝑒𝑡𝑡𝑟𝑎𝑙𝑒
𝜌𝑛
Gli algoritmi più usati sono 2:

➢ k-Means (Interactive Minimum Distance)


➢ ISO-DATA  variante del k-Means

35
Metodo di partizionamento k-Means

Si parte da un dataset di n osservazioni e si fissa il numero k di gruppi. Si raggruppano i dati in modo da


avere massima omogeneità all’interno di ogni gruppo rispetto ad una metrica prefissata che rende
distinguibile ogni gruppo da un altro. L’algoritmo può essere schematizzato in cinque passi:

1. si sceglie il numero k di cluster da formare;


2. si scelgono in modo casuale (spesso utilizzando generatori di numeri casuali) k valori del dataset,
essi saranno i cosiddetti centroidi dei k cluster;
3. si utilizza la distanza euclidea per assegnare i restanti dati ai cluster attraverso la distanza dai
centroidi rappresentativi dei cluster;
4. si utilizzano i dati così aggregati per calcolare, attraverso le medie delle coordinate dei punti
appartenenti ad ogni cluster, le coordinate dei nuovi centroidi;
5. se le nuove medie sono uguali a quelle calcolate in precedenza il processo termina, in caso
contrario si utilizzano tali medie come centroidi e si ripetono i passi dal (3) al (5) per determinare le
distanze dai nuovi centroidi.

Di ogni clusters, oltre al valore medio


posso calcolare anche la deviazione
standard. Se cerco troppi clusters
l’effetto finale sarà un’immagine troppo
colorata tipo “salt and pepper”

Quindi, le classi sono omogenee per ciò che riguarda la risposta spettrale dei pixel che le formano ed è
compito dell’analista quello di attribuire una classe di copertura del suolo ad ogni classe spettrale.

Riccardo Conti Telerilevamento Non Rubare! 😊


Variante ISO-DATA

Finito il k-Means, se si applica questa variante, l’algoritmo fa dei controlli sui clusters fino a trovare la
convergenza esatta:

➢ Numerosità dei clusters: quanti pixel ci sono nei clusters. Se sono al di sotto di una soglia data mi
elimina il cluster perché sarebbe inutile e sprecato  KILLING
➢ Dispersione dei cluster: guarda tutte le deviazioni standard. Se sono troppo dispersi lo divide in 2 
SPLITTING
➢ Controllo delle distanze tra centroidi vicini: se ci sono due centroidi troppo vicini vengono fusi in
uno solo e viene ricalcolato un nuovo centroide  MERGING

Classificazione assistita (supervised)

I parametri di funzionamento del modello devono essere stimati sulla base di campioni di addestramento
che l’operatore deve preventivamente collezionare sulla scena e fornire al classificatore. Tali campioni,
costituiti da più insiemi di celle dell’immagine, sono detti ROI. Una ROI è un insieme di celle rappresentative
di una data classe di copertura del suolo. Possono essere collezionate direttamente sulla scena (via
software) oppure, nel modo che sarebbe quello auspicabile e rigoroso, attraverso mirate campagne di
misura al suolo.

Le ROI costituiscono un campione statistico della popolazione dalla quale sono estratte. Esse devono
pertanto rispettare le seguenti caratteristiche:

▪ Rappresentatività: un campione è tanto più rappresentativo quanto più alto è il numero delle celle
che lo costituiscono. Un campione è ritenuto rappresentativo se il numero di celle che lo 36
costituiscono è circa il 5% della popolazione che esso rappresenta. Tale valore è deducibile da una
stima basata unicamente su fotointerpretazione mirata a definire, per ogni classe, una percentuale
approssimata di sua presenza sulla scena.
▪ Significatività: un campione è significativo se la sua deviazione standard si mantiene
sufficientemente bassa, cioè se la dispersione attorno al suo valor medio è contenuta.
o Legata alla dispersione del campione rispetto al suo valore medio
𝜎
𝐶𝑜𝑒𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒 𝑑𝑖 𝑉𝑎𝑟𝑖𝑎𝑧𝑖𝑜𝑛𝑒 ⟹ 𝐶𝑉 = ⟹ 𝑒𝑟𝑟𝑜𝑟𝑒 𝑝𝑒𝑟𝑐𝑒𝑛𝑡𝑢𝑎𝑙𝑒
𝜇
Nel caso di classificatori spettrali la grandezza statistica considerata è la variabile multidimensionale
(dimensioni pari al n di bande dell’immagine) costituita dal vettore firma spettrale.

Quindi:

✓ Le firme devono essere estratte dalla stessa immagine che vado a classificare  ROI.
✓ Bisogna prima andare sul campo con strumentazione GPS così da essere sicuro dei pixel che dovrò
raggruppare e in questo modo posso prendere la firma spettrale giusta.
✓ Di ogni ROI conosco firma spettrale media e deviazione standard  mi dice se ho incluso dei pixel
che in realtà afferiscono ad un’altra area.
✓ Le ROI sono quindi campioni statistici di una popolazione statistica, rappresentativi e significativi.
✓ Con le ROI piazziamo già i centroidi nelle posizioni finali  devono solo essere scelti i criteri per
confrontare i centroidi con i pixel generici.

Riccardo Conti Telerilevamento Non Rubare! 😊


Nella classificazione assistita abbiamo 4 metodi principali:

1 - Classificazione a parallelepipedo

Costruisco un cassone di pertinenza intorno al centroide di dimensione =


n∙σ

Il problema può essere che il cassone viene troppo grande e quindi ci


entrano dentro troppi pixel, oppure due cassoni possono intersecarsi.
Questo infatti è un criterio molto grezzo che non viene usato quasi mai.

2 – Classificazione del Minimum Distance (Minima Distanza)

Questo tipo di classificazione è basato sul calcolo delle distanze euclidee,


nello spazio n-dimensionale delle bande, tra il vettore P che rappresenta la
singola cella in tale spazio e i centroidi Ci, punti rappresentativi delle diverse
classi, la cui posizione nello spazio viene definita come il vettore medio delle
singole ROI. La deviazione standard (S) della ROI in tale spazio è utilizzata
per definire l’accettabilità dell’assegnazione della cella alla classe di
centroide ad essa più prossimo. L’esempio riportato considera
l’assegnazione della cella P alle classi. L’algoritmo prevede che venga
calcolata la distanza euclidea da ogni centroide presente. Il centroide cui
compete distanza minima (C3) sarebbe il vincitore della competizione. La cella P andrebbe dunque
assegnata alla classe 3. L’algoritmo prevede la possibilità di assegnare aree di accettabilità al fine di
accertare che la cella non si trovi troppo lontana dal centroide di assegnazione; nell’esempio questa viene
indicata con r|S| intendendo con questo un multiplo della deviazione standard. È considerato il modulo del 37
vettore S. Esso costituisce il raggio dell’area circolare di accettabilità dell’assegnazione. La mancata
assegnazione di una cella ad una delle classi definite implica la sua assegnazione alla nuova classe dei “non
classificati”. Quindi:

✓ soglie di accettabilità: come multiplo di σ o come valore assoluto


✓ valori accettabili: da 3-4σ in su

𝑑𝑖 = √∑(𝐷𝑁𝑖 − 𝑋̅𝑖 )2
𝑖=1

𝑛
|𝑆| = √∑(𝜎𝑖 )2
𝑖=1

Dove: N = n. di celle della ROI i-esima ed n = n. di bande dell’immagine

3 – Classificazione SAM (Spectral Angle Mapper)

Identifica i vettori e fanno un cono per ogni direzione trovata. Se il pixel è dentro il cono va nella
classe. Due pixel molto lontani potrebbero entrare nello stesso cono, ma potrebbero essere la
stessa cosa con una riflettibilità diversa (per es. pixel al sole e pixel all’ombra). L’ampiezza dei
coni è in radianti ed è l’unica cosa che puoi decidere.

Riccardo Conti Telerilevamento Non Rubare! 😊


4 – Classificazione del Maximum Likelihood (Massima Verosimiglianza)

Il processo di classificazione in questo caso avviene secondo criteri probabilistici e non geometrici.
Ipotizzando per ogni classe (quindi per ogni ROI rappresentativa) una distribuzione normale multivariata
(gaussiana n-dimensionale, con n = n. di bande) si procede al calcolo dei due parametri vettoriali del
modello (media e dev. standard) per ogni classe rappresentata dalle ROI. Questi sono necessari per
descrivere analiticamente la distribuzione normale di ogni classe.

𝟏 (𝒙−𝝁)𝟐

𝒇(𝒙) = ∙𝒆 𝟐𝝈𝟐 ⟹ 𝝈 𝒆 𝝁 𝒔𝒐𝒏𝒐 𝒊 𝟐 𝒑𝒂𝒓𝒂𝒎𝒆𝒕𝒓𝒊
√𝟐𝝅𝝈𝟐
I pixel delle ROI si distribuiscono in modo naturale intorno al
valore medio. Per ogni banda posso definire la sua curva di ROI1
distribuzione. μ1 e σ1
Teorema centrale della statistica: la probabilità che un evento si
verifichi è pari alla frequenza con cui si è verificato nel passato.

Il pixel generico esprime un certo valore di ρ. Questo definisce ρ1


livelli di probabilità diversi nelle varie curve  viene assegnato
alla ROI in cui la probabilità che esprime è maggiore. ROI2

Si può mettere una soglia sotto la quale il pixel non viene μ2 e σ2


assegnato  valore tra 0 e 1. In genere la soglia viene messa
sopra lo 0,7.
ρ1
Attualmente si utilizzano sistemi basati sulle reti neurali (sistemi
38
interattivi con ROI)

3. Controllo

Verifica della bontà delle classificazioni

Nel caso di classificatori supervisionati si può procedere alla valutazione dei risultati su due livelli:

• quello che stabilisce se l’addestramento del classificatore risulta buono e quindi in grado di
generalizzare. In questo caso viene considerata la prestazione di classificazione sulle ROI. Viene cioè
valutato come le celle assegnate in fase di addestramento alle ROI siano poi state classificate nella
fase di applicazione del modello addestrato.
• Quello che stabilisce se le classi definite ed identificate sulla scena hanno una reale rispondenza al
suolo. Se per esempio, ciò che è stato definito bosco sia effettivamente bosco. Questo livello
prevede l’effettuazione di campagne di verità al suolo.

In questa situazione lo strumento utilizzato per la verifica è la matrice d’errore o confusion matrix. Essa è
costruita incrociando le classi di assegnazione (sulle righe) con le ROI (colonne) come da tabella. Questo
strumento consente di determinare la bontà delle ROI e la loro separabilità nello spazio delle bande.

VALORI ATTESI
ROI1 ROI2 ROIn TOT
C1 m1
OTTENUTI
VALORI

C2 m2
Cn mn
NC
TOT n1 n2 nn Ntot

Riccardo Conti Telerilevamento Non Rubare! 😊


Sulla tabella si scrive il numero delle ROI che mi aspettavo e il numero di pixel che sono stati classificati.
Sulla diagonale ci sono tutti i pixel della ROI classificati correttamente mentre fuori dalla diagonale ci sono
tutti gli errori.

Da questa si ottiene una matrice:

𝒂𝟏𝟏 𝒂𝟏𝟐 ⋯ 𝒂𝟏𝒎


𝒂 𝒂𝟐𝟐 ⋯ 𝒂𝟐𝒎
𝒏 ∙ 𝒎 [ 𝟐𝟏 ]
⋮ ⋮ ⋯ ⋮
𝒂𝒏𝟏 𝒂𝒏𝟐 ⋯ 𝒂𝒏𝒎

Parametri sintetici della classificazione righe colonne

Precisando che aii sono gli elementi lungo la diagonale e aij sono gli altri elementi, abbiamo:

➢ Overall Accuracy: indica quante celle delle ROI complessivamente sono state correttamente
assegnate. Il problema è che se è alta, non necessariamente tutte le classi funzionano bene.
Determina quindi l’accuratezza della classificazione rispetto alla verità a terra. Si calcola come la
sommatoria dei pixel sulla diagonale maggiore sulla sommatoria dei pixel totali:
∑ 𝒂𝒊𝒊
𝑶𝑨 =
𝑵𝒕𝒐𝒕
➢ Class Accuracy: Per valutare l'accuratezza della classificazione nelle varie classi è possibile calcolare
il rapporto fra ciascun elemento della diagonale principale e la sommatoria delle numerosità della
sua colonna. Indica quindi quante celle della ROI i-esima sono state correttamente assegnate alla
classe i-esima. 39
o Producer’s CA  indica la probabilità che un pixel collocato in un’area campione sia
effettivamente classificato nella classe dell’area campione. Si calcola come il n° pixel entro
un’area campione classificati come classe dell’area campione sul numero totale di pixel
entro l’area campione. Si usa quindi per singole classi e si ha una potenziale perdita di
informazioni.
𝒂𝒋𝒋 𝒂𝟏𝟏
𝑷𝑪𝑨 = → 𝒂𝒅 𝒆𝒔.
𝒏𝒋 𝒏𝟏
o User’s CA  Indica la probabilità che un pixel classificato in una classe sia veramente di
quella classe. Si calcola come il n° pixel classificati correttamente in una certa classe sul
numero totale di pixel classificati in quella classe. C’è un errore da tener conto.
𝒂𝒋𝒋 𝒂𝟏𝟏
𝑼𝑪𝑨 = → 𝒂𝒅 𝒆𝒔.
𝒎𝒋 𝒎𝟏
➢ Class Commission: indica quante celle di altre ROI diverse da quella i-esima sono finite nella classe
i-esima.
∑ 𝒂𝒊𝒋
𝑪𝑪𝒋 =
𝒎𝒕𝒐𝒕
➢ K coefficient: assume che dentro l’OA ci sono informazioni assegnate per casualità. Ti toglie la parte
di “fortuna” che hai avuto al processo. Il valore del coefficiente K può oscillare tra 0 e 1. Valori bassi
indicano una rispondenza nulla fra i dati sicuri e quelli classificati. Valori alti il contrario.
Generalmente un valore pari a 0.75 o superiore indica un risultato da buono a eccellente mentre
uno pari o minore a 0.4 un risultato scarso. Il coefficiente K viene spesso usato per confrontare
classificazioni eseguite con algoritmi diversi. Per un confronto sensato va tuttavia consigliato di
mantenere le stesse categorie nelle classificazioni che si confrontano.

Riccardo Conti Telerilevamento Non Rubare! 😊


40

fine

Riccardo Conti Telerilevamento Non Rubare! 😊

S-ar putea să vă placă și