Documente Academic
Documente Profesional
Documente Cultură
fotointerpretazione
Fatte da Rico
Introduzione al Telerilevamento
Il compito prioritario del TR è procedere alla classificazione delle superfici che definiscono il paesaggio
dell’area di studio. Possiamo affermare che ha due principali tipologie di applicazione:
➢ Produrre carte tematiche del territorio (carte forestali, del suolo…) TR qualitativo
o Grandi scale: 1:5000, 1:10000…
o Piccole scale: 1:50000, 1:100000…
➢ Mappare parametri eco-fisiologici in modo quantitativo TR quantitativo
In queste applicazioni il processamento dei dati richiede maggiore rigore e dati ausiliari di campo.
Un po’ di definizioni…
Tipologie di TR
✓ TR attivo: la sorgente di segnale costituisce parte del sistema rilevatore radiografie, RADAR,
SONAR, geofisica, ecc. quindi attraverso l’ECO
✓ TR passivo: la sorgente di segnale è esterna al sistema rilevatore TR ottico da terra, da aereo o
da satellite.
Il TR che utilizziamo noi opera attraverso il campionamento regolare del contributo riflettivo
(telerilevamento ottico) o emissivo (termografia) delle superfici. I contributi energetici, ricevuti dalle
TR passivo
Attraverso la riflessione
(avviene solo di giorno) o
l’emissione (termografia).
Incoming REM
Reflected REM
Emitted REM.
Energia Elettromagnetica
Innanzitutto la luce è un’onda che trasporta energia formata da fotoni. L’energia è proporzionale alla
frequenza dell’onda che la trasporta ( onde ad alta frequenza portano fotoni ad alto contenuto di E).
𝒉𝒄
𝑬 = 𝒉𝒗 =
𝝀
Spettro elettromagnetico
Lunghezza d’onda maggiori del visibile, ma a minore energia. Nella regione dell’IR sono individuati:
• Infrarosso vicino – NIR (Near IR) [0.7 – 1 μm] usata dai sensori passivi che registrano la
componente riflettiva delle superfici.
• Infrarosso medio – MIR o SWIR (Shortwave IR) [1.0 – 3.0 μm] usata dai sensori passivi che
registrano la componente riflettiva delle superfici. Si suddivide in:
▪ MIR1 o SWIR1 [1.0 – 1.5 μm]
▪ MIR2 o SWIR2 [1.5 – 3.0 μm]
• Infrarosso termico – TIR (Longwave IR o Thermal IR) [3.0 – 30 μm] usata dai sensori passivi che
registrano la componente emissiva delle superfici (termocamere)
• Corpo nero (o radiatore integrale): oggetto che è in grado di assorbire tutta la radiazione che lo
investe e che emette tutta l’energia ricevuta alle varie lunghezze d’onda. Un tale oggetto quindi
non riflette nulla e pertanto lo si può ben immaginare come nero. In realtà in natura nessun
oggetto si comporta integralmente come corpo nero, però alcune superfici naturali presentano tali
caratteristiche in alcune porzioni di spettro, per esempio gli oggetti che ci appaiono neri nel visibile.
• Emissività o Emittanza di un corpo: è il rapporto tra la radianza effettivamente emessa dal corpo e
quella che emetterebbe un corpo nero di pari temperatura.
𝑹𝑪 (𝝀)
𝜺𝝀 = 5
𝑹𝑪𝑵 (𝝀)
𝑊
R= flusso di potenza 𝑅 =
𝑊 2 ∙𝜇𝑚∙𝑆𝑟
Legge di Kirchoff: questa rapporta l’energia assorbita da un corpo rispetto a quella emessa. La capacità di
un corpo di emettere energia a una data temperatura è definita emissività e viene indicata con il parametro
ε che ha valori tra 0 e 1. La proprietà di assorbire l’energia incidente, invece, è definita dal coefficiente di
assorbimento ed è espressa dal parametro α. Per la legge di Kirchoff l’emissività di qualsiasi corpo è pari al
suo coefficiente di assorbimento ovvero:
𝜺𝝀 = 𝜶𝝀
In generale, un corpo con grandi capacità di assorbire energia, detto “assorbitore”, mostra una buona
capacità di riemetterla e viceversa. Se un corpo assorbe tutta l’energia incidente avrà un valore di α uguale
ad 1; conseguentemente la sua ε avrà anch’essa valore unitario, in altre parole, tale corpo emetterà tutta
l’energia assorbita. Queste, sono le caratteristiche proprie di un corpo nero ovvero di un corpo che mostra
massima capacità di assorbimento ed emissione per tutte le lunghezze d’onda.
Legge di Emissione di Planck (o di Wien-Planck): esprime come un corpo nero, con temperatura T
superiore allo zero assoluto, emette energia sotto forma di radiazioni. Essa descrive inoltre come tale flusso
radiante aumenta in funzione della temperatura e come varia alle diverse lunghezze d’onda
𝟐𝝅𝒄𝟐 𝒉 𝟏
𝑹(𝝀) = ∙
𝝀𝟓 𝒉𝒄
𝒆𝝀𝒌𝑻 − 𝟏
Legge di Wien: Dall’analisi delle curve illustrate si può osservare che la lunghezza d’onda corrispondente
alla massima emissione λmax non è sempre la stessa ma dipende dalla temperatura T. Grazie a questa legge
si individua la λ per cui si realizza il massimo di emissione da parte di un corpo nero posta alla temperatura
assoluta T. Il punto massimo di emissione per una certa temperatura T può essere determinato con la
seguente formula:
𝟐𝟖𝟗𝟖
𝝀𝒎𝒂𝒙 =
𝑻
Tsole ≈ 5770K λsole ≈ 0.50 μm
Formula dell’iperbole y = k/x
Tterra ≈ 300K λterra ≈ 9.66 μm 6
La relazione mostra come la lunghezza d’onda λmax si sposti verso valori più piccoli man mano che cresce la
temperatura T della superficie. I valori di picco di emissione per le 2 sorgenti nell’esempio risultano quindi
essere: 9,66 μm per la superficie della Terra (nell’infrarosso termico) e 0,50 μm per il Sole (nel blu-verde, e
quindi nel visibile).
Indica la quantità di energia Mλ emessa da un corpo nero, ad una data temperatura T e su tutte le
lunghezze d’onda, si ottiene integrando la funzione M [λ, T] su tutto lo spettro:
∞
𝑴𝝀 = ∫ 𝑅(𝜆) ⋅ 𝑑𝜆 ≅ 𝝈𝑻𝟒
0 7
Dove:
questi meccanismi vengono descritti con dei coefficienti specifici detti rispettivamente:
𝑬𝒓 (𝝀)
𝝆𝝀 = → 𝑹𝒊𝒇𝒍𝒆𝒕𝒕𝒂𝒏𝒛𝒂
𝑬𝒊 (𝝀)
𝑬𝒕 (𝝀) 8
𝝉𝝀 = → 𝑻𝒓𝒂𝒔𝒎𝒊𝒕𝒕𝒂𝒏𝒛𝒂
𝑬𝒊 (𝝀)
𝑬𝒂 (𝝀)
𝜶𝝀 = → 𝑨𝒔𝒔𝒐𝒓𝒃𝒂𝒏𝒛𝒂
𝑬𝒊 (𝝀)
Nel caso di corpi opachi, e cioè per la gran parte delle superfici naturali, τ risulta generalmente trascurabile.
Se poniamo ad esempio un oggetto davanti al Sole, questo ci schermerà dalla luce proiettando un’ombra
nella regione di influenza, e quindi la relazione precedente si semplifica nella seguente: 𝝆𝝀 + 𝜶𝝀 = 𝟏
Dalla legge di Kirchoff si è visto come l’energia assorbita viene poi riemessa per cui, sostituendo α con il
valore dell’emissività ε, si ha anche che: 𝝆𝝀 + 𝜺𝝀 = 𝟏
Per comprendere meglio questo fenomeno, basta ricordare ciò che accade ad un’automobile nera che
rimane esposta per un’intera giornata al sole. A causa del suo colore scuro, l’auto riflette poca luce e quindi
assorbe tanta energia solare riemettendola sotto forma di calore. Questo spiega come mai, alla fine della
giornata, l’abitacolo dell’auto sarà talmente caldo da non consentire di toccare neanche il volante.
✓ Exitanza [W/m2 ∙ μ] sono i raggi emessi dalla sorgente ovvero la densità di flusso radiante in
uscita
✓ Irradianza [W/ m2 ∙ μ] sono i Watt che arrivano a terra. Il significato del m2 cambia dalla Exitanza.
Nella prima sono i Watt emessi al m2, nella seconda sono i Watt che colpiscono 1 m2 di terreno.
Ovvero la densità di flusso radiante incidente
✓ Radianza [W/ m2 ∙ μ ∙ Sr] La radianza è costituita dall’ammontare di radiazione da un oggetto.
Viene definita come il flusso radiante per unità di superficie e di angolo solido, per una data
direzione e misurato su un piano perpendicolare alla direzione data. Per flusso radiante si intende
la quantità di energia radiante (cioè trasportata dalle onde elettromagnetiche), trasferita da un
punto o superficie ad un’altra superficie nell’unità di tempo. La radianza si misura in W ∙ m-2 ∙ Sr-1
(Watt allo steradiante per unità di superficie)
o Steradiante (Sr) è l’angolo solido. Sr = 2π (1 – cosα)
E R
Le superfici, a parità di riflettività, si possono comportare in modo molto diverso in forza della loro rugosità
9
che condiziona la geometria della riflessione. Tale geometria può assumere forme diverse variabili tra due
estremi comportamentali: quello lambertiano (o uniforme) e quello speculare (o direzionale).
Una superficie si dice lambertiana se riflette uniformemente in tutte le direzioni; si dice quasi-lambertiana
se riflette con una direzione prevalente; si dice speculare se riflette in una sola direzione.
𝜆
Attraverso il Criterio di Rayleigh, una superficie si considera rugosa se: ∆ℎ ≥
8 sin(𝛽)
Superfici a pari riflettività possono comportarsi molto diversamente ad esempio un foglio di carta bianco
e uno specchio. Entrambi hanno riflettività, nel visibile, prossima a 1. Tuttavia, in forza della loro rugosità,
generano effetti visivi molto diversi. Le superfici speculari costituiscono un problema per i sistemi di
Firme spettrali
Acqua
10
Suolo sabbioso
Suolo argilloso
Neve
Vegetazione
11
La firma della
vegetazione varia a
seconda dei cicli
fenologici. (se il
contenuto di acqua
diminuisce, il picco nel
verde si abbassa e la
curva del MIR si alzerà)
Firme a confronto
Immagine digitale consiste in un insieme di elementi discreti organizzati per righe e colonne in modo da
formare una matrice bidimensionale. Ogni elemento, chiamato pixel, è descritto da un numero che
rappresenta la radianza media di una piccola area, o cella elementare, della scena. La dimensione degli 12
elementi influisce sulla riproduzione dei dettagli ed è determinata dall’altezza del sistema di ripresa e delle
sue caratteristiche di costruzione, in particolare dal campo di vista istantaneo. È quindi una matrice
numerica i cui elementi rappresentano il valore di radianza riflessa (Numero indice o Digital Number, DN)
dalla porzione di superficie che essi rappresentano.
Il Digital Number indica quindi il numero intero che rappresenta il valore di radianza misurato per una cella
di risoluzione e che è una delle caratteristiche di ogni pixel delle immagini. Ogni DN è esprimibile
informaticamente da uno o più byte ( 1 byte = un pacchetto di 8 bit). Quindi con 1 byte è possibile
rappresentare 256 valori di DN (0 – 255) [0 = Nero; 127 = Grigio; 255 = Bianco].
10010101 A127 + A226 + A325 + A424 + A523 + A622 + A721 + A820 = 256
C IFOV
FOV
P
GSD
SWATH
➢ Risoluzione geometrica o Ground Sample Distance, GSD l’impronta a terra espressa in m del
pixel fisico
➢ Campo di vista istantaneo o Istantaneous Field Of View, IFOV superficie sottesa dall’angolo
solido che si ottiene proiettando la superficie del rivelatore attraverso l’ottica antistante: è quindi
l’area al suolo investigata istantaneamente dal rivelatore. Ovvero l’angolo sotteso di ogni GSD.
➢ Campo di vista o Field Of View, FOV costituito dall’insieme dei singoli campi istantanei di vista
che costituiscono la linea di scansione. Ovvero l’angolo sotteso dell’intera scena.
➢ Swath rappresenta la lunghezza di una linea, cioè l’insieme di pixel in successione. Costituisce la
larghezza in m dell’immagine.
➢ Distanza focale è la distanza che c’è tra P’ e C. Al variare della distanza focale varia il FOV.
13
15
Definiamo quindi:
✓ Immagine in banda singola: una matrice numerica dimensione (1 solo strato) in toni di grigio
relativa alla radiazione riflessa in uno specifico intervallo di λ.
✓ Immagine multispettrale: una matrice numerica dimensionale (più strati) relativa alla radiazione
riflessa in più intervalli di λ. Ciascun strato costituisce una banda ed è rappresentato da un’indagine
in toni di grigio.
✓ Immagine pancromatica: una matrice numerica dimensionale (1 solo strato) in toni di grigio relativa
alla radiazione riflessa in un intervallo di λ ampio comprendente più intervalli spettrali
comunemente individuati (es. tutta la regione del visibile).
L’elemento minimo dell’immagine che rappresenta la radianza registrata dal singolo rilevatore è detta cella.
La sua rappresentazione a video è il pixel. Data un’immagine digitale si dice pixel ognuna delle superfici
elementari che la costituiscono. Ogni pixel è caratterizzato da tre valori: 2 coordinate che individuano la
posizione del pixel all’interno dell’immagine e 1 numero d’indice (DN). Ogni pixel corrisponde a una cella di
risoluzione a terra le cui dimensioni sono definite dalle caratteristiche dello strumento di ripresa mentre, il
Caratteristiche dell’immagine
• Risoluzione geometrica [m] esprime le dimensioni della più piccola area rilevabile. Per i satelliti
la dimensione dell’area risolta al suolo varia da una dimensione nell’ordine di grandezza dei metri
fino a qualche chilometro. La dimensione del pixel influisce sulla riproduzione dei dettagli della
scena ed è determinata dall’altezza del sistema di ripresa e dalle sue caratteristiche di
funzionamento, in particolare dall’angolo di vista del sensore che determina l’area-impronta sulla
superficie terrestre vista, l’IFOV. Un oggetto, quindi, per poter essere distinto nell’immagine, deve
avere una dimensione uguale o maggiore rispetto alla risoluzione del sistema. In pratica è il GSD.
(Pixel: 10m 160x160; Pixel: 40m 40x40; ecc.)
• Risoluzione radiometrica [bit] L’energia che arriva ad ogni misuratore elettronico viene
trasformata da un flusso continuo in una serie di intervalli discreti registrati come numeri interi
(DN). Questi intervalli costituiscono la risoluzione
radiometrica del sensore (e conseguentemente
dell’immagine). Tale risoluzione si riferisce quindi al
numero di livelli nei quali viene espresso un segnale
registrato dal sensore. Generalmente più grande è il
numero dei livelli, migliore è il dettaglio delle informazioni
presenti sull’immagine. Il numero dei livelli radiometrici è
generalmente espresso in termini dei bit necessari per
registrare il valore più elevato della scala discreta. Così, ad
esempio, per esprimere i 256 livelli di risoluzione
radiometrica (da 0 a 255) del sensore TM di Landsat 5, 16
sono necessari 8 bit, per Landsat 7 12 bit (da 0 a 4096), per
OLI di Landsat 8 16 bit (da 0 a 65535).
• Risoluzione spettrale [n. bande] Si riferisce al numero e all’ampiezza degli intervalli dello spettro
elettromagnetico alle quali il sensore del satellite è sensibile. Il numero degli intervalli corrisponde
alle bande rese disponibili in layer diversi nell’immagine. Un’immagine può quindi essere costituita
da:
o un solo layer, risultato della risposta spettrale ad una lunghezza d’onda molto ampia (es.
banda pancromatica di alcuni sensori, che copre l’intera lunghezza d’onda del visibile,
ovvero blu, verde e rosso);
o alcuni layer, ognuno dei quali è relativo ad una banda con lunghezza d’onda abbastanza
ampia (immagini multispettrali);
o molti layer, relativi ad intervalli di lunghezza d’onda molto piccoli (immagini iperspettrali,
registrate da sensori aviotrasportati, bande dal visibile all’infrarosso termico).
• Risoluzione temporale [gg] La risoluzione temporale di un sensore specifica quanto spesso
questo è in grado di registrare una scena nella stessa zona. La ripetizione del passaggio del satellite
sulla stessa area dipende dall’orbita compiuta e dalla sua altezza sul suolo. È quindi la distanza
temporale tra due acquisizioni successive della stessa zona.
Non è possibile costruire un sensore che acquisisca immagini a massima risoluzione geometrica, spettrale e
radiometrica contemporaneamente. Infatti per ottenere immagini di radianza rappresentative della realtà a
terra occorre che il segnale di radianza registrato dal sensore sia molto maggiore rispetto al “rumore”
strumentale, cioè una qualsiasi variazione del segnale dovuta a fattori che non siano l’oggetto di studio.
Immaginiamo, infatti, di avere a disposizione un sensore ad alta risoluzione geometrica. Tali sensori sono
caratterizzati da un piccolo angolo di vista IFOV, il qual fatto comporta la visione di una piccola porzione di
Es. Landsat
▪ RG: 30 m
▪ RR: 12 bit
▪ RS: 7 bande
▪ RT: 16 gg
17
• Diffusione selettiva o di Rayleigh: si verifica quando le particelle sono più piccole della lunghezza
d’onda della radiazione. Più corta è la lunghezza d’onda, maggiore sarà la quantità di radiazione
diffusa. Questo fenomeno determina effetti diversi ed è responsabile delle svariate colorazioni che
può assumere il cielo nelle varie giornate o in diversi momenti della stessa giornata geometria
isotropa
o Effetti:
▪ colorazione del cielo che dipende dal cammino ottico del segnale, quindi dall’ora
del giorno.
▪ retrodiffusione del segnale verso il sensore che registra anche una componente
atmosferica.
Finestre atmosferiche
I∙K∙
τλ ρλ
La riflettanza ρλ è la proprietà di una superficie quanto riflette rispetto a una λ. Equivale alla radiazione
uscente/radiazione incidente: 𝜌𝜆 = 𝑅 ⁄𝐼 .
𝐿𝜆 − 𝐿𝜆𝑎𝑡𝑚
𝑅= → 𝑑𝑒𝑣𝑒 𝑒𝑠𝑠𝑒𝑟𝑒 𝑚𝑜𝑙𝑡𝑖𝑝𝑙𝑖𝑐𝑎𝑡𝑜 𝑝𝑒𝑟 𝜋
𝜏𝜆𝑜𝑢𝑡
Moltiplicando per π arrivo ad una R complessiva (ho un’unità di steradiante)
Per conoscere I noi abbiamo già l’exitanza che è funzione della distanza dal sole K è il fattore
moltiplicativo: 𝐾 = 1⁄𝑑 2 (d2 è la distanza dal sole in unità astronomiche).
L’exitanza e K, entrando in atmosfera fino al suolo viene modulata per un fattore 𝜏𝜆𝑖𝑛 I ∙ K ∙ 𝜏𝜆𝑖𝑛
Quindi:
𝜋 ∙ (𝐿𝜆 − 𝐿𝜆𝑎𝑡𝑚 )
𝜌𝜆 =
𝜏𝜆𝑜𝑢𝑡 (𝐼 ∙ 𝐾 ∙ 𝜏𝜆𝑖𝑛 ) + 𝜋 ∙ 𝐿𝜆𝑎𝑡𝑚
π ∙ Lλatm lo si mette perché al suolo arriva anche una componente diffusiva verso il basso. Cioè tiene conto
della lambertianità della superficie, quindi della diluizione della radiazione riflessa in tutte le direzioni
Si deve tener conto anche dell’angolo di incidenza solare il flusso è calcolato nella direzione normale,
quindi I va moltiplicato per il seno dell’angolo, ovvero senβ. Ovviamente questo cambia in funzione della
topografia. β si può conoscere sapendo la posizione del sole quando è stata fatta la foto e conoscendo la 19
topografia (DTM e DEM).
Quindi:
Satelliti
• Satelliti geostazionari
o 36000 km di quota
o Inquadrano una zona fissa (es. satelliti meteorologici come METEOSAT, GOES, GMS)
o Forza gravitazionale centrifuga e centripeta
devono essere uguali così che non si muovano
• Satelliti eliosincroni
o 400 – 800 km di quota
o Inquadrano successivamente tutta la superficie
terrestre sfruttando il proprio moto combinato a
quello terrestre (es. satelliti per l’osservazione
della terra EO)
o Orbite quasi-polari
Ricoprimento globale garantito dalle orbite eliosincrone quasi-
o Sorvolano la stessa area alla stessa ora locale.
polari
20
EROS B – Commerciale israeliano dal 2006
21
Sensore ASTER (Advanced Spaceborne Thermal Emission and Reflection Radiometer): è un sistema
modulare costituito da 3 sensori con caratteristiche differenti:
Il colore per definizione scientifica non esiste, è una sensazione legata all’interpretazione di un fenomeno
fisico esterno legato alla propria testa e ai propri occhi. È quindi l’effetto visuale che crea la REM incidente
sulla retina dell’occhio umano. Come già detto, l’occhio è sensibile al campo spettrale compreso tra 0,4 e
0,7 μm ovvero nello spettro del visibile.
Sintesi additiva:
• R+G+B=W
Sintesi sottrattiva:
• Y + M + C = Bk
• W–B=Y
• W–G=M
• W – R = C.
Nella tabella ci
sono alcuni
esempi di sintesi
additiva:
Se associo la banda del rosso al canale rosso e così per il verde e il blu otterrò la cosiddetta immagine true
color, ovvero a colore reale o vero. Tutte le altre rappresentazioni sono invece in falso colore. Il falso colore
per eccellenza ha il NIR sul canale del rosso, il rosso sul verde e il verde sul blu. In questa, tutto ciò che
viene rappresentato in rosso è la vegetazione. Le tegole dei tetti invece saranno sul verde poiché la banda
rossa è nel canale del verde, mentre le parti colorate di ciano rappresentano zone cementate. Quindi
23
questa rappresentazione è molto utile anche per vedere l’espansione urbana dal centro storico (dove il
colore predominante sarà il verde) alla periferia (dove il colore predominante sarà il ciano). Le immagini in
pseudo-colore sono immagini a una singola banda che vengono rappresentate a colori al posto che in toni
di grigio, quindi, i colori sono ottenuti per associazione convenzionale e non per sintesi additiva.
Ricapitolando:
A differenza delle stampe fotografiche le immagini digitali sono dinamiche, cioè possono variare
selettivamente la propria apparenza garantendo migliore interpretabilità.
Frequenza
della frequenza con cui compare ogni valore di DN
(normalmente da 0 a 255) nella scena. Nel grafico della
funzione istogramma di una immagine digitale, sull’asse x
compaiono i numeri indice DN e sull’asse y la frequenza,
assoluta o relativa, cioè il numero di pixel che all’interno
della matrice immagine hanno quel livello di grigio DN.
Ogni banda ha un suo istogramma di frequenza e
caratterizza un’immagine dal punto di vista statistico, ma
non fornisce alcuna informazione circa la disposizione
spaziale dei livelli di grigio nell’immagine stessa.
DN
L’istogramma fornisce informazioni sul valore minimo e 24
Istogrammi di due immagini differenti: sull’asse delle x ci sono i
massimo dei livelli di grigio dell’immagine, inoltre, è
valori che un pixel può assumere nell’immagine, e sull’asse delle y
possibile verificare i valori di DN per cui è massima la il numero di pixel che hanno assunto quel valore nell’immagine.
frequenza, cioè la moda dell’istogramma. Dall’istogramma Nel grafico si può vedere anche il valor medio e la varianza delle
possiamo anche ricavare il valore medio e la varianza due immagini. L’immagine rossa dunque presenta molti pixel con
dell’immagine. La media dà un’idea della luminosità valore vicino al medio, e ha una varianza bassa; l’immagine blu,
viceversa, ha pixel che assumono un range più ampio di valori
dell’immagine: se è bassa, ci si aspetta che l’immagine sia (alta varianza).
rappresentata con livelli di grigio scuri cui corrispondano
valori di radianza bassi; se il valore medio è alto, avviene il contrario. Il valore medio da solo non descrive in
modo adeguato l’insieme di dati. È interessante infatti conoscere come i valori dei pixel variano rispetto al
loro valore medio. La varianza descrive il contrasto dell’immagine, se la varianza è bassa, ci si aspetta di
trovare poche variazioni nei livelli di radianza e quindi l’immagine apparirà piuttosto omogenea e, in
generale, con un valore basso di contrasto.
Per le immagini satellitari la forma della campana tende ad una log-normale (sensori tendono alla sotto-
esposizione) e il campo di esistenza delle ascisse dipende dalla risoluzione radiometrica dell’immagine.
0
2n IN (FILE)
𝑫𝑵𝒐𝒖𝒕 = 𝒇(𝑫𝑵𝒊𝒏 ) 0
2n IN (FILE)
Di quanto si distanziano due toni radiometrici adiacenti (DN e DN+1) a seguito di stretching?
𝑫𝑵𝒊𝒏 − 𝒎 𝑫𝑵𝒊𝒏 + 𝟏 − 𝒎
∆𝑫𝑵𝒐𝒖𝒕 = ∙ 𝟐𝟓𝟓 − ∙ 𝟐𝟓𝟓
𝑴−𝒎 𝑴−𝒎
𝟐𝟓𝟓
∆𝑫𝑵𝒐𝒖𝒕 = >𝟏
𝑴−𝒎
Il rapporto tra i due è sempre > 1 e l’ampliamento di intervallo è tanto più marcato quanto minore è la
distanza tra M e m.
Per visualizzare un layer telerilevato è necessaria un'operazione di lookup. Questa consiste nell’ottimizzare
l’attribuzione di un’intensità di colore ad ogni pixel. Sulla base di una funzione di trasformazione vengono
create le tavole di lookup, che collegano i DN in entrata ad un valore di uscita in lookup a video. La funzione
di trasformazione può essere di primo grado (retta) o di grado superiore e la sua forma condiziona il
contrasto del layer visualizzato a schermo. Tale operazione permette di ovviare a problemi collegati alla
resa a video di particolari layer che hanno degli istogrammi di frequenza concentrati in un intervallo più
ristretto di 0 – 65535 (nel caso di un sensore a 16 bit). Variabilità lookup = variabilità dei pixel.
La natura matriciale delle immagini digitali ne favorisce l’interazione numerica. Le bande (o le immagini,
purché omologhe) possono combinarsi con operazioni:
• Aritmetiche (+, -, x, /)
• Trigonometriche (sin, cos, tan…)
• Logiche (and, or, xor, not)
• Di confronto (<, >, =…)
Le operazioni applicate alla banda singola (o facendo interagire più bande) agiscono su tutti gli elementi
della matrice secondo le dinamiche di un ciclo. Ogni software ha una sua sintassi per la formalizzazione
delle formule. Alcuni presentano GUI (interfacce) sotto forma di raster calculator. Il risultato di tali
operazioni è una nuova matrice i cui elementi risultano dal risultato della singola operazione.
Indici spettrali
Tale potenzialità delle immagini ha consentito la derivazione di bande sintetiche (ottenute per la 26
combinazione di più bande originali) la cui utilità applicativa ne ha suggerito l’adozione come indici. Infatti,
l’informazione insita in una firma spettrale è spesso sintetizzabile in un indice spettrale che si ottiene
mediante la combinazione di più bande spettrali lungo formulazioni matematiche:
𝐼𝑛𝑑𝑖𝑐𝑒 = 𝑓(𝑏1 , 𝑏2 , … , 𝑏𝑛 )
Attraverso gli indici è possibile indagare, nota la natura della superficie osservata, le caratteristiche
fisiologiche delle colture e la loro variabilità nello spazio e nel tempo.
La curva di riflettanza della vegetazione può variare in funzione di molti fattori quali il tipo di vegetazione e
la sua densità, il momento della sua stagione di crescita, il contenuto di
umidità. Grazie a queste caratteristiche spettrali sono stati sviluppati degli
indici di vegetazione, che vengono calcolati per mezzo di operazioni
algebriche tra i valori di riflettanza nelle diverse zone dello spettro in cui la
vegetazione mostra dei comportamenti peculiari. Gli indici di vegetazione
sono uno strumento molto utile per il monitoraggio delle condizioni della
vegetazione. In particolare, la loro correlazione con la biomassa ci permette
di monitorarne il vigore, di evidenziare eventuali stress che avvengono
durante la stagione di crescita, di valutare la resa stagionale della coltura o la
quantità di carbonio fissata per fotosintesi negli ecosistemi naturali. È facile
discriminare le superfici vegetate dalle altre dividendo la banda del NIR e
quella del rosso. In queste due porzioni di spettro, infatti, la vegetazione
mostra alta riflettività nella porzione del NIR in seguito alla struttura delle
foglie e della chioma. La stessa vegetazione, però, assorbe fortemente nel
Range NDVI:
• Vegetazione: 0.35 – 1
• Suoli nudi: 0.1 – 0.35
• Acqua: -1 - 0
• Neve: -0.8 - 0
Altri indici molto usati sono l’EVI (Enhanced Vegetation Index) ottimizzato per le superfici ad elevata
densità vegetativa impiegando anche la banda del blu; il SAVI (Soil Adjusted Vegetation Index) indice di
vegetazione che tiene conto anche del suolo attraverso un coefficiente (tra 0.9 e 1.6) che permette di
modulare le riflettanze sulla base della copertura al suolo (> è la densità vegetativa, < è il valore del
27
coefficiente). Molto importante è l’NDWI (Normalized Difference Water Index) ricondotto al contenuto di
acqua delle superfici osservate. Più è alto il valore assunto, maggiore sarà il contenuto di acqua.
𝝆𝑮𝒓𝒆𝒆𝒏 − 𝝆𝑺𝑾𝑰𝑹𝟏
𝑵𝑫𝑾𝑰 =
𝝆𝑮𝒓𝒆𝒆𝒏 + 𝝆𝑺𝑾𝑰𝑹𝟏
Per finire, altro molto importante è l’NDSI (Normalized Difference Snow Index).
𝝆𝑺𝑾𝑰𝑹𝟏 − 𝝆𝑮𝒓𝒆𝒆𝒏
𝑵𝑫𝑺𝑰 =
𝝆𝑺𝑾𝑰𝑹𝟏 + 𝝆𝑮𝒓𝒆𝒆𝒏
NDVI come predittore (o Proxy)
Si ipotizza che la correlazione sia parabolica f(x) = ax2 + bx + c LAI = a1NDVI2 + a2NDVI + a3.
Per trovare la parabola più simile utilizzo il metodo dei minimi quadrati. Per quanto riguarda a1/2/3 si
stimano i valori che facciano passare la parabola per i punti che si hanno già.
errore di dispersione: ogni punto misurato ha un errore ε > o < di 0 errore quadratico medio (RMSE)
da non confondere con la deviazione standard, che è lo scarto quadratico medio.
∑ 𝜺𝟐𝒊
𝑹𝑴𝑺𝑬 = √
𝒏−𝟏
28
2
R : per vedere se c’è una correlazione tra le variabili
Schema di lavoro:
1. Pre-elaborazioni
• Geometriche
o Georeferenziazione (più grezzo, non adatto ad ambienti montani)
o Ortoproiezione (più raffinato)
• Radiometriche
o Calibrazione
o Correzione atmosferica
2. Classificazione
• Assistita (Supervised)
• Automatica (Un-Supervised)
3. Controllo
• Matrici di errore
• Campagne di misura
4. Correlazione con misure di campo (es. LAI)
Applicazioni:
➢ rendere l’immagine sovrapponibile alla cartografia. Tale operazione viene denominata “Image to
Map Registration”. L’immagine ottenuta possiede la valenza metrica di una cartografia è
possibile effettuare misure planimetriche corrette sull’immagine.
➢ Rendere omologhe immagini della stessa area acquisite in periodi diversi o da sensori diversi per
effettuare confronti multitemporali. Tale operazione viene denominata “Image to Image
Registration”. L’immagine ottenuta può anche non possedere qualità metriche assolute.
Metodo:
➢ effettuare una trasformazione geometrica tra sistemi di riferimento (SR) differenti, ovvero stimare i 29
parametri della trasformazione tra il SRin dell’immagine e il SRout cartografico o locale.
Partendo quindi da un’immagine grezza, noi conosciamo le colonne e le righe, queste le si dovranno
rendere parallele alle coordinate Nord (N) per le colonne ed Est (E) per le righe.
L’utilizzo di un modello matematico che sia ritenuto idoneo alla soluzione di un certo problema presuppone
le seguenti operazioni:
1. scelta di un modello di trasformazione trovare la f(x) matematica che lega un’immagine all’altra.
𝐶 = 𝑓(𝐸, 𝑁)
{
𝑅 = 𝑓(𝐸, 𝑁)
2. stima dei parametri del modello sulla base di un sufficiente numero di osservazioni necessità di
avere dei punti di appoggio
𝑐 = 𝑎0 ∙ 𝐸 + 𝑎1 ∙ 𝑁 + 𝑎2
{
𝑟 = 𝑎3 ∙ 𝐸 + 𝑎4 ∙ 𝑁 + 𝑎5
a = parametri del modello, inizialmente sono incognite, per stimarle si usa il metodo dei minimi quadrati
2 – I 6 parametri incogniti possono essere determinati, generalmente attraverso una stima ai minimi
quadrati, qualora siano noti un sufficiente numero di punti di coordinate immagine (c, r) e cartografiche (X,
Y) note (Punti di Appoggio). I punti di appoggio (GCP – Ground Control Point) sono punti corrispondenti ad
oggetti riconoscibili sia sull’immagine da georiferire che sul supporto cartografico di riferimento (cartografia
digitale raster, ortofoto, misure di campo…) è consigliabile collimarli in modo omogeneamente
distribuito in corrispondenza di manufatti o elementi naturali stabili nel tempo. Inoltre, è opportuno
utilizzare una cartografia di riferimento ad una scala nominale tale da garantire una precisione superiore a
quella desiderata per l’immagine georiferita.
30
ID c r E N
1 c1 r1 E1 N1
2 c2 r2 E2 N2
n cn rn En Nn
𝑐 = 𝑎0 ∙ 𝐸1 + 𝑎1 ∙ 𝑁1 + 𝑎2
{ 1
𝑟1 = 𝑎3 ∙ 𝐸1 + 𝑎4 ∙ 𝑁1 + 𝑎5
𝑐 = 𝑎0 ∙ 𝐸2 + 𝑎1 ∙ 𝑁2 + 𝑎2
{ 2
𝑟2 = 𝑎3 ∙ 𝐸2 + 𝑎4 ∙ 𝑁2 + 𝑎5
𝑐 = 𝑎0 ∙ 𝐸𝑛 + 𝑎1 ∙ 𝑁𝑛 + 𝑎2
{ 𝑛
𝑟𝑛 = 𝑎3 ∙ 𝐸𝑛 + 𝑎4 ∙ 𝑁𝑛 + 𝑎5
Il numero minimo di punti è funzione del numero di parametri della trasformazione utilizzata. Ogni punto di
appoggio determina 2 equazioni. Nel caso della trasformazione polinomiale del 1° ordine sono necessari 3
punti (6 parametri). Per effettuare una stima ai minimi quadrati è ovviamente necessario avere a
disposizione un numero di punti superiore a quello minimo richiesto (ridondanza). Si ammette che una
ridondanza di osservazioni atta a garantire una sufficiente rappresentatività (o robustezza) della soluzione
3 – Poiché quella ai minimi parametri costituisce una soluzione di compromesso tra le differenti soluzioni
ammissibili, le stime che essa determina delle osservazioni (nel caso della georeferenziazione le coordinate
immagine c, r) non coincidono con i valori collimati. Pertanto a fronte
della soluzione si determinano, per ogni GCP, degli scarti ε alle Punto spostato dall’RMSE
osservazioni (diversi per ogni GCP per le due coordinate immagine c, r).
La precisione media di una georeferenziazione viene generalmente ε εr
valutata attraverso un parametro globale, l’RMSE (Root Mean Squared Punto vero
Error), l’errore quadratico medio. εc
𝜀 = √𝜀𝑐2 + 𝜀𝑟2
Sulla tabella di prima quindi si aggiungeranno 3 nuove voci:
ID c R E N εc εr ε
1 c1 r1 E1 N1 εc1 εr1 ε1
2 c2 r2 E2 N2 εc2 εr2 ε2
n cn rn En Nn εcn εrn εn
Dal punto di vista pratico i software non operano una trasformazione dal
sistema di riferimento immagine a quello cartografico, ma effettuano
l’operazione inversa nota come ricampionamento inverso. Le relazioni
illustrate in precedenza sono infatti del tipo (𝑐, 𝑟) = 𝑓(𝑋, 𝑌) e non
(𝑋, 𝑌) = 𝑓(𝑐, 𝑟).
Le firme spettrali osservabili su immagini multispettrali sono delle approssimazioni discrete della firma
spettrale reale. La similitudine tra le due è tanto maggiore quanto maggiore è la risoluzione spettrale delle
immagini. Tuttavia, i dati grezzi acquisiti dai sensori, non rappresentano riflettanze bensì, radianze e
pertanto, prima di qualunque interpretazione, le seconde devono essere tradotte localmente nelle prime
attraverso l’applicazione di modelli di trasferimento radiativo più o meno complessi.
I DN costituiscono una rappresentazione simbolica funzionale della radianza che raggiunge il sensore in
corrispondenza del generico pixel della banda considerata. Per “tradurre” i DN nei corrispondenti valori di
radianza (non riflettanza) occorre conoscere le curve di calibrazione dei sensori. Esse sono specifiche di
ciascun rilevatore, quindi anche di ciascuna banda.
Radianza
Le curve di calibrazione sono rette e mettono in relazione il DN
alla radianza.
I valori di irradianza solare sono ricavabili nota l’exitanza solare (curve di emissione di Planck per il sole) e il
fattore correttivo di diluizione stagionale che tiene conto della distanza Terra-Sole al momento
dell’acquisizione. Per qualunque sensore è possibile calcolare le exitanze corrispondenti attraverso processi
di integrazione della curva di Planck tra gli estremi di banda.
Il fattore k è normalmente riportato all’interno dei metadati rilasciati con le immagini in forma diretta o
come d (distanza Terra-Sole in Unità Astronomiche (k = 1/d2)) 34
Esistono molte metodologie di classificazione, che utilizzano algoritmi diversi e forniscono risultati più o
meno precisi. Il metodo di classificazione prescelto dovrebbe dipendere strettamente dal modo di
considerare il pixel che compone l’immagine:
La classificazione per pixel può essere realizzata con il metodo automatico (un-supervised), o assistito
(supervised):
Non richiede alcun intervento nel fornire una firma spettrale di riferimento cluster analysis: vengono
aggregati in cluster firme spettrali simili. Può essere utile quando si cercano differenze spettrali di cui non è
nota la posizione.
Il pixel (P) è una variabile multivariata (vettore) e ognuno di essi è potenzialmente descrivibile come un
punto con date coordinate scatterogramma
𝜌1
̅ 𝜌
𝑃 = [ 2 ] ⟶ 𝑟𝑖𝑠𝑜𝑙𝑢𝑧𝑖𝑜𝑛𝑒 𝑠𝑝𝑒𝑡𝑡𝑟𝑎𝑙𝑒
𝜌𝑛
Gli algoritmi più usati sono 2:
35
Metodo di partizionamento k-Means
Quindi, le classi sono omogenee per ciò che riguarda la risposta spettrale dei pixel che le formano ed è
compito dell’analista quello di attribuire una classe di copertura del suolo ad ogni classe spettrale.
Finito il k-Means, se si applica questa variante, l’algoritmo fa dei controlli sui clusters fino a trovare la
convergenza esatta:
➢ Numerosità dei clusters: quanti pixel ci sono nei clusters. Se sono al di sotto di una soglia data mi
elimina il cluster perché sarebbe inutile e sprecato KILLING
➢ Dispersione dei cluster: guarda tutte le deviazioni standard. Se sono troppo dispersi lo divide in 2
SPLITTING
➢ Controllo delle distanze tra centroidi vicini: se ci sono due centroidi troppo vicini vengono fusi in
uno solo e viene ricalcolato un nuovo centroide MERGING
I parametri di funzionamento del modello devono essere stimati sulla base di campioni di addestramento
che l’operatore deve preventivamente collezionare sulla scena e fornire al classificatore. Tali campioni,
costituiti da più insiemi di celle dell’immagine, sono detti ROI. Una ROI è un insieme di celle rappresentative
di una data classe di copertura del suolo. Possono essere collezionate direttamente sulla scena (via
software) oppure, nel modo che sarebbe quello auspicabile e rigoroso, attraverso mirate campagne di
misura al suolo.
Le ROI costituiscono un campione statistico della popolazione dalla quale sono estratte. Esse devono
pertanto rispettare le seguenti caratteristiche:
▪ Rappresentatività: un campione è tanto più rappresentativo quanto più alto è il numero delle celle
che lo costituiscono. Un campione è ritenuto rappresentativo se il numero di celle che lo 36
costituiscono è circa il 5% della popolazione che esso rappresenta. Tale valore è deducibile da una
stima basata unicamente su fotointerpretazione mirata a definire, per ogni classe, una percentuale
approssimata di sua presenza sulla scena.
▪ Significatività: un campione è significativo se la sua deviazione standard si mantiene
sufficientemente bassa, cioè se la dispersione attorno al suo valor medio è contenuta.
o Legata alla dispersione del campione rispetto al suo valore medio
𝜎
𝐶𝑜𝑒𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒 𝑑𝑖 𝑉𝑎𝑟𝑖𝑎𝑧𝑖𝑜𝑛𝑒 ⟹ 𝐶𝑉 = ⟹ 𝑒𝑟𝑟𝑜𝑟𝑒 𝑝𝑒𝑟𝑐𝑒𝑛𝑡𝑢𝑎𝑙𝑒
𝜇
Nel caso di classificatori spettrali la grandezza statistica considerata è la variabile multidimensionale
(dimensioni pari al n di bande dell’immagine) costituita dal vettore firma spettrale.
Quindi:
✓ Le firme devono essere estratte dalla stessa immagine che vado a classificare ROI.
✓ Bisogna prima andare sul campo con strumentazione GPS così da essere sicuro dei pixel che dovrò
raggruppare e in questo modo posso prendere la firma spettrale giusta.
✓ Di ogni ROI conosco firma spettrale media e deviazione standard mi dice se ho incluso dei pixel
che in realtà afferiscono ad un’altra area.
✓ Le ROI sono quindi campioni statistici di una popolazione statistica, rappresentativi e significativi.
✓ Con le ROI piazziamo già i centroidi nelle posizioni finali devono solo essere scelti i criteri per
confrontare i centroidi con i pixel generici.
1 - Classificazione a parallelepipedo
𝑑𝑖 = √∑(𝐷𝑁𝑖 − 𝑋̅𝑖 )2
𝑖=1
𝑛
|𝑆| = √∑(𝜎𝑖 )2
𝑖=1
Identifica i vettori e fanno un cono per ogni direzione trovata. Se il pixel è dentro il cono va nella
classe. Due pixel molto lontani potrebbero entrare nello stesso cono, ma potrebbero essere la
stessa cosa con una riflettibilità diversa (per es. pixel al sole e pixel all’ombra). L’ampiezza dei
coni è in radianti ed è l’unica cosa che puoi decidere.
Il processo di classificazione in questo caso avviene secondo criteri probabilistici e non geometrici.
Ipotizzando per ogni classe (quindi per ogni ROI rappresentativa) una distribuzione normale multivariata
(gaussiana n-dimensionale, con n = n. di bande) si procede al calcolo dei due parametri vettoriali del
modello (media e dev. standard) per ogni classe rappresentata dalle ROI. Questi sono necessari per
descrivere analiticamente la distribuzione normale di ogni classe.
𝟏 (𝒙−𝝁)𝟐
−
𝒇(𝒙) = ∙𝒆 𝟐𝝈𝟐 ⟹ 𝝈 𝒆 𝝁 𝒔𝒐𝒏𝒐 𝒊 𝟐 𝒑𝒂𝒓𝒂𝒎𝒆𝒕𝒓𝒊
√𝟐𝝅𝝈𝟐
I pixel delle ROI si distribuiscono in modo naturale intorno al
valore medio. Per ogni banda posso definire la sua curva di ROI1
distribuzione. μ1 e σ1
Teorema centrale della statistica: la probabilità che un evento si
verifichi è pari alla frequenza con cui si è verificato nel passato.
3. Controllo
Nel caso di classificatori supervisionati si può procedere alla valutazione dei risultati su due livelli:
• quello che stabilisce se l’addestramento del classificatore risulta buono e quindi in grado di
generalizzare. In questo caso viene considerata la prestazione di classificazione sulle ROI. Viene cioè
valutato come le celle assegnate in fase di addestramento alle ROI siano poi state classificate nella
fase di applicazione del modello addestrato.
• Quello che stabilisce se le classi definite ed identificate sulla scena hanno una reale rispondenza al
suolo. Se per esempio, ciò che è stato definito bosco sia effettivamente bosco. Questo livello
prevede l’effettuazione di campagne di verità al suolo.
In questa situazione lo strumento utilizzato per la verifica è la matrice d’errore o confusion matrix. Essa è
costruita incrociando le classi di assegnazione (sulle righe) con le ROI (colonne) come da tabella. Questo
strumento consente di determinare la bontà delle ROI e la loro separabilità nello spazio delle bande.
VALORI ATTESI
ROI1 ROI2 ROIn TOT
C1 m1
OTTENUTI
VALORI
C2 m2
Cn mn
NC
TOT n1 n2 nn Ntot
Precisando che aii sono gli elementi lungo la diagonale e aij sono gli altri elementi, abbiamo:
➢ Overall Accuracy: indica quante celle delle ROI complessivamente sono state correttamente
assegnate. Il problema è che se è alta, non necessariamente tutte le classi funzionano bene.
Determina quindi l’accuratezza della classificazione rispetto alla verità a terra. Si calcola come la
sommatoria dei pixel sulla diagonale maggiore sulla sommatoria dei pixel totali:
∑ 𝒂𝒊𝒊
𝑶𝑨 =
𝑵𝒕𝒐𝒕
➢ Class Accuracy: Per valutare l'accuratezza della classificazione nelle varie classi è possibile calcolare
il rapporto fra ciascun elemento della diagonale principale e la sommatoria delle numerosità della
sua colonna. Indica quindi quante celle della ROI i-esima sono state correttamente assegnate alla
classe i-esima. 39
o Producer’s CA indica la probabilità che un pixel collocato in un’area campione sia
effettivamente classificato nella classe dell’area campione. Si calcola come il n° pixel entro
un’area campione classificati come classe dell’area campione sul numero totale di pixel
entro l’area campione. Si usa quindi per singole classi e si ha una potenziale perdita di
informazioni.
𝒂𝒋𝒋 𝒂𝟏𝟏
𝑷𝑪𝑨 = → 𝒂𝒅 𝒆𝒔.
𝒏𝒋 𝒏𝟏
o User’s CA Indica la probabilità che un pixel classificato in una classe sia veramente di
quella classe. Si calcola come il n° pixel classificati correttamente in una certa classe sul
numero totale di pixel classificati in quella classe. C’è un errore da tener conto.
𝒂𝒋𝒋 𝒂𝟏𝟏
𝑼𝑪𝑨 = → 𝒂𝒅 𝒆𝒔.
𝒎𝒋 𝒎𝟏
➢ Class Commission: indica quante celle di altre ROI diverse da quella i-esima sono finite nella classe
i-esima.
∑ 𝒂𝒊𝒋
𝑪𝑪𝒋 =
𝒎𝒕𝒐𝒕
➢ K coefficient: assume che dentro l’OA ci sono informazioni assegnate per casualità. Ti toglie la parte
di “fortuna” che hai avuto al processo. Il valore del coefficiente K può oscillare tra 0 e 1. Valori bassi
indicano una rispondenza nulla fra i dati sicuri e quelli classificati. Valori alti il contrario.
Generalmente un valore pari a 0.75 o superiore indica un risultato da buono a eccellente mentre
uno pari o minore a 0.4 un risultato scarso. Il coefficiente K viene spesso usato per confrontare
classificazioni eseguite con algoritmi diversi. Per un confronto sensato va tuttavia consigliato di
mantenere le stesse categorie nelle classificazioni che si confrontano.
fine