Sunteți pe pagina 1din 13

UNIVERSIDAD DE LAS FUERZAS ARMADAS “ESPE”

CORRECCIÓN DE IMÁGENES SATELITALES


Karla Mendoza

5 de Julio de 2018

1. CORRECCIÓN GEOMÉTRICA

1.1. Correcciones Orbitales

Esfericidad de la Tierra

Los sistemas aeroportados de teledetección no están afectados de una manera


sustancial por este efecto. Es en los sistemas espaciales donde las distorsiones que
produce son más evidentes. La inclinación de la órbita del satélite o la propia
cobertura espacial de las imágenes hacen que la curvatura de la Tierra produzca un
efecto parecido al ya visto de distorsión panorámica, es decir, el tamaño del píxel es
mayor en los extremos de las imágenes. (Rejas, 2008)
Para MODIS con un ancho de franja de 2330 km y una altitud de 705 km, se puede
demostrar que la desviación de la superficie terrestre desde un plano es inferior al 1%
sobre la franja, lo que parece insignificante. Sin embargo, es la inclinación de la
superficie de la tierra sobre la franja lo que causa el mayor efecto. En los bordes de
la franja, el área de la superficie de la Tierra vista en un IFOV angular dado es mayor
que si se ignora la curvatura de la Tierra. (Richards & Jia, 2005)
Para calcular la esfericidad de la Tierra que interviene en el proceso usamos la
siguiente fórmula:

𝑷𝒄 = 𝜷 [𝒉 + 𝒓𝒆 (𝟏 − 𝐜𝐨𝐬 𝛟)] 𝐬𝐞𝐜 𝜽 𝐬𝐞𝐜(𝛉 + 𝛟)

Donde:
β → ángulo de visión instantánea
h → altura del sensor
re → radio de la Tierra
ϕ → ángulo de deriva
θ → ángulo de barrido
Efecto de la curvatura de la tierra en el tamaño de un píxel en la dirección de escaneo (across track)
(Richards & Jia, 2005)

Ángulo de observación Panorámica

Si el IFOV es constante, la visión lateral de la escena induce por lo tanto diversas


alteraciones en la geometría de la imagen.

• El tamaño de píxel de escena es mayor a medida que nos alejamos de nadir, pero
se registra sobre el mismo tamaño de píxel del detector, luego existe una
disminución de resolución espacial en estas zonas.
• La forma de píxel escena es aproximadamente la de un trapecio isósceles (con
sus lados paralelos orientados paralelamente a la trayectoria del avión).
• A medida que nos alejamos de nadir aumenta la distancia entre los centros de dos
píxeles de escena consecutivos.

Estos fenómenos de distorsión panorámica se producen cuando la dirección de


apuntamiento del instrumento se aleja de nadir, ya sea por tener un gran campo de
visión (entonces sólo afecta a los extremos de la imagen) o bien por una imagen
tomada con un importante ángulo de alabeo (dirección de movimiento perpendicular
a la de desplazamiento del sensor)
El efecto que produce la distorsión panorámica es una alteración de la geometría de
la imagen y de los detalles en los bordes de la misma. La contribución de la curvatura
terrestre a este fenómeno sólo es apreciable a grandes distancias de la superficie
terrestre, y para posiciones alejadas de nadir, por lo que esta contribución no afecta a
las imágenes aeroportadas que estamos utilizando. (Richards & Jia, 2005)
Se aplica una corrección utilizando la relación:

𝒑𝜽 = 𝜷𝒉 𝒔𝒆𝒄𝟐 (𝜽) = 𝒑 𝒔𝒆𝒄𝟐 (𝜽)


Donde:
θ → ángulo tomado en cada momento
p → dimensión del pixel en el Nadir
β → IFOV
h → altura del sensor
Efecto del ángulo de escaneo en el tamaño de píxel en el campo de visión instantáneo angular
constante (Richards & Jia, 2005)

Movimiento de Rotación Terrestre

Los sensores de escaneo de línea (Fig. 1.6) como el Landsat TM y el MODIS en Aqua
tardan un tiempo finito en adquirir un cuadro de datos de imagen. Lo mismo es cierto
para los escáneres push broom como el SPOT HRV. Durante el tiempo de adquisición
del fotograma, la Tierra gira de oeste a este, de modo que un punto imaginado en el
extremo del fotograma habría estado más hacia el oeste cuando comenzó la
grabación. Por lo tanto, si las líneas de datos de imágenes grabadas se dispusieran
para mostrarse como indica la imagen 1, las líneas posteriores se desplazarían
erróneamente hacia el este en términos del terreno que representan. En cambio, para
dar a los píxeles su posición correcta con respecto al suelo, es necesario desplazar la
parte inferior de la imagen hacia el oeste por la cantidad de movimiento del suelo
durante la adquisición de la imagen, con todas las líneas intermedias desplazadas
proporcionalmente como se muestra en la imagen 2. La cantidad de inclinación de la
imagen hacia el oeste al final del encuadre depende de las velocidades relativas del
satélite y la tierra y de la longitud del fotograma grabado. Un ejemplo se presenta
aquí para Landsat 7. (Richards & Jia, 2005)
La velocidad angular del satélite es 𝜔𝑜 = 1.059 𝑚𝑟𝑎𝑑⁄𝑠, de modo que un valor
nominal 𝐿 = 185 𝑘𝑚 de marco en el suelo se escanea en:

𝑳
𝒕𝒔 = = 𝟐𝟕. 𝟒 𝒔
𝒓𝒆 𝝎𝒐

La velocidad superficial de la tierra está dada por:

𝒗𝒆 = 𝝎𝒆 𝒓𝒆 𝐜𝐨𝐬 𝝀
Donde:
𝜇𝑟𝑎𝑑⁄
𝜔𝑒 → velocidad de rotación de la tierra (72.72 𝑠)
𝑟𝑒 → radio de la Tierra
𝜆 → latitud
Imagen 1: Red de visualización comúnmente utilizada para crear una imagen a partir de la secuencia
de datos digitales de los píxeles generados por un sensor (Richards & Jia, 2005)

Imagen 2: El efecto de la rotación de la tierra en las imágenes del escáner. IZQ: Imagen formada de
acuerdo con la imagen 1 en la que las líneas están dispuestas en una cuadrícula; DER: Compensación
de líneas sucesivas hacia el oeste para corregir la rotación de la superficie de la tierra durante el tiempo
de adquisición del cuadro (Richards & Jia, 2005)

Durante el tiempo de adquisición del cuadro, la superficie de la tierra se mueve hacia


el Este, dado por:

∆𝒙𝒆 = 𝒗𝒆 𝒕𝒔

Esto representa a un porcentaje del tamaño del marco. Como el satélite no pasa
directamente hacia el norte y el sur, este movimiento debe ser corregido por el ángulo
de inclinación (α), y el movimiento lateral efectivo de la tierra es:

∆𝒙 = ∆𝒙𝒆 𝒄𝒐𝒔(𝜶)
En consecuencia, si no se toman medidas para corregir una imagen de Landsat 7 por
el efecto de la rotación de la tierra, entonces la imagen tendrá una distorsión oblicua
de ∆𝒙𝒆 (porcentaje) hacia el este. (Richards & Jia, 2005)

1.2. Correcciones a partir de Puntos de Control

Como no se conocen las formas explícitas para las funciones de mapeo,


generalmente se eligen como polinomios simples de primer, segundo o tercer grado.
Por ejemplo, en el caso de segundo grado (u orden)

𝒖 = 𝒂𝟎 + 𝒂𝟏 𝒙 + 𝒂𝟐 𝒚 + 𝒂𝟑 𝒙𝒚 + 𝒂𝟒 𝒙𝟐 + 𝒂𝟓 𝒚𝟐
𝒗 = 𝒃𝟎 + 𝒃𝟏 𝒙 + 𝒃𝟐 𝒚 + 𝒃𝟑 𝒙𝒚 + 𝒃𝟒 𝒙𝟐 + 𝒃𝟓 𝒚𝟐

A veces se usan órdenes superiores a tres, pero se debe tener cuidado para evitar la
introducción de errores mayores que los que se corregirán. Si se conocieran los
coeficientes ai y bi en las ecuaciones, entonces los polinomios de mapeo podrían
usarse para relacionar cualquier punto en el mapa con su punto correspondiente en la
imagen como en la discusión anterior. En la actualidad, sin embargo, estos
coeficientes son desconocidos. Los valores pueden estimarse identificando conjuntos
de características en el mapa que también se pueden identificar en la imagen.
Estas características, a menudo denominadas Ground Control Points (G.C.P.), están
bien definidas y son espacialmente pequeñas, y podrían ser intersecciones de
carreteras, intersecciones de pistas de aeropuertos, curvas en los ríos, características
destacadas de la costa y similares. Se eligen suficientes (como pares - en el mapa y
la imagen como se muestra en la imagen) para que los coeficientes polinomiales se
puedan estimar mediante la sustitución en los polinomios de mapeo para producir
conjuntos de ecuaciones en esas incógnitas. Las ecuaciones muestran que el número
mínimo requerido para el mapeo polinómico de segundo orden es seis. Asimismo, se
requiere un mínimo de tres para el mapeo de primer orden y diez para el mapeo de
tercer orden. En la práctica, sin embargo, se eligen significativamente más que estos
y los coeficientes se evalúan usando la estimación de mínimos cuadrados. De esta
manera, cualquier punto de control que contenga errores de posición significativos,
ya sea en el mapa o en la imagen, no tendrá una influencia indebida sobre los
coeficientes polinomiales.

Sistemas de coordenadas definidos para la imagen y el mapa, junto con la especificación de GCP
(Richards & Jia, 2005)
2. CORRECCIÓN RADIOMÉTRICA

2.1. Corrección de Líneas o Pixeles perdidos

Se consigue eliminar este efecto desplazando los histogramas parciales de la


imagen, de tal manera que obtengamos el mismo valor promedio y misma
desviación típica que para toda la banda (k).
La función que se aplica es:

𝑁𝐷′𝑖,𝑗 = 𝑎𝑘 𝑁𝐷𝑖,𝑗 + 𝑏𝑘

Donde:
𝑁𝐷′𝑖,𝑗 → Nivel Digital corregido
𝑁𝐷𝑖,𝑗 → Nivel Digital que presenta el efecto bandeado
𝑎𝑘 𝑦 𝑏𝑘 → coeficientes para la banda K

Imagen térmica ATM con bandeado (izqª) y corregida de este efecto (dchª)

2.2. Corrección de Bandeado

Usualmente existen tres formas de corregir o predecir el ND de esos píxeles o líneas


perdidas. Son:
• Se asigna el ND del píxel vecino de la línea inmediatamente anterior o de la
siguiente.
• Otra forma es asignar, en lugar del valor directo, el valor promedio entre línea
anterior y posterior a la defectuosa.
• Quizás la forma más refinada, aunque siga siendo una predicción, sea la de
asignar el ND de otra banda altamente correlacionada con la defectuosa y que no
presente esos píxeles o líneas perdidas.
(Rejas, 2008)

2.3. Corrección o normalización horaria

Esta corrección se aplica en trabajos con imágenes adquiridas en el mismo día a


diferentes horas.
Los ND deben cumplir unas condiciones para que dos superficies con la misma
reflectividad den el mismo ND:
• Misma ganancia y sesgo
• Misma iluminación solar (misma hora)
• Mismo ángulo de incidencia solar, que implica misma hora y/o misma
topografía del terreno
• Mismo efecto atmosférico

La normalización horaria consiste en corregir el ND de una escena con un factor que


considera la variación del flujo solar incidente en esa escena respecto a una escena
de referencia. Es una corrección destinada a homogeneizar el ND cuando la zona de
estudio. La corrección se basa en la hipó-tesis de que el ND es linealmente
dependiente del flujo solar incidente, lo cual es cierto en primera aproximación.
La normalización horaria, corrección por distinta hora de adquisición, es inmediata:
el flujo recibido por una superficie horizontal se incrementa según el coseno del
ángulo cenital. (Rejas, 2008)
El modelo que relaciona el flujo recibido en la superficie con el ND registrado,

𝑁𝐷 = 𝑚[𝑇 𝜌 𝐸𝑜 cos 𝜃 + 𝐿𝑎] + 𝑛


siendo m y n coeficientes de calibración del sensor, permite despreciando n y
suponiendo que La es igualmente proporcional al cosθ, suponer que el ND también
es finalmente proporcional al coseno del ángulo cenital (De Miguel, y otros, 1999).
Por tanto, podemos aplicar la siguiente corrección:

cos 𝜃𝑛
𝑁𝐷𝑛 = 𝑁𝐷ℎ ( )
cos 𝜃ℎ

Es decir, el ND a una hora normalizada “n” es igual al obtenido en la hora “h”


corregido con el cociente entre el ángulo cenital a la hora de referencia y el de la
hora "h". (Rejas, 2008)

2.4. Corrección del efecto por columnas

Esta corrección es aplicable a equipos de barrido lineal. Las hipótesis de partida que
se adoptan para realizar esta corrección son:

I. No existe iluminación diferencial en los píxeles de la misma imagen


II. La distribución de la respuesta espectral de la superficie de la tierra es
aleatoria. Existe, por lo tanto, diversidad en esa respuesta y no se sigue
ningún patrón definido
(Rejas, 2008)

La corrección por columna se realiza tras comprobarse empíricamente que existe una
atenuación de la señal recibida en los píxeles más lejanos al nadir. La comprobación
se puede realizar de dos maneras:

a. Observando el ND medio para cada columna de imagen para el conjunto de los


datos obtenidos.
b. Observando el ND registrado sobre superficies que aparecen en dos pasadas. Ha
de considerarse que hay otros factores, como la diferente hora de adquisición y
los efectos de la BDRF, que determinan un diferente ND para un mismo objeto.
(Rejas, 2008)
El procedimiento se basa en la hipótesis de que en el nadir el escáner está registrando
la energía de una forma correcta. El factor de corrección para cada banda por
columnas se obtendrá dividiendo ese valor de ND supuesto si la medida hubiese sido
nadiral (ND') por el ND medio por columnas.
𝑁𝐷′
𝑓𝑎𝑐𝑡𝑖 =
𝑁𝐷 𝑐𝑜𝑙𝑢𝑚𝑛𝑎

Canal 1 ATM, con efecto de columnas (izqª) y corregido (dchª) (Rejas, 2008)

3. CORRECCIÓN ATMOSFÉRICA

3.1. Método basado en la Imagen

El método ideado por Chávez, se trata de una operación sencilla, que actúa
aminorando el efecto atmosférico. No obstante, seguiremos hablando de reflectancias
aparentes ya que, si bien se trata de una aproximación a la corrección atmosférica,
ésta no se realiza con la intervención de datos de verdad terreno, y seguimos
asumiendo un terreno plano y una observación vertical, lo cual supone
una simplificación grosera de la realidad. (Rejas, 2008)
Ilustración del efecto de la radiancia del
camino, resultante de la dispersión
atmosférica, en los histogramas de cuatro
bandas de datos de imagen en diferentes
longitudes de onda (Richards & Jia, 2005)

El método está basado en el hecho de que áreas cubiertas con materiales de fuerte
absortividad (agua, zonas de sombra) deberían presentar una radiancia espectral muy
próxima a cero.
Esto no se suele producir, debido precisamente a la dispersión atmosférica y se
presentan valores superiores a cero, más grandes cuanto más corta sea la banda (por
la dispersión de Rayleigh y Mie). Por lo tanto, y siguiendo estas premisas, restaremos
los ND mínimos a todos los ND de cada banda, según se indica en esta expresión:

𝑁𝐷′𝑖,𝑗,𝑘 = 𝑁𝐷𝑖,𝑗,𝑘 − 𝑁𝐷𝑚𝑖𝑛,𝑘

El método multialturas responde a una técnica habitual en teledetección aerportada,


dónde es técnicamente posible la adquisición de imágenes de la misma zona a
diferentes alturas, con diferente camino atmosférico por lo tanto. La operación para
eliminar el aporte atmosférico de la imagen alta respecto a la baja también es directa.
El ND corregido será la diferencia para cada banda del ND alto menos el ND bajo,
imagen esta última en donde se desprecia la aportación de la atmósfera. (Rejas, 2008)

3.2. Método Empírico

Esta corrección se realizaría a partir de datos de reflectancia medidos en el terreno


con correspondencia en la imagen, y tomados en el momento de su adquisición.
Los datos terreno se pueden obtener a partir de medidas con radiómetros o espectro-
radiómetros de campo, en los que también se tomarán medidas de posicionamiento
para su geo-referenciación en la imagen y su localización si se pretende realizar un
seguimiento temporal en esas cubiertas. (Richards & Jia, 2005)
Para desarrollar este segundo procedimiento necesitaríamos, por tanto, los siguientes
datos:
• Reflectancia medida sobre el terreno
• Reflectancia aparente ( o sin corrección atmosférica) obtenida a partir de lo
ND de la imagen.

Una hipótesis necesaria es que puntos del terreno con idéntica reflectancia deben
tener valores muy similares de ND
Una vez se han depurado ambos datos, imagen-terreno, el procedimeinto es realizar
una regresión a partir de los pares de puntos de que se dispone. Esta regresión
determina una relación r = F(r aparente), que es aplicada a cada pixel de la imagen.
También puede optarse por la relación r = F(exp(r aparente), aunque el resultado será
muy similar al de la regresión simple. Se puede establecer un modelo empírico, a
partir de los datos de reflectividad medidos en el terreno con correspondencia en la
imagen. (Kramer, 1996)

El planteamiento general es:


• Se dispone de una lista de pares de puntos (ρ terreno, ND), para cada banda.
Esta lista se podría completar con superficies de la que se asumiera su
reflectividad con suficiente exactitud, como embalses u otros.
• Los puntos se representan en un diagrama para visualizar la posible relación
entre ambos. Usualmente hay que buscar una relación lineal o cuasi-lineal.
• Efectuamos la regresión para cada canal aplicando distintos modelos.

Evaluamos su error y depuramos iterando lo necesario quedándonos con el mejor


modelo de regresión que aplicaremos a las imágenes. (Rejas, 2008)

3.3. Conversión de Nivel Digital (ND) a parámetros físicos

La mayor parte de los métodos de análisis de imágenes se han basado en considerar


a los ND como medidas radiométricas relativas. Dicho de otro modo, la interpretación
ha tratado de establecer las diferencias entre un tipo de cubierta y otro, y no tanto en
caracterizar de forma absoluta a esa cubierta. La cuestión fundamental, en este
planteamiento, es cómo se discrimina cada categoría de interés, para una imagen y
en una fecha concreta. Los resultados no son, por lo tanto, extrapolables a otros
ámbitos o periodos. (Chuvieco, 1990)
Este tipo de acercamientos es válido cuando se pretende realizar una cartografía
temática de un territorio; esto es, cuando el resultado final del análisis es un mapa
que recoge la distribución de una serie de categorías, mutuamente excluyentes, en el
espacio. Ahora, si se pretenden realizar mediciones del contenido de humedad en la
vegetación o de su biomasa, es preciso establecer una relación cuantitativa entre los
ND de la imagen y los parámetros antes mencionados.
Esta línea de trabajo puede seguirse por dos conductos:
• Por un lado, poner en relación directa los ND de la imagen con medidas de
campo a partir de modelos de regresión
• Por otro lado, convertir los ND a parámetros físicos, directamente
relacionados con las variables antes aludidas.
Si esa conversión fuera abordable, podrían estimarse parámetros de gran interés para
el medio natural con escaso control del terreno. En definitiva, sería factible extrapolar
las conclusiones de un estudio a otros ámbitos o periodos de observación, quedando
en segundo plano los trabajos de campo. (Chuvieco, 1990)
Debemos tener presente que los ND de la imagen pueden transformarse en
parámetros físicos, quedando abierta la vía a una medición mas absoluta a partir de
estos valores. Además de este objetivo, la conversión en valores de reflectividad
cubre otros fines:
• Permite realizar con mayor rigor, los ratios (división) entre bandas (6, 7, 2)
• Dar un significado físico a la definición espectral de las clases temáticas
• Poner en relación imágenes adquiridas en distintas fechas y/o por distintos
sensores
(Robinove, 1982)
Vamos a tratar esta conversión que no puede ser considerada en rigor como una
corrección. En primer lugar, debemos obtener la radiancia espectral medida por el
sensor como consecuencia de la reflexión de la radiación electromagnética en las
cubiertas (junto con la influencia de la atmósfera). A partir de los coeficientes de
calibración específicos para cada sensor, podremos obtener la radiancia espectral
sirviéndonos de los ND promedio para cada cubierta de estudio.
Para ello utilizaremos la siguiente expresión:

𝐿𝑠𝑒𝑛,𝑘 = 𝑛0,𝑘 + 𝑚𝑙,𝑘 + 𝑁𝐷𝑘


Donde:
𝐿𝑠𝑒𝑛,𝑘 →corresponde a la radiancia espectral recibida por el sensor en la banda k
𝑛0,𝑘 𝑦 𝑚𝑙,𝑘 →son los coeficientes de calibración para esa banda
𝑁𝐷𝑘 → corresponde al nivel digital de la imagen en la misma banda.

Conviene considerar que la radiancia detectada por el sensor (𝐿𝑠𝑒𝑛,𝑘 ) depende de


varios factores. Principalmente es una función de la radiación solar incidente, de la
respuesta de la cubierta terrestre a dicha radiación y del aporte de radiancia debida a
la atmósfera (Mather, 1987). Podemos expresar entonces:

𝐿𝑠𝑒𝑛,𝑘 = (𝐿𝑠𝑢𝑒𝑙𝑜,𝑘 ) (𝜌𝑘 ) (𝜏𝑘 ) + 𝐿𝑎𝑡𝑚,𝑘


Donde:
𝐿𝑠𝑢𝑒𝑙𝑜,𝑘 → radiancia detectada por el sensor (función proveniente del sol) en esa
banda del espectro, tal y como se mide en el suelo
𝜌𝑘 → reflectividad espectral de la cubierta
𝜏𝑘 → transmisividad de la atmosfera
𝐿𝑎𝑡𝑚,𝑘 → radiancia aportada por la dispersión atmosférica

A partir de esta fórmula puede despejarse la reflectividad

𝐿𝑠𝑒𝑛,𝑘 − 𝐿𝑎𝑡𝑚,𝑘
𝜌𝑘 =
𝐿𝑠𝑢𝑒𝑙𝑜,𝑘 (𝜏𝑘 )

Por otro lado, asumiendo que la superficie tenga un comportamiento lambertiano,


podemos estimar la radiancia que llega al suelo, en la fecha concreta de adquisición
de la imagen, a partir de los siguientes parámetros

𝐸0,𝑘 cos 𝜃
𝐿𝑠𝑢𝑒𝑙𝑜,𝑘 =
𝐾𝜋
Donde:
𝐸0,𝑘 → irradiancia solar extraterrestre (en esa banda del espectro)
𝜃 → ángulo cenital
𝐾 → factor corrector de la distancia Tierra-Sol

A partir de las formulas anteriores, podemos calcular la reflectividad de la cubierta


tomando en cuenta la influencia atmosférica, obtenemos la fórmula simplificada:

𝐾 𝜋 𝐿𝑠𝑒𝑛,𝑘
𝜌𝑘 =
𝐸0,𝑘 cos 𝜃

En resumen, el proceso de traducción de Nd a parámetros físicos se ejecuta en tres


fases:
i. Corrección atmosférica de la imagen
ii. Conversión de ND a valores de radiancia (𝐿𝑠𝑒𝑛,𝑘 ), a partir de los
coeficientes de calibrado del sensor
iii. Estimación de valores de reflectividad (𝜌𝑘 ), conociendo la fecha (𝐾 𝑦 𝜃)
(Chuvieco, 1990)

4. CORRECCIÓN TOPOGRÁFICA

A lo largo de las últimas décadas se han propuesto multitud de métodos para corregir los
efectos de la topografía en imágenes de satélite, pudiendo dividirse estos métodos en dos
tipos en base a su comportamiento, ya sea lambertiano (isotrópico) o no-lambertiano
(anisotrópico). Hablaremos únicamente de 4 métodos de corrección topográfico, ya que
el objetivo del artículo no es evaluar algoritmos de corrección topográfica, sino testar la
nueva metodología para evaluar la calidad de los mismos. Los cuatro métodos de
corrección topográfica se han escogido por ser frecuentemente empleados en la literatura
y por sus diferencias en cuanto a los principios en que se basan, que es de suponer
proporcionen resultados diferentes.
En primer lugar, hemos escogido el método del Coseno, de tipo lambertiano, propuesto
por Smith et al. (1980) y mejorado por Teillet (1982) al ser ampliamente empleado pese
a que no tiene en cuenta la irradiancia difusa y tiende a sobrecorregir las laderas umbrías,
tal y como numerosas publicaciones han demostrado. Para corregir este problema el
propio Teillet propuso dos métodos semi-empíricos que suelen ofrecer mejores
resultados. Éstos son el método Corrección C, que añade un coeficiente C para reducir
el efecto de sobrecorrección que introduce el método del Coseno, y el Empírico-
Estadístico, que emplea la pendiente y la ordenada de la regresión lineal entre radiancia
e iluminación para corregir la imagen original. Ya por último, se ha incluido en este
estudio el método SCS+C, propuesto por Soenen et al. (2005) específicamente para
corregir el efecto topográfico en zonas forestales. (Sola, 2014)

a. Método del Coseno

cos(𝜃𝑠 )
𝐿𝑐𝑜𝑟𝑟 = 𝐿
𝑐𝑜𝑠 (𝛾𝑖 )

b. Método Empírico-Estadístico

𝐿𝑐𝑜𝑟𝑟 = 𝐿 − (𝐴 + 𝐵 𝑐𝑜𝑠 (𝛾𝑖 )) + 𝐿𝑚𝑒𝑑


c. Método Corrección-C

cos(𝜃𝑠 ) + 𝐶
𝐿𝑐𝑜𝑟𝑟 = 𝐿
𝑐𝑜𝑠 (𝛾𝑖 ) + 𝐶

d. Método SCS+C

cos(𝜃𝑠 ) + 𝐶
𝐿𝑐𝑜𝑟𝑟 = 𝐿
𝑐𝑜𝑠 (𝛾𝑖 ) cos(𝛽) + 𝐶
(Sola, 2014)

BIBLIOGRAFÍA

Chuvieco, E. (1990). Fundamentos de Teledetección Espacial. Madrid: Rialp, S.A.


De Miguel, E., Anton-Pacheco, C., Gumiel, J., Gomez, J. A., Gutierrez, O., Rejas, J. G., . . .
Barettino, D. y. (1999). Cartografía del vertido de lodos de la mina de Aznalcóllar
mediante Imágenes Daedalus. Teledetección. Avances Y Aplicaciones. VIII Congreso
de Teledetección AET.
Kramer, H. (1996). Observation of the Earth and its Environment. Surveys of missions and
Sensors Third Enlarged Edition. Springer.
Mather, P. M. (1987). Computer Processing of Remotely Sensed Images. Chichester.
Rejas, J. G. (2008). TRATAMIENTO DIGITAL PREVIO DE LAS IMÁGENES. Obtenido de
http://api.eoi.es/api_v1_dev.php/fedora/asset/eoi:45518/componente45516.pdf
Richards, J., & Jia, X. (2005). Remote Sensing Digital Image Analysis. Canberra: Springer.
Robinove, C. (1982). Computation with Physical Values from Landsat. En Photogrammetric
Engineering and Remote Sensing (págs. 781-784). vol. 48 .
Sola, I. G.-A.-M. (2014). Evaluación multitemporal de métodos de corrección. Revista de
Teledetección, 71-78.

S-ar putea să vă placă și