Sunteți pe pagina 1din 9

Unidad 1.

Introducción al Procesamiento
Digital de Imágenes Satelitales

CURSO

FUNDAMENTOS DE PDI
CURSO
FUNDAMENTOS DE PDI

Características de la imagen digital, soportes y formatos de


almacenamiento
Continuando con el desarrollo conceptual de este curso, a continuación se abordarán los conceptos y
fundamentos de una imagen digital, la transferencia de datos, las características, soportes y formatos
de las imágenes digitales, que permiten tomar decisiones respecto a la elección de la misma y cumplir
con el objetivo propuesto en cualquier estudio de procesamiento digital de imágenes.

¿Qué es una imagen digital?


La imagen digital es un arreglo matricial de números que representa una distribución espacial de la
energía electromagnética (reflexión, emisión, temperatura o alguna variable de elevación topográfica o
geofísica) de una escena capturada por un sensor remoto, (GIS Development, 2007).

Figura 1. Ejemplo de imágenes digitales de sensores remotos

A. Imagen Quickbird RGB 321 B. Imagen Quickbird RGB 432 (Saldaña, Tolima)

Fuente: IGAC – CIAF, 2007

Una imagen digital está conformada por elementos pictóricos discretos denominados píxeles,
organizados en filas y columnas. Cada píxel tiene asociado un número denominado Nivel Digital (ND),
el cual representa la intensidad o brillo promedio de un área mínima relativa dentro de la escena; para
monitores de 8 bits el rango de niveles digitales va de 0 a 255.

El tamaño de esta área mínima afecta considerablemente la captura de detalles terrestres dentro de la
escena, sin olvidar que si se reduce el tamaño de píxel se preservarán mejor estos detalles terrestres
en la imagen.

En términos matemáticos la imagen satelital puede representarse como una matriz bidimensional de
m x n píxeles, donde n representa el número de filas y m el número de columnas. A diferencia de
cualquier sistema de coordenadas cartesianas, el origen de este sistema de coordenadas de imagen
se ubica en la esquina superior izquierda, para propósitos de visualización y procesamiento (Figura 2).
CURSO
FUNDAMENTOS DE PDI
Figura 2. Sistema de coordenadas de imagen

Fuente: CIAF, 2008

Cada elemento en la imagen o píxel tiene coordenadas (x, y) en el espacio discreto, representando
una muestra del espacio continuo de la superficie terrestre (Camfer, 2007; Science Centre Singapore,
2008).

En el caso de las imágenes ópticas, éstas pueden estar conformadas por más de una matriz de
píxeles, cada una referida como banda o canal de la imagen y cuyos píxeles almacenan niveles
digitales específicos de un rango del espectro electro- magnético, por ejemplo: en el caso de una
imagen Landsat ETM+ conformada por ocho bandas, tres de ellas en el espectro visible, una en el
térmico y otra en el rango de infrarrojo cercano, dos canales en el infrarrojo medio y una banda
pancromática que comprende desde el rango del visible al infrarrojo cercano.

Las imágenes digitales se registran mediante un sistema de sensor instalado en una plataforma
espacial o aerotransportada. Existen dos tipos de sensores remotos para estos propósitos: ópticos-
electrónicos o pasivos y activos (de radar o LIDAR) (Posada, 2008).

Los sensores pasivos reciben la radiación proveniente de una fuente exterior a ellos (generalmente el
Sol). Están compuestos por el conjunto de detectores sensibles a unas longitudes de ondas
predeterminadas, lo que permite medir selectivamente la firma espectral de cuerpos terrestres en
diferentes rangos de longitud de onda, creándose así la imagen en múltiples bandas del espectro, que
es lo que se conoce como imagen multiespectral.

Los sensores activos (de radar o LIDAR) funcionan con base de su propia energía y generalmente se
consideran como mono- espectrales, ya que generan solo las imágenes para una franja del espectro
(Posada, 2008). Una vez que los datos de la imagen son recolectados por el sensor son enviados a
una estación terrestre en formato digital, que consiste básicamente de un flujo de datos numéricos. La
unidad mínima de este dato digital es el bit, representado por un número binario con dos posibles
valores (0 y 1).
CURSO
FUNDAMENTOS DE PDI

El bit también representa un dato con dos posibles estados como cerrado/abierto, falso/verdadero,
apagado/conectado. Sin embargo, con estos dos potenciales valores del bit no es posible representar
datos más complejos como lo constituyen las imágenes de sensores remotos, razón por la que los
datos digitales frecuentemente son almacenados en una colección de ocho bits, resultado en una
unidad de datos denominada como byte (GIS Development, 2007).

Un byte es la unidad de datos conformados por ocho bits, proporcionando un elemento de dato con
256 valores potenciales (28). Los radiómetros que miden la intensidad de radiación electromagnética,
generalmente convierte los niveles de energía detectada en un valor que va de 0 a 255, siendo 255 la
reflexión máxima capturada por el sensor y 0 el píxel en el que se presenta una ausencia de reflexión
de energía, es decir que estos valores representan los niveles de energía medidos en un byte.

En resumen, el sensor captura la energía electromagnética de un área de la cubierta terrestre en


forma de señal, luego es transmitida y convertida en un flujo digital de bytes, los cuales podrán ser
leídos e interpretados por un software de procesa- miento. Generalmente, las imágenes capturadas de
esta manera son referidas como “imágenes digitales de 8-bit”.

Una vez que el flujo de datos es recibido del sensor, el valor de cada byte se almacena en un píxel
como un Nivel Digital (ND), representando de esta manera el brillo promedio en forma de tono de gris,
cuyo rango comprende todos los colores existentes entre el negro y el blanco. Estos píxeles,
organizados conjuntamente de manera correcta, forman la imagen digital y se puede observar que las
variaciones de los tonos de gris representan las variaciones de los niveles de energía en la superficie
terrestre.

Para ilustrar el proceso de formación de la imagen puede observarse en la Figura 3 una muestra de
píxeles conformada por una grilla de ocho filas por ocho columnas, cada valor numérico representa su
respectivo tono de gris, para niveles digitales cercanos a cero los tonos son negros, mientras los
valores numéricos que tienden a 255 los tonos son blancos.

Figura 3. Niveles digitales de una muestra de 8x8 píxeles en la banda 4 de una imagen SPOT-5

Fuente: IGAC – CIAF 2008

La forma en que los cuerpos naturales reflejan la radiación electromagnética constituye uno de los
fundamentos de la percepción remota. La radiación electromagnética que es reflejada por la superficie
de la Tierra se puede graficar en un plano cartesiano cuyos vértices son la longitud de onda Vs. los
CURSO
FUNDAMENTOS DE PDI

valores de los niveles digitales (ND). En esta gráfica se pueden evidenciar las curvas “Tipo” del
comportamiento de las diferentes coberturas terrestres.

Los rangos en los que las curvas presentan mayor separación constituyen las bandas (o rangos del
espectro electromagnético que es capaz de captar un sensor) donde es más fácil establecer
diferencias entre dichos cuerpos, una de las ventajas principales de la información multiespectral y
base de procesamiento digital Ver. Figura 4 (Posada, 2008).

Figura 4. Ejemplo de bandas presentes en una imagen Ikonos

Fuente: IGAC – CIAF, 2008

El número de bandas y de píxeles por una imagen depende del programa satelital. Una escena de
SPOT con 4 cuatro bandas espectrales y un tamaño del píxel de 20 mts, está conformada por 36
millones de píxeles que representa 60 km² de superficie terrestre. Una imagen LANDSAT_TM, con
siete bandas espectrales y resolución espacial de 30 mts se compone de 231 millones de píxeles y
cubrimiento superficial de 185 km² por escena.

De acuerdo con lo anterior es muy válido que el estudiante se pregunte ¿Cuáles son las
características de una imagen digital?

Como es sabido, las imágenes poseen unas propiedades o características específicas en cuanto a su
capacidad de registrar y discriminar la información detallada. Este tipo de características se
denominan resolución de imágenes o también del sensor y se divide en cuatro tipos: espacial,
espectral, radiométrica y temporal (Chuvieco, 2002 y Posada, 2008).

Resolución espacial
Es definida por el elemento más pequeño que puede ser discriminado en una imagen. Corresponde a
la mínima unidad de información incluida en la imagen o píxel. Entre menor sea el tamaño del píxel,
mayor resolución poseerá la imagen y se podrá extraer de ésta una mayor cantidad de información.

Sin embargo, en áreas de interés que son muy heterogéneas, como por ejemplo en áreas urbanas, se
ha comprobado que una mayor resolución espacial afecta negativamente la clasificación digital. A su
vez, cabe mencionar que el umbral para la discriminación de los objetos en una imagen es cuatro
veces mayor que el tamaño de un píxel (Jensen, 1986 y citado por Posada, 2008).

A continuación en la Figura 5 nótese el mayor nivel de detalle en la imagen Quickbird, ya que sus
pixeles son más pequeños, pero obviamente, para esta misma área hay muchos más pixeles.
CURSO
FUNDAMENTOS DE PDI

Figura 5. Diferencias entre la resolución espacial de una imagen


A. Landsat ETM+ (30 mts) B. SPOT-5 (10 mts) C. Quickbird (2.4 mts)

Fuente: IGAC – CIAF, 2008

La resolución espacial de las imágenes de sensores remotos utilizadas en estudios de recursos


naturales varía de 0.007 m hasta 1 o 2 km. En Colombia las más utilizadas son las imágenes de
programas LANDSAT, con resolución espacial de 30 y 15 metros; y las imágenes de programa SPOT
de 10 y 5 metros de resolución.

Recientemente, han entrado al mercado las imágenes de los programas espaciales comerciales
IKONOS, con resolución espacial que varía de 1 a 4 mts y QuickBird con resoluciones que pueden ir
de 0.6 mts a 2.4 mts. Ésta es una excelente alter- nativa en imágenes frente a la resolución espacial,
no obstante, este tipo de imágenes son muy costosas y requieren de un estudio cuidadoso sobre su
aplicabilidad real, así como de generación de los nuevos enfoques metodológicos de procesamiento
digital a causa de su alta resolución espacial. De igual manera, están disponibles desde hace poco
tiempo, las imágenes del satélite Indio – IRIS, cuya resolución es de seis metros (Posada, 2008).

Resolución espectral
Este tipo de resolución indica el ancho y el número de bandas espectrales que posee una imagen.
Una imagen multiespectral se caracteriza por ser más idónea si cuenta con mayor número de bandas,
toda vez que facilita la caracterización espectral de los distintos objetos de la Tierra. A la vez, es
conveniente que estas bandas sean estrechas ya que las bandas muy amplias registran un valor
promedio que puede encubrir la diferenciación espectral entre los objetos de interés. (Ver Figura 4)

La elección del número, ancho y localización de las bandas depende de los objetivos del estudio. Por
ejemplo, para los estudios de vegetación es recomendable contar con las bandas del rango del
espectro visible, infrarrojo cercano y medio; mientras que para estudiar la calidad de las aguas es
importante contar con las bandas azul, verde y rojo.

Las imágenes de radar poseen la menor resolución espectral ya que cuentan con una sola banda y
son mono-espectrales. Las imágenes óptico-electrónicas cuentan con un amplio rango de bandas
espectrales en función del sensor que haya realizado la toma.

De otra parte, existen programas, como HRIS (High Resolution Imaging Spectrometer) con 196
canales o bandas espectrales, (Chuvieco, 2002). Las imágenes más comunes para Colombia son las
del programa satelital LANDSAT, que cuentan con siete bandas espectrales para el satélite
LANDSAT-5 y ocho bandas para el satélite LANDSAT-7.
CURSO
FUNDAMENTOS DE PDI

En la actualidad, se cuenta también con una muy buena cobertura de imágenes para el país
provenientes del satélite francés SPOT 5, que tiene cuatro bandas multiespectrales de 10 m de
resolución y una banda pancromática de 5m.

Resolución radiométrica
Representa la capacidad del sensor para detectar las variaciones en la radiación espectral que recibe.
El rango con que se codifica la radiación varía para los distintos sensores, sin embargo, los de 256
niveles de codificación o de ocho bits son los más comunes en el mercado actual de imágenes de
sensores óptico-electrónicos, como por ejemplo LANDSAT y SPOT.

Las imágenes de IKONOS son de 11 bits o 2048 niveles radiométricos. La mayor precisión
radiométrica conlleva, en teoría, a una mayor precisión. Sin embargo, algunos autores han
demostrado que el aumento de 64 a 256 niveles no implica una mejora significativa en la clasificación
de cubiertas vegetales. En la Figura 6 se pueden apreciar las diferencias en cuanto a la calidad de
una imagen dependiendo de su resolución radiométrica.

Igualmente, se puede mencionar el caso de radar, que con una resolución radiométrica de 16 bits
65536 niveles de codificación, de ninguna manera podrá superar una imagen multiespectral de 256
niveles en lo referente a discriminación y clasificación de objetos terrestres (Chuvieco, 2002; Posada,
2008 y CCRS, 2003).

Figura 6. Resolución radiométrica para la banda pancromática de una imagen Ikonos de:

A. 11 bits B. 4 bits C. 2 bits


Fuente: IGAC – CIAF, 2008

Resolución temporal
La resolución temporal es la frecuencia con la que se adquieren las imágenes de la misma porción
terrestre o es la revisita de un sensor a una misma área de la Tierra. Ella depende de la altura, la
velocidad y la inclinación de la plataforma, así como del ángulo de observación.

Un ejemplo de ello es la diferencia de resolución temporal de las imágenes de los satélites LANDSAT
que se puede obtener, teóricamente, cada 16 días y la de las imágenes SPOT, que son tomadas cada
26 días. Sin embargo, la obtención de las imágenes óptico-electrónicas para la mayoría de las
regiones de Colombia y específicamente en el área del Pacifico, se dificulta debido a las condiciones
atmosféricas adversas y la alta nubosidad presente durante casi todo año.

Cuando se realiza un análisis de las imágenes para determinar su calidad, estas cuatro resoluciones
se deben estudiar en su conjunto lo que conlleva a la selección de una imagen apropiada y acorde
con los objetivos determinados para el proyecto en el que se utilizarán. Así por ejemplo, para algunos
estudios puede primar la riqueza espectral y radiométrica de las imágenes, como es el caso de los
estudios de vegetación; y para otros seguramente será más importante la resolución temporal, en el
CURSO
FUNDAMENTOS DE PDI

caso concreto de eventos naturales, donde es necesario contar con imágenes de muy corta
periodicidad.

Soportes y formatos de las imágenes digitales más comunes


El primer paso para el procesamiento digital es la introducción de las imágenes al ambiente
computacional. Esta operación se debe realizar teniendo en cuenta los tipos de formatos y los
soportes por medio de los que se van a almacenar las imágenes.

Los soporte más utilizado hoy en día, memorias USB y discos duros extraíbles, dispositivos más
baratos y muy accesibles, además de idóneos para almacenar grandes volúmenes de datos. Existen
otros tipos de dispositivos tales como: cintas compatibles con computador (CCT), cartuchos de
Exabyte de alta o baja densidad. Así mismo, con el gran avance del internet es común descargar las
imágenes directamente de servidores web que ofrecen los datos digitales de forma gratuita o con
pago.

Pese a que aún no se ha producido un estándar a nivel mundial para la transferencia y


almacenamiento de datos de sensores remotos, a pesar del trabajo realizado por el Comité de
Satélites de Observación de la Tierra (CEOS, por sus siglas en inglés). Para facilitar el intercambio y
la interoperabilidad de los datos digitales de sensores remotos, éstos suelen ser almacenados según
tres formatos comunes usados para organizar la información de las imágenes, así: bandas
intercaladas por línea (BIL), bandas secuenciales (BSQ) y bandas intercaladas por píxeles (BIP).

Las imágenes digitales se organizan en ficheros (archivos), normalmente cada imagen incluye un
fichero de cabecera, en el que se guarda la información básica de la imagen, como es el formato de
grabación, el tipo de sensor, la localización geo- gráfica de la escena, el día, la elevación y el azimut
solar y adicionalmente, el tipo de correcciones aplicadas por la estación receptora (Posada, 2008).

Los formatos de grabación indican la organización lógica de los ND de la imagen y la codificación


aplicada. Como se había enunciado antes, los ND de una imagen se graban en código binario (un bit,
0 y 1) y la mayor parte de sensores emplea grupos de ocho bits para almacenar el ND
correspondiente a cada píxel, con 256 posibles valores. Éste es también el rango admitido por la
mayoría de los equipos de procesamiento digital. Las imágenes de radar se codifican con 16 bits o
65.536 niveles, y para su visualización, en ciertas ocasiones se requiere de previa compresión
(Posada, 2008).

Formato BIL (Band interleaved by line)


Los datos se organizan por líneas intercalando una línea de píxeles por cada banda, mientras que por
cada línea se codifican consecutivamente los ND de la totalidad de las bandas presentes en la
imagen, antes de comenzar la línea siguiente. Ejemplo: línea 1 - banda 1, línea 1- banda 2, línea 3 -
banda 3; 2 banda – 1, línea 2 – banda 2, etc.

Éste es un formato común para imágenes SPOT y a veces también utilizado para grabar los datos
LANDSAT. Es práctico si todas las bandas van a ser usadas en el análisis y agiliza la lectura de sub-
escenas de la imagen. Si algunas bandas no son de interés el formato es ineficiente pues se hace
inevitable leer secuencialmente datos innecesarios.

Formato BIL (Band interleaved by line)


Los datos se organizan por líneas intercalando una línea de píxeles por cada banda, mientras que por
cada línea se codifican consecutivamente los ND de la totalidad de las bandas presentes en la
imagen, antes de comenzar la línea siguiente. Ejemplo: línea 1 - banda 1, línea 1- banda 2, línea 3 -
banda 3; 2 banda – 1, línea 2 – banda 2, etc.
CURSO
FUNDAMENTOS DE PDI

Formato BIP (Band interleaved by Pixel)


Los datos numéricos de la imagen son grabados intercalando sucesivamente un píxel por cada banda.
Por ejemplo, tras de ND del píxel de la línea 1, columna 1, banda 1, aparece el correspondiente a la
línea 1, columna, banda 2 y así sucesivamente. Este formato es poco utilizado en la actualidad,
aunque se considera práctico para agilizar desplegué de las sub-ventanas de una imagen.

A continuación, en la Figura 7 se ilustra el proceso de almacenamiento de la información de una


imagen.

Figura 7. Ejemplos de almacenamiento de una imagen de tres bandas en formatos


BSQ, BIL y BIP

Fuente: IGAC, 2008

En la Figura 7 se muestra una imagen de 6x6 píxeles compuesta por tres bandas del espectro visible:
azul, verde y rojo. Si se implementa un formato BSQ se almacena la banda azul, seguida de la verde y
por última la banda del rojo, si se utiliza el formato BIL, el almacenamiento se efectuaría por líneas de
cada banda del azul, verde y rojo, y por último, si se emplea un formato BIP cada píxel de la banda
azul, verde y rojo, se alternaría para el almacenamiento de la imagen.

Cabe resaltar que los formatos anteriores son considerados los más comunes en el intercambio de
datos, no obstante, cada software de procesamiento digital de imágenes exige la conversión a
formatos propios para implementar muchas de las funcionalidades de tratamiento digital de imágenes,
por ejemplo, ERDAS Imagine de Leica Geosystems trabaja con el formato HFA (Hierarchical File
Format) cuya extensión de archivos se conoce como *.img, en el caso del software de Geomática de
PCI Geomatics implementa el formato denominado PCIDSK (PCI Geomatics Data-base File Format)
cuya extensión se conoce como *.pix.

S-ar putea să vă placă și