16
EVALUACION DE LA FUSION DE IMÁGENES SATELITALES USANDO LA TRANSFORMADA DE WAVELET CON RELACION A LOS METODOS TRADICIONALES Grupo de Investigación en Fusión de Imágenes Ingeniería Catastral y Geodesia, Facultad de Ingeniería, Universidad Distrital Profesores: Iván Lizarazo Salcedo Rubén Javier Medina Daza Estudiantes: Alejandro Vivas Perdomo Fredy Alexander Bolívar Carlos Calderón Samuel Mesa Alexander  Munar RESUMEN La fusión de imágenes es un proceso digital que permite reunir en una sola imagen el detalle espacial de una imagen pancromática y la riqueza espectral de una imagen multiespectral. Los procedimientos convencionales de fusión de imágenes están basados en transformaciones tales como RGB - IHS, Brovey y Componentes Principales. Estos métodos no son completamente satisfactorios debido a la pérdida relativamente alta de la información espectral original. En los últimos años se ha empezado a experimentar con otras transformaciones matemáticas que permitan conservar mejor la riqueza espectral de la imagen multiespectral original. Los autores de este documento han realizando una investigación para evaluar la 

EVALUACION DE LA FUSION DE IMÁGENES ...cidc.udistrital.edu.co/investigaciones/documentos/revi...De acuedo con Pohl y van Genderen (1998) la fusión de imágenes se puede usar para:

Embed Size (px)

Citation preview

EVALUACION DE LA FUSION DE IMÁGENES SATELITALES USANDO LA 

TRANSFORMADA DE WAVELET CON RELACION A LOS METODOS 

TRADICIONALES

Grupo de Investigación en Fusión de Imágenes

Ingeniería Catastral y Geodesia, Facultad de Ingeniería, Universidad Distrital

Profesores: Iván Lizarazo Salcedo

Rubén Javier Medina Daza

Estudiantes:  Alejandro Vivas Perdomo

Fredy Alexander Bolívar

Carlos Calderón

Samuel Mesa

Alexander  Munar

RESUMEN

La   fusión  de   imágenes  es  un  proceso  digital   que  permite   reunir  en  una   sola 

imagen el detalle espacial de una imagen pancromática y la riqueza espectral de 

una imagen multiespectral.

Los  procedimientos   convencionales  de   fusión  de   imágenes  están  basados  en 

transformaciones   tales   como  RGB   ­   IHS,   Brovey   y   Componentes  Principales. 

Estos   métodos   no   son   completamente   satisfactorios   debido   a   la   pérdida 

relativamente alta de la información espectral original.

En los últimos años se ha empezado a experimentar con otras transformaciones 

matemáticas  que  permitan  conservar  mejor   la   riqueza  espectral   de   la   imagen 

multiespectral original.

Los autores de este documento han realizando una investigación para evaluar la 

calidad de  las  imágenes  fusionadas mediante wavelet  en comparación con  los 

métodos  tradicionales.    En este  artículo  se  hace una  revisión de  los  métodos 

tradicionales   de   fusión   de   imágenes,   de   los   fundamentos   matemáticos   de   la 

descomposición de wavelet,  de   los  conceptos  básicos  de   la   fusión basada en 

wavelet y, finalmente, se indican los resultados de la fusion de imagenes realizada 

en una zona piloto.     Dichos resultados indican que la fusion mediante wavelet 

permite conservar mejor la riqueza espectral que los metodos convencionales pero 

que  la ganancia de resolución espacial es inferior a la de aquellos. 

ABSTRACT

Image fusion is a digital process used to get one single image that keeps the high 

spatial   resolution   of   one   panchromatic   image   and   the   richness   of   one 

multiespectral image. 

Traditional   techniques   for   image   fusion   are   based   mainly   in   the   RGB­HIS 

transformations,   Principal   Components   Analysis   and   Brovey   Transformation, 

among others. These methods are not good enough due to the spectral losses of 

the original spectral information. 

In  the recent years,  some research have been done about   image  fusion using 

mathematical   transformations   which   seems   to   preserve   a   lot   the   spectral 

information from the original images. 

The authors have done research work to evaluate the quality of images fusioned 

by   wavelet   and   traditional   methods.   In   this   article,   they   review   the   traditional 

approach for image fusion, the mathematical wavelet theory, the basic concepts of 

the wavelet  fusion method, and communicate the results achieved when fusing 

images of a pilot zone. According to these results, the wavelet fusion approach 

keeps spectral information higher than traditional methods but the detail does not 

improve as well as those.

1. INTRODUCCIÓN

Las imágenes de satélite constituyen, desde su aparición en 1973, una fuente de 

datos   importante   para   la   ejecución   de   proyectos   sobre   medio   ambiente   y 

desarrollo.     Las   imágenes  de   satélite,   a   diferencia   de   las   fotografías   aéreas, 

adquieren datos de reflectancia de los objetos terrestres, en diferentes longitudes 

de onda.  Por ello, contienen una gran riqueza de información espectral.  

Hasta   1999,   las   imágenes   de   satélite   multiespectrales     sólo   alcanzaban 

resoluciones espaciales de 20 metros, lo cual limitó su uso a proyectos regionales 

de escala pequeña y mediana (léase nivel general y, en el mejor de los casos, 

nivel  semidetallado).    De 1999 en adelante,  las  imágenes multiespectrales han 

alcanzado resoluciones espaciales hasta de 2.50 metros1 y su uso en estudios de 

nivel detallado, básicamente de zonas urbanas, ha empezado a intensificarse.

En un intento de ¨mejorar¨ la resolución espacial de las imágenes multiespectrales, 

se han generado diversas técnicas para combinar dichas imágenes con otro tipo 

de imágenes cuya resolución espacial sea más alta.   Dichas técnicas, conocidas 

como fusión de imágenes, se han utilizado con relativo éxito desde hace muchos 

años y están implementadas en herramientas de software convencionales.

La   fusión   de   imágenes   es   un   campo   de   investigación   continua   que   abre   la 

posibilidad de  involucrar  nuevos conceptos y herramientas,  entre  ellos algunas 

transformaciones matemáticas usadas en tratamiento de señales. Una de ellas es 

la    transformación wavelet,   la cual  constituye el  objeto de  la  investigación que 

actualmente adelanta el Grupo de Investigación en Fusión de Imágenes, GIF.

2. QUE ES FUSIÓN DE IMÁGENES 

La fusión de imágenes es una técnica digital que pretende mejorar una imagen 

multiespectral   y   así   potenciar   su   uso   en   diversas   aplicaciones.   Para   ello   se 1 La resolución espacial de una imagen QuickBird­XS es de 2.50 metros. La resolución de una imagen IKONOS­XS es de 4 metros.

combinan los datos de una   imagen pancromática (o una imagen de radar o de 

otro   sensor   no   óptico)     de   alta   resolución   espacial   con   los   de   una   imagen 

multiespectral de alta resolución espectral. El resultado final es una nueva imagen 

en la cual se ha conservado una buena parte de la riqueza espectral original y se 

ha ganado resolución espacial.

De acuedo con Pohl y van Genderen (1998) la fusión de imágenes se puede usar 

para:

– Mejorar la corrección geométrica de una imagen

– Realzar elementos que no son visibles en una imagen

– Complementar datos para mejorar una clasificación

– Detectar cambios en una zona  usando datos multitemporales

– Reemplazar datos anómalos de una imagen

– Adicionar datos faltantes en una imagen

La fusión de imágenes se puede realizar por diferentes métodos, según sea el 

lugar donde se ejecuta, en la cadena de producción de información espacial:

• A nivel de datos

• A nivel de objetos

• A nivel de decisiones

La fusión de imágenes usualmente se realiza a nivel de los datos, es decir a nivel 

de pixel2. Las técnicas para realizar fusión a este nivel pueden ocurrir en diferentes 

dominios:

• En el dominio de la frecuencia espacial3

2 Píxel es el elemento mínimo que conforma una imagen.  Píxel es una contracción de  picture element.3 La frecuencia espacial es una medida de la variación del nivel digital de una imagen en función de la distancia.

• En el dominio espectral

• En un dominio mixto, espacial y espectral

3. MÉTODOS TRADICIONALES DE FUSIÓN DE IMÁGENES

La fusión de imágenes convencional, es decir aquella que está implementada en 

los programas comerciales de procesamiento digital de imágenes, permite obtener 

resultados aceptables y útiles.   Los métodos convencionales  son los siguientes:

31   En el dominio de la frecuencia espacial

En   esta   técnica   se   busca   transferir   el   contenido   de   frecuencia   de   la   imagen 

pancromática   a   la   imagen   multiespectral,   aplicando   el   siguiente   algoritmo 

(ERDAS,2002):

en donde,

Imagen fusionada

Imagen multiespectral ­ banda k

Imagen pancromática con filtro paso alto

Función de ponderación

32   En el dominio espectral

Las imágenes multiespectrales pueden ser transformadas en un nuevo espacio en 

el cual una imagen representa el componente correlacionado, por ejemplo:

• el componente principal 1 (CP1) en el espacio de  Componentes Principales

• el   componente   de   intensidad   en   el   espacio   de   percepción   de   color   IHS 

(Intensidad, Matiz y Saturación)

La   fusión   en   el   dominio   espectral   se   realiza   mediante   la   ejecución     de   las 

siguientes fases:

 

• Aplicar una transformación a las bandas de la imagen original

• Reemplazar el componente que representa el detalle espacial por la imagen 

pancromática

• Transformar la imagen resultante en el dominio original de la imagen

3.21MÉTODO TRADICIONAL RGB­IHS:

Este método incluye (Pohl,1999): 

1.    Registrar una composición a color RGB de la imagen multiespectral con una 

imagen pancromática, usando el mismo tamaño de píxel de esta última.

2.   Transformar los componentes RGB en componentes IHS (Intensidad, Matiz y 

Saturación).

3.     Ajustar   el   histograma   de   la   imagen   pancromática   al   histograma   de   la 

componente I.

4.   Reemplazar el componente I por la imagen pancromática

5.   Realizar la transformación inversa IHS a RGB

3.22MÉTODO TRADICIONAL RGB­COMPONENTES PRINCIPALES:

Este método incluye: 

1.   Obtener los componentes principales de una composición RGB de la imagen 

multiespectral.

2.    Escalar   la   imagen pancromática dentro del   rango de niveles digitales del 

componente principal 1 y reemplazar este componente  con dicha imagen.

3.    Aplicar una transformación inversa de componentes principales para obtener 

una nueva imagen RGB.

3.23MÉTODO TRADICIONAL  TRANSFORMADA DE BROVEY

Este método se basa en obtener una nueva imagen RGB usando la Transformada 

de Brovey  que combina tres bandas originales  de  una imagen multiespectral con 

la imagen pancromática.

El algoritmo usado es (ERDAS, 2002):

Imagen fusionada

Imagen multiespectral ­ banda k

Imagen pancromática 

3.24Método tradicional multiplicación

Este   método   aplica   un   algoritmo   simple   de   multiplicación,   para   incorporar   el 

contenido de la imagen pancromática en la imagen multiespectral (ERDAS, 2002):

En donde,

Imagen fusionada

Imagen multiespectral ­ banda k

4. LA TRANSFORMADA DE WAVELET 

Una transformación wavelet permite descomponer una imagen en dos tipos de 

coeficientes:  aproximación,  que representan la riqueza espectral,  y  detalle,  que 

representan la resolución espacial.

La descomposición wavelet se puede hacer en diferentes niveles de resolución, lo 

cual significa que  los componentes de aproximación y detalle se pueden examinar 

en diferentes tamaños de píxel (Sanjeevi et al., 2001).

  

En cada nivel de descomposición wavelet se tiene  una resolución espacial igual a 

la   mitad   de   la   resolución   anterior.   Por   ello,   la   descomposición   de   la   imagen 

pancromática   de   nivel   2   de   la   Figura   1   corresponde   a   un   tamaño   de   píxel 

equivalente al de la imagen multiespectral sin descomposición, considerando una 

imagen  pancromática de resolución espacial de 1m y una imagen multiespectral 

de resolución espacial de 4 m.

Figura 1

La   descomposición   wavelet   es   un   proceso   iterativo,   con   sucesivas 

aproximaciones, la cual recibe el nombre de descomposición de árbol. 

La imagen original es descompuesta en coeficientes de aproximación (A1) y coeficientes de detalle (D1).  Los coeficientes de aproximación (A1) se descomponen en nuevos coeficientes de aproximación  (A2), y coeficientes de detalle (D2). Los coeficientes de aproximación (A2), se pueden descomponer en nuevos coeficiente de aproximación (A3) y detalle (D3) y  así sucesivamente. Para recuperar la imagen original se adiciona la última descomposición de los coeficientes de aproximación con cada una  de las descomposiciones de los coeficientes de detalle, tal como se muestra en la  Figura 2 (Misiti, 2002). 

Figura 2

5. FUSIÓN DE IMÁGENES USANDO WAVELET

Este método consiste en combinar los coeficientes de la Wavelet de la imagen 

pancromática y de la imagen multiespectral. Para el efecto, se tiene en cuenta la 

relación entre   los tamaños de píxel de la imagen pancromática y de la imagen 

multiespectral. 

La fusión de imágenes basada en Wavelet puede ser realizada de dos formas 

(Nuñez J.  et al., 1999):

1).   Remplazando   los   coeficientes   de   detalle   de   la   Wavelet   de     la   imagen 

multiespectral por los coeficientes correspondientes de la imagen pancromática.

2).   Adicionando   los   coeficientes   de   detalle   de   la   wavelet   de   la   imagen 

pancromática a los coeficientes correspondientes de la imagen multiespectral.

Este método de fusión se basa en el hecho que, en la descomposición de wavelet, 

las imágenes          (l =o,...,n)   son versiones sucesivas de la imagen original en escalas decrecientes; así, los primeros planos de la wavelet de la imagen pancromática de alta resolución tienen información espacial que no está presente en la imagen multiespectral.

En el  método de sustitución, los planos de  wavelet correspondientes a la imagen 

multiespectral son eliminados y sustituidos por los planos correspondientes de la 

imagen pancromática. Sin embargo, en el método de adición toda la información 

espacial   de   la   imagen   multiespectral   es   preservada.   Así,   la   gran   ventaja   del 

método de adición es que la información de detalle de ambos sensores es usada.

6. INVESTIGACIÓN EN FUSIÓN DE IMÁGENES

El Grupo de Investigación en Fusión de Imágenes (GIF) de Ingeniería Catastral y 

Gedesia, ha realizado pruebas de fusión usando los métodos convencionales y  la 

transformación de wavelet  en dos zonas pilotos:

Yopal (Casanare)

En   esta   zona,   se   fusionaron   una   imagen   multiespectral   de   LANDSAT5­TM 

(resolución espacial de 30 m.) y una imagen pancromática de IRS­1C (resolución 

espacial de 5 metros).

Bogotá (Distrito Capital)

En   esta   zona,   se   fusionaron   una   imagen   multiespectral   de   SPOT2­HRV 

(resolución   espacial   de   20   metros)   y   una   imagen   pancromática   de   SPOT2 

(resolución espacial de 10 metros). 

Los autores no conocen de trabajos de implementación y evaluación  de la fusión 

wavelet,  desarrollados a nivel nacional.

Para   realizar   su   investigación,   los   autores   desarrollaron   unos   scripts   para   el 

software   MATLAB   6.0   que   permiten   manipular   los   coeficientes   de   detalle   y 

aproximación de las imágenes digitales y obtener la imagen fusionada mediante 

wavelet.  

La fusión tradicional se realizó utilizando el programa ERDAS IMAGINE 8.5.

7. EVALUACIÓN ESTADÍSTICA DE LOS MÉTODOS DE FUSIÓN

Para calificar el comportamiento de los métodos estándar de fusión de imágenes y 

del   método   wavelet,     se   calculó   la   correlación   entre   las   diferentes   imágenes 

fusionadas   y   la   imagen     multiespectral   original,   para   obtener   un   índice   de 

conservación de la resolución espectral. Para analizar la  ganancia de resolución 

espacial se obtuvo la diferencia entre las correlaciones de las diferentes imágenes 

fusionadas y  la  imagen pancromática con respecto a  las correlaciones entre  la 

imagen multiespectral original y la imagen pancromática. 

La correlación entre dos imágenes  A y B está definida por (ERDAS,2002):

En donde  y  son los niveles digitales promedio de las imágenes correspondientes 

[2] y   es el coeficiente de correlación entre las imágenes A y B,  dicho coeficiente 

varía entre –1 y +1. Se usan los signos + y – para las correlaciones positivas y 

negativas,  respectivamente. Nótese  que es un parámetro adimensional. 

8. TABLA DE RESULTADOS

En  la   siguiente   tabla  se  muestra   la   correlación  entre   la   imagen  multiespectral 

original y las imágenes obtenidas   en los diferentes métodos de fusión, para la 

zona piloto de Bogotá:

Fusión

Métodos 

convencionales

Infrarrojo Rojo Verde

RGB­IHS 0.743 0.928 0.943

Componentes 

Principales

0.834 0.831 0.807

Fusión

métodos 

Infrarrojo Rojo Verde

convencionalesBrovey 0.714 0.888 0.825Fusión

métodos wavelet

(Nivel 1)

Infrarrojo Rojo Verde

Haar 0.9648 0.9655 0.9547Discreta de Meyer 0.9621 0.9707 0.9700

Biortonormal inversa 0.9547 0.9655 0.9648Dabuiches 0.9595 0.9686 0.9680

Coiflet 0.9618 0.9704 0.9698

En la siguiente tabla se muestra la ganancia de resolución espacial para las 

imágenes obtenidas  en los diferentes métodos de fusión:

Imágenes fusionadas 

método wavelet

(Nivel 3)

Ganancia BandaVerde 

Ganancia Banda Roja

Ganancia Banda

Infrarrojo 

Haar 0.062 0.050 0.116Discreta de Meyer 0.064 0.053 0.115

Biortonormal inversa 0.061 0.050 0.116Dabuiches 0.061 0.050 0.116

Coiflet 0.063 0.051 0.114

Imágenes fusionadas métodos 

convencionales

Ganancia BandaVerde 

Ganancia Banda Roja

Ganancia Banda

Infrarrojo Brovey 0.14 0.127 0.463

Componentes Principales 0.168 0.157 0.452Multiplicación 0.126 0.105 0.636

HIS 0.146 0.148 0.627

En las Figuras 1 a 6 se pueden ver las imágenes fusionadas.

Figura 1.  Imagen fusionada usando el método RGB­ IHS.

Figura 2. Imagen fusionada  usando Componentes principales

Figura 3.  Imagen Fusionada  usando  el método de  Multiplicación.

Figura 4. Imagen Fusionada usando la Transformada de Brovey

Figura 5. Imagen Fusionada  mediante la Transformada de Wavelet Biortonormal Inversa 

Figura 6. Imagen fusionada usando la transformada wavelet Discreta de Meyer  

9. ANÁLISIS DE RESULTADOS:

En   las   tablas   indicadas   antes   puede   verse   que   los   métodos   convencionales 

permiten conservar  la resolución espectral,  en un porcentaje promedio variable 

entre 81 y 88%. El  orden de desempeño espectral,  de mayor a menor,  de  los 

métodos   es   el   siguiente:   multiplicativo,   RGB­IHS,   Componentes   Principales   y 

Brovey. La banda del infrarojo es la que menos conserva la resolución espectral 

(en promedio el 75%) frente a las bandas verde (88%)  y roja (90%).

La ganancia de resolución espacial, por su parte,  está entre 12.7 y 63%. La mejor 

ganancia promedio corresponde a  la banda del  infrarrojo (54.45%) frente a  las 

bandas roja (13%) y verde (14%).

La fusión por el método wavelet (nivel 3) permite conservar la resolución espectral 

en un porcentaje promedio variable del orden del 96%. El orden de desempeño 

espectral, de mayor a menor, de los métodos es el siguiente: Discreta de Meyer, 

Coiflet, Haar, Biortonormal Inversa y Dabuiches.  Todas las bandas conservan, en 

promedio, la misma resolución espectral:  96%. 

La ganancia de resolución espacial, por su parte,  está entre 6% y 11%. La mayor 

ganancia corresponde a  la  banda  infrarroja   (en  promedio  el  11%)  frente  a  las 

bandas roja (6%) y verde (5%).

Los resultados obtenidos por los autores de este trabajo,   en la zona piloto de 

Yopal muestran una tendencia similar a la aquí indicada: la fusión wavelet permitió 

conservar la resolución espectral en un porcentaje promedio entre 82 y 90% frente 

a una conservación entre 50 y 80% en  los métodos tradicionales. Por su parte, la 

ganancia de resolución espacial mediante wavelet   está entre el 26% y el 42% 

frente a la ganancia entre el 32 y el 78% de los métodos tradicionales.  

Otra manera de evaluar la calidad de la fusión es examinar la exactitud temática 

de la clasificación de las imágenes fusionadas y compararla contra  la exactitud 

temática de la clasificación de la imagen multiespectral original. Esa evaluación se 

está realizando actualmente como parte del trabajo de investigación reseñado  en 

este artículo.

CONCLUSIONES

De acuerdo con los resultados obtenidos en las zona pilotos de Bogotá y de Yopal 

se puede  concluir:

La fusión de imágenes mediante wavelet permite conservar mejor  la resolución 

espectral   original   pero   la   ganancia   de   resolución   espacial   es   menor   que   la 

obtenida por los métodos convencionales. 

El  método de  fusión de  imágenes usando  la  transformada de Wavelet  es una 

alternativa promisoria a los métodos de fusión convencionales en aquellos casos 

en  donde se   requiera  conservar  al  máximo  la   riqueza espectral  original  de   la 

imagen multiespectral. 

Los   resultados   de  una   fusión  de   imágenes   dependen   en  buena   parte   de   las 

condiciones específicas de la zona en la cual se realice el trabajo.

BIBLIOGRAFÍA

ERDAS Inc, 2002. ERDAS IMAGE Tour Guides.

Misiti M. et al, 2002. Wavelet Toolbox for use with MATLAB. 

Nuñez.   Jorge   et   al.   1999,   Multiresolution­Based   Image   fusion   with   Additive 

Wavelet Descomposition,  IEEE Transactions on Geoscience and Remote 

Sensing. 37 (3).

Pohl,   C.   1999.   Tools   and   Methods   for   fusion   of   images   of   different   spatial 

resolution.  International Archives of Photogrammetry and Remote Sensing. 

32 (7­4­3).   

Pohl, C. y van Genderen, J.L., 1998. Multisensor image fusion in remote senisng: 

Concepts,   methods   and   applications.   International   Journal   of   remote 

Sensing, 19 (5).

Sanjeevi   S.   et   al,   2001.  Comparison   of   conventional   and   wavelet   transform 

techniques   for   fusion   of   IRS­1C   LISS­III   and   PAN   images,   22nd  Asian 

Conference on Remote Sensing.