Upload
ufpr
View
6.454
Download
6
Embed Size (px)
DESCRIPTION
Este documento trata dos seguintes assuntos referentes ao capítulo I da apostila de Elementos de Fotogrametria e Sensoriamento Remoto: - sistema sensores de imageamento; - sistema LiDAR.
Citation preview
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
92
CAPÍTULO III
3.1. Sistemas sensores de imageamento Existem diversos tipos de sensores de imageamento utilizados na
Fotogrametria e Sensoriamento Remoto, os mais comuns são: detectores
de arranjo matricial; detectores de arranjo linear; detectores de arranjo
linear multiespectral; detectores de arranjo matricial multiespectral; e
detectores de arranjo linear hiperespectral.
Usualmente, os sensores são classificados como ativos e passivos, e
neste capítulo, estão organizados de acordo com o tipo de tecnologia de
imageamento utilizada pelo sensor. A Figura 3.1 mostra os sensores que
serão estudados aqui.
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
93
Figura 3.1. Tipos de tecnologia de imageamento. (FONTE: JENSEN, 2009)
3.1.1. Sistemas passivos
De todos os tipos de sistemas utilizados no processo de gravação de
dados para medidas fotogramétricas, o sistema de câmara ainda é o mais
empregado. O marco inicial da evolução das câmaras aéreas se deve ao
desenvolvimento do processo fotográfico e posteriormente à invenção das
aeronaves.
A partir deste instante, os tecnólogos iniciaram suas pesquisas em
busca de tecnologia mais avançada, com a finalidade de melhorar os
sensores para a aquisição dos dados, corrigir os efeitos de perspectiva,
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
94
borramente provocado pelo arrastamento das imagens, resolução espacial,
espectral, radiométrica, entre outros aspectos. A Figura 3.2 apresenta um
breve histórico da evolução das câmaras aéreas destinadas ao
mapeamento.
Figura 3.2. Evolução das câmaras aéreas destinadas ao mapeamento.
As câmaras aéreas tiveram sua primeira funcionalidade na I e II
Guerra Mundial, com a finalidade da tomada de fotografias para fins de
estratégia militar. A câmara do tipo handheld era utilizada de forma que um
operador a segurava com as mãos para a tomada das fotografias. Percebe-
se que, o uso desta câmara somente poderia ser útil para finalidades de
reconhecimento, sendo totalmente desconsiderado seu uso para
mapeamento cartográfico de precisão.
Em 1922 surgiu a primeira câmara RMK C1, com dispositivos
mecânicos mais avançados e um sistema de lentes superior à primeira
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
95
câmara aérea desenvolvida. Com isto, o avanço graduado da tecnologia
influenciou cada vez mais a melhoria dos sistemas de lentes e desta forma,
câmaras aéreas com melhor qualidade geométrica e radiométrica estão
sendo desenvolvidas. Em 1999, na semana fotogramétrica
(Photogrammetric Week), foi anunciado o desenvolvimento da câmara
digital de arranjo matricial DMC-Z/I e em 2002 ocorreu seu lançamento no
mercado de mapeamento.
Atualmente, existem três classificações de câmaras utilizadas na
aquisição de imagens para mapeamento, isto é:
Câmara métrica convencional;
Câmaras digitais convencionais; e
Câmaras digitais métricas.
3.1.1.1. Câmara métrica convencional
Uma câmara métrica convencional é projetada especialmente para
aquisição de fotografias para fins cartográficos, pois fornece precisão
geométrica adequada para mapeamento. Uma câmara aérea com esta
capacidade é denominada de câmara cartográfica. Esta classificação é
empregada na produção de mapas e cartas topográficas. As câmaras
métricas são aquelas que possuem as denominadas marcas fiduciais, cuja
finalidade é materializar o sistema de coordenadas fotográficas garantindo
rigidez geométrica, devido ao plano focal ser estável.
Este tipo de câmara utiliza rolos de filme para gravação dos objetos
contidos na superfície física, no modo pancromático ou colorido. A Figura
3.3 apresenta algumas câmaras aéreas baseada em filmes.
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
96
Figura 3.3. Câmaras aéreas baseadas em filmes.
Fotografias tomadas com câmaras métricas convencionais são
denominadas de fotografias analógicas e o processo de transformação de
uma fotografia analógica para uma imagem digital ocorre por meio de um
processo denominado rasterização ou digitalização, via scanner
fotogramétrico (ver capítulo I).
As câmaras métricas convencionais são do tipo quadro fotográfico,
ou seja, expõe um quadro de área do terreno em cada tomada de fotografia
em um dado instante. Isto requer que as lentes forneçam uma cobertura
angular adequada para que seja gravada a porção da área de interesse. A
Figura 3.4 apresenta um esquema gráfico de uma câmara de quadro
fotográfico.
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
97
Figura 3.4. Quadro de área no terreno.
Este tipo de câmara fornece fotografias de tamanho 23x23 cm e
permite recobrimento longitudinal de 60% à 90% e lateral de 10% à 30%,
com uma resolução geométrica de 2.5 m (TOMMASELLI, 2001). As
principais partes de uma câmara aérea métrica convencional de quadro
fotográfico são: Cone; Corpo; e Magazine.
O cone de uma câmara é utilizado como suporte para o sistema de
lentes fixado em relação à superfície inferior do cone. A superfície superior
do cone de uma câmara contém o plano focal que possui marcas de
referência, denominadas marcas fiduciais, que materializam o sistema de
coordenadas da fotografia resultante, ou sistema fotográfico.
O corpo da câmara é constituído do cone externo (a função do cone
externo é receber o cone interno e o mecanismo de avanço motorizado do
filme e servir de interface para o magazine) e de outras peças, tais como,
suportes, alavancas de comando e dispositivos de controle automático do ciclo
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
98
de funcionamento da câmara. Existem vários dispositivos para manter o filme
plano, sendo o dispositivo de vácuo-sucção o mais comum.
O magazine da câmara é utilizado para armazenar, avançar e aplainar
o filme e possue um dispositivo de compensação de arrastamento (consiste
em um borramento na imagem provocado pelo movimento relativo do objeto
enquanto o obturador da câmara permanece aberto durante o tempo de
exposição do filme).
Para Tommaselli (2001), os dispositivos de compensação de
arrastamento provocam um pequeno movimento sincronizado do negativo, na
direção do vôo, enquanto o obturador está aberto (Figura 3.5a). Este pequeno
movimento elimina o arrastamento e melhora significativamente a qualidade
da imagem (Figura 3.5b). Na Figura 3.5b mostra-se um magazine com um
dispositivo de compensação, também chamado de FMC (Forward Motion
Compensation), da câmara RMK-Top, Zeiss.
Figura 3.5. Compensação do arrastamento. (a) Borramento na imagem
causado pelo arrastamento. (b) Imagem sem arrastamento (FONTE:
TOMASELLI, 2001)
(a) (b)
A seguir serão apresentadas as características das câmaras digitais
convencionais.
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
99
3.1.1.2. Câmaras digitais convencionais
As câmaras digitais convencionais são classificadas como: de
pequeno e médio formato, com modelos amadores e profissionais. As
câmaras digitais amadoras não possuem rigidez geométrica e radiométrica
da imagem. As câmaras digitais profissionais possuem lentes e
componentes internos de melhor qualidade geométrica, porém ainda não
alcançam a precisão das câmaras métricas convencionais. Estes modelos
têm sido bastante utilizados em projetos de cunho científico e, desde que
devidamente calibrados, podem ser utilizados para trabalhos
fotogramétricos.
As câmaras de pequeno e médio formato possuem algumas
vantagens em relação às câmaras métricas convencionais, tais como: são
leves e de fácil manejo; custo reduzido; possuem um intervalo de distâncias
focais; flexibilidade de integração com sistemas GPS e INS; podem ser
integrados em diversos tipos de aeronaves; e grande disponibilidade no
mercado.
A seguir serão apresentadas as características das câmaras digitais
métricas.
3.1.1.3. Câmaras digitais métricas
3.1.1.3.1. Sistema Tri-Linear
De acordo com Fricker et al (2000), o sistema Tri-Linear possui 3
sensores CCD com configuração de varredura linear, cuja amostragem do
terreno é feita em 3 faixas. O sistema consiste de 3 sensores lineares
posicionados no plano focal, cujas visadas são denominadas de anterior,
nadir e posterior garantindo a geometria e a cobertura estereoscópica da
superfície, bem como sensores multiespectrais com sensibilidade
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
100
controlada por filtros RGB e infravermelho, localizados próximos ao nadir. A
Figura 3.6 mostra as visadas anterior, nadir e posterior do sistema Tri-
Linear.
Figura 3.6. Visadas de aquisição de imagens do sistema Tri-Linear.
Com o sistema Tri-Linear todos os objetos aparecem em todas as
três faixas coletadas pelos sensores (Figura 3.7). A Figura 3.7, mostra duas
imagens adquiridas com o sistema supracitado nas visadas anterior e nadir.
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
101
Figura 3.7. Imagens originais de visada anterior e nadir, adquiridas pelo
sistema Tri-Linear. (FONTE: HAALA, 2001)
Como pode ser percebida na Figura 3.7, as imagens originais
apresentam-se distorcidas e por isso é necessário um tratamento da
imagem (correção geométrica para ajustar as linhas imageadas) baseada
no emprego dos parâmetros de posição e atitude fornecidos pelo sistema
de integração GPS/INS. A partir destes parâmetros é realizada uma
retificação inicial das imagens, seguida de fototriangulação para o
refinamento da solução (para maiores detalhes ver HAALA, 2001). A Figura
3.8 apresenta as imagens retificadas.
Figura 3.8. Imagens retificadas de visada anterior e nadir, adquiridas pelo
sistema Tri-Linear. (FONTE: HAALA, 2001)
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
102
Existem dois modelos de câmaras baseadas na abordagem Tri-
Linear, isto é, as câmaras HRSC-A (desenvolvida pelo Centro Espacial da
Alemanha) e ADS 40/50 (Desenvolvida pelo convênio Leica Geosystems e
Centro Espacial da Alemanha). Aqui serão tratadas as características da
câmara ADS 40.
Câmara ADS 40
O sensores lineares ADS 40-Leica foram lançados no XIX Congresso
da ISPRS em julho de 2000, desenvolvida pela LH-System em cooperação
com o Centro Aeroespacial Alemão. A Figura 3.9 mostra uma imagem da
câmara instalada em uma aeronave.
Figura 3.9. (a) Câmara ADS40 – LEICA. (b) Câmara instalada na aeronave.
(FONTE: FRICKER, 2001).
(a) (b)
Este tipo de câmara utiliza três componentes básicos para aquisição
de imagens, tais como: uma câmara digital de arranjo linear, receptor GPS
para determinação da posição e um INS para a determinação da atitude da
aeronave. O sensor digital linear fornece imagens do terreno por meio de
varreduras contínuas com as características do sistema Tri-Linear.
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
103
A câmara digital possui um sistema de lente com uma ou mais
distâncias focais, 3 a 5 sensores lineares no modo Pancromático (estéreo)
e de 3 a 7 sensores multiespectrais (RGB e infravermelho). A Figura 3.10
apresenta a varredura contínua e o esquema de varredura para cada tipo
de modo (PAN e Multiespectral).
Figura 3.10. Varredura contínua e seus modos de imageamento.
O campo de visada (FOV) do modo PAN anterior é de 28.40,
enquanto que o PAN posterior é de -14.20 ambos em relação a visada
nadiral. Isto faz com que se tenha uma imagem estereoscópica e possibilita
a visualização tridimensional. Para os sensores multiespectrais a visada do
infravermelho posterior é de -2.00 e a visada RGB anterior é de 16.1
0.
Algumas vantagens deste tipo de sistema em relação às câmaras
convencionais são:
A projeção da imagem é perspectiva paralela;
Número de imagens para o recobrimento aéreo da região de
interesse é menor;
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
104
Resolução multiespectral melhor que as imagens de satélite
de alta resolução;
Produtos ligeiramente mais rápidos;
Sem a necessidade de rolos de filme, laboratório fotográfico
e scanners; e
Resolução de 8 a 12 bits, permitindo a visualização de
objetos obstruídos por sombra.
Além das câmaras digitais de sensor linear também existem as
câmaras digitais de sensor matricial. A Tabela 3.1 apresenta algumas
diferenças entre a câmara digital de sensor linear e de sensor matricial.
Tabela 3.1. Diferenças básicas entre câmara digital de sensor linear e
matricial. (ADAPTADO DE FRICKER, 2001).
ADS – 40 (Airbone Digital Sensor) DMC (Digital Mapping Camera)
Sensor CCD de arranjo linear Sensor CCD de arranjo matricial
PAN (24000 pixels) Pan (13826 x 7680 pixels)
MS – R,G,B e NIR*
MS – R,G,B e NIR
Tamanho do pixel 6,5 x 6,5 m Tamanho do pixel 12 x 12 m
1 lente telocêntrica 4 lentes da Zeiss (PAN) + 4 lentes (MS)
Distância focal 62,7 mm Distância focal 120 mm (PAN) e 25,4 mm (MS)
FOV 640 FOV 74
0 x 44
0
12 bits / 8 bits 12 bits
Sistema inercial/GPS Sistema inercial/GPS (opcional)
Resolução espacial mínima 15 cm Resolução espacial mínima 5 cm
Memória 540 GB Memória 840 GB (> 2000 imagens)
*NIR: infravermelho próximo.
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
105
Sensor Digital Aerotransportado
O crescente desenvolvimento dos sensores digitais fotogramétricos
aerotransportados, aponta para a uma grande mudança na forma de
aquisição, processamento, manuseio e geração de produtos a partir de
imagens aéreas, permitindo a sua aplicação para diferentes áreas do
conhecimento, proporcionando uma redução no tempo de produção
(processamento totalmente digital), melhor resolução espacial e
radiométrica, aquisição simultânea de imagens pancromáticas e
multiespectrais, mais flexibilidade e custos mais baixos.
Com base no tamanho do formato de aquisição da imagem os
sensores podem ser divididos em: a) pequeno formato: geram imagens com
tamanho de até 16 megapixels; b) médio formato: geram imagens entre 16
e 50 megapixel; c) grande formato: geram imagens acima de 50 megapixel
(PETRIE et alii, 2007) .
Dentre os sensores de grande formato existentes no mercado, citam-
se os modelos que operam com foto e sensores matriciais (ITT: Geospatial
System; DIMAC: Dimac Systems; DMC Z/I: Intergraph; Ultracam-D e
Ultracam-X: Vexcel; STARIMAGER-TLS: Starlabo), sensores com linha
simples (LINHA SIMPLES?) e varredura monocrómático (THALES
OPTONICS 8010 e 8042: Vinten; GLOBAL SCAN: France), sensores com
linha simples e de varredura colorido (VOS 60 e VOS-80: Zeiss;
VERIMARC: Verimarc Plus Inc.), sensores com linha simples e varredura
hiperespectral (ITRES RESEARCH: Canadá; SPECIM: Finlândia,
INTEGRATED SPECTRONS: Austrália), sensores com linha simples com
varredura panorâmico (Goodrich Paranoramic Line Scanner), sensor com
três linhas e varredura linear estéreo (HRSC-AX e HRSC-AXW:DLR; JAS
150: Jena Optronik, ADS40 e a 2ª geração ADS80:Leica, 3-DAS-1 e 3-OC:
Wehril Associates-USA e Geosystems-Ukraine), (PETRIE et alli, 2007).
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
106
Aqui será tratado do sensor digital ADS 40 de varredura linear.
Sensor Digital ADS 40
Lançado no XIX Congresso ISPRS de Amsterdã realizado em Julho
de 2000, o sensor digital aerotransportado, figura 3.11, da LH Systems
inicia uma nova era da fotogrametria digital, apropriadamente colocado no
início do novo milênio. Desenvolvido em conjunto com o Deutsche Zentrum
für Luft - und Raumfahrt (Centro Aeroespacial Alemão – DLR) em Berlin
(SANDAU et alli, 2000), o ADS40 foi o primeiro dispositivo imageador digital
aerotransportado com capacidade e performance, em termos de resolução
e cobertura, nas medidas similares as estabelecidas pelas câmaras aéreas
analógicas de filmes com formato 23 x 23 cm e resolução maior do que 100
linhas por milímetro (FRICKER et alli, 2001).
Figura 3.11. Sensor ADS 40. Adaptado de FRICKER et alli, 2005ª.
O ADS40 é um sensor digital linear aerotransportado com grande
campo de visão, alta resolução, acurácia geométrica e radiométrica que
utiliza o princípio de varredura com três linhas de sensores CCD (em inglês,
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
107
Charged Coupled Device), organizadas perpendicularmente à direção de
vôo (denominado pushbroom), obtendo desta forma, visada anterior,
vertical e posterior, figura 3.12, possibilitando a geração de modelos em três
dimensões.
Figura 3.12. Princípio dos três escâner linear. Adaptado de FRICKER et
alli, 2005ª.
Na aquisição de imagens aéreas do terreno com o ADS40, todos os
objetos são gravados três vezes em 100% das cenas ou visadas, enquanto
em uma câmara aérea analógica com filme ou digital por foto, a aquisição
da imagem é obtida com 60 ou 50% de todos os objetos em três fotos
diferentes, figura 3.13.
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
108
Figura 3.13. Sobreposição de imagens na ADS40. Adaptado de FRICKER et alli, 2005.
O ADS40 gera imagens de faixas contínuas sem emendas ao longo
de cada linha de vôo, figura 3.14, e em diferentes perspectivas centrais,
figura 3.15, que permite, por exemplo, com o uso do produto do CCD linear
de visada vertical, uma faixa de imagem chamada quase-ortogonal
(FRICKER, 2005b).
Figura 3.14. Imagem Pancromática com visada vertical. Adaptado de FRICKER et alli, 2000.
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
109
Figura 3.15. Efeito da perspectiva central. Adaptado de FRICKER et alli, 2000.
Composição do Sensor Digital ADS 40
Inertial Navegation System (INS)
O ADS40 possui uma unidade de medida inercial composta por um
sistema de navegação inercial que utiliza tecnologia de posicionamento por
satélite (GPS) e determinação da atitude por um inercial (INS). O uso de
GPS/INS fornece ao sistema a capacidade de determinar continuamente o
deslocamento espacial do sensor de forma autônoma, apresentando
precisão suficiente para o georreferenciamento direto de imagens digitais
(MCMILLAN et alli, 1994; CRAMER et alli, 2001; CRAMER, 2003) , figura
3.16, possibilitando a realização de mapeamento com maior flexibilidade e
rapidez (RUY, 2004).
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
110
Figura 3.16. Plano focal com a posição do sensor CCD linear. Adaptado de FRICKER et alli, 2000.
Módulo Plano Focal e Sensor CCD (Charged Coupled Device)
O plano focal, figura 3.17a, consiste de quatro conjuntos lineares de
CCD: dois deles contendo duas linhas e os outros dois contendo três linhas,
figura 3.17b, cada linha com duas matrizes de 12.000 pixels (SANDAU et
alli, 2000) separadas por uma distância de 3,5 m, sendo, 6,5 x 6,5 m a
dimensão de cada pixel, que permitem medir os valores absolutos dos
fótons que entram no sistema, como uma função de transferência linear.
Os dois conjuntos de CCD externos, formados com 2x12.000 pixels
operam a banda pancromática, e os dois conjuntos internos, divididos em,
um conjunto contendo 3x12.000 pixels que opera as bandas RGB
(vermelho, verde e azul) e o outro conjunto também com 3x12.000 pixels
que opera, com duas linhas a banda pancromática e uma linha, a banda do
infravermelho próximo (NIR).
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
111
Com esta disposição o sensor tem capacidade de gerar imagens no
pancromático anterior com o primeiro conjunto linear de CCD, imagens
multiespectrais nas bandas RGB (vermelho, verde e azul) com o segundo
conjunto, imagens no pancromático (visada vertical) com as duas primeiras
linhas e na banda do infravermelho próximo com a terceira linha do terceiro
conjunto de CCD e imagem no pancromático (visada posterior) com o
primeiro quarto conjunto, figura 3.17c.
Figura 3.17. Plano focal com a posição do sensor CCD linear e a
composição de bandas da imagem. Adaptado de FRICKER et alli, 2000.
Sistema Ótico Digital e Filtros
A ótica inovadora da ADS40 é projetada para uso em fotogrametria e
sensoriamento remoto. A lente é semelhante em suas dimensões externas,
peso e resolução as lentes da câmara RC-30 com filme, sendo diferentes
em relação ao modo de gravação, pois, enquanto nas câmaras com filme a
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
112
minimização da distorção é primordial, a maior demanda requerida em
câmaras digitais é o telecentrismo das imagens, em função do trabalho com
bandas multiespectrais, (SANDAU et alli, 2000).
O sistema ótico digital possuí, uma lente telecêntrica de distância
focal de 62,5 mm, figura 3.18, tamanho de pixel na imagem de 6,5 m, uma
abertura de visualização no solo com campo de visão FOV (em inglês, Field
of View) com ângulo de cobertura de 64°, diafragma com abertura f:4,
ângulos estéreos de 16° (visada vertical para anterior), 26° (visada posterior
para vertical) e 42° (visada anterior para posterior), faixa espectral entre 428
e 887 nanômetro (R:608,662nn; G:533-587nn; B:428-492nn; NIR1:703-
757nn e NIR2:833-887nn), resolução de 150 linhas por mm, precisão
geométrica de 1 m, medida dinâmica de 12-bit, resolução radiométrica de
8-bit; vermelho com freqüência de 200-800 HZ, capacidade de
armazenamento com capacidade de 200-500 GB, estabilização térmica e
barométrica na faixa de alta precisão de +10° até +30°, distorção radial
menor ou igual a 3%, filtros de bandas e de interferência metálica além dos
filtros para bandas RGB mantendo a qualidade campo visual do sensor
(SANDAU et alli, 2000 e FRICKER et alli, 2005a).
Figura 3.18. Sistema Ótico Digital ADS40. Adaptado de FRICKER et alli,
2000.
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
113
Sistema de Feixes Trichroid (Tricóide)
O sistema de divisão de feixes Trichroid desenvolvido pela Leica
especialmente para a ADS40, foi concebido com uma perda mínima de
energia, e garante que a luz, a partir da mesma área do solo, seja
detectada por três arranjos lineares sensíveis ao RGB. Outra matriz linear
sobre o plano focal captura os dados no infravermelho próximo, figura 3.19
(FRICKER et alli, 2001).
Figura 3.19. Sistema Trichroid desenvolvido pela Leica para a ADS40. Adaptado de FRICKER et alli, 2000.
Processamento e Aerotriangulação dos Dados do ADS40
Os metadados originais, com as imagens e parâmetros posicionais e
de atitude do sensor no momento da tomada das imagens, permitem, a
obtenção de uma visão estéreo, medidas manuais de pontos de controle e
medidas automáticas de pontos fotogramétricos, e isto, garante o
processamento e o ajustamento do bloco, resultando em uma imagem
retificada com precisão e livre de paralaxe, que pode ser vista
estereoscopicamente, e ser usada, por exemplo, para coleta e edição de
feições cartográficas (FRICKER et alli, 2001).
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
114
As imagens são classificadas de acordo com os níveis de
processamento em: a) Nível 0 (zero) – Dados Brutos: consistem em
imagem geométricas básicas (formato TIFF e outros formatos) e dados de
orientação processados; b) Nível 1 (um) – Dados Corrigidos: consistem em
imagens multiespectrais e pancromáticas estéreo totalmente retificadas; c)
Nível 2 (dois) – Dados Geoposicionais: consistem em ortofotos
pancromáticas e multiespectrais. Os dados de nível zero utilizam o LH
Systems ADS gerador nível zero e o pós processamento applanix, já os
níveis um e dois utilizam o systems ADS gerador nível um, SOCET SET,
DPW, ORIMA ou três pares fotogramétricos na estação de trabalho com
sensor de modelo ADS (FRICKER et alli, 2001).
Aplicações e contribuições para sistema digital aerotransportado
Em função do sensor aerotransportado ADS40 possuir uma
resolução espacial variando entre 0,8 m e 0,01m e uma resolução espectral
no pancromático e no multiespectral este sensor é indicado para aplicações
de fotogrametria e sensoriamento remoto.
O produto gerado pelo sensor pode ser utilizado em áreas clássicas
da cartografia como, defesa, mapeamento topográfico, construção civil,
infra-estrutura, telecomunicações, energia, agricultura, floresta, seguro e
desastres (HEIER, 1999).
Novos métodos, em comparação com os já existentes para o
processamento de filmes aéreos digitalizados, foram introduzidos ao longo
dos últimos anos e investigações cuidadosas têm demonstrado que o
desempenho, a arquitetura, direção, georreferenciamento, modelagem do
sensor, processamento de pontos, aerotriangulação do sensor
aerotransportado ADS40 (FRICKER, 2001; HINSKEN et alli, 2002;
SANDAU et alli, 2000; TEMPELMANN et alli, 2000) e outros sistemas
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
115
(FRITSCH, 1997; HAALA et alli, 2000; HOFFMANN et alli, 2000; LEBERL et
alli, 2003; TIANEN et alli, 2003; WEWEL et alli, 1998; apud PATERAKI et
alli, 2003a).
As pesquisas envolvendo o ADS40 demonstram a construção, o
desempenho, geometria e resolução do sensor (SANDAU et alli, 2000;
ECKARDT et alli, 2000; ZHU, 2004; CRAMER, 2006), a acurácia e a
precisão no uso da fotogrametria e do sensoriamento remoto (FRICKER et
alli, 2001; GREEN et alli, 2007; WASER et alli, 2007; DAI et alli, 2008;
ADDULLAH, 2009), o processamento, análise da qualidade radiométrica da
imagem, extração de feições por correlação de pixels e a geração de
modelos digitais de superfície (GWINNER et alli, 1999; NEUKUM, 1999;
SCHOLTEN, 2000; PATERAKI et alli, 2002; PATERAKI et alli, 2003a;
PATERAKI et alli, 2003b; HONKAVAARA et alli, 2007), a obtenção da
aerotriangulação usando os parâmetros determinados pelo sistema de
navegação inercial GPS/IMU (HINSKEN et alli, 2002), a investigação da
acurácia de mapeamentos topográficos (YOTSUMATA et alli, 2002) e a
comparação radiométrica entre o sensor ADS40 e outros sensores
(HONKAVAARA; 2007).
Resolução espacial do pixel no terreno e a escala do mapa
Quando tratamos de imagens aéreas da superfície terrestre por meio
de sensores digitais aerotransportado, o detalhe mais importante para a
definição da precisão e acurácia com que necessitamos obter o produto
cartográfico não, é a escala da foto e a altitude de vôo, como no caso de
câmaras aéreas convencionais, e sim o tamanho ou resolução espacial do
pixel no terreno, também conhecido como GSD (em inglês, Ground Sample
Distance).
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
116
A tabela 3.2 apresenta a relação entre o GSD do sensor ADS40 e a
escala do mapa.
Tabela 3.2. Relação GSD e escala do mapa. Adaptado de FRICKER et alli, 2000.
GSD
com
ADS4
0
Escala do
Mapa
Mapa Padrão Comparação com filme
fotográfico
Acurácia x,y
RMSE
Intervalo de
Curva de Nível Escala da Foto
Tam
anho
do
pixel
do
filme
esca
nead
o
5 – 10 cm
1:500 0,125 m 0,25 m 1:3.000 até 1:5.500 2,50 – 5,00 cm
10 –
15 cm
1:1.000 0,250 m 0,50 m 1:5.000 até 1:8.000 5,00 –
7,50 cm
15 – 20 cm
1:1.500 0,400 m 0,75 m 1:6.500 até 1:10.000 7,50 – 10,0 cm
20 –
30 cm
1:2.000 0,500 m 1,00 m 1:8.000 até 1:11.000 10,0 –
15,0 cm
25 – 35 cm
1:2.500 0,600 m 1,25 m 1:8.500 até 1:13.000 12,5 – 17,5 cm
30 –
50 cm
1:5.000 1,250 m 2,50 m 1:12.000 até 1:18.000 15,0 –
25,0 cm
40 – 60 cm
1:10.000 2,500 m 5,00 m 1:17.000 até 1:27.000 20,0 – 30,0 cm
50 –
70 cm
1:20.000 5,000 m 10,00 m 1:25.000 até 1:35.000 25,0 –
35,0 cm
50 – 80 cm
1:25.000 6,250 m 12,50 m 1:28.000 até 1:42.000 25,0 – 40,0 cm
50 –
100 cm
1:50.000 12,50 m 20,00 m 1:40.000 até 1:60.000 25,0 –
50,0 cm
50 –
100
cm
1:100.000 25,00 m 50,00 m 1:60.000 até 1:90.000 25,0 –
50,0 cm
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
117
Figura 3.20. Exemplo de imagem de saída da ADS40. Adaptado de
FRICKER et alli, 2000.
De forma similar a tabela 3.3 apresenta a relação entre o campo de
visada instantânea (IFOV) de um digitalizador medido em pontos por
polegada (DPI - dots per inch) ou micrômetros ( m), usado na
transformação de uma fotografia aérea convencional em uma imagem
digital, e a resolução espacial do pixel no terreno para fotografias em
diferentes escalas (JENSEN, 2009).
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
118
Tabela 3.3. Relação ―pixel‖ no terreno e a escala da fotografia. Adaptado de JENSEN, 2009.
IFOV do
Digitalizador Resolução do “pixel” no terreno para diversas escalas das fotografias (m)
DPI m 1:25.000 1:12.500 1:10.000 1:8.000 1:6.000 1:4.000
100 254,000 6,350 31,750 2,540 2,032 1,524 1,016
200 127,000 3,175 15,875 1,270 1,016 0,762 0,508
300 84,667 2,117 10,583 0,847 0,677 0,508 0,339
400 63,500 1,588 7,938 0,635 0,508 0,381 0,254
500 50,800 1,270 6,350 0,508 0,406 0,305 0,203
600 42,333 1,058 5,292 0,423 0,339 0,254 0,169
700 36,286 0,907 4,536 0,363 0,290 0,218 0,145
800 31,750 0,794 3,969 0,318 0,254 0,191 0,127
900 28,222 0,706 3,528 0,282 0,226 0,169 0,113
1000 25,400 0,635 3,175 0,254 0,203 0,152 0,102
1200 21,167 0,529 2,646 0,212 0,169 0,127 0,085
1500 16,933 0,423 2,117 0,169 0,135 0,102 0,068
2000 12,700 0,318 1,588 0,127 0,102 0,076 0,051
3000 8,467 0,212 1,058 0,085 0,068 0,051 0,034
4000 6,350 0,159 0,794 0,064 0,051 0,038 0,025
Conversões úteis de digitalizadores (Adaptado de JENSEN, 2009)
DPI= pontos por polegada; m =micrômetro; I = polegada; M=metros
De DPI para micrômetros: m = (2,54/DPI)×10.000
De micrômetros para DPI: DPI=(2,54/ m)×10.000
De polegadas para metros: M=I×0,0254
De metros para polegadas: I = M×39,37
Cálculo Do GSD (Adaptado de JENSEN, 2009)
PM = tamanho do “pixel” em metros; PF = tamanho do “pixel” em pés; S= escala da foto
Utilizando DPI: PM =((S/DPI)/39,37) ×100
PF=(S/DPI)/12
Utilizando micrômetros: PM = (S× m)×0,00001 PF=(S× m)×0,00000328
Por exemplo, se uma fotografia na escala 1:6.000 é digitalizada em
1200 DPI, o tamanho do pixel será (6000/1200)/39,27=0,127 metros por
pixel. Se uma fotografia na escala de 1:8.000 é digitalizada com 21,167 m
o tamanho do pixel será (8000×21,167)×0,000001)=0,169 metros (JENSEN,
2009).
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
119
A seguir será apresentada a teoria sobre sistema LiDAR (em inglês,
Light Detection and Ranging).
3.1.2. Sistema Ativos
3.1.2.1 Sistema LiDAR
Vários algoritmos computacionais têm sido implementados para
tratamento e geração automática de MDS e MDT a partir do uso de
imagens. Neste sentido, ainda não se tem o conhecimento de um algoritmo
ou aplicativo comercial que apresente resultados confiáveis e robustos, pois
fatores como: a própria geometria perspectiva das imagens; sombra
projetada por edifícios e vegetação; escala variante ponto a ponto;
mudança do ponto de vista na tomada das imagens; ruídos; regiões com
alta densidade predial, vegetal e regiões homogêneas, dificultam o
desenvolvimento de aplicativos autônomos para a realização do processo
mencionado anteriormente. Para os aplicativos desenvolvidos e de uso
comercial, a porcentagem de interação homem/máquina é de 60%.
Para Shan e Toth (2008) o sistema LiDAR foi o maior avanço
tecnológico de sistema de aquisição de dados espaciais introduzido no
mapeamento topográfico, do final do século XX. Sua principal vantagem é a
capacidade de fornecer dados tridimensionais de forma direta, rápida,
segura, autônoma e acurada. A acurácia do sistema se deve à acuracidade
do sensor LASER (em inglês, Light Amplification by Stimulated Emission of
Radiation) e dos sensores de integração GNNS (em inglês, Global Navy-
Star Navegation System) e INS (em inglês, Inertial Navegation System).
Ao contrário do método tradicional de Fotogrametria, LiDAR pode
adquirir, de forma direta, dados espaciais sobre a superfície física com uma
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
120
superabundância de informações, que podem ser utilizadas em inúmeras
aplicações da engenharia. O desenvolvimento do sistema supracitado
interveio na interdisciplinaridade das técnicas de visão computacional,
computação gráfica e a fotogrametria. A adaptação gradual destas técnicas
está relacionada com a calibração do sistema, processamento e registro
dos dados adquiridos e a extração das informações.
O sistema tem possibilitado uma leitura ousada no que tange as
perspectivas na automação dos processos fotogramétricos, sobretudo para
geração de ortofotos digitais verdadeiras (true ortophotos), autonomia na
recuperação dos parâmetros de orientação exterior de imagens,
reconhecimento e reconstrução automática de objetos presentes nas
imagens digitais, abrindo novos caminhos para a fotogrametria em diversos
ramos do mercado nacional.
A seguir será apresentado o princípio básico de funcionamento do
sistema LiDAR.
Princípio de funcionamento
LiDAR é um sistema de registro de informação com princípio ativo,
que possibilita a determinação de coordenadas tridimensionais de cada
ponto varrido pelo sistema num curto período de tempo e de forma direta.
Existem dois tipos de sistemas disponíveis no mercado, isto é, o sistema
dinâmico (Figura 3.21a) e o sistema estático (Figura 3.21b).
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
121
Figura 3.21. (a) Sistema aerotransportado. (b) Sistema estático.
(a) (b)
Instalados em plataformas aéreas e terrestres, o sistema pode coletar
uma nuvem de pontos tridimensionais perfilados sobre a superfície física,
com grande volume de dados determinados com acurácia, cuja facilidade
no tratamento dos dados implicou na inserção do sistema em diversas
aplicações.
Ambos os sistemas utilizam um feixe ótico de alta potência e bem
direcionado, coerente no espaço e no tempo que proporciona, em pós-
processamento, a qualidade da medida da distância entre o sistema LASER
e o objeto.
Sistemas dinâmicos ou aerotransportados
O desenvolvimento do supracitado sistema se deve, principalmente,
ao sucesso no desenvolvimento da tecnologia INS. No entanto, a
introdução de sistemas aerotransportados se deu a partir do
desenvolvimento da tecnologia GNSS, o que possibilitou o desenvolvimento
da tecnologia de georeferenciamento direto, isto é, a integração GNSS/INS,
na década de 1990, que foram capazes de fornecer dados de posição e
atitude da plataforma aerotransportada com uma precisão de 4 – 7 cm e
20–60 arco-segundos, respectivamente (Shan e Toth, 2008).
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
122
Os sistemas aerotransportados podem ser acoplados em aeronaves.
Seu princípio de funcionamento depende basicamente da integração de três
componentes, isto é: o GPS; o INS; e o próprio LASER.
GPS: registra a posição da aeronave em intervalos de tempo fixos,
enquanto outro receptor de base (no terreno) possibilita correção
diferencial do posicionamento do sensor (pós-processamento);
INS: registra os ângulos de atitude ( , , ) do sensor durante o vôo.
Posteriormente, são utilizados em pós-processamento para
determinação precisa das coordenadas dos pontos tridimensionais
no terreno; e
Laser: armazena o tempo de emissão e recepção de cada pulso,
bem como a resposta espectral de cada objeto varrido.
Os pulsos laser são gerados por um componente denominado
―gerador de pulsos‖ e emitidos pelo sistema (na faixa espectral do
infravermelho) com o auxílio de um espelho de varredura que redireciona o
pulso - com uma freqüência de varredura e diâmetro de espessura -, para a
superfície de interesse a ser mapeada ou reconstruída tridimensionalmente.
A característica mais marcante do sistema de emissão e recepção do
pulso é a sua propriedade em medir distâncias com alto grau de acurácia,
usualmente, baseada em um instrumento preciso para medida de tempo.
Existem dois métodos de medida de tempo que podem ser empregados nos
instrumentos supracitados, isto é, o TOF (em inglês, Time-of-Flight) e o
CBLR (em inglês, Continuous Beam of Laser Radiation). Aqui será tratado
apenas o primeiro método.
O TOF é baseado na emissão de um pulso curto com alta potência de
radiação por LASER. Neste caso, o pulso emitido interage com o objeto
contido na superfície física. Uma porcentagem da energia emitida é
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
123
absorvida, outra porcentagem é transmitida e a energia refletida retorna ao
sistema, cuja mesma é armazenada na ―unidade de controle de
armazenamento‖, juntamente com as informações fornecidas pelo GPS e
INS. O intervalo de tempo (t) entre a emissão e recepção do pulso é
calculado com precisão e a distância entre a plataforma e o objeto perfilado
( R ) é calculada em função da de t e a velocidade da radiação
eletromagnética ( v - valor fixo), a saber:
2
tvR (3.1)
Da relação acima, se pode extrair a seguinte equação, a saber (Shan
e Toth, 2008):
22
tvvtR
Onde, R é a precisão da distância, v é a precisão da velocidade e t é o
valor correspondente da precisão de t. A precisão de R é determinada em
função de t .
Como descrito anteriormente, o GPS é utilizado em modo cinemático
pós-processado, que requer um receptor de base (Figura 3.11) em um
ponto de coordenadas conhecidas (por exemplo, uma RBMC – Rede
Brasileira de Monitoramento Contínuo – desde que a mesma esteja próxima
à área do levantamento). A Figura 3.22 apresenta um esquema do princípio
de funcionamento do sistema aerotransportado.
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
124
Figura 3.22. Princípio de funcionamento do sistema aerotransportado.
O pulso laser emitido pelo sistema possui um diâmetro que aumenta
na medida em que ocorre sua propagação no meio. De acordo com a
Figura 3.22 verifica-se visualmente que, o diâmetro do pulso no momento
da emissão é consideravelmente inferior quando o mesmo interage com a
superfície. O diâmetro do pulso varia de acordo com a altitude de vôo
estabelecida no levantamento aéreo.
Apesar do fator descrito, a luz do laser foi escolhida para a
concepção do sistema por apresentar baixa divergência, cuja propagação é
similar à concepção geométrica da linha reta. Por isso, ocorrem múltiplas
reflexões na iteração laser/objetos como, por exemplo, quando um pulso
laser atinge a folha de uma árvore, uma parte do pulso é refletido pelas
folhas e outra parte pelo terreno (este é considerado segundo retorno, pois
sua reflexão atinge o sistema após o primeiro retorno do pulso – reflexões
das folhas).
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
125
Ainda ao observar a Figura 3.22 é possível verificar que a varredura
do terreno é realizada aleatória e transversalmente à direção do vôo, o que
possibilita o perfilamento tridimensional da área de interesse com uma
freqüência que depende das especificações do projeto. A Figura 3.23 ilustra
esquemas de alta e baixa freqüência de perfilamento.
Figura 3.23. Freqüência de perfilamento. (a) Alta freqüência de
perfilamento. (b) Baixa freqüência de perfilamento.
(a) (b)
A reconstrução do pulso laser emitido é dada no sistema de projeção
WGS84, isto é, a distância percorrida pelo pulso entre a plataforma e o
objeto perfilado é calculada em pós-processamento baseada na
determinação do ângulo que o pulso formou com a aeronave no momento
de sua emissão, juntamente com os dados de posição e atitude da
aeronave, fornecidos pelo sistema de integração GPS/INS, bem como em
função da velocidade da luz (c) e tempo de emissão e recepção do pulso
Laser ( t).
Em termos gerais, as coordenadas tridimensionais de um ponto
qualquer na superfície física são determinadas em função de uma
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
126
seqüência de rotações e translações aplicadas entre os componentes que
compõem o sistema. A Figura 3.24 mostra a relação entre os sistemas
envolvidos na determinação de coordenadas de um ponto no sistema do
espaço-objeto ou referencial terrestre.
Figura 3.24. Determinação de coordenadas tridimensionais de um ponto na
superfície.
Os pontos tridimensionais de um ponto são obtidos por meio da
Equação, a saber:
(3.1)
Onde,
PPP ZYX : coordenadas tridimensionais de um ponto na superfície física;
INSTT ,
: translação entre sistema do espaço-objeto e o INS;
P errosTT
d
RRT
Z
Y
X
INSGINSLINSLINSTINST
P
P
P
,,,,, 0
0
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
127
INSLT ,
: translação entre o LASER e o INS;
INSGT ,
: translação entre o centro de fase da antena GPS e o INS;
INSTR , : matriz de rotação entre o sistema do espaço-objeto e o INS;
INSLR , : matriz de rotação entre o LASER e o INS;
erros : erros inerentes aos componentes que integram o sistema LiDAR.
Para garantir a precisão plani-altimétrica de cada ponto perfilado pelo
sistema LiDAR a distância entre os receptores, aerotransportado e de base,
não deve ultrapassar 50 km. Um conjunto de receptores de base deverá ser
estabelecido, caso não seja possível manter a exigência descrita
anteriormente.
Calculadas as coordenadas tridimensionais de cada ponto ( PPP ZYX )
na superfície física devem ser aplicadas as devidas transformações entre
sistemas de coordenadas, que neste caso, referem-se às conversões das
coordenadas entre os sistemas WGS84 e algum sistema de referência
adotado no trabalho, por exemplo, SAD-69. Assim como, as transformações
das altitudes elipsoidais (fornecidas pelo GPS) para as altitudes
ortométricas.
De acordo com Wher e Lohr (1999), o sistema LiDAR fornece
coordenadas planimétricas em torno de 50 cm e altimétricas em torno de 15
cm. O sistema da Optech ALTM 3100 (sistema canadense) possui precisão
planimétrica igual a 1/2000 da altura utilizada no perfilamento a LASER (1
sigma). No entanto, a precisão do sistema depende das características dos
componentes utilizados, tipo de terreno, qualidade do INS empregado e
altura de vôo.
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
128
A qualidade dos dados obtidos pelo sistema de varredura a LASER
depende da qualidade dos dados fornecidos pelos componentes que
compõem o sistema supracitado. Em relação ao GPS os fatores internos,
externos e operacionais, tais como, solução da ambigüidade, perda de sinal
dos satélites, freqüências L1 e L2, geometria e número de satélites
disponíveis, deslocamentos orbitais, modelagem do geóide,
multicaminhamento, erro de propagação do sinal na atmosfera,
interferências eletromagnéticas e parâmetros incorretos, são os fatores
mais importantes a serem cuidadosamente estudados.
Além de considerar todos os possíveis erros descritos acima, ainda é
necessário tomar algumas precauções para a obtenção da precisão
requerida, tais como, realizar planejamento adequado, operações de vôo
dentro de limites apropriados (para evitar perda de sinal do GPS) e uma
boa distribuição das estações GPS de base em solo.
O INS apresenta precisão melhor que 0,020 e os pulsos laser são
afetados pelas diferentes camadas existentes na atmosfera. A altura de vôo
é fator a ser considerado na degradação da precisão das medidas
relacionadas ao sistema LASER. Outra característica a ser evidenciada é o
problema de divergência dos pulsos, que resultam em pequenas diferenças
na interpretação dos resultados que aqui serão chamados de borda de
divergência.
Os erros de divergência podem ser visualizados através de uma
operação de subtração de imagens do primeiro (Figura 3.25a) e último
retorno do pulso (Figura 3.25b). A Figura 3.25 mostra imagens em níveis de
cinza obtida por meio de um processo de quantização das coordenadas
brutas altimétricas fornecidas pelo sistema da TopoSys GmbH,
desenvolvido na Alemanha.
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
129
Figura 3.25. Imagens em níveis de cinza obtidos por um processo de
quantização de coordenadas altimétricas. (a) Imagem do primeiro retorno
do pulso. (b) Imagem do último retorno do pulso. (c) Resultado da subtração
entre as imagens a e b.
(a) (b)
(c)
Verifica-se visualmente na Figura 3.25c que o resultado da operação
de subtração entre as imagens não apresentou apenas a informação de
vegetação, mas também as bordas das edificações, dadas pela diferença
entre as dimensões das edificações (bordas de divergência) apresentadas
em ambas às imagens. Esta diferença ocorre porque um pulso laser ao
incidir sobre a borda do telhado de uma edificação, dependendo do
tamanho de seu diâmetro, pode interceptar parcialmente a borda do telhado
e ocorrer resposta de retorno devido às reflexões no solo e na fachada
lateral do edifício (Figura 3.26), ou outras diversas reflexões do pulso,
dependendo do tipo de material perfilado, até seu retorno ao sistema. A
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
130
Figura 3.26 mostra as interceptações parciais do pulso e um exemplo do
processo de reflexão do pulso.
Figura 3.26. Interceptação parcial do pulso na borda do telhado e duas
reflexões do pulso (solo e fachada lateral).
Verifica-se também que as bordas das edificações contidas na
imagem do último retorno do pulso (Figura 3.25b) são mais estreitas que as
do primeiro retorno do pulso. Fato ocorrido devido ao último retorno incidir
sobre o solo e posteriormente na fachada lateral da edificação (reta
pontilhada na cor preta, Figura 3.26) enquanto o primeiro retorno do pulso
incide diretamente na borda do telhado (retas vermelhas, Figura 3.26).
Outro fator relacionado ao erro de divergência é a resposta de
retorno do pulso após interagir com o objeto perfilado. Por ser esta uma
função de dispersão de energia eletromagnética dentro da área do diâmetro
do pulso pode-se dizer que, quanto maior a inclinação do pulso em relação
ao objeto perfilado na superfície, maior será o erro de divergência e
conseqüentemente maior a incerteza posicional do alvo. Para que não
ocorram áreas de oclusão, devido ao fator supracitado, é necessário
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
131
realizar um recobrimento da área de interesse com o mínimo de
sobreposição possível.
Tipos de espelhos de varredura
Como descrito anteriormente o sistema LiDAR utiliza espelhos de
varredura ótico-mecânica. Existe, basicamente, 3 tipos de espelhos de
varredura. A Figura 3.27 apresenta os espelhos de varredura mais
utilizados nos sistemas desenvolvidos.
Figura 3.27. Mecanismos de varredura. (a) Espelho oscilador. (b) Varredura
Palmer. (c) Polígono de rotação.
(FONTE: WEHR e LOHR, 1999)
(a) (b)
(c)
Os espelhos osciladores (Figura 3.27a) produzem uma configuração
de perfilamento denominada linha em ―zig-zag‖ (Figura 3.27a). Os espelhos
de polígono de rotação (Figura 3.27b) produzem uma varredura
unidirecional com linhas paralelas (Figura 3.28b). Já os espelhos do tipo
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
132
Palmer (Figura 3.28c) produzem efeitos de modelos elípticos na superfície
(Figura 3.28c).
Figura 3.28. Configuração da varredura em relação ao tipo de espelho. (a)
Linhas em ―zig-zag‖. (b) Linhas paralelas. (c) Modelos elípticos.
(a) (b)
(c)
Os pontos ao longo de uma linha são varridos em incrementos de
ângulos iguais. De acordo com Wehr e Loher (1999), devido ao
perfilamento aleatório e à aceleração e desaceleração do espelho de
varredura, os pontos perfilados no extremo da largura da faixa exibem
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
133
características diferentes dos demais pontos e devem ser removidos, em
pós-processamento, do conjunto de dados brutos .
A Figura 3.29a apresenta uma imagem de intensidade LASER
resultante da varredura de um sistema com tipo de espelho oscilador. Os
pontos na cor preta representam objetos que não foram perfilados pelo
sistema devido à característica da configuração de perfilamento do tipo de
espelho supracitado. Neste caso é necessário realizar uma amostragem
dos dados por meio de técnicas de interpolação (vizinho mais próximo,
bilinear, triangulação de Delanay etc).
Figura 3.29. Imagem de intensidade LASER. (a) Derivada de espelhos
osciladores. (b) derivada de espelhos tipo Palmer.
(a) (b)
A Figura 3.29b apresenta uma imagem de intensidade derivada de
espelhos do tipo Palmer. Nota-se a diferença na qualidade geométrica entre
as imagens apresentadas em as ambas figuras. Os sistemas de varredura
LASER com espelhos do tipo Palmer oferecem precisão duas vezes melhor
que os sistemas com espelhos do tipo oscilador.
Outro tipo de espelho de varredura que possui vantagens em relação
aos demais espelhos descritos anteriormente é o espelho de fibra ótica,
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
134
cujo uso é característico apenas em sistemas da TopoSys GmbH. A Figura
3.30 mostra um espelho de fibra ótica.
Figura 3.30. Espelho de fibra ótica. Adaptado de WEHR e LOHR (1999).
Eles se diferenciam por terem um processo ótico de emissão e
recepção do pulso idêntico. Segundo Wehr e Lohr (1999), matrizes lineares
de fibra ótica idênticas são dispostas no plano focal das lentes de emissão
e recepção. Através dos espelhos de rotação, cada fibra ótica no caminho
da emissão e recepção é varrida seqüencialmente e sincronicamente. Estes
espelhos propagam o sinal por meio da fibra central, fibra a fibra. Devido às
pequenas aberturas das fibras, pequenos movimentos mecânicos são
requeridos com alta velocidade de varredura (acima de 630 Hz).
O sistema LiDAR fornece como produto final uma nuvem de pontos
distribuídos irregularmente armazenados em um arquivo ASCII de linhas
por ponto, composto por um conjunto de coordenadas tridimensionais
referenciadas no sistema de projeção admitido no trabalho, cuja
manipulação pode-se gerar um MDT e um MDS da região perfilada.
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
135
A densidade dos pontos obtidos atinge vários pontos por m2,
dependendo da altura de vôo e a frequência de perfilamento. A frequência
do sistema se situa na faixa de 500 a 1500 nm, com valores de 1040 a 1060
nm, sendo as mesmas refletidas pelos objetos contidos no terreno. Os
pontos coletados podem ser utilizados diretamente ou podem ser filtrados e
interpolados de forma a gerar uma grade regular de pontos.
Existem alguns tipos de sistemas de varredura LASER, tais como, o
sistema da Toposys GmbH II (desenvolvido na Alemanha) e Optech ALTM
2050 (desenvolvido no Canadá). O Quadro 3.1, apresenta as diferenças
básicas entre os sistemas supracitados.
QUADRO 3.1. Características de sistemas Toposys GmbH II e Optech
ALTM 2050.
A partir dos dados da resposta espectral armazenada pelo sistema
da Optech ALTM pode-se gerar, em pós-processamento, uma imagem de
intensidade LASER (Figura 3.31).
Características/Sistemas Toposys GmbH II ALTM 2050
Espelho de varredura Fibra ótica Oscilador
Resposta espectral não sim
Frequência de varredura Até 63 Hz Até 35 Hz
Ângulo de varredura 70 20
0
Altura de operação 250 - 1000 m 250 - 2000 m
Modo (pulso) 1º e/ou 2º 1º e/ou 2º
Resposta espectral não sim
Câmara digital não 4k x 4k pixels
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
136
Figura 3.31. Imagem de intensidade LASER.
Esta imagem é obtida a partir da interpolação dos valores da
resposta espctral de cada ponto varrido pelo sistema, gerando uma imagem
bidimensional de valores de intensidade. Para cada ponto é atribuído um
valor de intensidade, no qual é agregado aos mesmos suas coordenadas
tridimensionais compostas num arquivo de um ponto por linha de texto
(arquivo bruto ASCII). Os dados são interpolados de acordo com a
resolução ao qual foram perfilados os pontos no terreno.
A seguir será apresentada a teoria sobre sistemas estáticos.
Sistemas estáticos
Existem várias aplicações que necessitam de modelagem
tridimensional de objetos e superfícies e que podem ser atendidas tanto por
outras técnicas de obtenção de dados dimensionais e posicionais (p. ex.,
técnicas fotogramétricas) quanto pela tecnologia De varredura LASER
terrestre. Algumas delas, entretanto, de acordo com os requisitos de
rapidez e exatidão, podem requerer um grande número de medidas,
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
137
portanto, são melhores atendidas por uma nuvem de pontos proveniente do
sistema de varredura LASER terrestre.
O sistema de varredura LASER terrestre, basicamente, é
compreendido por um sensor LASER (em inglês, light amplification by
stimulated emission of radiation) e sistemas de espelho de varredura que
direcionam o pulso para a superfície.
O sistema é capaz de fornecer uma nuvem de pontos 3D sobre
pontos localizados na superfície física, em um curto período de tempo. A
nuvem de pontos é gerada por meio da medição simultânea de intervalo de
inclinação de um sensor LASER e dois ângulos associados por encoders
angulares correspondentes aos planos horizontais e verticais, passantes
pelo centro do instrumento. Por isso, o sistema fornece uma nuvem de
pontos de igual reamostragem no sistema de coordenadas polares.
Essas medidas de distância e ângulo simultâneos são realizadas
automaticamente com um ângulo de varredura de 1000 Hz ou mais,
dependendo do sistema utilizado. Basicamente, o sistema emite pulsos de
LASER que interagem com a superfície e são refletidos e recuperados pelo
receptor do sistema. A distância entre o sensor e o alvo é calculada, em
pós-processamento, em função da diferença do tempo entre a emissão e
recepção do pulso. O resultado final do processo de medição e
processamento é uma nuvem de pontos, que poderia ser chamada,
genericamente, de Modelo Digital de Superfície (MDS), ao qual o valor de
intensidade também pode ser associado. A figura 3.32 apresenta a
geometria de funcionamento do referido sistema.
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
138
Figura 3.32. Geometria de funcionamento do sistema de varredura LASER
terrestre.
Em princípio, pode-se dizer que o sistema estático funciona como um
medidor de distâncias (distanciômetro), em função do tempo de emissão e
recepção do pulso. Existem basicamente dois princípios geométricos de
cálculos de coordenadas, isto é: triangulação; por intervalo de tempo (time
of flight). No princípio de funcionamento por intervalo de tempo a distância é
estimada por meio do tempo de emissão e recepção do pulso laser, cuja
reflexão do pulso ocorre difusamente dependendo do tipo de material do
objeto perfilado. Este sistema é capaz de estimar distâncias para objetos
mais distantes, porém oferecem precisão de pior qualidade que o sistema
de princípio por triangulação.
O princípio de triangulação funciona de forma que um pulso laser é
emitido pelo sistema e seu retorno é registrado por uma ou mais câmaras
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
139
de sensores CCD. O ângulo de varredura de cada pulso emitido é
registrado no sistema a cada pulso emitido. Conhecendo-se a base fixa
entre o sensor LASER e a câmara, por meio de um processo de calibração,
determina-se a posição dos pontos refletidos pelo objeto. A distância entre
o sensor LASER e o CCD é conhecida e permite o cálculo das coordenadas
tridimensionais de cada ponto perfilado pelo sistema. A precisão dos pontos
determinados depende da relação base/distância. Com um comprimento de
base fixa, o desvio padrão ( ) da distância medida, aumentará em
proporção ao quadrado da distância.
Figura 3.33. Mecanismos de varredura do sistema de varredura LASER
terrestre (Adaptado de Staiger, 2003).
Além das técnicas de medidas do sistema se deve considerar o tipo
de mecanismo de varredura do sistema. Staiger (2003) classifica o sistema
de varredura LASER terrestre como: varredura panorâmica; varredura
híbrida; e varredura por quadro. A Figura 3.33 apresenta três tipos de
mecanismos de varredura do sistema.
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
140
Dentro da primeira dessas três categorias, varreduras de tipo
panorâmico procedem de forma que a distância e as medições angulares
em um padrão sistemático fornecem uma cobertura angular total de 360° no
plano horizontal, que passa pelo centro do instrumento, e normalmente uma
cobertura mínima de 180° no plano vertical perpendicular ao plano
horizontal, o que possibilita uma cobertura hemisférica. Este padrão de
varredura panorâmico é muito útil no contexto do mapeamento topográfico,
é ainda mais desejável, de fato muitas vezes obrigatória, a medição de
instalações industriais complexas, grandes pedreiras e minas de céu aberto
e as fachadas de edifícios nas áreas urbanas.
Uma vantagem da maioria dos sistemas de varredura LASER
terrestre é o registro da informação espectral dos alvos perfilados pelo
sistema. Por meio desta informação é possível gerar, em pós-
processamento, imagens de intensidade. Os valores de intensidade são
relativos e não absolutos, e, para os sistemas estáticos, variam de acordo
com as propriedades de reflexão direcional e a reflectividade do alvo.
Uma das vantagens do sistema de varredura LASER terrestre é que
a nuvem de pontos gerada em campo pode ser confrontada com as
informações geradas por técnicas fotogramétricas ou sensores
imageadores. Atualmente, a integração entre dados derivados de sistemas
de aquisições diferentes tem apontado grande potencial como conteúdo de
informações complementares, ou seja, a integração de dados derivados do
sistema de varredura LASER terrestre e Fotogrametria fornece uma riqueza
abundante de informação, que permite a automação dos processos
fotogramétricos com melhor eficiência, além de autonomia e redução da
necessidade dos métodos de prospecção convencional, tais como, os
levantamentos geodésicos e topográficos. Isto reduz o custo operacional e,
principalmente, o tempo na linha de produção. A integração dos dados tem
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
141
ganhado tanto prestígio na comunidade que, diversos são os trabalhos
relacionados com o tema, podendo-se citar: Habib e Schenk (1999), Schenk
et al. (2001), Schenk e Csatho (2002), Habib et al. (2004a, 2004b, 2004c),
Furkuo e King (2004), Delara et al. (2004), Chen et al. (2004), Zhang et al.
(2005), Habib et al. (2005), Habib et al. (2006), Habib et al. (2007),
Abdelhafiz et al. (2007), Mitishita et al. (2008), Delara et al. (2008); etc.
No caso do sistema de varredura LASER terrestre em funcionamento
em um Unidade de Mapeamento Móvel (UMMT), por exemplo, é necessário
integrar os sistemas de posicionamento e medida inercial de forma que a
nuvem de pontos derivadas do perfilamento De varredura LASER terrestre
seja adequadamente georeferenciada e acurada. Isto se deve ao
movimento dinâmico da plataforma em questão (veículo transportado –
UMMT), onde para cada varredura haverá uma posição e atitude diferente
do sistema, ao longo do mapeamento. Sendo assim, é necessário integrar
os referidos sistemas de forma que o sistema funcione com autonomia e
precisão. Aqui, a precisão e acurácia do sistema estarão relacionadas com
a precisão dos sistemas GPS e INS, erros no alinhamento dos dois
subsistemas supracitados, modelagem matemática envolvida na
transformação das coordenadas, etc.
Um dos sistemas de varredura LASER terrestre mais apropriado para
aplicações UMMTs são os sistemas desenvolvidos pelo fabricante Riegl.
Esta empresa desenvolve uma série de sistemas de varredura LASER
terrestre de longa distância baseado em pulsos contínuos, cujos modelos
são: LMS-Z210ii; LMS-Z390i; Z420i; e LMS-Z620 — com alcances máximos
de 650, 400, 1000 e 2000 m, respectivamente, com objetos de 80% de
reflectância. Para objetos com reflectância inferior a 80%, os intervalos de
medida será menor, ou seja, 200, 100, 350 e 650 m, respectivamente.
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
142
A precisão nominal do equipamento é da ordem de ±4 a 15 mm para
um intervalo de 50 m. Todos os quatro instrumentos supracitados utilizam o
mesmo tipo de motor de laser com um polígono óptico continuamente
rotativo, que é colocado na frente do sensor LASER para produzir a
digitalização óptica básica. O sensor opera na faixa do comprimento de
onda infravermelho próximo variando de 905 até 1550 nm. O intervalo de
varredura angular do sistema é de 80° — que é normalmente implementado
para fornecer ±40 ° acima e abaixo do plano horizontal apontando
verticalmente para cima na sua posição normal de funcionamento.
A taxa de medição dos equipamentos supracitados varia entre 8.000
e 12.000 pontos por segundo, embora poderão ser usadas taxas mais
baixas de medição, de acordo com a aplicação requerida. Uma vantagem
deste sistema é a opção de GPS-Sync disponível. Isto permite a integração
com os subsistemas GPS e INS para fornecer dados de posição e
orientação do sistema, como é requerido nos sistemas de operação
aerotransportados.
Capítulo III
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
143
Figura 3.34. (a) Equipamento da Riegl. (b) Elementos de funcionamento do
sistema. Adaptado de Riegl 2001.
(a) (b)
Os sistemas da Riegl podem ser equipados com uma câmara digital
de pequeno, médio ou grande formato. Geralmente, são escolhidos os
modelos de câmara da Nikon e Canon EOS-1Ds II. As imagens coloridas
podem ser fundidas com a nuvem de pontos e permitir melhor eficiência na
análise da massa de dados.
REFERÊNCIAS
SHAN, j., TOTH, C. Topographic Laser Ranging and Scanning: principles and processing. Taylor and Francis: 593 p. 2008.
STAIGER, R., 2003, Terrestrial laser scanning—Technology, systems and applications. Second FIG Regional Conference, Marrakech, Morocco, December 2–5, 2003, 10 pp.