15
54 Photogrammetrie & Fernerkundung – vom Elektronenmikroskop bis zur Planetenbeobachtung CHRISTIAN HEIPKE 1 Zusammenfassung Dieser Beitrag beschreibt den derzeitigen Stand und die Zukunftsperspektiven von Photogrammetrie & Fern- erkundung. Nach einer kurzen Motivation wird auf die wechselseitigen Beziehungen zwischen Photogrammetrie & Fernerkundung und auf den gemeinsamen Bezug zur Geoinformatik eingegangen. Photogrammetrie & Fern- erkundung – vom Elektronenmikroskop bis zur Planeten- beobachtung Danach werden aktuelle Trends in der Bilderfassung so- wie der Bildauswertung aufgezeigt. Der Beitrag schließt mit einem Ausblick auf zukünftige Entwicklungen. Die wesentlichen Aussagen des Beitrages sind die Beob- achtung, dass viele der traditionell als photogrammetrisch bezeichneten Aufgaben heute entweder weitgehend auto- matisch oder mit Hilfe alternativer Techniken gelöst wer- den können. Dieser Einengung der photogrammetrischen Aktivitäten steht jedoch eine Erweiterung des Spektrums gegenüber, die sich durch die vermehrte Verfügbarkeit di- gitaler Bilder und die Möglichkeiten der automatisierten Interpretation der Bilder ergibt. Durch die Integration der gegeben Daten und Auswertemethoden können neue An- wendungsfelder erschlossen werden. Stichworte in die- sem Zusammenhang sind 3D-Stadtmodelle, verbunden mit ortsbezogenen Diensten (location based services) sowie die hochaufgelöste und hochfrequente Beobachtung der Erde aus dem Weltall für Zwecke der Landwirtschaft, Ka- tastrophenschutz und Umweltforschung. 1. Einleitung »Ein Bild sagt mehr als 1000 Worte«, dieses bekannte chinesische Sprichwort beschreibt viel von der Faszinati- on, die von Photogrammetrie & Fernerkundung ausgeht, und insbesondere von den Bildern, die in Photogramme- trie & Fernerkundung aufgenommen und ausgewertet wer- den. Warum sagt uns Menschen ein Bild mehr als 1000 Worte? Eine von vielen möglichen Antworten liefert die Beobachtung, dass wir eine Szene in Windeseile mit den Augen aufnehmen (sehen) und genauso schnell interpre- tieren. Wir Menschen können die in Bildern implizit ent- haltene Information also in Echtzeit verstehen und damit explizit machen. Diese Tätigkeit scheint uns keine spürba- ren Schwierigkeiten zu bereiten, allerdings können wir nicht 1 Prof. Dr.-Ing. Christian Heipke, Institut für Photogrammetrie und GeoInformation, Universität Hnnover, Nienburger Straße 1, 30167 Hannover; Tel.: (0511) 762-2482, Fax: (0511) 762-2483, e-mail: [email protected], http://www.ipi.uni-hannover.de angeben, wie wir diese Aufgabe bewerkstelligen; zum Stand der Forschung siehe z. B. HOFFMAN (2000) für eine allge- meinverständliche sowie ALBERTZ (1997) für eine wissen- schaftlich orientierte Darstellung der menschlichen visu- ellen Wahrnehmung. Photogrammetrie & Fernerkundung beschäftigen sich mit Bildaufnahme und -auswertung. Im Zentrum des Interes- ses stehen heute digitale Bilder verschiedenster Sensor- systeme, die Automatisierung der Auswertung mit dem Ziel, möglichst nah an die Interpretationsleistung des Menschen zu gelangen, sowie die Nutzung der abgeleite- ten Produkte in unterschiedlichen traditionellen und inno- vativen Anwendungen. Wesentliche Charakteristika von Photogrammetrie & Fern- erkundung sind die berührungslose Aufnahme, die kurze Aufnahmedauer und damit die Möglichkeit zur Erfassung dynamischer Prozesse, die umfassende flächenhafte und bildliche Dokumentation der aufgenommene Szene, die Auswertung in drei Dimensionen sowie die Möglichkeit, fast beliebig große Objekte zu bearbeiten. Der letztgenannte Aspekt hat dem Beitrag seinen Titel gegeben, immerhin werden photogrammetrische und fernerkundliche Metho- den für verschiedenste Zwecke von der Rasterelektronen- mikroskopie bis hin zur Beobachtung ganzer Planeten ein- gesetzt (siehe Abb. 1). Dieser Artikel geht zunächst kurz auf das Verhältnis der Photogrammetrie zur Fernerkundung ein, beschreibt dann die Stellung des Gebietes im Umfeld von Geodäsie, Geo- information und Bildanalyse. Danach werden aktuelle Trends in der Bildaufnahme und -auswertung aufgezeigt. Abschließend werden Perspektiven von Photogrammetrie & Fernerundung beleuchtet und diskutiert. 2. Photogrammetrie, Fernerkundung und Geoinformation Zwischen Photogrammetrie & Fernerkundung bestehen schon lange enge Beziehungen. Das gemeinsame Prinzip besteht in der flächenhaften Messung verschiedener Ei- genschaften elektromagnetischer Wellen eines bestimm- ten Wellenlängenintervalls, die von Objekten ausgestrahlt oder reflektiert wurden. Dabei kommen als Messgrößen Energie, Phase, Polarisation und Laufzeit der elektromag- netischen Wellen in Betracht. Die Ableitung von Eigen- schaften der abgebildeten Objekte aus diesen Messun-

Photogrammetrie & Fernerkundung – vom Elektronenmikroskop ... · 56 Fachvorträge Abb. 2: Photogrammetrie & Fernerkundung im Zusammenhang mit GIS nung bis hin zur Umgestaltung der

  • Upload
    hakien

  • View
    226

  • Download
    3

Embed Size (px)

Citation preview

Fachvorträge54

Photogrammetrie & Fernerkundung –

vom Elektronenmikroskop bis zur Planetenbeobachtung

CHRISTIAN HEIPKE1

Zusammenfassung

Dieser Beitrag beschreibt den derzeitigen Stand und dieZukunftsperspektiven von Photogrammetrie & Fern-erkundung. Nach einer kurzen Motivation wird auf diewechselseitigen Beziehungen zwischen Photogrammetrie& Fernerkundung und auf den gemeinsamen Bezug zurGeoinformatik eingegangen. Photogrammetrie & Fern-erkundung – vom Elektronenmikroskop bis zur Planeten-beobachtung

Danach werden aktuelle Trends in der Bilderfassung so-wie der Bildauswertung aufgezeigt. Der Beitrag schließtmit einem Ausblick auf zukünftige Entwicklungen.

Die wesentlichen Aussagen des Beitrages sind die Beob-achtung, dass viele der traditionell als photogrammetrischbezeichneten Aufgaben heute entweder weitgehend auto-matisch oder mit Hilfe alternativer Techniken gelöst wer-den können. Dieser Einengung der photogrammetrischenAktivitäten steht jedoch eine Erweiterung des Spektrumsgegenüber, die sich durch die vermehrte Verfügbarkeit di-gitaler Bilder und die Möglichkeiten der automatisiertenInterpretation der Bilder ergibt. Durch die Integration dergegeben Daten und Auswertemethoden können neue An-wendungsfelder erschlossen werden. Stichworte in die-sem Zusammenhang sind 3D-Stadtmodelle, verbunden mitortsbezogenen Diensten (location based services) sowiedie hochaufgelöste und hochfrequente Beobachtung derErde aus dem Weltall für Zwecke der Landwirtschaft, Ka-tastrophenschutz und Umweltforschung.

1. Einleitung

»Ein Bild sagt mehr als 1000 Worte«, dieses bekanntechinesische Sprichwort beschreibt viel von der Faszinati-on, die von Photogrammetrie & Fernerkundung ausgeht,und insbesondere von den Bildern, die in Photogramme-trie & Fernerkundung aufgenommen und ausgewertet wer-den. Warum sagt uns Menschen ein Bild mehr als 1000Worte? Eine von vielen möglichen Antworten liefert dieBeobachtung, dass wir eine Szene in Windeseile mit denAugen aufnehmen (sehen) und genauso schnell interpre-tieren. Wir Menschen können die in Bildern implizit ent-haltene Information also in Echtzeit verstehen und damitexplizit machen. Diese Tätigkeit scheint uns keine spürba-ren Schwierigkeiten zu bereiten, allerdings können wir nicht

1 Prof. Dr.-Ing. Christian Heipke, Institut für Photogrammetrie und GeoInformation, Universität Hnnover, Nienburger Straße 1, 30167 Hannover;Tel.: (0511) 762-2482, Fax: (0511) 762-2483, e-mail: [email protected], http://www.ipi.uni-hannover.de

angeben, wie wir diese Aufgabe bewerkstelligen; zum Standder Forschung siehe z. B. HOFFMAN (2000) für eine allge-meinverständliche sowie ALBERTZ (1997) für eine wissen-schaftlich orientierte Darstellung der menschlichen visu-ellen Wahrnehmung.

Photogrammetrie & Fernerkundung beschäftigen sich mitBildaufnahme und -auswertung. Im Zentrum des Interes-ses stehen heute digitale Bilder verschiedenster Sensor-systeme, die Automatisierung der Auswertung mit demZiel, möglichst nah an die Interpretationsleistung desMenschen zu gelangen, sowie die Nutzung der abgeleite-ten Produkte in unterschiedlichen traditionellen und inno-vativen Anwendungen.

Wesentliche Charakteristika von Photogrammetrie & Fern-erkundung sind die berührungslose Aufnahme, die kurzeAufnahmedauer und damit die Möglichkeit zur Erfassungdynamischer Prozesse, die umfassende flächenhafte undbildliche Dokumentation der aufgenommene Szene, dieAuswertung in drei Dimensionen sowie die Möglichkeit,fast beliebig große Objekte zu bearbeiten. Der letztgenannteAspekt hat dem Beitrag seinen Titel gegeben, immerhinwerden photogrammetrische und fernerkundliche Metho-den für verschiedenste Zwecke von der Rasterelektronen-mikroskopie bis hin zur Beobachtung ganzer Planeten ein-gesetzt (siehe Abb. 1).

Dieser Artikel geht zunächst kurz auf das Verhältnis derPhotogrammetrie zur Fernerkundung ein, beschreibt danndie Stellung des Gebietes im Umfeld von Geodäsie, Geo-information und Bildanalyse. Danach werden aktuelleTrends in der Bildaufnahme und -auswertung aufgezeigt.Abschließend werden Perspektiven von Photogrammetrie& Fernerundung beleuchtet und diskutiert.

2. Photogrammetrie, Fernerkundung und Geoinformation

Zwischen Photogrammetrie & Fernerkundung bestehenschon lange enge Beziehungen. Das gemeinsame Prinzipbesteht in der flächenhaften Messung verschiedener Ei-genschaften elektromagnetischer Wellen eines bestimm-ten Wellenlängenintervalls, die von Objekten ausgestrahltoder reflektiert wurden. Dabei kommen als MessgrößenEnergie, Phase, Polarisation und Laufzeit der elektromag-netischen Wellen in Betracht. Die Ableitung von Eigen-schaften der abgebildeten Objekte aus diesen Messun-

Christian Heipke: Photogrammetrie & Fernerkundung 55

gen stellt das eigentliche Ziel von Photogrammetrie & Fern-erkundung dar. Die Objekte werden sowohl geometrischin Position, Lage, Größe und Form, als auch bzgl. ihrerBedeutung (Objektklasse, Attribute), ihres radiometrischenund spektralen Aussehens (Helligkeit, Textur, spektraleSignatur) und ggf. ihres zeitlichen Verhaltens beschrieben.

Unter Fernerkundung wird nach KONECNY/LEHMANN

(1984, S. 11) die »Ermittlung von Informationen über ent-fernte Objekte verstanden, ohne mit ihnen in direkten Kon-takt zu kommen. Als Informationsträger dienen Kraftfel-der. Insbesondere ist das elektromagnetische Feld zurrichtungsmäßigen Trennung der Objektinformation geeig-net.« Entsprechend dieser Definition ist die Photogram-metrie, die als Kraftfeld elektromagnetische Strahlung dessichtbaren Lichtes und als Eingangsinformation flächen-haft verteilte Bildinformation voraussetzt, ein Teilbereichder Fernerkundung.

Früher standen die geometrischen Aspekte der Bildaus-wertung im Vordergrund der photogrammetrischen For-schung und Fragen der automationsgestützten themati-schen Interpretation des Bildinhaltes im Zentrum der For-schung in der Fernerkundung. Die Beschäftigung mit digi-talen Bildern innerhalb der Photogrammetrie hat aber dazugeführt, dass sich der Schwerpunkt von geometrischenFragen hin zur Bildinterpretation verlagert hat. Gleichzei-tig wurden geometrische Aspekte innerhalb der Fern-erkundung aufgrund der gestiegenen geometrischen Bo-denauflösung immer wichtiger. Heute ist die Eingliederungder Photogrammetrie in die Fernerkundung weitgehendvollzogen, der Name Photogrammetrie ist jedoch erhal-ten geblieben.2 Entsprechend lautet die offizielle Definiti-on der Internationalen Gesellschaft für Photogrammetrieund Fernerkundung:

Photogrammetry and remote sensing is the science,technology and art of obtaining reliable information,from noncontact imaging and other sensor systems,

about the Earth and its environments, and otherphysical objects and processes, through recording,measuring, analyzing and representation.

Eine zentrale und immer wichtiger werdende Rolle fürPhotogrammetrie & Fernerkundung spielen Geoinfor-mationen, also Informationen über Objekte und Sachver-halte auf der Erdoberfläche mit Raumbezug, die mit Hilfevon Geo-Informationssystemen (GIS) verwaltet, analy-siert, über verschiedene Informationskanäle verteilt sowiefür Präsentationszwecke aufbereitet werden (z.B. HEIPKE

2002). Die wesentliche Aufgabe von Photogrammetrie &Fernerkundung ist die Erfassung und Aktualisierung derGeoinformation im Verbund mit terrestrischen Verfahren.Für Erfassung und Aktualisierung topographischer Geo-information ist Photogrammetrie & Fernerkundung dieweltweit anerkannte Standardmethode. Die Verwaltungdieser Informationen in Datenbankmanagementsystemenist eine der grundlegenden Aufgabe für unseren Berufs-zweig und wird heute zunehmend zentral koordiniert undteilweise auch zentral durchgeführt. Die Nutzung der In-formation nicht nur innerhalb der Verwaltung, sonderndurch breite Bevölkerungsschichten, setzt die Informa-tionsweitergabe voraus, heutzutage immer mehr unter Zu-hilfenahme des Internet. Die Präsentation der Geoinfor-mation, ob auf Papier, am Bildschirm im Büro oder aufDisplays von Personal Digital Assistants (PDA) undMobiltelefonen zur Nutzung sogenannter ortsbezogenerDienste (location based services, LBS), ist der Kartogra-phie zuzuordnen. Für die Stadt und die Regionalplanung,aber auch in der ländlichen Entwicklung und Boden-ordnung werden neben Analysen auch Prognosen und Pla-nungen auf der Grundlage von Geoinformationen und derdaraus abgeleiteten kartographischen Darstellungen er-stellt. Die Planungen können dann z.B. in einem Dorfer-neuerungs- oder Flurbereinigungsverfahren umgesetztwerden. Damit ist der Kreislauf von der Datenerfassungüber Verwaltung, Verteilung, Analyse, Prognose und Pla-

2 Um diesem Umstand Rechnung zu tragen und gleichzeitig den photogrammetrischen Aspekt der Fernerkundung zu betonen, werden die BegriffePhotogrammetrie und Fernerkundung im vorliegenden Text mit dem Symbol „&“ verbunden.

Abb. 1: Mit Photogrammetrie & Fernerkundung können Objekte fast beliebiger Größe ausgewertet werden: links ein Bild einesRasterelektronenmikroskops (aus HEMMLEB, ALBERTZ 1998), rechts ein künstlerischer Anblick des Satelliten MarsExpress mit derHRSC, wie er Ende 2003 am Mars ankommt (© DLR, Berlin-Adlershof)

Fachvorträge56

Abb. 2: Photogrammetrie & Fernerkundung im Zusammenhang mit GIS

nung bis hin zur Umgestaltung der Landschaft geschlos-sen (siehe auch Abb. 2). Die Integration der einzelnen tra-ditionellen Disziplinen in diesen Kreislauf zur Erfassung,Inventarisierung und Aktualisierung von Daten der Erdo-berfläche stellt eine der größten Herausforderungen dar,vor denen unser Berufszweig heute steht.

Aus diesen Ausführungen wird deutlich, dass Photogram-metrie & Fernerkundung in enger Verzahnung mit den Nach-bardisziplinen einen wesentlichen Beitrag sowohl zu wis-senschaftlichen Fragestellungen wie der Erforschung dermenschlichen visuellen Wahrnehmung als auch zu prakti-schen Aufgaben wie der Erfassung, Dokumentation undUmgestaltung der menschlichen Umwelt leistet. Im Weite-ren wird im Stile eines Überblicks auf aktuelle Entwicklun-gen in Photogrammetrie & Fernerkundung eingegangen.Dabei werden die Bereiche Bildaufnahme, geometrisch/radiometrische Bildauswertung und Bildinterpretation un-terschieden.

3. Bildaufnahme

Traditionell hat sich die photogrammetrische Datenerfas-sung aus dem Flugzeug und im Nahbereich auf photo-graphische, zentralperspektivische Aufnahmen einzelnerBilder mit Film als Träger beschränkt, in der Satellitenfern-erkundung herrschten digitale Bilder mit weit geringerergeometrischer Auflösungen (10 m und schlechter) vor.Heute hat sich die Situation grundlegend gewandelt. Diemodernen Trends werden im Folgenden aufgezeigt.

3.1 Digitale Aufnahmen

Digitale Aufnahmen haben eine Reihe von Vorteilen imVergleich zu Photographien. Die wichtigsten sind (a) diequantitative Erfassung und damit die Möglichkeit zurquantitativen Auswertung der Lichtenergie, (b) die Erwei-terung des erfassbaren elektromagnetischen Spektrums,(c) die höhere spektrale Auflösung, (d) die Möglichkeitzur simultanen Erfassung verschiedene Eigenschaften der

Abb. 3: Zwei verschiedene Systeme für digitale Luftbildkameras werden derzeit realisiert; links das Prinzip der ADS auf der Grundlageder Dreizeilengeometrie (© Leica Geosystems, Heerbrugg), rechts die Prinzipskizze der DMC mit den vier verschiedenen panchroma-tischen Kameraköpfen zur Erreichung eines flächenhaften digitalen Bildes (© Z/I Imaging, Oberkochen)

Christian Heipke: Photogrammetrie & Fernerkundung 57

elektromagnetischen Strahlung, also Lichtenergie, Phase,Laufzeit und Polarisation, (e) die Möglichkeit, Kopienohne jeglichen Verlust an Bildqualität herzustellen, (f) dieMöglichkeit zur Datenübertragung durch Computernetzeund schließlich (g) das Potenzial zur Echtzeitverarbeitungdurch Automation der Auswertung. Diesen Vorteilen ste-hen als Nachteile Probleme bei der Langzeitarchivierunggroßer Datenmengen sowie der Verlust der unmittelbarenWahrnehmbarkeit durch den Menschen gegenüber. Offen-sichtlich überwiegen die Vorteile bei weitem, denn For-schung und Praxis in Photogrammetrie & Fernerkundunggehen heute in überwiegender Mehrzahl von digitalenBilddaten aus.

Im Nahbereich und in der Satellitenfernerkundung schonlange verbreitet, werden inzwischen auch für die Luftbild-photogrammetrie digitale Kameras auf der Grundlage derCCD-Technik entwickelt. Derzeit sind zwei konkurrierendeSysteme kommerziell verfügbar, der auf der Dreizeilen-geometrie beruhende Airborne Digital Scanner ADS 40 vonLeica Geosystems und die auf der Kombination mehrerFlächen-Chips mit jeweils eigener Optik beruhende DigitalModular Camera DMC von Z/I Imaging (s. Abb. 3). Dane-ben existieren weitere digitale Luftbildkameras, zu erwäh-nen ist insbesondere die bahnbrechende Entwicklung derHigh Resolution Stereo Camera (HRSC) des DLR (WEWEL

et al. 1998; SCHOLTEN et al. 2002), eines ursprünglich fürden Einsatz im Weltraum konzipierten Systems auf derGrundlage der Dreizeilengeometrie, das in den letzten Jah-ren sehr erfolgreich vom Flugzeug aus eingesetzt wurde.Auch in Japan wird derzeit eine Dreizeilen-Kamera einwik-kelt, die den Namen TLS (Three Line Scanner) trägt. Dane-ben gibt es eine Reihe von Anbietern, die Kameras ausdem professionellen Photographiebereich erfolgreich imFlugzeug einsetzen.

3.2 Hochaufgelöste Satellitenaufnahmen

Nach einigen Fehlstarts gibt es seit ca. 3 Jahren Weltraum-aufnahmen mit Bodenauflösungen von ca. 0,6 - 1 m pan-chromatisch und 2,4 - 4 m in den Kanälen Rot, Grün, Blauund Infrarot von kommerziellen Anbietern (PETRIE 2002).Alle verfügbaren und geplanten Systeme beruhen auf CCDZeilensensoren und können stereoskopische Aufnahmensowie in als auch quer zur Flugrichtung erstellen. Es hatsich gezeigt, dass sich die Bilddaten je nach Anforderun-gen des Objektartenkatalogs für die Erfassung topogra-phischer Informationen im Bereich 1:10.000 bis 1:25.000und kleiner eignen. Andere Anwendungen dieser Bilddatenwie Land- und Forstwirtschaft, Telekommunikation oderVersicherungswirtschaft, sollen hier nicht weiter diskutiertwerden.

3.3 Multispektral- und Hyperspektralaufnahmen

Multispektralaufnahmen, also simultane Aufnahmen inmehreren Spektralkanälen, sind in der Satellitenfern-erkundung schon seit Jahrzehnten Standard. Hintergrundist die Tatsache, dass sich topographische Objekte in denentsprechenden Auflösungen eher spektral und wenigerdurch geometrische Größen beschreiben lassen. Wie be-reits erwähnt, besitzen auch die ADS 40 und die DMC,

die beide Bodenauflösungen unterhalb von 10 cm ermög-lichen, neben einem panchromatischen Kanal vier Multi-spektralkanäle (Rot, Grün, Blau und Infrarot). Farbbilderwerden vor allem für Visualisierungen und damit auch fürdie Orthoprojektion zunehmend wichtig. Der Infrarotkanalbietet insbesondere für Vegetationsanwendungen wichti-ge, zusätzliche Informationen und spielt im Rahmen derautomatischen Auswertung zur Trennung von Vegetati-ons- und vegetationslosen Flächen eine große Rolle.

Andere Entwicklungen sind durch eine deutliche Erhö-hung der Anzahl der Spektralkanäle gekennzeichnet. Bei-spiele sind DAIS (Digital Airborne Imaging Spectrometer)vom Deutschen Zentrum für Luft- und Raumfahrt (DLR)mit 79 und HyMap von Integrated Spectronics mit meh-reren Hundert Spektralkanälen vom sichtbaren bis zumThermalbereich, die Bilddaten werden in sogenanntenBildwürfeln (Abb. 4) verwaltet und später auch analysiert.Anwendungen bestehen vor allem in der geologischenLagerstättenforschung und der Umweltbeobachtung.

3.4 Dynamische Bildaufnahme

Neben einzelnen Stereoaufnahmen werden zunehmendauch Bildsequenzen und Zeitreihen von einem bzw. vonmehreren Standpunkten aus aufgenommen und photo-grammetrisch verarbeitet. Zum einen vereinfachen sichmanche Auswerteschritte, etwa die Bildzuordnung, da sichdie einzelnen Bilder nur sehr wenig voneinander unter-scheiden. Zum anderen ist es damit möglich, beweglicheObjekte auszuwerten. Anwendungen reichen von derCrashvermessung im Automobilbau über die Beobachtungvon Wasseroberflächen zum Zweck des Küstenschutzesbis hin zur Erntevorhersage in der Landwirtschaft und zumKatastrophenmanagement auf der Grundlage von täglichaufgenommenen Bildern aus dem Weltraum. So geben bei-spielsweise GIERKE, SEYFERT (2002) an, dass während dergroßen Überschwemmungen an der Oder im Frühjahr 1997ein Bedarf an Luftbildern bestand, die nicht älter als 20 hsein sollten.

Abb. 4: Hyperspektralaufnahme eines Teils der San FranciscoPeninsula mit dem NASA Ames Research Center, aufgenommenmit AVIRIS (Airborne Visible and Infrared Imaging Spectro-meter). Hinter dem Farbinfrarotbild sind verschiedene Kanälevon 0,4 bis 2,45 µm Wellenlänge zu sehen. Die vertikale Achsedes so entstandenen Bildwürfels beschreibt die Wellenlänge (vonDOZIER, HERRING, 1988).

Fachvorträge58

3.5 Laserscanner

Laserscanner liefern analog zu elektronischen Distanz-messern über Laufzeit- oder Phasenmessung Streckenzwischen dem Sensor und der reflektierenden Oberfläche.Durch Ablenkung des Lasers in zwei senkrecht zueinan-der verlaufenden Richtungen kann ein DOM bestimmtwerden, wenn Position und Abstrahlwinkel des Laserstrahlsbekannt sind bzw. gemessen werden können (Abb. 5).Laserscanner sind aktive Sensoren und damit von der Be-leuchtung unabhängig, sie können also auch nachts ein-gesetzt werden. Flugzeuggetragene Laserscanner wurdenursprünglich zur DGM-Erfassung im Wald entwickelt. DieIdee beruhte auf der Beobachtung, dass in bewaldetenGebieten zumindest einige Laserpulse den Boden erreich-ten und von dort reflektiert wurden. Für Laubwald undBefliegungen im Winter hat sich diese Idee inzwischeneindrucksvoll durchgesetzt, auch in anderen Bereichen istLaserscanning aus dem Flugzeug eine ernstzunehmendeKonkurrenz zur indirekten Oberflächenbestimmung mit Hilfestereoskopischer Höhenmessungen. Allerdings wird dieStrahlung z. B. von Wasser und nassem Untergrund fastvollständig absorbiert.

Heute ist die simultane Erfassung des ersten und letztenreflektierten Pulses (first und last pulse) zusammen mitder Intensität des zurückgestrahlten Pulses möglich. Letz-tere stellt ein monochromatisches Bild dar, das allerdingsdie Oberfläche nur lückenhaft abtastet und eine deutlichschlechtere geometrische Auflösung als ein Luftbild be-sitzt. Deshalb gehen die Hersteller von Laserscannern dazuüber, Sensorsysteme bestehend aus einem Laserscannerund einem Multispektralscanner anzubieten. Langfristig

ist zu erwarten, dass eine engere Kopplung zwischen derMessung von Lichtenergie und Laufzeit und damit einesimultane Abtastung der Erdoberfläche bzgl. Helligkeitund Abstand stattfinden wird.

3.6 Radar

Bildgebende Radarsensoren messen als aktive Sensorendie Laufzeit und die Intensität von ausgestrahlter und amBoden reflektierter elektromagnetischer Strahlung imMikrowellenbereich (LEBERL 1990). Das Prinzip der Lauf-zeit- und damit der Entfernungsmessung setzt Schrägauf-nahmen voraus. Eine Bildzeile entsteht durch gleichab-ständiges Abtasten des reflektierten Signals, die zweiteDimension des Bildes kommt durch die Vorwärtsbewegungdes Sensors zustande. SAR- (Synthetic Aperture Radar)Sensoren verwenden kohärente Strahlung, mit der dieAuflösung in Flugrichtung durch künstliche Verlängerungder Antenne deutlich verbessert werden kann.

Heute sind für Photogrammetrie & Fernerkundung aus-schließlich SAR-Sensoren im Einsatz. Sie sind von Beleuch-tung und Bewölkung unabhängig und deswegen opti-schen Sensoren in manchen Anwendungen von vornher-ein überlegen. In der Vergangenheit war die schlechte Bild-qualität, die aus dem bei kohärenter Strahlung mit einergewissen Bodenauflösung prinzipiell auftretenden Speckleresultiert, allerdings ein gravierender Nachteil von Radar-bildern. Multilook Techniken ermöglichen heute eine ge-wisse Abschwächung des Speckle, aus dem Flugzeug auf-genommene SAR Bilder werden bereits in manchen Situa-tionen für topographische Anwendungen eingesetzt. So-wohl die Geometrie – Radarbilder sind Entfernungsbilderund deshalb für den menschlichen Operateur in Bezug aufdie Geometrie ungewohnt – als auch die speziellen Re-flexionseigenschaften der Mikrowellen, insbesondere imStadtbereich und bei metallischen Gegenständen, machendie Auswertung von Radarbilder allerdings zu einer rechtgroßen Herausforderung. Darüber hinaus dringt die Strah-lung je nach Wellenlänge und Bodenbeschaffenheit un-terschiedlich stark in die Oberfläche ein.

Im interferometrischen Modus liefern Radarsensoren dar-über hinaus auch DOMs. Interferometrisches SAR (InSAR,manchmal auch als IfSAR bezeichnet; BAMLER, HARTL

1998) beruht auf dem möglichst gleichzeitigen Empfangeines Signals an zwei benachbarten Orten mit bekannterPosition. Ein spektakuläres Beispiel für eine InSAR Missi-on war die Space Shuttle Topography Mission im Februar2000 (Abb. 6). Die Messung des Phasenunterschieds desSignals lässt sich in einen Wegunterschied umrechnen,aus dem man einen Höhenunterschied des betrachtetenPunktes relativ zu einer Referenzhöhe bestimmen kann.InSAR hat bereits große Anwendung in verschiednenGebieten der Erde gefunden. Liegen Szenen von verschie-denen Zeiträumen vor, lassen sich unter gewissen Voraus-setzungen mit Hilfe des differentiellen InSAR auch kleineHöhenunterschiede bestimmen. Diese Methode wird zumBeispiel zur kontinuierlichen Beobachtung von Vulkanengenutzt.Abb. 5: Das Prinzip des Laserscanning (© Institut für Photo-

grammetrie, Universität Stuttgart)

Christian Heipke: Photogrammetrie & Fernerkundung 59

3.7 Fazit

Insgesamt lässt sich feststellen, dass sich das Spektrumder verfügbaren Sensoren und Bilddaten sowohl in Be-zug auf Aufnahmeprinzip und -technik, als auch auf diegeometrische, spektrale und zeitliche Auflösung deutlichvergrößert hat. Hinzu kommt, dass verschiedene Senso-ren kombiniert zum Einsatz kommen. So benötigen so-wohl flugzeuggetragene Zeilenscanner als auch Laser-scanner und SAR-Sensoren prinzipiell Position und Lagedes Sensors zu jedem Zeitpunkt. Diese Forderung wirddurch die direkte Messung der äußeren Orientierung mit-tels Verwendung von GPS (global positioning system)Empfängern in Verbindung mit inertialen Messeinheiten(inertial measurement unit, IMU) erfüllt. GPS und IMUwerden darüber hinaus zunehmend auch für konventio-nelle Luftbildkameras als Ergänzung, teilweise auch alsErsatz für die indirekte Bestimmung der äußeren Orien-tierung durch eine Bündelausgleichung eingesetzt.

Der Weg führt eindeutig hin zu komplexen Sensorsyste-men, verbunden mit deutlich höheren Anforderungen andie Kalibrierung sowohl der einzelnen Sensoren und alsauch des Sensorsystems. Beispiele dafür sind auch dieseit längerem bekannten Mobile Mapping Systeme (NOVAK

1991; SOOD, FAHRENHORST 1999). Für die mit diesen Multi-sensorsystemen aufgezeichneten Daten sind allerdingsnoch geeignete Konzepte und Methoden zur integriertenAuswertung (Fusion) zu entwerfen. Einige Aspekte derSensor- und Datenfusion werden in den nächsten Kapi-teln erörtert.

4. Bildauswertung

Die Bildauswertung wird hier in zwei Teilaspekte unter-teilt, und zwar die geometrisch/radimetrische Bildaus-wertung sowie die Bildinterpretation. Zur geometrisch/radiometrischen Bildauswertung gehören die Bildorien-tierung, die Ableitung digitaler Oberflächenmodelle(DOMs) und digitaler Geländemodelle (DGMs)3 und dieOrthoprojektion und Visualisierung. Die Bildinterpretationumfasst die – in der Regel dreidimensionale – Extraktionund Beschreibung von Objekten. Eine strenge Trennungzwischen beiden Gebieten ist allerdings sowohl bei dermanuellen als auch bei der automatischen Bildauswertungnicht möglich, da sie sich gegenseitig beeinflussen undbenötigen.

Um den Aspekt der Automation in der Bildinterpretation,der heute in Forschung und Entwicklung eine wesentlicheRolle spielt, stärker zu betonen, wird im Folgenden stattvon Interpretation von Bildanalyse gesprochen. Währendunter Interpretation sowohl eine manuelle als auch eineautomatische Auswertung verstanden werden kann, setztsich für Bildanalyse immer mehr eine Definition analogder von ROSENFELD (1982) durch, nach der Bildanalysedie »automatische Ableitung einer expliziten und bedeu-tungsvollen Beschreibung von Objekten der realen Weltmit Hilfe von Bildern« ist. Die Vorarbeiten zur Bildanalysestammen vor allem aus der Informatik, insbesondere ausden Bereichen der Bildverarbeitung, der formalen Wis-sensrepräsentation und verarbeitung und der Musterer-kennung, sowie aus der Elektrotechnik. Trotz der offen-sichtlichen Überschneidungen, beide Bereiche haben dasgleiche Ziel, nämlich die automatisierte Auswertung di-gitaler Bilder, liefen die Entwicklungen von Photogram-metrie & Fernerkundung sowie der Bildanalyse lange Zeitparallel, ohne sich gegenseitig entscheidend zu beeinflus-sen. Heute zeichnet sich eine ähnliche Entwicklung ab wievor ca. 30 Jahren zwischen Photogrammetrie und Fern-erkundung: trotz einiger eher historisch bedingter Unter-schiede wachsen beide Bereiche immer enger zusammenund sind, soweit ähnliche Aufgabenstellungen vorliegen,kaum noch voneinander zu trennen.

4.1 Geometrisch/radiometrische Bildauswertung

In der Vergangenheit waren die einzelnen Schritte der geo-metrisch/radiometrischen Bildauswertung relativ klar von-einander abgegrenzt. Heute verschwimmen die Grenzenetwas, nicht zuletzt, weil der früher entscheidende Mess-aufwand aufgrund der Automation viel von seiner Rele-vanz verloren hat und deshalb z.B. in der Orientierungs-phase bereits mit einer Punktdichte gearbeitet werdenkann, die auch für manche DOMs ausreicht. Konzepte zurintegrierten Bestimmung von Bildorientierung, DOM undOrthobildern sind schon seit längerem bekannt (EBNER etal. 1987; WROBEL 1987; HELAVA 1988; HEIPKE 1990).Der Übersichtlichkeit halber sollen die einzelnen Schritteim Folgenden trotzdem getrennt betrachtet werden.

3 Ein DOM enthält im Gegensatz zum DGM die topographischen Objekte auf dem Gelände (Gebäude, Vegetation). Algorithmen zur automatischenEntfernung dieses „Geländerauschens“ werden derzeit entwickelt und haben bereits einen für die Praxis brauchbaren Stand erreicht.

Abb. 6: SRTM, die Space Shuttle Topography Mission, eineinterferometrische SAR Mission, die an Bord des Space Shuttleim Februar 2000 11 Tage die Erde umkreiste (© DLR, Ober-

pfaffenhofen)

Fachvorträge60

4.1.1 Bildorientierung

Die Bildorientierung wird zweckmäßigerweise in die TeileSensormodell, also die mathematische Transformationzwischen Bild- und Objektraum, und Bestimmung homo-loger Bildprimitive (in den meisten Fällen Bildpunkte)unterteilt. Bei den Sensormodellen ist zunächst die flä-chenhafte Zentralprojektion als klassischem Standardfallder Photogrammetrie von der Zeilengeometrie (Parallel-projektion quer zur Zeilenrichtung, Zentralprojektion inZeilenrichtung), die sowohl den Dreizeilenkameras alsauch praktisch allen modernen optischen Satellitenfern-erkundungssensoren zugrunde liegt, zu unterscheiden. DieZeilengeometrie wurde unabhängig voneinander vonDERENYI, KONECNY (1966) und – speziell für die Drei-zeilengeometrie – von HOFMANN et al. (1984) entwickelt.Weitere wesentliche Ergebnisse enthält MÜLLER (1991)und HOFMANN et al. (1993). Daneben existieren je nachverwendetem Sensor noch Sonderfälle wie z.B. bei derVerwendung von Panoramakameras oder Elektronenmik-roskopen. Die Auswahl des Sensormodells richtet sich alsonach dem verwendeten Sensor.

Die flächenhafte Zentralprojektion wird traditionell imRahmen einer Bündelblockausgleichung mit Hilfe derKollinearitätsgleichungen formuliert. Die Vorteile und Er-folge dieses Vorgehens sind hinlänglich bekannt. Aller-dings ist festzuhalten, dass das resultierende Gleichungs-system nicht-linear in den unbekannten Elementen derAusgleichung (der Bildorientierung und den Objekt-

koordinaten der Verknüpfungspunkte) ist. Deshalb ist eserforderlich, Näherungswerte für die Unbekannten zu be-schaffen und die Unbekannten selbst iterativ zu berech-nen. Darüber hinaus ist die Einführung von linien- undflächenhaften konjugierten Bildelementen sehr komplexund unterbleibt deshalb in der Regel4. Ausgehend von die-sen Beobachtungen und der bekannten Problematik, ge-rade im Nahbereich Näherungswerte für die Bild-orientierung zu beschaffen, wurden in den letzten Jahrenalternative Ansätze für die flächenhafte Zentralprojektionauf der Grundlage der projektiven Geometrie untersucht(FAUGERAS 1993; HARTLEY, ZISSERMAN 2000; WROBEL

2001), teilweise ausgehend von alter Arbeiten aus der Pho-togrammetrie (RINNER 1963; THOMPSON 1968). Die erar-beiteten Methoden beruhen auf linearen Gleichungs-systemen für die Berechnung der Orientierung von bis zudrei Bildern und ermöglichen so die schnelle Bestimmungder Bildorientierung ohne Vorinformation. Die Ergebnis-se können bei Bedarf als Näherungswerte in einer nach-folgenden Bündelausgleichung verwendet werden.Darüber hinaus lassen sich auf elegante Weise punkt-,linien- und flächenhafte Bildprimitive gemeinsam verar-beiten (FÖRSTNER 2000), eine Eigenschaft, die für die ste-reoskopische Bildanalyse sehr vorteilhaft ist.

Die Bestimmung homologer Punkte geschieht heute fastausschließlich über digitale Bildzuordnung. Während die-se Aufgabe im Nahbereich aufgrund der teilweise starkunterschiedlichen Perspektiven der Bilder noch ein aktu-

Abb. 7: Die Automatische Aerotriangulation kann mit sehr viel mehr Punkten pro Bild arbeiten als es bei der manuellen Messung

möglich ist; hier ein Beispiel mit ca. 100 Punkten pro Bild

4 Linien- und flächenhafte homologe Bildelemente sind zwar für die Bildorientierung nicht notwendig, können aber hilfreich sein.

Christian Heipke: Photogrammetrie & Fernerkundung 61

eller Forschungsgegenstand ist (z.B. VAN GOOL et al.2002), sind die Methoden im Luftbild- und Satelliten-bereich inzwischen weitgehend ausgereift und unter demStichwort Automatische Aerotriangulation (Abb. 7) auchin der Praxis verfügbar (HEIPKE, EDER 1998). Problemewie unterschiedlicher Bildmaßstab, starke Höhenunter-schiede im Gelände, unterschiedliche Beleuchtungs-bedingungen, sich wiederholende Textur und partiell ge-ringer Kontrast behindern die Bildzuordnung und führendazu, dass die automatisch erzeugten Bildkoordinaten derVerknüpfungspunkte in der Regel interaktiv ergänzt bzw.korrigiert werden müssen.

In der Lutbildphotogrammetrie sind in den letzten Jahrenals Alternative zur Aerotriangulation die direkte und dieintegrierte Sensororientierung intensiv untersucht werden(SCHWARZ 1993; COLOMINA 1999; 2002; CRAMER 2001).In beiden Fällen werden Daten von GPS-Empfängern undIMUs zur Bestimmung der Elemente der äußeren Orientie-rung verwendet. Bei der direkten Sensororientierung er-setzen diese Daten Verknüpfungspunkte und damit diegesamte Aerotriangulation, bei der integrierten Sensor-orientierung werden alle Informationen in einer gemeinsa-men Ausgleichung zur Bestimmung der Bildorientierungverwendet. Umfangreiche Tests (HEIPKE et al. 2002) ha-ben die Praxisreife dieser Lösung insbesondere für dieHerstellung von Orthobildern, aber auch die damit ver-bundenen besonderen Herausforderungen deutlich ge-macht. Wird der Kalibrierung des Gesamtsystems die nöti-ge Aufmerksamkeit geschenkt, lassen sich heute mit Hilfeder direkten Sensororientierung Punktgenauigkeiten amBoden im Bereich weniger dm erreichen, bei der integrier-ten Sensororientierung erreicht man dieselben Genauig-keiten wie in der Aerotriangulation, und zwar bei sehr vielhöherer Flexibilität bzgl. der Flugplanung und unter Ein-sparung von Passpunkten. Aus Sicht der Praxis ist insbe-sondere die direkte Sensororientierung eine äußerst at-traktive, weil automationsfreundliche Lösung. Inzwischenist deutlich (s. auch ACKERMANN, 1986!), dass die Bedeu-tung der Aerotriangulation stark zurückgehen wird. Sie wirdin Zukunft für die meisten Anwendungen lediglich eineMethode zur Kalibrierung des Sensorsystems zur direktenSensororientierung sein, und gelegentlich im Rahmen derintegrierten Sensororientierung zur Genauigkeitssteige-rung der Ergebnisse eingesetzt werden. Allerdings ist dar-auf zu achten, dass bereits kleine Fehler in den Messun-gen und/oder den Kalibrierparametern wegen der Extrapo-lation der Ergebnisse vom Projektionszentrum der Kameraauf die Erdoberfläche große Abweichungen in den Ergeb-nissen, insbesondere in der Höhe, zur Folge haben kön-nen. Im Nahbereich ist dagegen damit zu rechnen, dass dieBündelausgleichung weiterhin die Standardmethode zurBestimmung der Bildorientierung bleiben wird.

4.1.2 Ableitung digitaler Oberflächenmodelleund Geländemodelle

Zur Ableitung digitaler Oberflächenmodelle aus flugzeug-getragenen Daten existieren zur Zeit drei konkurrierendeVerfahren: die indirekte DOM-Bestimmung auf der Grund-lage stereoskopischer Aufnahmen, die wie die Orientie-

rung auf der digitalen Bildzuordnung beruht, sowie diebeiden direkten Aufnahmeverfahren Laserscanning undInSAR. Stereoskopische Aufnahmen und InSAR werdenauch von Satelliten aus verwendet, ebenso wie die Laser-altimetrie, bei der im Gegensatz zum Laserscanning ledig-lich Entfernungsmessungen entlang der Nadirspur desSatelliten, nicht aber quer dazu durchgeführt werden.Während sich mit Laserscanning und InSAR im Allgemei-nen höhere Automationsraten erreichen lassen (für einenVergleich beider Verfahren s. MERCER 2001), haben diestereoskopischen Bilder eine höhere Auflösung, deshalbist auch für das resultierende DOM ein höherer Detailgraderreichbar. Aus demselben Grund lässt sich geomorpho-logische Information (Geländekanten usw.) derzeit nur ausBildern zuverlässig ableiten. Diese Informationen sind bei-spielsweise für die Gebäuderekonstruktion zur anschlie-ßenden Visualisierung und in der Hydrographie wesent-lich. Es muss allerdings gesagt werden, dass die Kanten-information derzeit noch interaktiv erfasst werden muss.

Allen drei Verfahren gemeinsam ist das Problem, aus demabgeleiteten DOM bei Bedarf ein DGM zu berechnen. Da-bei handelt es sich eigentlich um ein Problem der Bildana-lyse, denn die störenden Objekte auf dem Gelände (Ge-bäude, Bäume usw.) müssen erkannt und dann eliminiertwerden. Die Aufgabe wird derzeit jedoch mit vergleichs-weise einfachen Bildverarbeitungsoperatoren und statisti-schen Methoden relativ erfolgreich gelöst (KRAUS 1997;VOSSELMAN 2000; LOHMANN 2002; Abb. 8).

Es ist zu erwarten, dass sich die Bodenauflösung vonLaserscanning und InSAR und damit auch die Qualitätder DOMs verbessern wird. Dies wird wie bei der Bild-orientierung zu einer größeren Bedeutung der beiden di-rekten im Vergleich zu dem indirekten Verfahren führen.Falls jedoch auch Bilder als Ergebnis benötigt werden, istder Aufwand für den zusätzlichen Sensor gegen den Vor-teil der höheren Automation abzuwägen. Für hochquali-tative DOM und DGM wird wahrscheinlich die stereo-skopische Vorgehensweise weiterhin Bestand haben, undzwar als semi-automatische Methode, in der einfaches

Abb. 8: Automatische Ableitung eines DGM (rechts) aus einemDOM (links)

Fachvorträge62

Gelände automatisch bearbeitet wird, komplexere Gebie-te wie Siedlungen dagegen manuell. Der menschlicheOperateur wird daneben die Qualitätskontrolle des auto-matisch erzeugten Ergebnisses durchführen.

Im Nahbereich stellt sich das Problem der Oberflächen-bestimmung anders dar. Photogrammetrische Bilddaten undLaserscanning werden ebenso verwendet wie vom Flug-zeug und vom Satelliten aus, aufgrund der geringerenObjektentfernung besteht bzgl. der Sensorauswahl undder Auswertemethodik aber eine größere Flexibilität. Zuerwähnen sind die bekannten Lichtschnittverfahren so-wie auch diverse sogenannte »Shape from X«-Methoden(HARALICK, SHAPIRO 1993). X kann dabei z. B. für Bewe-gung, Fokussierung, Konturen, Schattierung (dieses Ver-fahren wird unter dem Namen shape-from-shading auch inder planetaren Fernerkundung eingesetzt; HORN 1986;PIECHULLEK 2000) und Textur stehen. Gute Ergebnissewerden derzeit im Nahbereich mit Laserscanning, mit Licht-schnittverfahren in Verbindung mit Bildzuordnung und –vor allem für bewegte Objekte und mit kostengünstigenSensorausrüstungen – mit Stereoverfahren erzielt (POLLE-FEYS et al. 2002), letztere oft in Verbindung mit projektiverGeometrie zur Bestimmung der Bildorientierung.

4.1.3 Orthoprojektion und Visualisierung

Die Orthoprojektion ist ein seit langem bekanntes Verfah-ren in Photogrammetrie & Fernerkundung und soll nur in-sofern erwähnt werden, als es inzwischen erste kommerzi-ell verfügbare Lösungen für sogenannte »true orthos« gibt(MAYR 2002). True orthos sind Orthobilder, für die bei derDifferentialentzerrung ein strenges DOM und nicht wietraditionell ein DGM verwendet wurde, und bei denen diedabei entstehenden sichttoten Räume durch Informationaus Nachbarbildern gefüllt wird. Als Ergebnis finden sichzum Beispiel Dachflächen und Brücken am geometrischkorrekten Ort, Hauswände sind nicht mehr sichtbar, und

auch die aus traditionellen Orthobildern großen Maßstabsbekannten Doppelabbildungen treten nicht mehr auf.

Prinzipiell unterscheidet sich die Orthoprojektion nicht vonder Texturierung dreidimensionaler geometrisch beschrie-bener Objekte, die in der Computergraphik auch mit denBegriff »rendering« und »texture mapping« bezeichnetwird. Insofern sind die Erstellung photorealistischer Visu-alisierungen (Abb. 9) und bewegter Computeranimationen,beides interessante und immer wichtiger werdenden Ge-biete der Virtuellen Realität, Bereiche mit engen Beziehun-gen zur Photogrammetrie und zukünftige Märkt für unsereAbsolventen. Die vielfach zitierte und praktizierte Erstel-lung von Geländeüberflügen und virtuellen Städtespazier-gängen, aber auch Simulationssysteme für Katastrophen-einsatzkräfte, Flugsimulatoren und Computerspiele sindnur einige Bereiche, die unser vermehrtes Augenmerk ver-dienen. Ein wichtiger Aspekt dieser Anwendungen ist dieIntegration luftgestützter und terrestrischer Bilddaten so-wie deren Fusion mit anderen Messmethoden, insbeson-dere mit terrestrischem Laserscanning.

4.2 Bildanalyse

4.2.1 Hintergrund und a priori Wissen

Wie schon erwähnt kann die Bildanalyse als automatischeAbleitung einer expliziten Beschreibung der in den Bilderndargestellten Objektraumszene definiert werden. Dazu müs-sen einzelnen Elemente der Szene, im Folgenden Objektegenannt, erkannt werden. Diese Erkennung setzt Wissenüber die Objekte in Form von Modellen voraus, das demRechner vorab zugänglich gemacht werden muss. Aus die-sem Grund wird auch von modellbasierter oder wissens-basierter Bildanalyse gesprochen. Diese Beobachtungführt zu wesentlichen Fragen der Bildanalyse, die auchnach ca. zwei Jahrzehnten Forschungstätigkeit noch nichtallgemein beantwortet werden können und deshalb Ge-

Abb. 9: Original (links) und photorealistische Visualisierung (rechts), hier am Beispiel der Bibliothek des Doms von Siena (© Zentrumfür Graphische Datenverarbeitung, Fraunhofer-Gesellschaft, Darmstadt)

Christian Heipke: Photogrammetrie & Fernerkundung 63

genstand weiterer Untersuchungen sind (siehe auchBALTSAVIAS 2002):

– Welches Wissen ist über die einzelnen Objekte vor-zuhalten, welche Detailstufen der Objektmodelle sindbei vorgegebenen Bilddaten für die Bildanalyse wich-tig?

– Wie ist dieses Wissen zweckmäßig in rechnerlesbarerForm zu repräsentieren?

– Wie kann das Wissen erworben werden, welcheMöglichkeiten bestehen insbesondere zur automati-schen Gewinnung dieses Wissens?

Es ist inzwischen klar, dass sowohl geometrische als auchradiometrische Informationen über die einzelnen Objektevorhanden sein müssen, um erfolgreich Bildanalyse be-treiben zu können. Je größer der Maßstab der zu analysie-renden Bilder und je höher damit der gewünschte Detail-grad ist, desto wichtiger werden dabei geometrische Infor-mationen, da man immer weiter in den Bereich der mensch-lichen Aktivitäten eindringt, der bzgl. der Objekte (Strassen,Häuser usw.) durch geradlinige Begrenzungen, Symmetri-en, rechte Winkel und andere geometrische Aspekte ge-kennzeichnet ist. Demgegenüber dominieren in geringe-ren Auflösungen radiometrische und spektrale Eigenschaf-ten, was den guten Erfolg der Multispektralklassifikationfür Satellitenbilder gröberer Bodenauflösung ebenso er-klärt wie die mäßigen Ergebnisse derselben Technik fürhochauflösende Satelliten- und Luftbilder selbst bei wis-sensbasierter Steuerung.

Die Objektmodelle werden heute oft in Form von semanti-schen Netzen repräsentiert (NIEMANN et al. 1990; SAGE-RER, NIEMANN 1997; LIEDTKE et al. 2001). Diese Art derRepräsentation hat den Vorteil, dass neben den Objekt-eigenschaften auch die Beziehungen zwischen einzelnenObjekten berücksichtigt werden. Die Beziehungen, auchKontext genannt, haben wesentlichen Einfluss auf die Bild-analyse, z. B. wird eine städtische Straße in Luftbildernwegen Verdeckungen und Schattenwurf durch Gebäude,Bäume, Fahrzeuge, aber auch wegen der weit komplexerenVerkehrsführung deutlich anders abgebildet als eine Stra-ße im ländlichen Gebiet. Konsequenterweise muss für dieExtraktion von Straßen je nach Kontextgebiet eine ange-passte Erfassungsmethode entwickelt werden.

Die Erstellung der semantischen Netze ist ein Kernpro-blem der modellbasierten Bildanalyse. Bis heute erfolgt sieper Hand, und es ist dabei vorab nicht klar, welche Elemen-te einer Objekt- und Szenebeschreibung in den Netzen ent-halten sein müssen. Auch können Ergebnisse, die sich beider Übertragung eines Netzes von einem Bilddatensatzauf einen anderen ergeben müssten, nicht vorhergesagtwerden. Diese Erkenntnis hat dazu geführt, neben Ansät-zen zum automatischen Lernen (SESTER 1995) auch stati-stische Verfahren wie Neuronale Netze zur Wissens-repräsentation zu verwenden (BARSI et al. 2002). Derzeitsind diese Ansätze noch in den Anfängen begriffen, undes kann nicht abgeschätzt werden, welche dieser Ansätzeunter welchen Voraussetzungen erfolgreich arbeiten. Esist jedoch offensichtlich, dass die effiziente Lösung zur

automatischen Erstellung von Wissensbasen eine wesent-liche Voraussetzung für den Erfolg der Bildanalyse insge-samt sind.

Eine andere Möglichkeit zur Einführung von a priori Wis-sen beruht auf der Überlegung, dass Bilder in der Regel füreinen bestimmten Zweck analysiert werden, der zumindestin den Grundzügen vorab festgelegt ist. Beispielsweisesind die in GIS vorzuhaltenden Informationen in Objekt-artenkatalogen beschrieben. Auch wenn diese Objektarten-kataloge wie gesagt im Hinblick auf die Nutzung und nichtauf die Erfassung der Informationen (und schon gar nichtim Hinblick auf die Bildanalyse) aufgestellt werden, kön-nen daraus doch wichtige Hinweise zur Formulierung derObjektmodelle der Bildanalyse entnommen werden (s. auchHEIPKE et al. 2000). Es muss allerdings darauf hingewie-sen werden, dass die Objektmodelle von vornherein drei-dimensional ausgelegt sein sollten, und dass sie Störun-gen, z.B. aufgrund von Verdeckungen und Schatten, be-rücksichtigen müssen. Ebenso ist es notwendig, das Aus-sehen der Objekte in den Bildern in Form von Helligkeits-bzw. Farbwerte und/oder Textur sowie den Kontext mitzu-modellieren.

Weiterhin folgt fast zwangsläufig, dass die Objektmodelleder Bildanalyse ebenso wie die Objektartenkataloge in GIShierarchisch aufzubauen sind. In der oberen Ebene wer-den nur grobe Kontextgebiete unterschieden, etwa Sied-lung, Wald, offene Landschaft und Wasserflächen. EineVerfeinerung findet dann innerhalb des jeweiligen Kontext-gebietes statt. Die groben Kontextgebiete können – fallsentsprechende Bilddaten vorliegen – z.B. durch Multi-spektralklassifikation voneinander getrennt werden, eineandere Möglichkeit besteht in der Verwendung eventuellvorliegender GIS-Daten.

Abb. 10: Ergebnis einer automatischen Straßenextraktion imoffenen Gelände (© Lehrstuhl für Photogrammetrie und Fern-erkundung, Technische Universität München)

Fachvorträge64

Wird die Bildanalyse zur Überprüfung oder Aktualisie-rung von GIS-Datenbeständen eingesetzt, so können dievorhandenen Daten auch direkt als Wissensbasis verwen-det werden. Die Berücksichtigung der Qualität der ver-wendeten Daten stellt bei dieser Vorgehensweise jedochnoch einen offenen, aber wesentlichen Punkt dar. Trotzvielfältiger Anstrengungen (s. z. B. JOOS 2000) existiertheute noch kein allgemeines Verfahren zur Qualitäts-beschreibung von Geoinformation. Die bisweilen zu le-sende Definition, nach der Qualität »fitness for use« sei,hilft hier wenig weiter, da in diesem Zusammenhang ge-rade eine von einer spezifischen Anwendung unabhängi-ge und damit allgemeingültige Beschreibung der Qualitätvon Geoinformation benötigt wird.

4.2.2 Stand und Perspektiven

In der Bildanalyse sind in den letzten Jahren wichtige Fort-schritte erzielt worden (z. B. MAYER 1998), wenn auch

ein Durchbruch in Richtung praktische Anwendungennoch auf sich warten lässt. Einzelne topographische Ob-jekte wie Straßen im offenen Gelände (BAUMGARTNER etal. 1997; 1999; WIEDEMANN 2002; Abb. 10) und teilweiseauch in bebauten Gebieten (HINZ, BAUMGARTNER 2002),Gebäude (FISCHER et al. 1998; BAILLARD et al. 1999;LANG 1999; HEUEL 2000; Abb. 11) und Vegetation(BORGEFORS et al. 1999; PAKZAD 2001) können inzwi-schen unter gewissen Voraussetzungen erfolgreich auto-matisch extrahiert werden. Durch Kombination von Bild-daten mit DOMs und/oder Grund-rissinformation aus demKataster können die Ergebnisse weiter verbessert werden,teilweise werden dabei auch nur DOMs und Grundriss-daten ohne Berücksichtigung der Bildinformation verwen-det (HAALA 1996; WEIDNER 1997; MAAS 1999; BREN-NER 2000; GERKE et al. 2001; STILLA et al. 2001; STRAUB,HEIPKE 2001; Abb. 12).

Abb. 11: Gebäuderekonstruktion aus sechs sich überlappenden Bildern, links Ausgangsbilder, rechts Ergebnis in Schrägansicht

(aus BAILLARD et. al. 1999)

Abb. 12: Zwei Ergebnisse einer automatischen Extraktion von Bäumen aus Multispektralbildern und einem DOM

in mehreren Auflösungsstufen (aus STRAUB, HEIPKE 2001)

Christian Heipke: Photogrammetrie & Fernerkundung 65

Im Nahbereich sind die Erfassung und Verfolgung vonMenschen sowie die Gesichts- und Gestenerkennung inVideosequenzen zentrale Themen. Anwendungsfelder lie-gen hier z. B. in der Erforschung von Bewegungsabläufenim Hochleistungssport, in der Überwachung von sicher-heitsrelevanten Einrichtungen durch visuelle Zugangskon-trolle, in der Blickverfolgung als Steuerungsinformationfür dynamische Mensch-Maschine-Schnittstellen (Stich-wort Augmented Reality) und in der 3D-Modellierung undVisualisierung von Menschen als Erweiterung der klassi-schen Photographie (z. B. FUA 2000).

Die derzeitigen Überlegungen und Entwicklungen in derBildanalyse lassen sich wie folgt zusammenfassen:

– Simultane Verwendung mehrerer Bilder, verbundenmit einem frühzeitigen Übergang in den dreidimensi-onalen Objektraum, dabei gleichberechtigte Verwen-dung von Punkt- Linien- und Flächeninformationdurch Verwendung der projektiven Geometrie,

– Reichhaltige, modulare Objektmodellierung, die ge-ometrische, radiometrische und spektrale Informati-onen umfasst,

– Gemeinsame Verwendung mehrerer Bildauflösungenund Detailstufen in der Objektmodellierung im Sinneeiner Multiskalenanalyse,

– Simultane Auswertung von verschiedenen Daten-quellen, z. B. Einzelbilder und Bildsequenzen mitDOMs und Grundrissdaten, mit kombinierten Me-thoden,

– Verfeinerung und Erweiterung existierender GIS-Datenbestände, z. B. durch Integration von 2D Vektor-daten mit DGMs,

– Verstärkte Modellierung von Kontext und ganzer Sze-nen statt einzelner Objektklassen,

– Untersuchungen zur Formulierung und Verwendungvon unsicherem Wissen, z. B. auf der Grundlage vonBayesnetzen und Ansätzen zur fuzzy logic, damit dieerzielten Ergebnisse im Sinne einer Selbstdiagnoseautomatisch bewertet werden können,

– Untersuchungen zur automatischen Erstellung vonWissensbasen.

Eine wichtige Rolle bei der Weiterentwicklung der Bild-analyse spielt die Frage, wie die Strategie der gesamtenAuswertung aussieht. Dazu gehören Entscheidungen,welche Daten in welchen Auflösungen und mit welchenMethoden in der Auswertung verwendet werden sollen(etwa die Trennung eines Bildes in Kontextgebiete durchMultispektralklassifikation mit grob aufgelösten Bilddaten,gefolgt von der Detektion einzelner Objekte auf der Grund-lage eines DOMs und die verfeinerte Rekonstruktion mit-tels hochauflösender Bilddaten). Auch Antworten auf Fra-gen wie, zu welchem Zeitpunkt der Wechsel vom Bild- inden Objektraum vollzogen werden soll, oder welchesModellwissen für die Extraktion und welches für die Selbst-diagnose verwendet wird, müssen im Rahmen der Definiti-on der Auswertestrategie beantwortet werden. Es hat sich

gezeigt, dass derartige strategische Entscheidungen einenwesentlichen Einfluss auf den Erfolg der Bildanalyse ha-ben.

Trotz dieser vielfältigen Aktivitäten ist derzeit nicht ab-sehbar, dass Systeme zur rein automatischen Bildanalysein der nächsten Zeit praxisreif werden. Dagegen zeigensich erste Erfolge im Bereich der semi-automatischen Ver-fahren. Semi-automatische Ansätze beziehen den mensch-lichen Operateur im Gegensatz zu automatischen Ansät-zen von vornherein in den Auswerteprozess mit ein. DerOperateur erledigt dabei vor allem Aufgaben, die Entschei-dungen (z. B. Auswahl von Algorithmen und Parameter-einstellungen) sowie die Beurteilung und ggf. Korrekturvon Zwischen- und Endergebnissen erfordern. Beispielesind die Arbeiten von ROTTENSTEINER (2001; Gebäude-erfassung) und BAUMGARTNER et al. (2002; Straßen-extraktion), die kommerziellen Softwarepakete CyberCityModeller (GRÜN, WANG 2001) und inJect (GÜLCH, MÜL-LER 2001) zur Erfassung von 3D Stadtmodellen sowie An-sätze zur Verifikation und Verfeinerung von Straßendaten,die derzeit u. a. in der Schweiz (EIDENBENZ et al. 2000)sowie in Deutschland (WILLRICH 2002; Abb. 13) als Koo-peration zwischen Hochschule und Verwaltung umgesetztwerden. Es ist zu erwarten, dass sich diese semi-automati-schen Ansätze, die heute an der Schwelle zur breiten An-wendung stehen, in den nächsten Jahren in der Praxis im-mer mehr durchsetzen werden, und dass der Automations-grad dieser Systeme langsam aber stetig steigen wird. Fürdie Akzeptanz beim Nutzer wird allerdings die Benutzer-oberfläche von größerer Bedeutung sein als derAutomationsgrad, vorausgesetzt, dass letzterer es ermög-licht, effizienter zu arbeiten als in einem rein manuellenProzess.

Abb. 13: Automatische Überprüfung des ATKIS-Straßennetzes:weiße Straßen wurden verifiziert, schwarze Straßen konnten imBild nicht erkannt werden, bei den gestrichelt dargestellten Stra-ßen konnte keine eindeutige Entscheidung getroffen werden (ausWILLRICH 2002)

Fachvorträge66

Aus wissenschaftlicher Sicht kommt die Forschung da-mit der Frage, wie Systeme zur vollautomatischen Bildana-lyse aussehen müssen, immer näher; aus Sicht der Anwen-dung ergeben sich aber bereits vor Klärung der wissen-schaftlichen Fragestellung brauchbare Ergebnisse. NachAnsicht des Autors stellt diese Kombination ein typische»win-win« Situation dar, wie sie auch in anderen Berei-chen von Forschung und Entwicklung anzustreben ist.

5. Ausblick

Wie die Ausführungen gezeigt haben, stehen Photogram-metrie & Fernerkundung vor wichtigen Änderungen. Vieleder klassischen Aufgaben werden heute automatisch odermit alternativen Techniken gelöst. Gleichzeitig gibt es eineWelle der Integration bzw. Fusion verschiedener Senso-ren, Daten und Methoden, die es nicht leichter macht, dierichtige Lösung für ein gegebenes Problem zu finden. Dar-über hinaus wächst die Bedeutung der Geoinformatik alsDach von Photogrammetrie & Fernerkundung immer mehran, und die Wechselbeziehungen zwischen beiden Berei-chen werden immer enger.

Im technischen Bereich sind die Entwicklungen der letztenJahre im Bereich der Bildaufnahme sicher am spektakulär-sten, aus wissenschaftlicher Sicht gilt dies für die Fort-schritte bei der Automation der Bildinterpretation, die teil-weise auf den neuen Bildaufnahmesystemen und teilwei-se auf neuen Erkenntnissen aus der Erforschung dermenschlichen Wahrnehmung beruhen. In beiden Bereichenbesteht natürlich Zusammenarbeit mit und Konkurrenz zuNachbardisziplinen, insbesondere der Elektrotechnik undder Informatik. Der spezifische Vorteil der Photogrammeterwar bisher ihre Kenntnis der Anwendungen, insbesonde-re für topographische Anwendungen, es sollte unser An-liegen sein, das dies auch weiterhin so bleibt.

Wichtig ist auch der Trend hin zu immer mehr Bildern. Heut-zutage gibt es mehr Videokameras und mehr Satellitenbil-der als jemals zuvor, und alles deutet darauf hin, dass sichdieser Trend weiter verstärkt. Der Hintergrund ist sowohldie durch Fernsehen, Video- und Computerspiele usw. ge-prägte »visuelle Welt«, in der wir leben, aber auch die rea-len Möglichkeiten, die sich z. B. in der Land- und der Ver-sicherungswirtschaft sowie in der Umweltforschung durcheine hochauflösende und hochfrequente Beobachtung derErde ergeben.

Konsequenterweise wird beispielsweise derzeit in Deutsch-land mit RapidEye ein Beobachtungssystem aufgebaut,dass die wichtigsten landwirtschaftliche Flächen in Euro-pa und den USA alle paar Tage erreichen kann (SCHERER,KRISCHKE 2001), in den USA gibt es mit Resource21 undGEROS ähnliche Entwicklungen (PETRIE 2002). In die-sen Bereich gehört auch die zunehmende Bedeutung vonRadar, die sich z. B. sowohl in der zunehmenden Nutzungder flugzeuggetragenen Systeme als auch in den Satelliten-projekten ENVISAT und TerraSAR manifestiert.

Mit den neuen Daten und den neuen Möglichkeiten sindzu den klassischen Anwendungen von Photogrammetrie

& Fernerkundung viele neue hinzugetreten. Einige wur-den im Text bereits genannt, zentral für die Zukunft sindsicher 3D Stadtmodelle, deren Erstellung, aber insbeson-dere auch deren Nutzung für verschiedene Planungs-zwecke, aber auch für breite Anwenderkreise, z. B. in Ver-bindung mit ortsbezogenen Diensten (location based ser-vices) über das Internet absehbar ist. Dabei wird es zueiner immer stärkeren Integration zwischen luftgestütztenund terrestrischen Methoden der Datenerfassung sowieeiner weitgehenden Verschmelzung zwischen Bildanalyseund Computergraphik im Rahmen der Erstellung virtueller,photorealistischer Ansichten der Umwelt kommen. Da eswenig wahrscheinlich ist, dass alle für derartige Dienstenotwendigen Daten vorab erfasst und gespeichert wer-den können, ergeben sich langfristig für die Bildanalyseneuen Anforderungen und Möglichkeiten: es geht z. B.um die Interpretation von Bildsequenzen in Echtzeit, auf-genommen von beliebigen Standorten aus, es geht um»mobile real-time vision on demand«.

Dieser Beitrag hat mit einem alten chinesischen Sprich-wort begonnen, er soll mit einer Aussage beschlossenwerden, die Sokrates zugeschrieben wird. Der Betrag, denPhotogrammetrie & Fernerkundung auch in der Zukunftzum Verständnis unseres Planeten im Großen und im Klei-nen leisten werden, könnte deutlicher kaum formuliert wer-den als in dieser fast 2500 Jahre alten Weisheit.

Wir müssen uns erheben über die Erde,hoch in die Atmosphäre und darüber hinaus –erst dann werden wir die Welt verstehenin der wir leben.

SOKRATES, 470 – 399 v. Chr.

6. Literatur

ACKERMANN F. (1986): The use of camera orientation data inphotogrammetry – A review, IAPRS (26) 1, pp. 93-99.

ALBERTZ J. (1997, Ed.): Wahrnehmung und Wirklichkeit – Wiewir unsere Umwelt sehen, erkennen und gestalten, Schriften-reihe der Freien Akademie, Berlin (17), 263 p..

ALBERTZ J., SCHOLTEN F., EBNER H., HEIPKE C., NEUKUM G.(1993): Two camera experiments on the Mars 94/96 mis-sions, GIS (6) 4, 11-16.

BAILLARD C., SCHMID C., ZISSERMAN A., FITZGIBBON A. (1999):Automtic line matching and 3D reconstruction of buildingsfrom multiple views, IAPRS (32) 3-2W5, 69-80.

BALTSAVIAS E. (2002): Object extraction and revision by imageanalysis using existing geospatial data and knowledge: state-of-the-art and steps towards operational systems, IAPRS(34) 2, 13-22.

BAMLER R., HARTL P. (1998): Synthetic aperture radar inter-ferometry, Inverse Problems (14), R1-R54.

BARSI A., HEIPKE C., WILLRICH F. (2002): Junction extractionby artificial neural network system – JEANS, IAPRS (34)3B, 18-21.

BAUMGARTNER, A., ECKSTEIN, W., MAYER, H., HEIPKE, C. andEBNER, H. (1997): Context supported road extraction, in:Grün A., Baltsavias E., Henricsson O. (Eds.), Automaticextraction of man-made objects from aerial and space images(II), Birkhäuser, Basel, 299–308.

Christian Heipke: Photogrammetrie & Fernerkundung 67

BAUMGARTNER A., STEGER C., MAYER H., ECKSTEIN, EBNER

(1999): Automatic road extraction based ion multi-scale,grouping, and context, PE&RS (65) 7, 777-785.

BAUMGARTNER A., HINZ S., WIEDEMANN C. (2002): Efficientmethods and interfaces for road tracking, IAPRS (34) 3B,28-31.

BORGEFORS, G., BRANDTBERG, T. and WALTER, F. (1999): Forestparameter extraction from airborne sensors, IAPRS (32)3-2W5, 151–158.

BRENNER C. (2000): Dreidimensionale Gebäuderekonstruktionaus digitalen Oberflächenmodellen und Grundrissen, DGKReihe C, Nr. 530, 124 p.

COLOMINA I. (1999): GPS, INS and aerial triangulation: Whatis the best way for the operational determination of photo-grammetric image orientation?, IAPRS (32) 3-2W5, 121-130.

COLOMINA I. (2002): Modern sensor orientation technologiesand procedures, in: Heipke C., Jacobsen K. Wegmann H.(Eds.), Integrated Sensor Orientation, OEEPE Official Pub-lication No. 43.

CRAMER M. (2001): Genauigkeitsuntersuchungen zur GPS/INS-Integration in der Aerotriangulation, DGK Reiche C, Nr.537, 122 p.

DERENYI E., KONECNY G. (1966): Infrared scan geometry,PE&RS (32) 5, 773-778.

DOZIER J., HERRING M. (1988): HIRIS – NASA‘s high resolutionimaging spectrometer for the Earth Observation System(EOS), Proceedings ESA Workshop on Imaging Spectro-metry fore Land Applications, ESA-SP 1101, 17-25.

EBNER H., FRITSCH D., GILLESSEN W., HEIPKE C. (1987): Inte-gration von Bildzuordnung und Objektrekonstruktion inner-halb der digitalen Photogrammetrie, BuL (55) 5, 194 203.

EIDENBENZ C., KÄSER C., BALTSAVIAS E. (2000): ATOMI –Automated reconstruction of topographic objects from aerialimages using vectorized map information, IAPRS (33) 3/1,462-471.

FAUGERAS O. (1993): Three-dimensional computer vision: ageometric viewpoint, MIT Press, Cambridge, Mass., 663 p.

FISCHER, A., KOLBE, T., LANG, F., CREMERS, A. B., FÖRSTNER,W., PLÜMER, L. and STEINHAGE, V. (1998): Extractingbuildings from aerial images using hierarchical aggregationin 2D and 3D, Computer Vision and Image Understanding,72(2), 185–203.

FÖRSTNER W. (2000): Moderne Orientierungsverfahren, PFG3, 163-176.

FUA P. (2000): Regularized bundle-adjustment to model headsfrom image sequences without calibration data, Internatio-nal Journal of Computer Vision, 38(2), 153-171.

GERKE M., HEIPKE C., STRAUB B.-M. (2001): Building extrac-tion from aerial imagery using a generic scene model andinvariant geometric moments, Proceedings of the IEEE/ISPRS Joint Workshop on Remote Sensing and Data Fusi-on over Urban Areas, IEEE Piscataway, ISBN 0-7803-7059-7, 85-89.

GIERKE M., SEYFERT E. (2002): Hochgenaue digitale Gelände-modelle für die Belange des Hochwasserschutzes und desVermessungswesens an der Oder, PFG 5, 351-359.

VAN GOOL L., TUYTELAARS T., FERRARI V., STRECHA C., VAN

DEN WYNDENGAERD J., VERGAUWEN M. (2002): 3Dmodeling and registration under wide baseline conditions,IAPRS, (34) 3A, 3-14.

GÜLCH E., MÜLLER H. (2001): New application of semi-automatic building acquisition, in: Baltsavias E., Grün A.,van Gool L. (Eds.), Automatic extraction of man-made

objects from aerial and space images (III), Balkema Pub-lishers, Lisse, 103-114.

GRÜN A., WANG X. (2001): News from CyberCity-Modeler, in:Baltsavias E., Grün A., van Gool L. (Eds.), Automaticextraction of man-made objects from aerial and space images(III), Balkema Publishers, Lisse, 93-101.

HAALA N. (1996): Gebäuderekonstruktion durch Kombinationvon Bild- und Höhendaten, DGK Reihe C, Nr. 460, 67 p.

HARALICK R, SHAPIRO L. (1993): Computer and robot visionVolume II, Addison-Wesley Reading, Mass., 630 p.

HARTLEY R., ZISSERMAN A. (2000): Multiple view geometry incomputer vision, Cambridge University Press, Cambridge,UK, 607 p.

HEIPKE C. (1990): : Integration von digitaler Bildzuordnung,Punktbestimmung, Oberflächenre≤konstruktion und Ortho-projektion innerhalb der digitalen Photogrammetrie, DGKReihe C, Nr. 366, 89 p.

HEIPKE C. (2002): Requirements for modern geographic infor-mation systems, IAPRS (34) 2, 173-183.

HEIPKE C., EDER K. (1998): Performance of tie-point extractionin automatic aerial triangulation, OEEPE Official Publica-tions No. 35, 125-185.

HEIPKE C., PAKZAD K., STRAUB B.-M. (2000): Image analysisfor GIS data acquisition, Photogrammetric Record, 16 (96),963-985.

HEIPKE C., JACOBSEN K. WEGMANN H. (2002): Analysis of theresults of the OEEPE test integrated sensor orientation, in:Heipke C., Jacobsen K. Wegmann H. (Eds.), Integrated Sen-sor Orientation, OEEPE Official Publication No. 43.

HELAVA U.V. (1988): Object space least squares correlation,PE&RS (54) 6, 711 714.

HEMMLEB M., ALBERTZ J. (1998): Photogrammetrische Aus-wertung elektronenmikroskopischer Bilder – Grundlagenund praktische Anwendungen, PFG (1), 5 – 16.

HEUEL S. (2000): Zur automatischen Erfassung von Gebäudenaus Luftbildern, PFG 3, 177-188.

HINZ S., BAUMGARTNER A. (2002): Urban road net extractionintegrating internal evaluation models, IAPRS (34) 3A, 163-168.

HOFFMAN D. (2000): Visuelle Intelligenz – wie die Welt im Kopfentsteht, Klett-Cotta Verlag, Stuttgart, 331 p.

KONECNY G., LEHMANN G. (1984): Photogrammetrie, 4. Aufl.,de Gruyter, Berlin.

HOFMANN O., NAVÉ P., EBNER H. (1984): DPS – a digitalphotogrammetric system for producing digital elevationmodels and orthophotos by means of linear array scannerimagery, PE&RS (50) 8, 1135-1142.

HOFMANN O., KALTENEGGER A., MÜLLER F. (1993): Das flug-zeuggetragene, digitale Dreizeilenaufnahme- und Auswerte-system DPA – erste Erprobungsergebnisse, in: Fritsch D.,Hobbie D. (Eds.), Photogrammetric Week ‚93, WichmannVerlag, Karlsruhe, 97-107.

HORN B.K.P. (1986): Robot vision, MIT Press, Cambridge, Mass.,509 p.

JOOS G. (2000): Zur Qualität von objektstrukturierten Geodaten,Schriftenreihe des Studienganges Geodäsie und Geoinfor-mation der Universität der Bundeswehr München, Nr. 66.

KRAUS K. (1997): Eine neue Methode zur Interpolation und Fil-terung von Daten mit schiefer Fehlerverteilung, Öster-reichische Zeitschrift für Vermessung & Geoinformation,Heft 1, 25-30.

LANG F. (1999): Geometrische und semantische Rekonstruktionvon Gebäuden durch Ableitung von 3D Gebäudeecken, Sha-ker Verlag Reihe Informatik.

Fachvorträge68

LEBERL F. (1990): Radargrammetric image processing, ArtechHouse, Norwood MA, 595 p.

LIEDTKE C.-E., BÜCKNER J., PAHL M., STAHLHUT O. (2001):Know≤ledge-based systems for the interpretation of com-plex scenes, in: Baltsavias E., Grün A., van Gool L. (Eds.),Automatic extraction of man-made objects from aerial andspace images (III), Balkema Publishers, Lisse, 3-12.

LOHMANN P. (2002): Segmentation and filtering of laser scannerdigital surface models, IAPRS (34) 2, 311-315.

MAAS H.-G. (1999): Two algorithms for extracting buildingmodels from raw laser altimetry data, ISPRS Journal ofPhotogrammetry and Remote Sensing (54), 153-163.

MAYER, H. (1998): Automatische Objektextraktion aus digitalenLuftbildern, DGK Reihe C, Nr. 494, 131 p.

MAYR W. (2002): Bemerkungen zum Thema „True orthoimage“,PFG (4), 237-244.

MERCER B. (2001): Combinig LIDAR and IfSAR: what can weexcpect?, in: Fritsch D., Spiller R. (Eds.), PhotogrammetricWeek ’01, Wichmann Verlag, Heidelberg, 227-237.

MÜLLER F. (1991): Photogrammetrische Punktbestimmung mitBilddaten digitaler Dreizeilenkameras, DGK Reihe C, Nr.372, 82 p.

NIEMANN, H., SAGERER, G. F., SCHRÖDER, S. and KUMMERT,F. (1990): ERNEST: a semantic network system for patternunderstanding. IEEE Transactions on Pattern Analysis andMachine Intelligence, (12) 9, 883–905.

NOVAK K. (1991): Integration von GPS und digitalen Kameraszur automatischen Vermessung von Verkehrswegen, ZPF(59) 4, 112-120.

PAKZAD K. (2001): Wissensbasierte Interpretation von Vege-tationsflächen aus multitemporalen Fernerkundungsdaten,Wissenschaftliche Arbeiten der Fachrichtung Vermessungs-wesen der Universität Hannover Nr. 243 und DGK ReiheC, Nr. 543, 104 p.

PETRIE G. (2002): Commercial space imagery revisited, Geo-informatics (5) 6, 18-27.

PIECHULLEK, C. (2000): Oberflächenrekonstruktion mit Hilfeeiner Mehrbild-Shape-from-Shading-Methode, DGK ReiheC, Nr. 518, 98 p.

POLLEFEYS M., VAN GOOL L., VERGAUWEN M., CORNELIUS

K., VERBIEST F., TOPS J. (2002): Video-to-3D, IAPRS (34)3A, 252-257.

RINNER K. (1963): Studien über eine allgemeine, voraussetzungs-lose Lösung des Folgebildanschlusses, Österreichische Zeit-schrift für Vermessungswesen, Sonderheft (23).

ROSENFELD, A. (1982): Computer image analysis: an emergingtechnology in the service of society. Computer Science Tech-nical Reports TR-1177, MCS-79-23422, University ofMaryland. 10 p.

ROTTENSTEINER F. (2001): Halbautomatische Gebäudeaus-wertung durch Integration von hybrider Ausgleichung und3D Objektmodellierung, PFG 4, 289-301.

SAGERER, G., NIEMANN, H. (1997): Semantic networks for under-standing scenes - advances in computer vision and machineintelligence. Plenum Publishing Corp., New York, 512 p.

SCHERER S., KRISCHKE M. (2001): The RapidEye optical satellitefamily for high resolution imagery, in: Fritsch D., Spiller R.(Eds.), Photogrammetric Week ’01, Wichmann Verlag, Hei-delberg, 139-145.

SCHOLTEN F., GWINNER K., WEWEL F. (2002): Angewandtedigitale Photogrammetrie mit der HRSC, PFG 5, 317-332.

SCHWARZ K.-P., CHAPMAN M.E., CANNON E., GONG P. (1993):An integrated INS/GPS approach to the georeferencing ofremotely sensed data, PE&RS (59) 11, pp. 1667-1674.

SESTER M. (1995): Lernen struktureller Modelle für die Bild-analyse, DGK Reihe C Nr. 441, 116 p.

SOOD R., FAHRENHORST C. (1999): Geocoded image sequences,in: Fritsch D., Spiller R. (Eds.), Photogrammetric Week ’99,Wichmann Verlag, Heidelberg, 313-316.

STILLA U., SOERGEL U., THOENNESSEN U., MICHAELSEN E.(2001): Segmentation of LIDAR and InSAR elevation datafor building reconstruction, in: Baltsavias E., Grün A., vonGool L. (Eds.), Automatic extraction of man made objectsfrom aerial and space images (III), Balkema Publishers, Lisse,297-307.

STRAUB B.-M., HEIPKE C. (2001): Automatic extraction of treesfor 3D city models from images and height data, in: Baltsa-vias E., Grün A., von Gool L. (Eds.), Automatic extractionof man made objects from aerial and space images (III),Balkema Publishers, Lisse, 267-277.

THOMPSON E. (1968): The projective theory of relative orientation,Photogrammetria (23), 67-75.

VOSSELMAN G. (2000): Slope based filtering of laser altimetrydata, IAPRS (33) 3, 935-941.

WEIDNER U. (1997): Gebäudeerfassung aus digitalen Ober-flächenmodellen, DGK Reihe C, Nr. 474, 154 p.

WEWEL F., SCHOLTEN F., NEUKUM G., ALBERTZ J. (1998):Digitale Luftaufnahme mit der HRSC – Ein Schritt in dieZukunft der Photogrammetrie, PFG 6, 337-348.

WIEDEMANN C. (2002): Extraktion von Straßennetzen aus opti-schen Satellitenbildern, DGK Reihe C, Nr. 551.

WILLRICH F. (2002): Quality control and updating of road databy GIS-driven road extraction from imagery, IAPRS (34) 4,761-767.

WROBEL B. (1987): Facets stereo vision (FAST Vision) A newapproach to computer stereo vision and to digital photo-grammetry, Interlaken, Proc. „Fast processing of Photogram-metric Data“, 231 258.

WROBEL B. (2001): Minimum solutions for orientation, in: GrünA., Huang T. (Eds.), Calibration and Orientation of Camerasin Computer Vision, Springer Series in Information SciencesVol. 34, Springer Verlag, Berlin, 7-62.