88
UNIVERSITÄT HANNOVER Institut für Photogrammetrie und Ingenieurvermessung DIPLOMARBEIT Untersuchung zur Verwendbarkeit der Software eCognition für Zwecke der CORINE Landnutzungs – Klassifikation Vorgelegt von: Bernd Haarmann Juni 2001

UNIVERSITÄT HANNOVER - IPI · Eine Nomenklatur muss so aufgebaut sein, dass sie eine Reihe von Bedingungen erfüllt: • Sie muss alle in der Realität vorkommenden Bodenbedeckungsarten

  • Upload
    vukiet

  • View
    214

  • Download
    0

Embed Size (px)

Citation preview

UNIVERSITÄT HANNOVER Institut für Photogrammetrie und Ingenieurvermessung

DIPLOMARBEIT

Untersuchung zur Verwendbarkeit der Software

eCognition für Zwecke der CORINE Landnutzungs –

Klassifikation

Vorgelegt von:

Bernd Haarmann

Juni 2001

Danksagung

Ich bedanke mich bei der Firma EFTAS Fernerkundung (Münster) für die freundliche

Bereitstellung der Landsat TM und der CORINE Szene. EFTAS unterstützte mich

außerdem mit Anregungen und Informationsmaterialien bei der Durchführung dieser

Diplomarbeit.

Erklärung Hiermit erkläre ich, dass ich die vorliegende Diplomarbeit selbstständig und nur mit

den angegebenen Hilfsmitteln angefertigt habe.

Hannover, den 6.6.2001

( Bernd Haarmann )

Inhalt I

Inhaltsverzeichnis

1. Einführung .............................................................................................................. 1

2. CORINE Land Cover .............................................................................................. 2

2.1 Methodisches Rahmenkonzept für CLC90........................................................ 3

2.1.1 Grundprinzipien für CLC ............................................................................. 3

2.1.2 Erfassungsmaßstab.................................................................................... 3

2.1.3 Definition der Erhebungseinheit.................................................................. 3

2.1.4 Erfassungsuntergrenze............................................................................... 4

2.1.5 Nomenklatur ............................................................................................... 5

2.2 Datenquellen für CLC 90................................................................................... 8

2.2.1 Basisdaten.................................................................................................. 8

2.2.2 Ergänzende Datenquellen .......................................................................... 9

2.2.3 Zusammenfassung und Nutzung der Datenquellen.................................. 10

2.3 Interpretation ................................................................................................... 10

2.4 Digitalisierung der Bodenbedeckungsdaten .................................................... 12

2.5 Validierung ...................................................................................................... 12

2.6 IMAGE/CLC2000............................................................................................. 13

2.6.1 IMAGE2000 .............................................................................................. 14

2.6.2 CLC2000................................................................................................... 15

3. eCognition............................................................................................................. 16

3.1 Multiresolution Segmentation .......................................................................... 18

3.2 Klassifikation ................................................................................................... 21

3.2.1 Membership Function ............................................................................... 21

3.2.1 Nearest Neighbor...................................................................................... 22

3.3 Class Hierarchy ............................................................................................... 24

3.4 Klassifikationsmerkmale.................................................................................. 25

3.5 Classification-based Segmentation (Klassenbasierende Segmentierung) ...... 27

3.6 Protocol Editor................................................................................................. 29

3.7 Import und Export von Bildern und Daten........................................................ 29

3.8 Genauigkeitsanalyse ....................................................................................... 30

3.9 Bildstatistik ...................................................................................................... 32

Inhalt II

4. Untersuchungen zur Verwendbarkeit von eCognition für Zwecke der CORINE

Landnutzungsklassifikation ....................................................................................... 33

4.1 Projekt 1: Klassifikation mit Landsat Szenen................................................... 33

4.1.1 Eingangsdaten.......................................................................................... 33

4.1.2 Probleme bei der Klassifikation von Landsat Daten.................................. 35

4.1.3 1. Segmentierung .................................................................................... 36

4.1.3.1 Auswahl der zur Segmentierung benutzten Kanäle............................ 37

4.1.3.2 Maßstab und Hierarchie ..................................................................... 40

4.1.3.3 Nachbarschaft .................................................................................... 45

4.1.4 Klassifikation............................................................................................. 46

4.1.4.1 Nearest Neighbor oder Membership Function.................................... 46

4.1.4.2 Klassifikation Level 1.......................................................................... 47

4.1.4.3 Klassifikation Level 3.......................................................................... 50

4.1.4.4 Klassifikation Level 2.......................................................................... 51

4.1.5 Classification-based Segmentation........................................................... 54

4.1.6 Klassifikation Level 3 (neu) ....................................................................... 55

4.1.7 Ergebnisse und Schlussfolgerungen aus Projekt 1................................... 57

4.2 Projekt 2: Klassifikation mit Landsat und ATKIS Daten ................................... 61

4.2.1 Eingangsdaten Projekt 2........................................................................... 61

4.2.2 1.Segmentation........................................................................................ 64

4.2.3 1.Klassifikation......................................................................................... 65

4.2.4 Classification-based Segmentation........................................................... 70

4.2.5 2. Klassifikation........................................................................................ 72

4.2.6 Ergebnisse Projekt 2................................................................................. 75

5. Kurze Ergebniszusammenfassung aus Projekt 1 und Projekt 2 ........................... 79

6.Ausblick ................................................................................................................. 80

7. Literaturverzeichnis............................................................................................... 81

8. Anhang: Inhaltsverzeichnis der CD:...................................................................... 83

1. Einführung 1

1. Einführung CORINE Land Cover (CLC) ist ein Projekt der Europäischen Union mit dem Ziel, ein

in Europa einheitliches Informationssystem über die Landnutzung zu besitzen.

Dieses Informationssystem soll neben Aufgaben der Bodenplanung vor allem

Aufgaben des Umweltschutzes dienen. Die erste Kampagne von CLC ist bei den

teilnehmenden Ländern von CORINE fast abgeschlossen. Da die für die Erfassung

genutzten Daten zum Teil noch aus den achtziger Jahren stammen, wird seitens der

EU über eine Aktualisierung von CORINE nachgedacht. Diese Aktualisierung hat den

Projektnamen CLC 2000.

Bei der Automatischen Erfassung von Satelliten- und Luftbildern hat es in den letzten

Jahren große Fortschritte gegeben. In einer der neusten Software Entwicklungen,

eCognition, wird versucht, die menschliche Wahrnehmung für Zwecke der

Bilderkennung nachzuahmen. Dieser Ansatz bitte neue Möglichkeiten der

Klassifizierung und der Bildsegmentierung.

Ziel dieser Diplomarbeit ist zu untersuchen, in wieweit sich eCognition für die

Erfassung von CLC 2000 eignet. Dabei sollen nur die Eingangsdaten genutzt

werden, die auch bei der realen Umsetzung dieser CORINE Kampagne zur

Verfügung stehen. Diese Eingangsdaten sind in Deutschland Landsat Satellitenbilder

und ATKIS Vektor-Daten. Bevor die eigentlichen Untersuchungen beschrieben

werden, wird das CORINE Projekt und die Software eCognition kurz vorgestellt.

2. CORINE Land Cover 2

2. CORINE Land Cover

CORINE steht für CoORdination of Information on the Enviroment und ist ein Projekt

der Europäischen Union mit dem Ziel der Bereitstellung von einheitlichen und

vergleichbaren umweltrelevanten Daten für ganz Europa. Heute nehmen 28

Europäische Länder an diesem Projekt teil. CORINE Land Cover (CLC) wurde 1985

von der Kommission der EU zusammen mit anderen Umwelt bezogenen Projekten,

wie z.B. CORINE Biotops oder CORINAIR, ins Leben gerufen, um einheitliche und

vergleichbare Bodenbedeckungsdaten bzw. Landnutzungsdaten für Europa zu

bekommen. Inzwischen ist die Europäische Umweltagentur – European Enviroment

Agency (EEA) - mit Sitz in Kopenhagen für CORINE verantwortlich, die ihrerseits

sogenannte Europäische Themenzentren –European Topic Centres (ETC) –

eingerichtet hat. Eines dieser Themenzentren ist das European Topic Centre on

Land Cover (ETC/LC), zu dessen Aufgaben u.a. die Projektkoordinierung, Forschung

und die Weiterentwicklung von CORINE Land Cover gehört. Der CORINE

Datenbestand bildet bei der EEA ein Element des Umweltinformations- und

Umweltbeobachtungsnetzwerkes EIONET (Environmental Information and

Observation Network).

Ende der achtziger Jahre wurde für CLC ein für ganz Europa geltendes

methodisches Rahmenkonzept entwickelt, indem beschrieben wird, welche Art von

Elementen erfasst werden sollen und auf welche Weise diese erfasst werden sollen.

Das methodische Rahmenkonzept wurde von den einzelnen Teilnehmerländern

benutzt, um national die Erhebung der Bodenbedeckung/Landnutzung

durchzuführen. In Deutschland wurde das Statistische Bundesamt (StBA) mit der

Leitung der Datenerhebung beauftragt. Hierfür schuf das Statistische Bundesamt

eine Datenerhebungsanleitung für CLC, welches das methodische Rahmenkonzept

der Europäischen Kommission umsetzte. Mit Hilfe dieser Anleitung führten private

Unternehmen die Datenerhebung durch. Die Ergebnisse dieser Datenerhebung

liegen heute CLC90 (Als Erfassungsjahr wurde 1990 angesetzt) vor. Das

Methodische Rahmenkonzept für CLC90 wird in diesem Kapitel vorgestellt.

Zur Zeit arbeiten die verantwortlichen Institute und Ämter daran eine Methode für ein

Update 2000 von CLC zu entwickeln. Dieses Update soll das Jahr 2000 als

Erfassungszeitpunkt haben und wird deshalb auch CLC2000 genannt. Da es sich bei

CLC2000 um eine Aktualisierung handelt und sich die zur Verfügung stehende

Technik verbessert hat, treten große Unterschiede, vor allem in der

2. CORINE Land Cover 3

Herstellungstechnik, zwischen den Projekten CLC90 und CLC2000 auf. Diese

Unterschiede und ein aktueller Stand der Entwicklung werden ebenfalls in diesem

Kapitel beschrieben.

2.1 Methodisches Rahmenkonzept für CLC90

2.1.1 Grundprinzipien für CLC

Da CORINE Land Cover neben dem gesamten CORINE Projekt auch anderen

Anwendern in ganz Europa einen größtmöglichen Nutzen bringen soll, gibt es hohe

Ansprüche in Sicht auf Homogenität, Vergleichbarkeit innerhalb und zwischen den

beteiligten Ländern, Vollständigkeit und Erfassungsgenauigkeit. Zum Einhalten

dieser Kriterien werden folgende vier Grundelemente definiert:

• Erfassungsmaßstab

• Definition der Erhebungseinheit

• Erfassungsuntergrenze

• Nomenklatur der Bodenbedeckung

2.1.2 Erfassungsmaßstab

Der Erfassungsmaßstab für CORINE Land Cover beträgt 1:100000. Mehrere Gründe

sind für diese Wahl ausschlaggebend. Kleinere Maßstäbe würden für den

Anwendungszweck CORINE zu grob sein. Auch würden dann aufgrund der hohen

Erfassungsuntergrenze einige Arten von Bodenbedeckungen vernachlässigt werden.

Ebenfalls für diesen Maßstab spricht, dass in fast allen Ländern ein Kartenwerk

dieses Maßstabes vorhanden ist. Außerdem ist dieser Maßstab dem

Bearbeitungszeitraum und dem Finanzvolumen angemessen.

2.1.3 Definition der Erhebungseinheit

Grundsätzlich kann die Beschaffenheit der Erdoberfläche nach dem Kriterium der Art

der Bodenbedeckung (Wald, Anbauflächen Wasserflächen usw.) oder nach der Art

der Bodennutzung (Forstwirtschaft, Landwirtschaft usw.) unterteilt werden. Weil

2. CORINE Land Cover 4

CORINE Informationen über den Zustand der Umwelt liefern will, hat man sich

grundsätzlich für die Bodenbedeckung als Grundlage für die Erhebungseinheiten

entschieden. In Ausnahmefällen wird aber auch die Bodennutzung als Kriterium

genutzt (z.B. 1.4.2 Sport und Freizeitanlagen).

Eine Erhebungseinheit entspricht entweder einem Gebiet homogener Bedeckung

(Wald, Grünland) oder ist eine Kombination mehrerer homogener Einheiten (z.B.

Strände und Dünen als eine Erhebungseinheit), die in einem räumlichen oder

semantischen Zusammenhang zueinander stehen. Benachbarte Einheiten sollen

sich im Gelände eindeutig voneinander unterscheiden und eine Einheit muss

abhängig vom Erfassungsmaßstab eine genügend große Fläche im Gelände

repräsentieren.

Da Satellitendaten die Realität mit Blick auf die Bodenbedeckung nicht unmittelbar

wiedergeben und die Realität der Bodenbedeckung auf Grund des Maßstabes

(Generalisierungsproblem) nicht in ihrer gesamten Komplexität dargestellt werden

kann, gelten für kartographische Bestandsaufnahmen folgende Anforderungen:

��Der thematische Inhalt einer Erhebungseinheit sollte den Anforderungen der

Nutzer entsprechen.

��Die Realität muss in angemessener Weise wiedergegeben werden.

2.1.4 Erfassungsuntergrenze

Die Erfassungsuntergrenze, also die Größe der kleinsten Erhebungseinheiten, wird

so festgelegt, dass sie drei elementaren Anforderungen entspricht:

��Lesbarkeit der gedruckten Karte.

��Möglichkeit der Darstellung aller für die Aufgabenstellung wichtigen

Bodenbedeckungsdaten.

��Gesundes Verhältnis zwischen Kosten für die Realisierung und Nutzen für die

Ziele des Projektes.

Um diesen Anforderungen zu entsprechen, hat man sich bei CORINE Land Cover für

25 ha als Erfassungsuntergrenze entschieden. Bei einem Maßstab von 1:100000

2. CORINE Land Cover 5

entspricht diese Fläche einem Quadrat mit 5 mm Seitenlänge oder einem Kreis mit

2,8 mm Radius (Abb.1).

Abb.1, Erfassungsuntergrenze

Linienhafte Objekte werden erst ab einer Breite von 100 m erfasst.

2.1.5 Nomenklatur

Eine Nomenklatur muss so aufgebaut sein, dass sie eine Reihe von Bedingungen

erfüllt:

• Sie muss alle in der Realität vorkommenden Bodenbedeckungsarten erfassen.

• Die Definitionen müssen so präzise sein, dass keine ungenauen oder

mehrdeutige Klassenzuordnungen möglich sind.

• Die verschiedenen Klassendefinitionen müssen die thematischen Anforderungen

erfüllen (bei CORINE: Zustand der Umwelt).

• Beim Definieren der einzelnen Klassen muss die Größe einer Erfassungseinheit

(mindestens 25 ha) und der Erhebungsmaßstab beachtet werden.

• Die einzelnen Klassen sollten sich aus den Basisinformationen (bei CLC vor allem

Satellitendaten) ableiten lassen.

• Wie bei der Erfassungsuntergrenze muss auch hier ein Kompromiss zwischen

Aufwand/Kosten und Anforderungen der Nutzer gefunden werden.

Ausgehend von den oben aufgeführten Bedingungen hat ein Sachverständigenrat

aus ganz Europa die CORINE Land Cover Nomenklatur entworfen (Abb.2). Sie

besteht aus drei Ebenen, wobei Ebene 1 eine grobe Einteilung in fünf Hauptarten der

Bodenbedeckung beschreibt, Ebene 2 ist bereits in 15 Positionen unterteilt und kann

für Arbeiten im Maßstäben von 1:500.000 bis 1:1.000.000 verwendet werden. Erst in

Ebene 3 sind die 44 Positionen enthalten, die für den Maßstab 1:100.000 entworfen

wurden.

2. CORINE Land Cover 6

CORINE LAND COVER Nomenklatur der Bodenbedeckungen Ebene 1 Bereiche

Ebene 2 Gruppe

Ebene 3 Arten

1.1 Städtisch geprägte Flächen

1.1.1 Durchgängig städtische Prägung

1.1.2 Nicht durchgängig städtische Prägung

1.2 Industrie-, Gewerbe- und Verkehrsflächen

1.2.1 Industrie- und Gewerbeflächen

1.2.2 Straßen-, Eisenbahnnetze und funktionell zugeordnete Flächen

1.2.3 Hafengebiete 1.2.4 Flughäfen

1.3 Abbauflächen, Deponien und Baustellen

1.3.1 Abbauflächen 1.3.2 Deponien und

Abraumhalden 1.3.3 Baustellen

1. Bebaute Flächen

1.4 Künstlich angelegte, nicht landwirtschaftlich genutzte Grünflächen

1.4.1 Städtische Grünflächen

1.4.2 Sport- und Freizeitanlagen

2.1 Ackerflächen 2.1.1 Nicht bewässertes Ackerland

2.1.2 Regelmäßig bewässertes Ackerland

2.1.3 Reisfelder 2.2 Dauerkulturen 2.2.1 Weinbauflächen

2.2.2 Obst- und Beerenobstbestände

2.2.3 Olivenhaine

2. Landwirtschaftliche Flächen

2.3 Grünland 2.3.1 Wiesen und Weiden

2. CORINE Land Cover 7

2.4 Landwirtschaftliche Flächen heterogener Struktur

2.4.1 Einjährige Kulturen in Verbindung mit Dauerkulturen

2.4.2 Komplexe Parzellenstrukturen

2.4.3 Landwirtschaftlich genutztes Land mit Flächen natürl. Bodenbedeckung von signif. Größe

2.4.4 Land- und Forstwirtschaftliche Flächen

3.1 Wälder 3.1.1 Laubwälder 3.1.2 Nadelwälder 3.1.3 Mischwälder

3.2 Strauch- und Krautvegetation

3.2.1 Natürliches Grünland

3.2.2 Heiden- und Moorheiden

3.2.3 Hartlaubbewuchs

3.2.4 Wald-Strauch-Übergangsstadien

3. Wälder und naturnahe Flächen

3.3 Offene Flächen mit/ohne Vegetation

3.3.1 Strände, Dünen und Sandflächen

3.3.2 Felsflächen ohne Vegetation

3.3.3Felsflächen mit spärlicher Vegetation

3.3.4 Brandflächen

3.3.5 Gletscher- und Dauerschneegebiete

4. Feuchtflächen 4.1 Feuchtflächen im Landesinneren

4.1.1 Sümpfe 4.1.2 Torfmoore

4.2 Feuchtflächen an der Küste

4.2.1 Salzwiesen

4.2.2 Salinen

4.2.3 In den Gezeitenzonen liegende Flächen

2. CORINE Land Cover 8

5. Wasserflächen 5.1 Wasserflächen im Landesinneren

5.1.1 Gewässerläufe

5.1.2 Wasserflächen 5.2.1 Lagunen

5.2.2 Mündungsgebiete

5.2 Meeresgewässer

5.2.3 Meere und Ozeane Abb.2, CLC Nomenklatur

Die genauen Begriffsbestimmungen, also die Definitionen der einzelnen Klassen,

kann man sich u.a. im Internet unter www.statistik-bund.de/stabis anschauen.

2.2 Datenquellen für CLC 90

2.2.1 Basisdaten

Als Grundlage für die Interpretation der Bodenbedeckung werden Aufnahmen des

Satelliten Landsat TM 5 verwendet (Abb.3). Die Aufnahmen stammen aus den

Jahren 1989 bis 1992 und wurden während der Vegetationsperiode von Mai bis

September gemacht. Die Geokodierung erfolgt mit Hilfe von Passpunkten aus

Topographischen Karten, wobei die Bodenauflösung nach der Geokodierung 25 m *

25 m beträgt. Aus diesen Daten wird als Interpretationsgrundlage ein

Falschfarbenbild erzeugt, indem die Kanäle vier, fünf und drei den Grundfarben Rot,

Grün und Blau zugeordnet werden. Mit Hilfe eines Laserfilmschreibers wird aus den

Falschfarbenbildern Diapositive hergestellt.

Landsat 5

Kanal Spektralbereich Spektrale Auflösung (µµµµm) Pixelgröße 1 Blau 0,45 - 0,52 µm 30 m

2 Grün 0,52 - 0,60 µm 30 m 3 Rot 0,63 - 0,69 µm 30 m

4 Nahes Infrarot 0,76 - 0,90 µm 30 m

5 Kurzwelliges Infrarot 1,55 - 1,75 µm 30 m

6 Thermales Infrarot 10,4 - 12,5 µm 120 m

7 Kurzwelliges Infrarot 2,08 – 2,35 µm 30 m Abb.3, Landsat 5

2. CORINE Land Cover 9

2.2.2 Ergänzende Datenquellen

Topographische Karten

Topographische Karten haben bei der Herstellung von CLC drei sehr wichtige

Aufgaben:

• Wie oben erwähnt sind sie Grundlage der Geokodierung der Landsat

Satellitenbilder.

• Sie sind das Kontrolldokument zur Überprüfung der geometrisch korrekten

Digitalisierung der Interpretationsfolie (wird später erläutert).

• Ergänzende thematische Informationen können aus ihnen abgeleitet werden.

Besonders für die dritte Aufgabe wird neben der TK 100 auch die amtliche

Topographische Karte 1:50.000 (TK 50) herangezogen. Sie liefert thematische

Zusatzinformationen zur Bodenbedeckung wie z.B.: die Lage von Grün- und

Parkanlagen, Sport- und Freizeitanlagen, Industriegebieten, Waldflächen und

Feuchtflächen.

Luftbilder

Luftbilder haben ebenfalls eine wichtige Rolle für den Aufbau der CLC Datenbank.

Auch für sie gibt es drei Verwendungen:

• Bei unsicherer Klassenzuordnung, als Interpretationshilfe

• Festlegung der genauen Begrenzung der Erhebungseinheiten, wenn diese auf

dem Satellitenbild nicht klar zu erkennen sind

• Überprüfung und Validierung der Kartierung der Bodenbedeckung

Zum Verständnis von Punkt zwei ist anzumerken, dass die räumliche Auflösung

eines Luftbildes weit höher ist als die von Landsat (1 bis 3 m gegenüber 25 m). Die

verwendeten Luftbilder haben einen Maßstab von 1:5.000 bis zu 1:70.000, sind in

der Regel panchromatische Aufnahmen und nur in Ausnahmen Farbfilme oder

Infrarotfilme.

2. CORINE Land Cover 10

2.2.3 Zusammenfassung und Nutzung der Datenquellen

Abb.4 zeigt ein Organigramm aller verwendeter Datenquellen und ihre Nutzung.

Abb.4, Zusammenfassung und Nutzung der Datenquellen

2.3 Interpretation

In einer Interpretationsfolie werden die Bodenbedeckungseinheiten gemäß CLC-

Nomenklatur auf Basis des geokodierten Satellitenbildes abgegrenzt und

zugeordnet. Die Interpretationsfolie wird hierfür über die Satellitenbildfolie gelegt,

wobei die Lage der Folien zueinander durch Passpunkte bestimmt ist. Als

Passpunkte werden die auf die Folien übertragenen Kartenblattecken der TK 100,

die gleichzeitig den Kartenfeldrand festlegen, genutzt. Um eine korrekte

Randanpassung benachbarter Kartenblätter zu erreichen, erfolgt die Abgrenzung

und Zuordnung der Bodenbedeckungseinheiten ca. 2 cm über den Kartenfeldrand

hinaus.

Die Interpretation von Satellitenbildern ist ein iterativer Annäherungsprozess. Zuerst

werden die Grenzen einer Erhebungseinheit in der Interpretationsfolie markiert

(Abgrenzung) und dann wird diese Einheit einer Klasse der Nomenklatur zugeordnet

(Zuordnung). Die Ergebnisse dieser Schritte werden durch einbeziehen ergänzender

Datenquellen immer weiter verbessert.

2. CORINE Land Cover 11

Abb.5, Ablaufschema des iterativen Prozesses bei CORINE

Die meisten Arbeitsschritte im Abb.5 erklären sich von selbst, besonders erklären

möchte ich hier noch was sich unter dem Arbeitsschritt „Ergänzende digitale

Bildverarbeitung“ verbirgt. Dabei werden u.a. Verarbeitungsverfahren wie

Hauptkomponententransformation, Vegetationsindex und automatische Klassifikation

zur Abgrenzung und Zuordnung von Bodenbedeckungsarten angewandt. Die dabei

erzielten Ergebnisse dienen vor allem als ergänzende Informationen laufender

Interpretationen, aber auch als Überprüfung vorhandener Ergebnisse.

2. CORINE Land Cover 12

2.4 Digitalisierung der Bodenbedeckungsdaten

Digitalisierungsgrundlage ist ausschließlich die Interpretationsfolie. Die Geokodierung

der digitalen Daten erfolgt durch Erfassen der Passpunkte. Dadurch wird das

Geodätische Bezugssystem der TK 100, nämlich das DHDN-

Koordinatenbezugssystem, übernommen. Das Digitalisieren der

Flächenabgrenzungen erfolgt durch Erfassen von Linienstützpunkten, die einen

Mindestabstand von 5 m in der Realität und eine Digitalisiergenauigkeit von +/- 0,1 –

0,2 mm haben müssen. Ein Referenzpunkt in der Mitte jeder Fläche, mit einer

Kennnummer, die dem entsprechenden Nomenklaturwert entspricht, dient der

Sachdatenerfassung.

Am fertigen digitalen Datenbestand werden eine Reihe von Prüfungen durchgeführt

mit dem Ziel eine bestmögliche Vollständigkeit, Richtigkeit und Lagegenauigkeit der

Digitalisierung zu erreichen.

2.5 Validierung Eine Validierung wird durchgeführt um ein Maß zu haben, wie gut die einzelnen

Klassen zugeordnet werden. Fehler in der Zuordnung können aus zwei Gründen

auftreten. Zum einen kann es sich um echte Zuordnungsfehler handeln, die während

des Herstellungsprozesses auftreten. Diese Art von Fehlern sollen durch die

Iterationen beim Herstellungsprozess und die umfangreichen Prüfungen minimiert

werden.

Die Ursache für eine Fehlzuordnung kann allerdings aber auch in der Methode der

Datenerhebung selbst liegen. Um diesen Fehler zu Beurteilen wird eine Validierung

durchgeführt. Man kann auch sagen, es wird getestet ob zwei Interpreten zum selben

Ergebnis kommen, wenn sie alle Anweisungen korrekt durchführen. Bei der

Validierung wird der Prozess der Datenerhebung mit den gleichen Datenquellen in

Stichprobengebieten nachvollzogen. Für die Stichprobengebiete weiß man die reale

Bodenbedeckungsart. Auf diese Weise kann man, mit Hilfe einer Konfusionsmatrix,

Aussagen darüber machen, wie groß der Anteil der korrekten Zuordnung zu den

einzelnen Klassen ist.

2. CORINE Land Cover 13

2.6 IMAGE/CLC2000

Der offizielle Abkürzung dieses Projektes lautet I&CLC2000. Das I steht für das

englische Wort Image (Bild). Ein Ziel dieses Projektes ist eine

Satellitenbilddatenbank (IMAGE2000) für ganz Europa, die aus einzelnen

Satellitenbildern zusammengesetzt ist, die nach einheitlichen Kriterien hergestellt

wurden. Ein weiteres Ziel ist die nationale und europäische Aktualisierung von

CLC90 zu CLC2000. Hieraus kann man das dritte Ziel dieses Projektes ableiten. Die

Erfassung von Landnutzungsänderungen von 1990 bis 2000.

Abb.6, Organigramm des Projektaufbaus von CLC 2000

Hauptverantwortlich für das I&ClC2000 Projekt ist die EEA. Sie arbeitet aber in

diesem Projekt eng mit dem Joint Research Centre (JRC) in Ispra zusammen. Das

JRC ist vor allem für die Umsetzung von IMAGE2000 verantwortlich. Der

Organisationsaufbau für das gesamte Projekt wird in Abb.6 verdeutlicht.

EEA Management CLC2000: • Koordination und Überwachung

der Herstellung • Datenbank Management

CLC2000 • Qualitätskontrolle von CLC2000 • Validierung von CLC 2000 • Datenintegration

JRC Entwicklung des Methodischen Rahmenkonzepts (Arbeitsanleitung) Management IMAGE2000: • Bereitstellung der Satellitendaten • Korrektion der Satellitenbilder • Datenbankmanagement

IMAGE2000 • Qualitätskontrolle IMAGE2000

Nationale CLC2000 Teams Koordination des nationalen CLC2000 Projektes Erstellen des nationalen CLC2000 mit IMAGE2000 als Interpretationsgrundlage Nationale Erfassung der Landnutzungsänderungen für CLC2000

2. CORINE Land Cover 14

2.6.1 IMAGE2000

Image2000 soll einerseits ein eigenständiges Ergebnis sein, es wird aber auch

andererseits als Klassifizierungsgrundlage für das CLC2000 Projekt genutzt. Als

Grundlage für IMAGE2000 werden Bilder vom Fernerkundungssatelliten Landsat 7

benutzt. Landsat 7 unterscheidet sich von Landsat 5, der bei CLC90 Grundlage war,

vor allem durch das Vorhandensein eines Panchromatischen Kanals. Dieser

Panchromatischer Kanal hat eine Auflösung von 15 m. Um einheitlichen und

aktuellen Datenbestand für ganz Europa zu bekommen, sollen die einzelnen

Bildszenen aus den Jahren 1999 bis 2001 stammen.

Kanal Spektrale Auflösung (µm) Pixelgröße (m)

1 0,45 –0,515 30

2 0,525 – 0,605 30

3 0,63 – 0,69 30

4 0,75 – 0,90 30

5 1,55 – 1,75 30

6 10,4 – 12,5 60

7 2,09 – 2,356 30

Pan (8) 0,52 – 0,90 15 Abb.7, Landsat 7

Um ein homogenes digitales Ergebnis für IMAGE200 zu erreichen, werden die

Ausgangsdaten aus Landsat 7 durch einige Arbeitsschritte weiterverarbeitet:

• Die inhärent Probleme der digitalen Ausgangsdaten, die durch die Sensoren des

Satelliten entstehen, werden durch radiometrische Korrektionen verringert.

• Eine geometrische Korrektion erfolgt auf Basis von Bodenkontrollpunkten. Die

Bodenkontrollpunkte kommen entweder aus Orthophotos oder großmaßstäbigen

Karten.

• Mit Hilfe eines Digitalen Gelände Modells (DGM) wird eine Ortho-Entzerrung der

Bilder durchgeführt. Wird von den Teilnehmerländern kein genaueres DGM bereit

gestellt, wird ein Europäisches DGM benutzt. Das Europäische DGM hat eine

Gitterweite von 100 m, eine horizontale Lagegenauigkeit von 50 m und eine

Höhengenauigkeit von 30 m.

2. CORINE Land Cover 15

• Die kartographische Projektion der Bilder erfolgt mit Hilfe der

Projektionsparameter der einzelnen Länder. In Grenzgebieten werden die

Projektionen beider Länder hergestellt.

• Für IMAGE2000 als Endergebnis wird eine einheitliche Projektion für ganz

Europa gewählt.

• Die Bilder werden durch Anwenden einer kubischen Resamplingsmethode

resampled. Die Bodenauflösung beträgt danach für die Kanäle 1 bis 7 25m und

für den panchromatischen Kanal 12,5 m.

• Um als Klassifizierungsgrundlage für CLC2000 zu dienen, werden Bildausschnitte

erzeugt, die den nationalen 1:100.000 Kartenreihen folgen.

2.6.2 CLC2000

Die Grundlegenden Elemente von CLC90, wie die Definition der Erfassungseinheit,

die Nomenklatur oder der Erfassungsmaßstab, wurden übernommen. Allerdings,

während die Erfassungsuntergrenze für Objekte weiterhin wie bei CLC90 25 ha

beträgt, ist sie für Landnutzungsänderungen auf 5 ha heruntergesetzt. Die

Landnutzungsänderungen (Change Detection) ergeben sich aus dem Vergleich der

90er Daten mit den 2000er Daten. Um diese Daten vergleichbar zu machen, muss

die 90er Geometrie mit der 2000er übereinstimmen. Die geometrische Korrektur von

CLC90 erfolgt mit Hilfe von IMAGE2000. IMAGE2000 ist auch die

Hauptinformationsquelle für die Change Detection, die Landenutzungs-

Klassifizierung und die spätere Validierung. Daneben können aber auch

Zusatzinformationen wie z.B. Atkis Daten genutzt werden. Der genaue Arbeitsablauf

zur Herstellung von CLC 2000 wird noch von der EEA entwickelt.

3. eCognition 16

3. eCognition

eCognition ist eine von der Firma Definiens (früher Delphi2) entwickelte Bildanalyse

Software. Definiens geht mit dieser Software neue Wege in der Bildinterpretation, in

dem sie versuchen, die menschliche Wahrnehmung von Bildern zu simulieren. Beim

Menschen ist die Wahrnehmung von Bildern ein sehr komplexer und hoch kognitiver

Prozess. Das eigentliche Sehen bildet hierbei mit dem Erfassen der visuellen

Eingangsdaten (Spektralinformationen) nur einen ersten Schritt. Beim weiteren

Wahrnehmungsprozess geht das Gehirn objektorientiert vor, d.h. es setzt das

Gesamtbild aus einzelnen Objekten zusammen. Das Erkennen der Objekte erfolgt

durch Vergleich der visuellen Eingangsdaten mit im Gehirn gespeicherten

Erinnerungen (innere Bilder). Ist ein Objekt erkannt, entsteht im Gehirn mit Hilfe

seiner Erfahrungen eine körperliche Vorstellung vom Objekt, d.h. man sieht in seiner

Vorstellung z.B. auch die im Bild nicht sichtbare Rückseite eines Objektes. Auch

werden alle im Gehirn gespeicherten Eigenschaften des Objektes mit der Vorstellung

verknüpft. Erkennt z.B. das Gehirn ein Objekt als Haus, so werden u.a. folgende

Eigenschaften damit verbunden: Ein Haus besteht aus Steinen, man kann darin

wohnen. Wenn jetzt im Bild benachbarte Objekte auf gleiche Weise erkannt wurden,

werden diese Objekte untereinander in Verbindung gebracht. Stehen nun mehrere

Häuser nebeneinander, so interpretieren wir daraus, dass es sich um eine Siedlung

handeln muss. Die im Gehirn entstandene Vorstellung der Siedlung bildet jetzt auch

ein Objekt, das ebenfalls körperlich ist und auch mit im Gehirn gespeicherten

Eigenschaften (z.B. besteht aus Häusern) verknüpft wird. Der Mensch kann beliebig

zwischen verschiedenen Auflösungen, also verschiedenen Objektgrößen, wechseln.

Auf diese Weise entsteht in Sekundenbruchteilen aus dem realen Ausgangsbild ein

virtuelles Bild im Gehirn. Aus diesen Ausführungen soll deutlich werden, dass die

menschliche Wahrnehmung nicht pixelorientiert sondern objektorientiert abläuft. Die

spektralen Werte der einzelnen Pixel reichen zum Erfassen der Umwelt (z.B. einer

Siedlung) nicht aus, sondern man braucht auch Kontextinformationen aus

benachbarten Objekten oder Unterobjekten aus denen ein Objekt zusammengesetzt

ist. Eine Siedlung besteht z.B. aus Häusern und Strassen, ein Haus besteht aus

Mauern und einem Dach.

Wie oben erwähnt versucht Definiens mit eCognition die menschliche Wahrnehmung

zu simulieren. Sie erreichen dabei natürlich nicht die Komplexität des menschlichen

3. eCognition 17

Gehirns, aber sie übernehmen das Konzept der objektorientierten Bilderkennung. Es

werden Objekte gebildet, die bestimmte Eigenschaften und Attribute besitzen. Diese

Eigenschaften und Attribute können physikalischer Natur (Spektrale-, Form oder

Texturinformationen) oder aber auch wissensbasierter Kontextinformationen sein.

Ähnlich wie bei der menschlichen Wahrnehmung gibt es verschiedene

Auflösungsgrade, mit der die Objekte gebildet werden können. Durch sinnvolles

Verbinden der Objekte verschiedener und gleicher Auflösung entsteht ein

hierarchisches Netz (Abb.8), in dem Unterobjekte (Subobjekte) Teile von

Oberobjekten (Superobjekte) sind. Ein so aufgebautes Netz basiert auf dem Fractal

Net Evolution-Konzept, welches vom wissenschaftlichen Leiter Prof. Dr. Gerd Binnig

bei Definiens entwickelt wurde (Baatz/Schäpe 1999).

Abbildung 8, Hierarchisches Netz bei eCognition

Um dieses Netzwerk mit den einzelnen Objekten aufzubauen, geht eCognition in

mehreren Schritten vor. Als erstes kommt immer die Segmentation (Multiresolution

Segmentation), in der einzelne Objekte aufgrund ihrer physikalischen Eigenschaften

gebildet werden. Im zweiten Schritt werden diese Objekte durch Anwenden von

physikalischen- und/oder Kontextinformationen klassifiziert. Erst danach können die

klassifizierten Objekte wissensbasiert segmentiert (Classification-based

Segmentation) werden. Ab diesen Moment können die drei Verfahren, auf die ich

unten noch weiter eingehe, beliebig eingesetzt werden.

3. eCognition 18

3.1 Multiresolution Segmentation

Die Multiresolution Segmentation produziert, wie oben bereits erwähnt, wissensfreie

Bildobjekte, die in verschiedenen Auflösungen (Resolution) erstellt werden können.

Hinter dieser Segmentation steckt eine heuristische Optimierungs-Prozedur, die

versucht, die durchschnittliche Heterogenität der Bildobjekte bei einer gegebenen

Auflösung über das ganze Bild zu minimieren. Der mathematische Ansatz hierfür

wird unten beschrieben. Bevor die Prozedur durchgeführt wird, müssen einige

Parameter eingestellt werden.

Abb.9, Menü Fenster „Multi Resolution Segmentation“

Im oberen linken Feld des Multiresolution Menü Fensters (Abb. 9) sind die einzelnen

Bild Layer aufgeführt (Punkt 1 und 2). Bei der Segmentierung können die einzelnen

Layer verschieden stark in die Berechnung eingehen. Die Zahl vor einem Bild Layer

zeigt das Gewicht an, mit dem dieser Layer bei der Segmentierung eingeht, wobei

3. eCognition 19

z.B. der Wert 0 die Nichtbeachtung dieses Layers bedeutet. Für den Thermalkanal

von Landsat wäre z.B. aufgrund seiner geringen Auflösung eine Nichtbeachtung

sinnvoll. Hier kann ebenfalls eingestellt werden, ob ein Thematischer Layer (aus

einem GIS) bei der Segmentierung berücksichtigt werden soll oder nicht. Die

Grenzen (z.B. Flurstücksgrenzen aus der ALK) aus dem Thematischen Layer bleiben

beim Gebrauch dieser erhalten, d.h. in diesem Fall, dass ein Objekt nicht in zwei

Flurstücken liegen kann

In dem Fenster Level (Punkt 3) kann die Ebene ausgewählt werden, welche das

Segmentierungsergebnis im hierarchischen Netz einnehmen soll. Die Art der

Segmentation (Punkt 4) ist in den meisten Fällen, so auch bei allen in dieser Arbeit

vorkommenden Fälle, auf Normal eingestellt. Die andere Einstellung wäre eine

Linienanalyse, die auf Subobjekten basiert.

Der Maßstabsparameter (Punkt 5) ist ein abstrakter Wert und kann nicht direkt mit

einen herkömmlichen Bildmaßstab verglichen werden. Vielmehr ist er ein Maß für die

größte erlaubte Heterogenität eines Bildobjektes, wobei ein kleiner Maßstab nur eine

kleine Heterogenität zulässt. Wie und nach welchen Kriterien diese Heterogenität

bzw. die Homogenität berechnet wird, kann im Feld Composition of Homogeneity

Criterion (Punkt 6) genauer definiert werden. Die Homogenität, also die minimale

Heterogenität, wird durch einen Mix aus drei Kriterien berechnet, wobei jedes

Kriterium einzeln gewichtet werden kann. Diese Kriterien sind:

Color (Farbe): Die farbliche oder spektrale Heterogenität ist die Summe der

Standardabweichungen der Spektralwerte in jedem Layer Qc gewichtet mit dem unter

Punkt 1 eingestellten Gewicht für jeden Layer Wc.

� ∗=c

cc QWhC

Smoothness : Die „Glätte“ der Umrisslinie (geringe Randrauhigkeit) eines Objektes

ist ein Maß für die Grenzheterogenität. Diese wird berechnet, indem das Verhältnis

zwischen der Länge der Umrisslinie L eines Objektes zu der Länge der Linie B

bestimmt wird, die die Bounding Box dieses Objektes hat. Die Bounding Box ist ein

das Bildobjekt genau einschließendes Viereck.

3. eCognition 20

BLh S =

Compactness : Die Kompaktheit eines Objektes ist ebenfalls ein Maß für die

Grenzheterogenität. Sie wird bestimmt durch die Länge der Umrisslinie L geteilt

durch die Wurzel aus der Anzahl der Pixel N des Objektes.

NLhK =

Zusammen mit den einzelnen Gewichten ni für die Kriterien lautet die Formel für die

Heterogenität:

KKSSCC hnhnhnh ⋅+⋅+⋅=

Vor der ersten Segmentierung muss man sich entscheiden, ob man mit einer 4-fach

Nachbarschaft oder einer 8-fach (diagonal) Nachbarschaft arbeiten will (Punkt 7,

Abb.10). Diese Entscheudung gilt für das ganze Projekt und kann später nicht mehr

geändert werden. Nach Einstellen aller Parameter kann die „Multiresolution

Segmentation“ gestartet werden.

8-fach Nachbarschaft 4-fach Nachbarschaft

1 Objekt 2 Objekte Abb.10, Nachbarschaft

3. eCognition 21

3.2 Klassifikation

Die Klassifizierung der segmentierten Objekte erfolgt bei eCognition überwacht. Zur

Beschreibung der einzelnen Klassen für die überwachte Klassifizierung wird die

sogenannte „Class Hierarchy“ verwendet. In dieser Class Hierarchy können neben

den spektralen und geometrischen Eigenschaften auch wissensbasierte

Kontextinformationen zur Klassifizierung beschrieben werden. Ein weiterer

grundlegender Ansatz für die Klassifizierung bei eCognition ist die Verwendung von

Fuzzy Logic. Bei dem Fuzzy Logic Ansatz gibt es für bestimmte Merkmalswerte (z.B.

Spektralwerte) eines Objektes nicht nur die beiden Aussagen „nein“ (0) und „ja“ (1)

zu einer Klassenzuordnung, sondern die Aussagen reichen von 0 bis 1

(Zuweisungswert) und geben so die Wahrscheinlichkeit einer Klassenzugehörigkeit

an. Auf diese Weise können verschiedene Objektmerkmale, wie Spektralwert und

Geometrie, aber auch wissensbasierte Kontextinformationen, miteinander verglichen

und in Beziehung gebracht werden. Um die einzelnen Merkmalswerte in einen

Fuzzy-wert zu übersetzen, benutzt diese Software zwei Arten von

Klassifizierungsalgorithmen: Membership Function (Zugehörigkeitsfunktion) und

Nearest Neighbor. Der Nearest Neighbor Klassifikator wird in der Literatur meistens

Minimum Distance Klassifikator bezeichnet.

3.2.1 Membership Function

Eine Zugehörigkeitsfunktion ist eine einfache Methode, Merkmalswerte in einen

Zuweisungswert zu transformieren. Jedem Merkmalswert wird einfach ein

Zuweisungswert zugeordnet. In dem Beispiel Abb.11 werden die Spektralwerte

[0,255] den Zuweisungswerten [0,1] direkt zugeordnet. Die Spektralwerte kleiner als

50 haben den Wert 0, über 57 haben sie den Wert 1 und dazwischen folgt der Wert

der Zuordnungskurve. Bei der Membership Funktion können neben spektralen und

geometrischen Eigenschaften auch Kontextinformationen zur Klassifizierung genutzt

werden. Sind Samples für Klassen bestimmt worden, so können die

Zuweisungsfunktionen auch vom Programm berechnen werden.

3. eCognition 22

Abb.11, Membership Function

3.2.1 Nearest Neighbor

Bei dieser Methode werden durch Samples (Trainingsgebiete) Klassen im

Merkmalsraum gebildet. Ein zu klassifizierendes Objekt wird nun der Klasse

zugeordnet, dem es im Merkmalsraum am nächsten ist. Die Samples sollten dabei

typische Repräsentanten ihrer Klasse sein.

Abb.12, Nearest Neighbor

3. eCognition 23

Abb. 12 stellt einen 2D Merkmalsraum dar. Weil das graue Bildobjekt am dichtesten

am blauen Sample ist, würde es der Klasse Blau zugeordnet werden. Da eCognition

mit Zuweisungswerten arbeitet, muss die Distanz d in einen entsprechenden

Zuweisungswert umgerechnet werden. Deshalb wird die Distanz d, im Gegensatz

zum üblichen Minimum Distance Algorithmus, wie folgt berechnet:

( ) ( )�

���

���

� −=

σ f

of

sf

dvv

2

mit:

d Distanz zwischen Sampleobjekt S und Bildobjekt O ( )v S

f Merkmalswert v des Sampleobjekts S für das Merkmal f

( )v O

f Merkmalswert v des Bildobjektes O für das Merkmal f

σ f Standardabweichung des Merkmalwertes für das Merkmal f

Die Merkmalsunterschiede ( )v S

f - ( )v O

f werden, indem man sie durch die jeweiligen

Standardabweichungen σ f teilt, standardisiert, also vergleichbar gemacht. Durch

Anwenden einer Gaußfunktion z(x) werden die standardisierten Distanzen d einem

Zuweisungswert z(d) zugeordnet.

Abb.13, Function Slope

3. eCognition 24

Die Gaußkurve kann durch verändern der „Function Slope“ Einstellung beliebig

gestreckt oder gestaucht werden. In Abb.13 ist die Default Einstellung zu sehen mit

z(1)=0,2. 3.3 Class Hierarchy Auf die Class Hierarchy baut die gesamte Klassifizierung auf. In der Class Hierarchy

werden die einzelnen Klassen gebildet und mit ihren Merkmalen beschrieben.

Welche Merkmale dies sein können, wird unter dem Punkt

„Klassifizierungsmerkmale“ genauer erläutert. Die Beziehungen zwischen den

einzelnen Klassen werden ebenfalls in der Class Hierarchy definiert. Hierbei

unterscheidet eCognition zwischen zwei Arten von Beziehungen und besitzt

deswegen auch zwei Hierarchien.

Die erste Hierarchie ist die „Inheritance“ (Vererbung), in ihr werden von Mutterklasse

zur Tochterklasse Klassifikationsmerkmale vererbt. Wäre z.B. ein Fußballplatz und

ein Golfplatz zu klassifizieren, würde man zuerst eine Mutterklasse „Rasen“ bilden,

die z.B. durch Spektralmerkmale klassifiziert würde. Wenn man jetzt die Klassen

„Fußballplatz“ und „Golfplatz“ zu Tochterklassen von „Rasen“ macht (Abb.14),

kriegen sie auch die Spektralattribute vererbt. „Fußballplatz“ und „Golfplatz“ brauchen

jetzt z.B. nur noch Formmerkmale, um klassifiziert zu werden.

Hinter „Groups“ (Gruppe) steckt die zweite mögliche Beziehungsart von

verschiedenen Klassen. Hierbei handelt es sich um semantische Beziehungen von

Klassen, die verschiedene Klassifizierungsmerkmale haben, deswegen werden auch

keine Merkmale an Tochterklassen vererbt. Im oben genannten Beispiel könnten die

Tochterklassen „Fußballplatz“ und „Golfplatz“ der Mutterklasse „Sportanlagen“

untergegliedert werden. Die Klasse „Golfplatz“ könnte ihrerseits die Tochterklassen

„Grün“, „Bunker“ , „Wasser“ etc. haben (Abb.14).

Eine dritte Klassen-Hierarchie ist die „Structure“ – Hierarchy. Während die oben

genannten Hierarchien zur Klassifizierung genutzt werden, werden in der „Structure“

– Hierarchy die Klassen ausgewählt und wahlweise zusammengefasst, die zur

wissensbasierten Segmentierung (Classification-based Segmentation) verwendet

werden.

3. eCognition 25

Abb.14, Class Hierarchy

3.4 Klassifikationsmerkmale Um die durch die Segmentation entstandenen Bildobjekte zu klassifizieren, können in

der Class Hierarchy sowohl Objektmerkmale, als auch klassenbezogene Merkmale

implementiert werden. Objektmerkmale beziehen sich nur auf das Bildobjekt selbst.

Folgende Objektmerkmale können bei eCognition verwendet werden:

Layer Values Spektralwerte (Durchschnitt, Standardabweichung, Ratio,

Differenz zum Nachbar, etc.) der einzelnen Kanäle

Form Form (Länge, Fläche, Ausrichtung, Länge der Umrisslinie, etc.)

des Bildobjektes bzw. auch der Subobjekte

Texture Textur (Spektral- und Formtextur) des Bildobjektes abgeleitet

aus Subobjekten

Hierarchy Hierarchie – Merkmale (Level, Anzahl der Nachbar- und

Subobjekte)

Thematic Attributes Verschiedene Merkmale aus dem Thematischen Layer

Klassenbezogene Merkmale (Class-related Feature):

Relations to Neighbor Objects Verhältnis (Relative und absolute Grenze, relative

Fläche, Distanz, etc.) zu Nachbarobjekten des

gleichen Levels

Relations to Sub Objects Verhältnis (relative und absolute Fläche, Anzahl)

zu Subobjekten (Tochterobjekten)

Relations to Super Objects Verhältnis zum Superobjekt (Mutterobjekt)

3. eCognition 26

Ein vollständige Auflistung aller zur Verfügung stehenden Klassifikationsmerkmale

und deren genauen Funktionsweisen sind im User Guide von eCognition unter „Basic

Concepts“ zu finden. Mit dem Hilfsmittel Feature View kann man sich die Werte der

einzelnen Merkmale für ein aktuelles Bild anzeigen lassen.

Da zur Klassifizierung in der Regel mehrere Klassifikationsmerkmale benötigt

werden, müssen diese durch Operatoren verbunden werden. eCognition besitzt fünf

Operatoren:

and (min) Der kleinste Zuweisungswert wird zurückgegeben

and (*) Produkt aus den einzelnen Zuweisungswerten

or (max) Der größte Zuweisungswert wird zurückgegeben

mean (arithm.) Arithmetischer Durchschnitt aller Zuweisungswerte

mean (geo) Geometrischer Durchschnitt aller Zuweisungswerte

Die einzelnen Operatoren können beliebig miteinander verwendet werden. Würde

man z.B. mit Hilfe der Operatoren einen Apfel beschreiben wollen, so könnte das

Ergebnis so aussehen:

Abb.15, Operatoren

Der Apfel ist rund und süß. Und er ist entweder Grün oder Rot aber nicht Gelb.

Sind einzelne Klassen gebildet und in das hierarchische Netzwerk eingebaut, kann

die überwachte Klassifizierung durchgeführt werden. Hierbei können einzelne oder

alle Level, wahlweise mit oder ohne klassenbezogener Merkmale, klassifiziert

werden, wobei klassenbezogene Merkmale nur auf eine schon vorhandene

Klassifikation wirken können. Bei der klassenbezogenen Klassifizierung stellt es ein

Problem dar, wenn die Klassifikation eines Objektes von der Klassifikation anderer

Objekte abhängt und sie selbst die Klassifikation der anderen Objekte beeinflusst.

Generell ist zu vermeiden, dass Klasse A für Klasse B und gleichzeitig Klasse B für

3. eCognition 27

Klasse A wichtigstes Klassifizierungsmerkmal ist, aber Ringverbindungen lassen sich

nicht immer ausschließen. Deswegen muss bei der klassenbezogenen

Klassifizierung die Anzahl der Iterationen mit angegeben werden.

3.5 Classification-based Segmentation (Klassenbasierende Segmentierung)

Zur klassenbasierenden Segmentierung von Bildobjekten stellt eCognition drei

klassenbasierende Operatoren zur Verfügung: die Fusion und die von den

Tochterobjekten abhängige Grenzkorrektion, die ihrerseits aus der Grenzoptimierung

und der Bildobjekt-Extraktion besteht. Grundlage für die Operatoren sind nicht die

Klassen, sondern die in der Class Hierarchy definierten Strukturen. Eine Struktur

kann aus einer oder mehreren Klassen bestehen.

Klassenbasierende Fusion Das Prinzip dieser Fusion ist einfach. Alle Bildobjekte die zu einer Struktur gehören

werden zusammen gefasst und bilden ein neues großes Bildobjekt.

Bildobjekte vor der Fusion

Bildobjekte nach der Fusion:

(Farben stehen für einzelne Strukturen)

Klassenbasierende Grenzkorrektion Die Grenzkorrekturen sorgen dafür, dass Subobjekte zur gleichen Struktur gehören

wie ihr Superobjekt.

Klassenbasierende Grenzoptimierung

3. eCognition 28

Die Regel für diesen Operator lautet: Subobjekte, die an der Grenze von

Superobjekten liegen und einer anderen Struktur als ihr Superobjekt angehören,

werden danach untersucht, ob ein Nachbarobjekt und das Superobjekt des

Nachbarobjekts der gleichen Struktur angehören. Ist dies der Fall, wird das

Subobjekt der anderen Struktur zugeordnet und die Grenzen der Superobjekte neu

berechnet.

Vor der Optimierung:

Nach der Optimierung:

Klassenbezogene Bildobjekt Extraktion Während bei der Optimierung nur die Grenzen der Superobjekte verschoben wurden,

werden bei der Extraktion neue Superobjekte gebildet. Die Regel für diesen Operator

lautet: Gehört ein Subobjekt nicht zur gleichen Struktur wie sein Superobjekt, so

bildet es ein neues Superobjekt.

Vor der Extraktion:

3. eCognition 29

Nach der Extraktion:

Nachdem ich das Grundkonzept der Segmentierung und Klassifizierung bei

eCognition beschrieben habe, möchte ich nun weitere wichtige Bausteine der

Software erwähnen. Standardanwendungen für Bildanalyse Software wie eine Lupe

oder die Farbzuweisungsmöglichkeiten für einzelne Kanäle etc. werden nicht

aufgeführt

3.6 Protocol Editor

Um Arbeitsschritte zu automatisieren, besitzt eCognition den Protocol Editor, in dem

Arbeitsabläufe gespeichert, ausgeführt und editiert werden können. Mit Hilfe des

Protokolls können die Arbeitsschritte bei verschiedenen Bildern und auch

unterschiedlichen Projekten angewandt werden. Zu denen vom Protokoll

gespeicherten Arbeitsschritten gehören: die verschiedenen Segmentierungs-

verfahren, das Löschen eines Levels aus der Hierarchie, das Laden einer Class

Hierarchy und das Klassifizieren.

3.7 Import und Export von Bildern und Daten eCognition kann alle gängigen Rasterformate importieren. Besitzen die Rasterbilder

Attribute (aus einem GIS), so können sie als Thematic Layer importiert werden, und

die Attribute können im Programm genutzt werden. Rasterbilder können ebenfalls als

TTA (Training and Test Area) genutzt werden. Hierbei dienen die Flächen des

3. eCognition 30

Rasterbildes entweder zur Festlegung von Trainingsgebieten für Samples oder als

Testflächen zur Überprüfung des Klassifikationsergebnisses. Bilder in Vektorformat

kann eCognition nicht verarbeiten.

Das Klassifikationsergebnis kann auf zwei Arten exportiert werden. Eine Möglichkeit

ist, dass jedes Bildobjekt eine eigene ID bekommt und dann dieser ID in der Attribute

Table das Klassifikationsergebnis und andere Merkmale des Bildobjektes

zugewiesen wird. Die andere Option ist, dass alle Bildobjekte, die einer Klasse

angehören, die gleiche ID bekommen und dass der ID nur noch die Farbe und der

Name der Klasse zugewiesen wird. Außerdem kann jeder Zeit das aktuelle Bild als

„Tif“ -Format exportiert werden.

3.8 Genauigkeitsanalyse

eCognition stellt zum Genauigkeitsabschätzung vier Methoden zur Verfügung:

Best Classification Result:

In der Regel besitzt jedes Bildobjekte mehrere Zuweisungswerte größer null. Das

Bildobjekt bekommt dann die Klasse mit dem größten Zuweisungswert (Best

Classification Result) zugeordnet. Dieser größte Zuweisungswert kann zwischen 0

und 100 Prozent liegen. Best Classification Result erstellt ein Thematisches Bild, in

dem für jedes Bildobjekt, farblich nach den prozentualen Anteil eingefärbt, der

Zuweisungswert abgebildet ist. Außerdem wird eine Tabelle erstellt, in der für jede

Klasse die Anzahl der Klassen, der kleinste und der größte Zuweisungswert, sowie

der Mittelwert mit Standardabweichung aufgelistet ist.

Classification Stability:

Unter Klassifikationsstabilität versteht eCognition wie sicher die Klassenzuweisung

im Vergleich zu anderen möglichen Zuweisungen ist. Dabei wird die Differenz

zwischen dem besten und zweitbesten Zuweisungswert für ein Bildobjekt gebildet.

Die Größe der Differenz wird sowohl Objektbezogen in einem Thematischen Bild

farblich skaliert dargestellt, als auch Klassenbezogen in einer Tabelle, zusammen mit

der Standardabweichung der Differenzen und den Maximalwerten, aufgelistet.

Error Matrix based on TTA Mask :

3. eCognition 31

Diese „Fehlermatrix” wird auch Konfusionsmatrix genannt. In dieser Matrix werden

die Ergebnisse der Klassifikation mit Testflächen verglichen. Die Testflächen, die als

TTA (Training und Test Area) vorher importiert wurden (s.o.), werden dabei als wahre

Ergebnisse im Sinne der Klassifikationsregeln angesehen. Das Berechnen der

Konfusionsmatrix mit Testflächen geschieht Pixel für Pixel. Aus der Konfusionsmatrix

kann man entnehmen, wieviel Prozent einer Klasse der Testfläche einer Klasse der

Klassifikation zugeordnet wurde. Aufgrund des Aufbaues einer Konfusionsmatrix

kann man aus ihrer Hauptdiagonalen für jede Klasse den Prozentsatz der richtigen

Klassifikation entnehmen.

Abb.16, Fehlermatrix

Aus dem Beispiel für eine Konfusionsmatrix (Abb.16) ist z.B. zu entnehmen, dass die

Klasse „water“ zu 100% und die Klasse „agriculture“ zu 91,4% richtig zugeordnet

wurde. 8.3% der Klasse „agriculture“ wurde als „rural“ klassifiziert.

Abb.17, Kartierung der korrekt klassifizierten Gebiete

3. eCognition 32

Außerdem wird ein Bild (Abb.17) erzeugt, in dem zu sehen ist, welche Flächen

korrekt und welche Flächen falsch klassifiziert wurden. Die Farbe Grün bedeutet

richtig erkannt, Rot falsch und bei Blau gab es keine Testflächen.

Error matrix based on Samples:

Die Konfusionsmatrix wird durch Vergleich der Sampleobjekte und der klassifizierten

Bildobjekte erstellt. Die Samples sollten andere sein als die, die für Nearest Neighbor

verwendet wurden, weil diese naturgemäß alle richtig klassifiziert wurden.

3.9 Bildstatistik

Die Bildstatistik ermöglicht dem Nutzer, sich für jede Klasse Klassifikationsmerkmale

anzeigen zu lassen. Für jedes Klassifikationsmerkmal kann die Summe, der

Mittelwert, die Standardabweichung und der Wertebereich aus den Merkmalswerten

der einzelnen Objekte einer Klasse gebildet werden. Auf diese Weise kann z.B.

schnell ermittelt werden, wie groß die Gesamtfläche einer Klasse ist oder wie groß

die Flächen dieser Klasse im Schnitt sind. Auch ist schnell zu ermitteln, wie groß der

größte und kleinste Spektralwert einer Klasse für einen bestimmten Kanal ist.

4. Projekt 1 33

4. Untersuchungen zur Verwendbarkeit von eCognition für Zwecke der CORINE Landnutzungsklassifikation

In den vorangegangenen Kapiteln wurde beschrieben, wie Daten von CLC90 erfasst

wurden und wie die Daten von CLC2000 erfasst werden sollen. Außerdem wurde die

neue Bildverarbeitungssoftware eCognition vorgestellt. Da die Herstellungskosten

von 6 Euro/km² bei CLC90 auf 3 Euro/km² bei CLC2000 halbiert werden sollen, die

Zeit zwischen Erfassen und Bereitstellen der Daten stark verkürzt werden soll und

die Technik sich weiterentwickelt hat, ist eine Überlegung, den kosten- und

zeitintensivsten Schritt, also die eigentliche Klassifizierung, bei der Erstellung von

CLC2000 Daten zu automatisieren oder zu halbautomatisieren.

Um CLC2000 Daten zu erstellen, stehen wie erwähnt die alten CLC90 Daten, die

Landsat Szenen und in Deutschland die ATKIS Daten zur Verfügung. Als

Endergebnis sollen dann neben CLC2000 auch die Landnutzungsänderungen

zwischen 1990 und 2000 bereitstehen. Die automatisierte Erfassung der

Landnutzungsänderungen soll in dieser Arbeit nicht untersucht werden.

Landsat Daten sind die Hauptinformationsträger. Deshalb wird in einem ersten Schritt

(Projekt 1: Klassifikation mit Landsat Szenen) überprüft, in wieweit mit Hilfe von

eCognition aus Landsat Szenen CORINE Daten abgeleitet werden können. Erst im

zweiten Schritt (Projekt 2: Klassifikation mit Landsat Szenen und ATKIS Daten)

werden auch ATKIS Daten als Zusatzinformationen genutzt. Die CLC90 Ergebnisse

werden nicht als Informationsträger für eine Klassifizierung herangezogen, weil sie

aufgrund ihres Alters für die CLC2000 Klassifikation nicht Aktuell genug sind. Sie

werden nur für das spätere Erfassen von Landnutzungsänderungen zwischen CLC90

und CLC2000 genutzt.

4.1 Projekt 1: Klassifikation mit Landsat Szenen

4.1.1 Eingangsdaten

Wenn überprüft werden soll, ob eine Prozedur zum korrekten Ergebnis kommt, ist es

ideal, wenn man das Ergebnis schon kennt. Da für CORINE mit CLC90 schon ein

Ergebnis vorliegt, ist es sinnvoll, dieses für eine spätere Kontrolle zu benutzen. Als

Ausgangsdaten werden jetzt solche verwendet, die den damaligen Ausgangsdaten

entsprechen. Die Landsat-Szene (Abb.18), die zur Klassifizierung der vorliegenden

4. Projekt 1 34

CORINE Daten führte, stammt vom 26.05.1992. Es ist eine Aufnahme des Landsat

TM 5 Satelliten mit 7 Kanälen. Die Szene zeigt den südlichen Teil der Stadt

Hannover und Teile des südlichen Umlandes. Ihr Ausmaß beträgt 12,5 * 12,5

Quadratkilometer und die Pixelauflösung ist 25 m (resampled). Die CORINE Szene

(Abb.19) zeigt das gleiche Gebiet mit den selben Abgrenzungen. Um die CORINE

Daten für eCognition nutzbar zu machen, müssen sie erst gerastert werden. Die

Rasterweite muss mit der Rasterweite von Landsat identisch sein, also 25 m. In

dieser CORINE Szene kommen 11 Klassen aus der CORINE Nomenklatur vor. Dies

erscheint auf dem ersten Blick, in Anbetracht von 44 Klassen der CORINE

Nomenklatur, recht wenig zu sein. Hierbei ist aber zu bedenken, dass viele Klassen

in Deutschland überhaupt nicht vorkommen und einige nur sehr selten auftreten.

Diese Ausgangsdaten wurden ausgewählt, weil für dieses Gebiet auch Landsat-

Daten von 2000 vorliegen und zwischen den Aufnahmezeitpunkten relativ große

Landnutzungsänderungen aufgetreten sind (EXPO Gelände).

Abb.18, Landsat 5 (Kanäle: 4-3-2)

4. Projekt 1 35

Abb. 19, CORINE Land Cover 90

4.1.2 Probleme bei der Klassifikation von Landsat Daten

Bei der Klassifikation von Bodenbedeckungsarten aus Landsat Daten treten eine

Reihe von Problemen auf. Die relativ großen Pixel von 25m*25m haben zur Folge,

dass unterschiedliche Objekte innerhalb eines erfassten Pixels in ihren spektralen

Eigenschaften nur gemittelt wiedergegeben werden. Das heißt, wenn innerhalb eines

Pixels zwei Objekte liegen, eines mit dem Grauwert 120 (z.B. Ackerfläche) und eines

mit dem Grauwert 190 (z.B. Wald) würde dieses Pixel den Wert 155 (sog. Mixel)

erhalten. Diese Mittelung erschwert die Zuordnung zu den korrekten Objekttypen.

Auch inkorrekte Zuordnungen können so entstehen, wenn z.B. der Wert 155 für

Wasser stehen würde. Die Kombination von mehreren Kanälen kann die Zuordnung

zwar wieder erleichtern und verringert die Wahrscheinlichkeit der inkorrekten

Zuordnung, das Problem bleibt aber erhalten.

4. Projekt 1 36

Ein weiterer Nachteil der großen Pixelgröße ist, dass Objekte, deren Ausdehnung

kleiner als 25 m ist und die zur Klassifikation wichtig wären, nicht erfasst werden

können. Ein Beispiel. Die Klasse 1.1.2 nicht durchgängig städtische Prägung

repräsentiert z.B. ein Gebiet von Einfamilienhäusern, Vorgärten und Ortsstraßen. Die

Klassifizierung dieser Klasse wäre einfach, wenn die einzelnen Objekte (Häuser,

Straßen) direkt erkannt werden könnten. Dieses ist aber nicht der Fall, weil die

Ausdehnung dieser einzelnen Objekte meistens kleiner als 25 m ist.

Geometrische Eigenschaften von Objekten können generell erst dann genutzt

werden, wenn ein bestimmtes Verhältnis von Objektgröße und Objektform zur

Pixelgröße vorhanden ist. Zur Erläuterung: Flächenhafte Objekte, deren Größe ein

vielfaches der Pixelgröße beträgt, bestimmen den spektralen Wert mehrerer

nebeneinander liegender Pixel. In der Mitte der Fläche entsprechen die

Spektralwerte in den Pixeln genau den Spektralwerten des Objektes (keine Mixel).

An dem Rand des Objektes entstehen, durch die Mittelung des Spektralwertes mit

den Spektralwerten aller Objekte im Pixel, Mixel (Ausnahme: Objekt- und Pixelrand

sind identisch). Diese Mixel und die Pixel im Zentrum repräsentieren die Geometrie

des Objektes. Weil Landsat eine Pixelgröße von 625 m2 (25 m * 25 m) hat und die

Objektgröße abhängig von der Objektform ein vielfaches der Pixelgröße sein muss,

muss ein Objekt mehrere tausend Quadratmeter groß sein, bevor die Form zur

Erfassung genutzt werden kann. Die Erkennbarkeit von Objekten im Satellitenbild

hängt außerdem noch vom Kontrast zu Nachbarobjekten (möglichst groß), von der

Objektform (Linienhafte Objekte werden z.B. oft besser erkannt) und der Lage des

Objektes im Vergleich zur Pixelausrichtung ab.

4.1.3 Segmentierung

Die bei der Segmentierung entstehenden Objekte sind die Informationsträger für die

spätere Klassifizierung. Deswegen muss beim Einstellen der Parameter für die

Segmentierung bedacht werden, welche Klassen später klassifiziert werden sollen

und vor allem auf welche Weise sie klassifiziert werden können. Die vor der

Segmentierung (im Kapitel eCognition erklärt) einzustellenden Parameter sind:

• Auswahl der Kanäle

• Maßstab (abgeleitet aus Homogenitätskriterien)

• Level in der Hierarchie

• Auswahl zwischen 4- und 8-fach Nachbarschaft

4. Projekt 1 37

4.1.3.1 Auswahl der zur Segmentierung benutzten Kanäle

Je mehr Kanäle von Landsat zur Segmentierung benutzt werden, um so länger

dauern die Berechnungen. Bei der in diesem Projekt benutzten relativ kleinen

Bildszene ist dieser Effekt nicht so ausgeprägt und fast zu vernachlässigen, aber mit

Hinblick auf spätere Anwendungen mit viel größeren Szenen ist es sinnvoll zu

überlegen, wie viele und welche Kanäle benutzt werden. Kanal 6 kann man aufgrund

seiner geringen Auflösung von der Segmentierung ausschließen. Bei den anderen

Kanälen wird überprüft in wieweit sie untereinander korreliert sind. Sind zwei oder

mehrere Kanäle stark korreliert, kann ein Kanal den bzw. die Anderen

repräsentieren, ohne dass große Informationsverluste auftreten. Die Berechnung der

spektralen Korrelation zwischen zwei Kanälen erfolgt im Merkmalsraum. Mit dem

Tool von eCognition „2D Feature Space Plot“ (2D Plot des Merkmalraums) können

Merkmale miteinander in Beziehung gebracht werden. Vergleicht man jetzt die

Spektralwerte verschiedener Kanäle auf diese Weise ergeben sich z.B. folgende

Abbildungen:

Abb. 20, Kanalkorrelation zwischen 1.und 2. Kanal von Landsat

4. Projekt 1 38

Abb. 21, Kanalkorrelation zwischen 1.und 4. Kanal von Landsat

Die Abbildungen machen deutlich, welche Kanäle miteinander stark korrelieren und

welche nicht. Je stärker sich die Punktwolke sich einer der beiden Hauptdiagonalen

annähert, desto größer ist die Korrelation zwischen den Kanälen. Folgt die

Punktwolke der Diagonalen von unten links nach oben rechts ist die Korrelation

positiv (Abb.20, Kanal 1 und 2), folgt sie der Diagonalen von oben links nach unten

rechts ist sie negativ. Je verstreuter die Punktwolke ist, desto weniger sind die

Kanäle korreliert (Abb.21, Kanal 1 und 4). Die Korrelation zwischen zwei Kanälen

kann auch rechnerisch, durch Bestimmung des Korrelations-Koeffizienten, bestimmt

werden. Dieser wird wie folgt berechnet:

Mittelwert der einzelnen Kanäle i:

��=M N

nmi SNM ,*

*1µ mit: M = Anzahl der Spalten (m)

N = Anzahl der Zeilen (n)

S = Spektralwerte

4. Projekt 1 39

Standardabweichung der einzelnen Kanäle:

( )�� −−

=M N

i inmNM S µσ ,1*1 22

Kovarianz aus zwei Kanälen:

( ) ( )µµσ 2,,21,,12,11 * −−=�� SS nmM N

nm

Korrelationskoeffizient aus zwei Kanälen:

σσσρ 2

2

2

1

2,1

2,1 +=

Die Tabelle in Abb.21 zeigt die Korrelationskoeffizienten für alle möglichen

Kanalkombinationen: Die Koeffizienten sind mit 100 multipliziert, um eine

anschaulichere Darstellung in Prozenten zu haben.

Kanal 1 2 3 4 5 7

1 100% 98% 95% -27% 60% 78%

2 98% 100% 98% -19% 75% 84%

3 95% 98% 100% -28% 78% 90%

4 -27% -19% -28% 100% 10% -21%

5 60% 75% 78% 10% 100% 92%

7 78% 84% 90% -21% 92% 100% Abb.21, Korrelation zwischen den Kanälen

Die Koeffizienten in der Tabelle machen deutlich, dass die Kanäle 1, 2 und 3

(Sichtbares Licht) hoch miteinander korreliert sind. Außerdem ist der 7. Kanal mit

dem 3. und 5. Kanal hoch korreliert. Der 4. Kanal ist am wenigsten mit anderen

Kanälen korreliert. Daraus wird ersichtlich, dass die Kanäle 3, 4 und 5 alle 7 Kanäle

von Landsat 5 bei der Segmentierung genügend repräsentieren.

4. Projekt 1 40

Eine Alternative zu dem oben genannten Verfahren wäre eine Hauptkomponenten

Transformation der Landsat Szene. Das Ergebnis einer Hauptkomponenten

Transformation sind unkorrelierte Kanäle, die nach ihren abnehmenden Varianzen

sortiert sind. Der erste Kanal, auch erste Hauptkomponente genannt, besitzt

demnach die maximale Streuung der Grauwerte und somit auch die meiste

Bildinformation. Bereits beim 4. bzw. 5. Kanal (Hauptkomponente), so die

Erfahrungswerte bei Landsat Szenen, ist die Varianz so niedrig, dass der

Informationsgehalt dieser Kanäle gegen null geht. Eine Alternative zu dem Gebrauch

aller 7 Kanäle von Landsat, wäre also der Gebrauch der ersten drei oder vier

Hauptkomponenten dieser Szene. Die theoretisch-mathematische Funktionsweise

der Hauptkomponenten Transformation kann bei Krauss (1990) nachgelesen

werden.

4.1.3.2 Maßstab und Hierarchie

Bevor ein Segmentierungsmaßstab ausgewählt wird, muss überlegt sein, welche

Eigenschaften relativ kleine bzw. relativ große Objekte besitzen.

Der Grauwert des Segments wird aus den Grauwerten der einzelnen Pixel gemittelt.

Dadurch entstehen ähnliche Auswirkungen, wie bei der Mittelung der Spektral-

Informationen für ein Pixel. Ein Objekt, dass aus Pixel mit dem Grauwerten 100

(steht z.B. für Ackerland) und aus Pixel mit dem Grauwert 120 (steht z.B. für Wald)

zusammengesetzt ist, bekommt so einen gemittelten Grauwert zwischen 100 und

120. Dieser Grauwert (z.B. 110) könnte für eine andere Klasse, aber auch für keine

Klasse stehen. Dieses Problem wird größer, wenn bedacht wird, dass ein Objekt,

dessen Pixel aus den Grauwerten 90 (z.B. Wasser) und 120 (z.B. Wiesen) bestehen,

ebenfalls den gemittelten Grauwert 110 besitzt.. In beiden Fällen ist nicht unmittelbar

zu erkennen, aus welchen Werten sich der Grauwert zusammensetzt. Trotzdem sind

die Objekte voneinander zu unterscheiden, weil ihre Grauwerte unterschiedliche

Standardabweichungen besitzen. In ungünstigen Fällen ist es aber auch möglich,

dass Objekte, die sich aus unterschiedlichen Grauwertkombinationen

zusammensetzen, den gleichen Mittelwert und die gleiche Standardabweichung

haben. Die Standardabweichung der Grauwerte eines Objektes kann als Maß ihrer

spektralen Heterogenität angesehen werden. Ein Ziel der Segmentierung ist es,

diese spektrale Heterogenität der Objekte innerhalb bestimmter Grenzen (abhängig

4. Projekt 1 41

vom Bildmaßstab, siehe 3.1) zu halten. Im Idealfall der Segmentierung wäre die

spektrale Heterogenität, also die Standardabweichung, aller Objekte identisch. Auch

wenn dies in der Realität nicht ganz erreicht wird, ist der Wertebereich der einzelnen

Standardabweichungen beschränkt und die Standardabweichungen eigenen sich

nicht unbedingt zur Unterscheidung von Objekten. Die Tatsache, dass auch die

Heterogenität der Form bzw. der Grenzlinie bei der Segmentierung benutzt wird, soll

hier vernachlässigt werden. Aus den Ausführungen in diesem Abschnitt lassen sich

zwei Argumente für eine kleine Maßstabszahl ableiten. Zum einen lässt eine kleine

Maßstabszahl nur eine kleine Heterogenität zu, was im Allgemeinen bedeutet, dass

die Kombinationsmöglichkeiten von Grauwerten, die zu einem gemittelten Grauwert

führen, verringert werden und dass sich die einzelnen Grauwerte geringer vom

gemittelten Grauwert unterscheiden (geringe Streuung). Ein Grauwert ist also besser

einer Klasse zuzuordnen. Zum anderen bewirkt eine kleinere Maßstabszahl, dass die

Objekte kleiner werden (weniger Pixel). Dadurch wird der Informationsverlust

verringert, der durch die Mittelung der Grauwerte entsteht, weil bei kleinen Objekten

durch weniger Grauwerte gemittelt wird.

Ein weiterer Grund für eine kleine Bildmaßstabszahl und damit für kleinere Segmente

ist, dass bei größeren Objekten die Gefahr steigt, ein Segment zu erzeugen, dessen

Pixel verschiedene Klassen repräsentieren. In diesem Fall würde eine wahre

Klassengrenze durch das Segment hindurch laufen.

Zur späteren Klassifikation werden aber nicht nur spektrale sondern auch Form-

Informationen benötigt. Jedes Objekt setzt sich aus einzelnen Pixeln zusammen. Um

jetzt überhaupt eine Form erkennen zu können, benötigt das Objekt eine

Mindestanzahl von Pixeln. Diese Mindestanzahl ist abhängig von der Größe und der

Form des Objektes, vom dem das Segment abgeleitet wird. Ein Beispiel: Die Strasse

A hat eine Breite von 2 Pixel und die Strasse B eine Breite von 5 Pixel. Bei beiden

Objekten handelt es sich um längliche Objekte. Wenn der Segmentierungsmaßstab

jetzt so gewählt wird, dass vorzugsweise Segmente mit der Größe von 25 Pixel

entstehen (beide Objekte besitzen die gleiche Heterogenität), so würde ein Segment

bei der Strasse A die Länge von 8 Pixel (2 * 8 ≈ 25) und bei der Strasse B die Länge

von nur 5 Pixel (5 * 5 = 25) haben. Bei der Strasse A wäre so, im Gegensatz zur

Strasse B, der linienhafte Charakter des Objektes wiedergegeben. Es wird deutlich,

dass verschiedene Formen nur in Abhängigkeit vom Maßstab erkannt werden

4. Projekt 1 42

können und das Segmente eine Mindestgröße haben müssen, um überhaupt eine

charakteristische Form zu besitzen.

Textur-Informationen werden bei eCognition aus den Subobjekten abgeleitet. Hierbei

werden sowohl spektrale wie auch geometrische Eigenschaften des Subobjektes zur

Klassifizierung genutzt. Es ist offensichtlich, dass eine bestimmte Anzahl von

Subobjekten nötig ist, um überhaupt eine Textur zu erhalten und dass in der Regel

eine größere Anzahl von Subobjekten eine Textur besser erkennbar macht. Um

Textur-Informationen zu nutzen, braucht man also ein größeres Segment und damit

eine größere Maßstabszahl. Dies gilt insbesondere wenn die Textur aus der Form

der Subobjekte abgeleitet wird, da die Subobjekte selbst eine gewisse Größe haben

müssen, um eine Form zu repräsentieren.

Wenn neben den spektralen und geometrischen Eigenschaften von Subpixeln auch

ihre Klassenzugehörigkeiten als Klassifikator genutzt werden soll, ist es ebenfalls

sinnvoll, größere Segmente zu bilden, die aus mehreren Subobjekten

zusammengesetzt sind. Die Klassenzugehörigkeit der Subobjekte wird dabei wie

eine Textur genutzt.

Aus den Ausführungen wird deutlich, dass gute Gründe sowohl für kleinere als auch

für größere Segmente vorhanden sind. Es gibt jetzt zwei Möglichkeiten dieser

Tatsache Rechnung zu tragen. Entweder werden mittelgroße Segmente gebildet, die

einen Kompromiss aus groß und klein darstellen, oder es werden sowohl große als

auch kleine Segmente gebildet, aus denen dann die Informationen extrahiert werden.

Die zweite Möglichkeit ist offensichtlich die bessere. Da eCognition mit einem

hierarchischen Netzwerk arbeitet, dass auch verschiedene Auflösungen zulässt, ist

der zweite Ansatz auch einfach zu realisieren.

Abb.22, Hierarchisches Netzwerk der Segmentierung

Pixelebene

Level 1: Kleine Objekte

Level 2: Interpretationsebene

Level 3: Große Objekte

4. Projekt 1 43

Der Grundgedanke der Segmentierung ist, dass über der Pixelebene drei Level

gebildet werden (Abb.22). In Level 1 sollen bei der anschließenden Klassifikation die

Vorteile von kleinen Segmenten und in Level 3 die Vorteile von Großen Segmenten

genutzt werden. Level 3 bildet die mittlere Ebene, in der die Informationen

gesammelt und interpretiert werden.

In Level 1 sollen alle Vorteile von kleinen Segmenten genutzt werden. Die

entstehenden Segmente fassen nur wenige Pixel (die Anzahl ist kleiner als 5)

zusammen, so dass der Informationsverlust, der durch die Mittelung der Grauwerte

entsteht, gering ist. Um Segmente dieser Größe zu generieren, muss der

Segmentierungsmaßstab 3 oder kleiner betragen. Dies ist dann der Fall, wenn, wie

im Projekt, drei Kanäle von Landsat (3-5) mit jeweils dem Gewicht 1 zur

Segmentierung benutzt werden. Zur Erinnerung: Der Segmentierungsmaßstab ist

kein realer sondern ein abstrakter Wert, der eine größtmögliche Heterogenität

beschreibt. Bei Berechnung der Heterogenität gehen neben dem Maßstab auch die

Gewichte der einzelnen Layer ein. D.h., wenn sich die Summe der einzelnen

Gewichte erhöht, muss die Maßstabszahl auch relativ dazu erhöht werden, um ein

gleiches Ergebnis zu bekommen. Die Heterogenität setzt sich außerdem aus der

Grauwert-Heterogenität und der Grenz-Heterogenität zusammen. Weil in diesem

Level die Grauwerte genutzt werden sollen, wäre es logisch, die Grauwert-

Heterogenität in einem wesentlich höheren Maß als die Grenz-Heterogenität zu

verwenden. Eine Möglichkeit diesem Rechnung zu tragen wäre die Grenz-

Heterogenität mit nur 10% zu gewichten. Untersuchungen haben allerdings ergeben,

dass bei einem so kleinen Maßstab die Unterschiede der Segmentierungsergebnisse

marginal sind, selbst wenn die Grenz-Heterogenität mit 40% gewichtet wird. Aus

diesem Grund ist in diesem Level auch die Gewichtung der beiden Grenzparameter

Smoothness und Compactness zu vernachlässigen.

Die Vorteile von großen Segmenten soll in Level 3 genutzt werden. Hier besonders

der Vorteil, dass größere Segmente in der Lage sind, charakteristische Formen

darzustellen, die auf bestimmte Objekte in der Realität hinweisen. Wie unter dem

Punkt „Probleme bei der Klassifikation von Landsat Daten“ beschrieben, müssen die

Objekte in der Realität schon eine bestimmte Größe (mindestens mehrere tausend

Quadratmeter) haben, um ihre Form durch Pixel mit einer Kantenlänge von 25 m

darstellen zu können. Besitzt ein Objekt diese Größe, hängt es von 5 Faktoren ab, ob

der Segmentierungsalgorithmus das Objekt auch in einem Objekt (Bildsegment)

4. Projekt 1 44

zusammenfasst: Maßstab der Segmentierung, Größe des Objektes, Spektrale

Homogenität des Objektes, der Kontrast des Objektes zu Nachbarobjekten und die

gewählten Heterogenitätskriterien der Segmentierung. Diese fünf Faktoren sind eng

miteinander verbunden und voneinander abhängig. Die verschiedenen Objekte in der

Natur besitzen verschiedene Größen, haben eine unterschiedliche spektrale

Homogenität und der Kontrast zu benachbarten Objekten ist auch individuell. Für

jeden Objekttyp müsste demzufolge ein individueller Maßstab und bestimmte, auf

den Objekttyp bezogene, Heterogenitätskriterien gewählt werden. Dies ist natürlich

nicht realistisch. Es ist also vorher zu überlegen, welche Objekttypen überhaupt

aufgrund ihrer Form klassifiziert und damit vorher segmentiert werden sollen und

auch können. Bei dieser Überlegung muss auch mit einbezogen werden, welche

Formmerkmale zur Klassifikation von eCognition überhaupt genutzt werden können.

Bei einem Blick auf ein Landsat Bild wird deutlich, dass es kaum Objekte gibt, die

eine charakteristische Form besitzen, die sie von anderen unterscheidbar machen

würde. Die Umrissformen von Ackerflächen z.B. sind sehr vielseitig. Mal sind sie

rechteckig, mal sind sie dreieckig und ein anderes mal trapezförmig. Es ist

unmöglich, mit den von eCognition bereitgestellten Form-Klassifikatoren, diese

Formen nur einer Klasse zuzuordnen. Die einzige große Ausnahme bilden hier

längliche/linienhafte Objekte wie z.B. Straßen und Wasserwege. Diese Objekte

bilden zwar oft keine eigene Klasse in der CLC Nomenklatur (erst ab einer Breite von

100m), sind aber z.B. Strassen als solche erkannt, können diese Flächen später

besser einer Klasse zugeordnet werden. Von Vorteil in diesem Zusammenhang ist,

dass eCognition mit dem Formmerkmal „Length/Width“, solche länglichen Objekte

klassifizieren kann.

Level 2 bildet eine Art Interpretationsfolie, in der die Informationen aus Level 1 und

Level 3 zusammengefasst werden. Die Segmente dieses Levels sollten nicht zu groß

sein, damit die Möglichkeit, dass eine wahre CLC Klassengrenze durch ein Segment

läuft, minimiert wird. Die Objekte müssen aber groß genug sein, um aus Level 1

Textur-Informationen ableiten lassen zu können. Wie später begründet, werden nicht

Spektral- oder Form-Informationen der Subpixel als Textur genutzt, sondern die

Klassifikationen der Subpixel in Level 1 dienen als Textur.

4. Projekt 1 45

Abb.23 zeigt eine Zusammenfassung der gewählten Parameter für die erste

Segmentierungen. Die funktionale Bedeutung für die einzelnen Werte ist im Kapitel

3.1 nachzulesen.

Homogenitätskriterien

Level Benutzte

Kanäle Maßstab Grauwert-

Homogenität

Grenz-

HomogenitätRandrauhigkeit Kompaktheit

1 3,4,5 1 0,8 0,2 0,5 0,5

2 3,4,5 6 0,8 0,2 0,4 0,6

3 3,4,5 10 0,8 0,2 0,4 0,6 Abb.23, Einstellwerte für die Segmentierung

4.1.3.3 Nachbarschaft

eCognition besitzt zwei Möglichkeiten von Nachbarschaften: die 4-fach

Nachbarschaft und die 8-fach Nachbarschaft (Kap.3.1). Der Vorteil der 8-fach

Nachbarschaft ist, dass bei ihr längliche Objekte, wie z.B. Strassen oder

Wasserläufe, etwas besser erkannt werden können, weil dann zwei längliche

Segmente einer Klasse schon zu einem Objekt zusammengefasst werden, wenn sie

sich nur mit einer Ecke berühren. Dieser kleine Vorteil wäre aber nur bei Level 3

überhaupt relevant, weil nur dort Segmente aufgrund ihrer Form klassifiziert werden.

Dieser Vorteil ist aber nicht so signifikant, dass er die großen Nachteile, eine

wesentlich höhere Rechenzeit und eine häufig nicht erwünschte Zusammenfassung

von Segmenten, aufwiegt. Dieses gilt besonders, da die gewählte Nachbarschaft für

das ganze Projekt gültig ist und nicht nur für Level 3 geändert werden kann.

4. Projekt 1 46

4.1.4 Klassifikation

4.1.4.1 Nearest Neighbor oder Membership Function

eCognition arbeitet nach der Methode der überwachten Klassifizierung. Bei der

Überwachten Klassifizierung werden Gebiete/Segmente, von denen die

Klassezugehörigkeit bekannt ist, dieser bekannten Klasse zugewiesen. Diese

Segmente dienen dann als Samples ihrer Klasse. Die restlichen Segmente werden

bei der Überwachten Klassifikation dann dem Sample, und damit auch der Klasse

des Samples, zugeordnet, denen sie am ähnlichsten sind. Ähnlich heißt in diesem

Zusammenhang, dass der Abstand im Merkmalsraum gering ist. Diese

Vorgehensweise entspricht der Nearest Neighbour Methode von eCognition. Die

Zweite Möglichkeit, die eCognition zur überwachten Klassifikation bereitstellt, ist die

Methode der Klassenzuordnung durch Zugehörigkeitsfunktionen (Membership

Function). Bei dieser Vorgehensweise werden, wie im Kapitel 3.2.1 Membership

Function beschrieben, für ausgewählte Kanäle Zuweisungsfunktionen gebildet, mit

deren Hilfe die einzelnen Segmente den Klassen zugeordnet werden. Der Verlauf

der Zuweisungsfunktionen kann, wenn Samples vorgegeben sind, vom Computer

berechnet aber auch manuell eingegeben werden. Es ist also zu überlegen, welche

Methode, Nearest Neighbor oder Membership Function, für die vorliegende

Anwendung besser geeignet ist.

Das entscheidende Kriterium bei dieser Wahl ist das Klassifikationsergebnis.

Untersuchungen haben ergeben, dass die Membership Methode besseres

Klassifikationsergebnisse bei Landsat erreicht. Allerdings ist der Arbeitsaufwand, um

zu guten Ergebnissen zu kommen, auch größer. Zur Erklärung: Beide Methoden

spannen im mehrdimensionalen Merkmalsraum Flächen oder Räume für bestimmte

Klassen auf. Diese Räume, die bei beiden Methoden verschieden aussehen, werden

Cluster genannt. Überschneiden sich diese Cluster nicht, ist es bei beiden Methoden

einfach, die Objekte den Klassen zuzuordnen. Erst bei Überschneidungen von

Clustern treten Klassifikationsprobleme auf. Weil eCognition nach dem Fuzzy Logic

Prinzip arbeitet, ist die Wahrscheinlichkeit einer Klassenzugehörigkeit nicht im

ganzen Cluster gleich. Bei Nearest Neighbor sinkt die Wahrscheinlichkeit mit dem

Abstand vom Sample. Dieser Abstand wird im mehrdimensionalen Raum berechnet

und es besteht keine Möglichkeit, ausgewählte Kanäle von Landsat höher zu

4. Projekt 1 47

bewerten. Bei der Membership Function ist der Verlauf der Zuweisungs-

Wahrscheinlichkeit innerhalb eines Clusters frei wählbar. Dieser Vorteil und der

Vorteil, dass die Zuweisungsfunktion für jeden einzelnen Kanal von Landsat

eingestellt werden kann, macht die Membership Function zur besseren Alternative,

auch wenn diese Einstellmöglichkeiten einen größeren Arbeitsaufwand bedeuten.

Der nächste Schritt, nach dem Bilden von Segmenten, ist ihre Klassifikation. Weil in

Level 2 die Informationen aus Level 1 und Level 3 zusammengefasst werden sollen,

müssen zuerst diese klassifiziert werden, bevor Level 2 klassifiziert werden kann.

4.1.4.2 Klassifikation Level 1

Die Abb.24, zeigt den Aufbau und Ablaufschritte der Klassifikation. Zuerst werden die

Segmente in Level 1 aufgrund der Grauwerte der Pixelebene klassifiziert. Die

Grauwerte der Pixelebene und Form-Charakteristika der Segmente in Level 3

werden dann zur Klassifikation von Level 3 genutzt. Als letztes wird Level 2 mit Hilfe

des Hierarchischen Netzes und den Klassifikationen der Level 1 bis 3 klassifiziert.

Abb.24, Schematische Zusammenfassung der Klassifizierungsschritte

Level 1 besteht aus kleinen Segmenten, die später als Textur für Level 2 dienen

sollen. Zur Klassifikation sollen die nur wenig gemittelten Grauwerte der Segmente

genutzt werden. Diese Standardmethode der Klassifikation basiert darauf, dass

gleiche Objekte annähernd gleiche Grauwerte in den Objekten erzeugen, mit denen

sie auch einer Klasse zugeordnet werden können.

L 3:

L 1: Grauwerte

L 2:

• Form • Grauwerte

• Klassifikation Level 1 • Klassifikation Level 3 • Klassifikation Level 2

Pixelebene

4. Projekt 1 48

Zur Klassifikation müssen die Klassen in der Class Hierarchy definiert werden. Zuerst

werden für die einzelnen Klassen Samples gebildet. Dies erfolgt mit Hilfe des Sample

Editors (Abb.25). Als Sample dienen Segmente von denen man die

Klassenzugehörigkeit weiß. Zu welcher Klasse ein Segment gehört kann entweder

direkt aus dem Landsat Bild oder aber, wenn dies nicht möglich ist, aus der

Topographischen Karte entnommen werden. Mit Hilfe dieser Sample kann für jeden

Kanal eine Zuweisungsfunktion berechnet werden. Hierbei werden nur die Kanäle

benutzt, die zur Charakterisierung der Klasse notwendig sind. Die Klasse Wasser

z.B. besitzt als einzige in den Kanälen 4 und 5 Grauwerte von unter 45 bzw. 42.

Deswegen reichen die Kanäle 4 und 5 zur Beschreibung der Klasse Wasser. Startet

man jetzt die Klassifikation, wird man feststellen, dass nicht alle Segmente

klassifiziert wurden. Bei den nicht klassifizierten Segmenten muss jetzt überprüft

werden, ob für sie ein neue Klasse mit eigenen Samplen gebildet werden muss, oder

ob dieses Segment einer schon bestehenden Klasse zugeordnet werden kann. Der

zweite Fall erfolgt indem die Zuweisungsfunktionen manuell verändert werden. Dies

würde dann erfolgen, wenn z.B. ein Segment in 3 von 4 Kanälen zu einer Klasse

dazu gehört und im 4. Kanal nur einen geringen Grauwertunterschied zum Sample

besitzt.

Abb.25, Sample Editor (hier: eine Ackerfläche)

4. Projekt 1 49

Das manuelle Verändern der Zuweisungsfunktionen ist ein iterativer Prozess, da

nach dem Ändern der Funktion, überprüft werden muss, ob nicht ein anderes

Segment jetzt falsch klassifiziert wurde. Auf diese Weise, also durch Bilden neuer

Klassen und Verändern der Zuweisungsfunktionen, werden allmählich alle Segmente

des Bildes einer Klasse zugeordnet. Zur Überprüfung, ob die Segmente der richtigen

Klasse zugeordnet wurden, wird die Topographische Karte genutzt.

Die Klassen in Level 1 sind nicht identisch mit den CORINE Klassen. Die CORINE

Klasse 211 nicht bewässertes Ackerland wird z.B. durch die 8 Klassen Acker 1 bis

Acker 8 repräsentiert. Diese 8 Klassen werden allerdings in der Class Hierarchy

unter Groups in der Klasse Acker zusammengefasst. Auf diese Weise können sie

alle zusammen angesprochen werden.

Abb.26, Klassifikationsergebnis Level 1

4. Projekt 1 50

4.1.4.3 Klassifikation Level 3

In Level 3 sind große Segmente gebildet worden. Neben dem Grauwert kann also

auch die Form zur Klassifikation genutzt werden. Wird nur der Grauwert zur

Klassifikation genutzt, sind die gleichen Arbeitsschritte notwendig wie in Level 1. Die

Zuweisungsfunktionen können nicht übernommen werden, weil sich der gemittelte

Grauwert von den einzelnen Grauwerten aus Level 1 unterscheidet. Wie bereits

erwähnt, bilden nur Strassen und Wasserläufe charakteristische Formen. Strassen

und Wasserläufe bilden ab einer Breite von 100 m eine eigene Klasse. Ist die Breite

der linienhaften Segmente kleiner als 100 m, was hier der Fall ist, ist es irrelevant zu

welcher Klasse das Segment gehört. Aus diesem Grund bilden Strasse und

Wasserlauf auch nur eine Klasse. Diese Klasse wird durch die Form-Klassifikatoren

„Length/Width“ und „Density“ (Dichte/Kompaktheit) beschrieben.

Abb.27, Klassifikationsergebnis Level 3

4. Projekt 1 51

Abb.27, zeigt das Klassifikationsergebnis von Level 3. Es wird deutlich, dass nicht

alle Wege und Wasserläufe durchgehend als linienhafte Objekte klassifiziert wurden.

An einigen Stellen wurde eine Nutzungsgrenze als linienhaftes Objekt klassifiziert.

Das weißt darauf hin, dass linienhafte Objekte, wie Wasserläufe, Strassen und

Schienen, nicht sicher mit eCognition aus Landsat Bildern klassifiziert werden

können.

4.1.4.4 Klassifikation Level 2

Level 2 kann als Interpretationsfolie angesehen werden, in der die Ergebnisse der

Klassifikationen von Level 1und Level 3 zusammengefasst werden. Die Segmente in

Level 2 sind natürlich Teil des Hierarchischen Netzes und dadurch mit Subobjekten

aus Level 1 und mit Superobjekten aus Level 3 verbunden. Zur Klassifikation werden

die Subobjekte aus Level 1 als eine Art Textur für Level 2 benutzt. eCognition stellt

zur Texturanalyse Operatoren zur Verfügung, die Spektral- und Form-Informationen

der Subobjekte zur Klassifizierung nutzen. Da die Objekte in Level 1 aufgrund schon

bereits erwähnter Gründe keine charakteristische Form besitzen, fallen Form-

Informationen zur Texturanalyse aus. Bei der Texturanalyse mit spektralen

Informationen können zwei Operatoren verwendet werden. Der Grauwert eines

Objektes wird durch Mittelung der Grauwerte von Subobjekten berechnet, hierbei ist

es natürlich auch möglich, eine Standardabweichung für den gemittelten Wert zu

berechnen. Die Standardabweichung des gemittelten Grauwertes ist das Ergebnis

des ersten Operators. Der zweite Operator berechnet den Kontrast, indem er die

Grauwerte der Subobjekte mit dem Grauwert des Objektes vergleicht. Beide

Operatoren erwiesen sich bei Untersuchungen als wenig geeignet für die hier

gestellte Aufgabe. Es war unmöglich bestimmte Standardabweichungen oder

Kontraste einzelnen Klassen sicher zuzuordnen. Dieser Effekt ist damit zu

begründen, dass bei der Segmentierung Flächen mit relativ gleichen Homogenitäten

entstehen und dass die Standardabweichung und der Kontrast auch als Maß für die

Homogenität einer Fläche angesehen werden können.

Aus diesen Gründen benutze ich die Klassifikationen der Subobjekte für die

Texturanalyse. Dieses Verfahren wird von eCognition Relations to Sub Objects

(Verhältnis zu den Subobjekten) genannt. Dieses Verhältnis kann durch vier

Merkmale beschrieben werden: relativer und absoluter Anteil einer Klasse an der

4. Projekt 1 52

Gesamtfläche des Objektes, Existenz einer Klasse und Anzahl der Objekte einer

Klasse. Weil die Größe eines Objektes nicht signifikant auf eine Klasse hinweist und

von der Größe eines Objektes die Absolut-Werte abhängen, sollten nur relative

Werte genutzt werden. Die bloße Existenz einer Klasse, also das vorhanden oder

nicht vorhanden sein, ist ein zu grobes Merkmal. Aus diesen Gründen habe ich mich

für den relativen Anteil einer Klasse als Klassifikationsmerkmal entschieden (Abb.28,

Rel. Area of Wald Sub Objects [1]). Wie hoch der relative Anteil einer Klasse an der

Gesamtfläche des Objektes sein muss, um das Objekt einer Klasse zuordnen zu

können, hängt von der Art der Klasse ab. Setzt sich die Klasse in Level 2 nur aus

einer Klasse in Level 1 zusammen, wie z.B. bei Wasserfläche oder Waldfläche, ist

nur eine Zuweisungsfunktion (Fuzzy-Logic) nötig. Diese sieht dann so aus, dass bis

einen bestimmten relativen Anteils-Wert die Zuweisung gleich null ist, sie ab dann

kontinuierlich ansteigt, bis sie den Wert 100 erreicht. Die Lage der Wendepunkte der

Zuweisungsfunktion hängt von der Klasse ab und unterscheidet sich auch stark von

Klasse zu Klasse. Bei Klassen aus Level 2, die sich aus zwei oder mehreren Klassen

aus Level 1 zusammen setzen können, wie z.B. 112 Nicht durchgängig Bebaut aus

Bebaut 2 und Städtische Grünflächen (beides Klassen aus Level 1), müssen mehrere

Zuweisungsfunktionen gebildet werden.

Die Klassenzuweisung in Level 2 nutzt auch die Klassifikationen in Level 3. Die

relativ großen Segmente in Level 3 haben eine stärkere Grauwertmittelung. Weil

aber bei der Segmentierung relativ homogene Flächen entstanden sind, kann ein

gemittelter Grauwert nicht aus beliebig kontrastreichen Grauwerten

zusammengesetzt sein. Die Klassen in Level 3 stehen für definierte Grauwerte.

Wenn ein Segment in Level 3 als Wasser klassifiziert wurde, kann davon

ausgegangen werden, dass in diesem Segment z.B. kein Wald vorhanden ist, weil

sich die Grauwerte von Wald und Wasser zu stark unterscheiden. Wird ein Segment

allerdings als Wiese klassifiziert, kann nicht sicher davon ausgegangen werden, dass

in diesem Segment z.B. keine Ackerflächen vorhanden sind, weil die Grauwerte von

bestimmten Wiesen und Ackerflächen zu ähnlich sind. Diese Erscheinungen müssen

bei der Klassifikation von Level 2 berücksichtigt werden. Dies erfolgt z.B. indem

gesagt wird, dass das Superobjekt der Klasse Ackerfläche entweder Ackerfläche

oder Wiese sein muss.

Segmente, die nicht oder nur mit geringer Wahrscheinlichkeit zugeordnet werden

können, können häufig aufgrund ihrer Beziehung zu Nachbarobjekten klassifiziert

4. Projekt 1 53

werden. Die Segmente in Level 2 besitzen nicht die erforderliche Größe, um eine

eigene Klasse zu bilden. Wenn z.B. ein Segment zu 100 Prozent von Objekten der

Klasse Wald umgeben ist, kann es der Klasse Wald zugewiesen werden (Abb.28,

Rel. Border to Wald [2] Neighbor Objects). Hierbei ist es unerheblich, ob es sich

wirklich um Wald handelt oder ob das Segment nur aus Gründen der Generalisierung

(hier: Auslassung) als Wald klassifiziert wird. Die relative Grenzlänge zu einer Klasse

muss natürlich auch in einen Zuweisungswert übersetzt werden. Tests haben

ergeben, dass erst bei einem sehr großen relativen Anteil an der Grenzlänge (bei

80% ist der Zuweisungswert erst 50 %) diese Klassifikationsregel genutzt werden

darf. Eine Ausnahme bilden hier die Objekte, deren Superobjekte als Strassen und

Flüsse klassifiziert wurden. Diese Objekte, die wie erwähnt keine eigene Klasse

besitzen, werden der Klasse zugeordnet, zudem sie den längsten Grenzanteil

besitzen (Abb.28, Existance of Strassen/Flüsse Super Objects [1] and Rel. Border to

Wald [2] Neighbor Objects). Folgende Abbildung zeigt die Klassenbeschreibung für

die Klasse Wald in Level 2:

Abb.28, Klassenbeschreibung Wald (Level 2)

Weil bei der Klassifikation von Level 2 auch die Klassifikationen anderer Objekte von

Level 2 genutzt werden (Nachbarschaftsbeziehungen), muss dieser Schritt iterativ

durchgeführt werden. Nach fünf Iterationsschritten sind keine Veränderungen im

Ergebnis zu erkennen.

4. Projekt 1 54

Abb.29, Klassifikationsergebnis Level 2

4.1.5 Classification-based Segmentation Die Klassifikation in Abb.29 könnte ein Endergebnis einer Bodenbedeckungs-

Klassifizierung sein. Für das CORINE Projekt muss aber noch die

Erfassungsuntergrenze von 25 ha bedacht werden. Viele Flächen haben nur kleinere

Ausmaße. Die Flächen, die zu einer Klasse gehören, bestehen auch noch aus vielen

Segmenten. Diese Segmente müssen zu einem Segment zusammen gefasst

werden. Erst jetzt können die Flächen sinnvoll nach ihrer Größe untersucht werden.

Nachdem dies geschehen ist, können auch kleinere Segmente, die zum Teil noch

nicht klassifiziert waren, einfacher zugewiesen werden. Dies ist möglich, weil

Nachbarschafts-Beziehungen jetzt besser und sicherer genutzt werden können

(Begründung folgt später).

4. Projekt 1 55

Um die Segmente in Level 2 wie beschrieben zusammenzufassen, muss erst Level 3

gelöscht werden, da sonst aufgrund des Hierarchischen Netzwerkes die

Segmentgrenzen von Level 3 auch in Level 2 erhalten bleiben würden. Die

fusionierten Segmente bilden ein neues 3. Level.

Die Classification-based Segmentation (Abb.30) ist eine wissensbasierende

Segmentierung. In der Structure Group der Class Hierarchy werden die Klassen

aufgeführt, die größere Segmente bilden sollen. Hierbei ist es auch möglich, zwei

Klassen zu einer Struktur zusammenzufassen. Die Klassen Bebaut 1 und Bebaut 3

werden zu einer Klasse zusammengefasst, weil die CORINE Klasse 1.2.1. Industrie

und Gewerbe sich hauptsächlich aus diesen Klassen zusammensetzt.

Abb.30, Classification based Segmentation

An dieser Stelle ein kleiner Exkurs: In den Legenden in Abb.26 und Abb.27 sind die

Klassen Acker 1, Acker 2 usw. und Bebaut 1, Bebaut 2 usw. zu sehen. Diese

Klassen sind Projekt-Klassen und nicht mit CORINE-Klassen gleichzusetzen. Die

Acker-Klassen werden in der Class Hierarchy unter dem Punkt Groups zu einer

Klasse Acker zusammengefasst. Diese wissensbasierte Zusammenfassung ist nur

möglich, weil diese einzelnen Acker-Klassen nur in der CORINE Klasse 2.1.1. nicht

bewässertes Ackerland vorkommen. Die Klassen Bebaut, Bebaut 2 usw. können

nicht in einer Klasse Bebaut zusammengefasst werden, da die einzelnen Bebaut-

Klassen für verschiedene CORINE Klassen stehen. Die Klasse Bebaut 2 steht z.B.

für 1.1.2. nicht durchgängig Bebaut, Bebaut 3 für 1.2.1. Industrie und Gewerbe und

die Klasse Bebaut 1 steht entweder für 1.1.1. städtisch geprägte Fläche oder 1.2.1.

Industrie und Gewerbe.

4.1.6 Klassifikation Level 3 (neu)

Bei der Software eCognition ist es nicht möglich, die Klassenbeschreibungen nur für

einzelne Level neu zu laden. Weil die Klassifizierungsregeln für das neue Level 3

Level 3(neu).Fusionierte Segmente

Level 2: Klassifikation

4. Projekt 1 56

geändert werden müssen, ist es notwendig die Klassenbeschreibungen aller Level zu

löschen, was zur Folge hat, dass kein Level mehr klassifiziert ist.

In der neuen Klassenbeschreibung werden die Level 1 und Level 2 auf die gleiche

Art und Weise klassifiziert, wie in der alten Klassenbeschreibung, mit der Ausnahme,

dass bei Level 2 diesmal Level 3 nicht genutzt werden kann. Dies wirkt sich vor allem

auf die Segmente aus, deren Supersegmente im alten Level 3 als Strassen und

Flüsse klassifiziert waren. Da diese Flächen aber im neuen Level 3 schon mit den

korrekten Flächen zusammengefasst sind, stellt dies kein Problem dar.

Abb.31, Klassenbeschreibung für Wald (Level 3)

Zur Klassifikation in Level 3 wird die Klassifikation von Level 2 als Textur

herangezogen (Abb.31, Rel. Area of Wald [2] Sub Objects [1]). In Abhängigkeit von

der Klasse muss ein Segment einen bestimmten Anteil von Subobjekten dieser

Klasse in Level 2 besitzen und eine Mindestgröße von 25 ha haben (Abb.31, Area),

um dieser Klasse zugewiesen zu werden. Die Segmente, die jetzt noch nicht

klassifiziert sind, vornehmlich Segmente mit weniger als 25 ha Fläche, werden nun

aufgrund anderer Eigenschaften klassifiziert. Hierbei spielen Nachbarschafts-

Beziehungen in Zusammenwirken mit der Texturanalyse die entscheidende Rolle

(Abb.31, Rel Border to Wald [3] Neighbor Objects). Die Nachbarschafts-Beziehungen

können nach der Classification-based Segmentation in Level 3 wesentlich robuster

genutzt werden, als dies bei der ersten Klassifikation von Level 2 der Fall war. Ein

Beispiel: Die rote Fläche in Abb.32 bildet in Level 2 ein einzelnes Segment. Dieses

Segment besitzt einen Grenzanteil von ca. 80 % zur Klasse Wald. Wenn in Level 2

bereits ein Grenzanteil zur Klasse Wald von 80 % den Zuweisungswert von 90 %

4. Projekt 1 57

bekommen würde, wäre dieses Segment fälschlich der Klasse Wald zugewiesen

worden. In Level 3 ist dieses Segment mit den benachbarten Segmenten der Klasse

Acker zusammengefasst worden, mit der Folge, dass das zusammengefasste

Segment einen wesentlich kleineren Grenzanteil zur Klasse Wald hat. Dem zu Folge

können die Grenzanteile für die Klassifikation in Level 3 wesentlich geringer gesetzt

werden.

Abb.32, Ein Segment

4.1.7 Ergebnisse und Schlussfolgerungen aus Projekt 1 Das Klassifikationsergebnis von Projekt 1 ist die Klassifikation in Level 3. In Projekt 1

soll überprüft werden, in wie weit eine Klassifikation nach CORINE nur mit Landsat

Daten möglich ist. Es ist also sinnvoll, dass Klassifikationsergebnis mit den CLC 90

Ergebnissen zu vergleichen. Die CLC 90 Ergebnisse dienen hier als Referenz-Daten.

Beim visuellen Vergleich der beiden Abbildungen 33 und 34 fällt schnell auf, dass die

Flächen einiger Klassen besser miteinander übereinstimmen, als bei anderen

Klassen. Außerdem ist zu erkennen, dass in den Randgebieten einige Flächen gar

nicht oder auch falsch klassifiziert wurden. Dies hängt hauptsächlich damit

zusammen, dass diese Flächen innerhalb des Kartenausschnittes zu klein sind. Eine

erste Schlussfolgerung vom Projekt 1 lautet dementsprechend, dass die

Eingangsdaten, also die Landsat Szene, größere Ausmaße haben muss, als das zu

klassifizierende Gebiet.

Um zu erläutern, welche CORINE Klassen gut und welche weniger gut klassifiziert

werden können, sind die Klassen in folgende 3 Gruppen eingeteilt.

Gruppe 1: Zu dieser Gruppe gehören die CORINE Klassen, die nur eine Art von

Bodenbedeckung repräsentieren. Die Bodenbedeckungen weisen demzufolge genau

auf die Klasse hin. Zu dieser Gruppe gehören: 141 Städtische Grünflächen, 211

Ackerflächen, 231 Wiesen und Weiden, 311 Laubwald und 512 Wasserflächen.

4. Projekt 1 58

Gruppe 2: Die Klassen dieser Gruppe zeichnen sich dadurch aus, dass sie

Kombinationen von Bodenbedeckungen besitzen können oder zum Teil auch

besitzen müssen. Die Art der Bodenbedeckungen und ihr Verhältnis zueinander ist

ausschlaggebend für die Klassifikation. Zu dieser Gruppe gehören: 111 Durchgängig

Bebaut, 112 nicht durchgängig Bebaut (besteht z.B. aus Grünflächen und bebauten

Flächen), 121 Industrie und Gewerbe, 243 Landwirtschaftliche Flächen und

natürliche Bodenbedeckung

Gruppe 3: Hier sind die Klassen zusammengefasst die Bodennutzungen

beschreiben, die nicht auf eine bestimmte Bodenbedeckung hinweisen. Zu dieser

Gruppe gehört: 142 Sport und Freizeit.

Anmerkung zur Gruppeneinteilung: Die Einteilung ist nur sehr grob und einige

Klassen bilden eher Mischformen, als das sie exakt einer Gruppe zugewiesen

werden könnten.

Die Klassen in Gruppe 1 sind am einfachsten und am genauesten zu klassifizieren.

Innerhalb dieser Gruppe sind die Klassen, deren Bodenbedeckungen besonders

charakteristische spektrale Eigenschaften besitzen, wie Laubwald oder Wasser, noch

sicherer zu klassifizieren. Die Klassen Wiesen und Weiden und Ackerland können je

nach Pflanzenart oder auch Wachstumsstand sehr ähnliche spektrale Werte

besitzen. Die Flächen dieser beiden Klassen liegen oft sehr verschachtelt

nebeneinander. Aufgrund dieser beiden Eigenschaften kann es für größere Flächen

schwer sein, sie der einen oder der anderen Klasse zuzuweisen. Je ausgeglichener

der Anteil beider Flächen an der Gesamtfläche wird, um so unsicherer wird eine

Zuweisung. Dieser Effekt ist auch die Erklärung dafür, dass Teile der Fläche Wiesen

und Weiden aus CORINE als Ackerland klassifiziert wurden. An dieser Stelle ist auch

zu erwähnen, dass die CORINE Daten keine 100 prozentige Richtigkeit besitzen,

sondern dass die Klassifikationen auch von den Interpretationen des Interpreten

abhängig sind.

Die Klassen in Gruppe 2 setzen sich aus mehreren Bodenbedeckungen zusammen.

Auch hier gilt: Je sicherer die einzelnen Bodenbedeckungen klassifiziert werden

können, um so sicherer ist aus den verschiedenen Bedeckungen eine Klasse

abzuleiten. Die Klasse 112 nicht durchgängig Bebaut setzt sich z.B. aus den

Bodenbedeckungen Grünland und Bebaut b (Klassen in Level2) zusammen. Weil

Grünland und Bebaut b sehr gut klassifiziert werden können, ist auch die Klasse 112

sehr gut aus ihr ableitbar. Dieses ist ebenfalls an dem guten Klassifikationsergebnis

4. Projekt 1 59

in Abb.34 zu sehen. Schwieriger wird es, wenn Kombinationen von

Bodenbedeckungen nicht eindeutig auf eine Klasse schließen lassen. Die

Kombination von versiegelten und bebauten Flächen kann z.B. auf die Klasse 111

durchgängig städtische Prägung aber auch auf die Klasse 121 Industrie und

Gewerbe hindeuten. Besonders schwer korrekt zu klassifizieren wird es, wenn die

spektralen Eigenschaften eines Gebietes nicht sicher auf eine Bodenbedeckung

hinweisen. So unterscheiden sich Abbauflächen spektral nur kaum von bestimmten

Ackerflächen (Rohland). Dieses macht es fast unmöglich, Abbauflächen zu

klassifizieren, wie auch der Abb.34 zu entnehmen ist. Der gleiche Effekt tritt auch

zwischen den Klassen Ackerland und Industrie auf. Nur leicht versiegelte Flächen

können die gleichen spektralen Eigenschaften besitzen, wie Ackerflächen.

Zur Gruppe 3 gehört die Klasse 142 Sport und Freizeit. Die Flächen dieser Klasse

werden zum Teil als Grünflächen und zum Teil als Laubwald klassifiziert. Die

Klassifikationen wiedersprechen sich nicht, nur handelt es sich bei der Klassifikation

mit eCognition um Bodenbedeckung und bei CORINE um Bodennutzung. Um von

bestimmten Bodenbedeckungen auf Bodennutzungen zu schließen, werden

Zusatzinformationen benötigt. Dass Zusatzinformationen für die Klassifikation

bestimmter Klassen benötigt werden, ist die Haupterkenntnis aus Projekt 1.

Abb.33, CLC90

4. Projekt 1 60

Abb.34, Klassifikationsergebnis Projekt 1

4. Projekt 2 61

4.2 Projekt 2: Klassifikation mit Landsat und ATKIS Daten

Das Ziel von Projekt 2 ist zu untersuchen, in wieweit Zusatzinformationen in

eCognition genutzt werden können, um eine CORINE Klassifikation aus Landsat

Daten zu unterstützen.

4.2.1 Eingangsdaten Projekt 2

Zum eigentlichen Ziel von CLC 2000 gehört auch eine Landnutzungsänderungs-

Klassifikation. Daher wird in diesem Projekt das gleiche Gebiet wie in Projekt 1

klassifiziert. Allerdings stammen die Satellitenaufnahmen diesmal von Landsat 7

(Abb.35) und wurden im April 2000 aufgenommen. Da in diesem Projekt ein anderes

Satellitenbild benutzt wird, kann auch überprüft werden, in wieweit die

Klassenbeschreibungen aus Projekt 1 für andere Szenen übernommen werden

können. Um die Klassenbeschreibungen übernehmen zu können, muss bei

eCognition die Anzahl der Kanäle und die Pixelgröße identisch sein mit denen aus

dem Ausgangsprojekt (Projekt 1). Deswegen kann auch der panchromatische Kanal

von Landsat 7 nicht genutzt werden. Die Pixelgröße beträgt dementsprechend 25 m

(resampled). Für die nördlichen 700 m der Szene liegen keine ATKIS Daten vor,

daher ist dieses Gebiet herausgeschnitten worden.

In Deutschland werden als Zusatzinformationen für das CLC 2000 Projekt ATKIS

Daten mit zur Verfügung gestellt. Aus diesem Grund werden auch in Projekt 2 ATKIS

Daten (Abb.36) als zusätzliche Informationsträger genutzt. ATKIS Daten liegen

üblicherweise in Vektorformat vor. Da eCognition nur Raster Daten verarbeiten kann,

müssen die ATKIS Daten vorher gerastert werden. Bevor gerastert wird muss

überlegt werden, welche Objektarten überhaupt gerastert werden können und welche

gerastert werden sollten. ATKIS Signaturen können nicht ohne weiteres gerastert

werden und der ATKIS Objektartenkatalog ist viel zu ausführlich für die CORINE

Klassifikation. Weil die Vektor Daten außerdem in verschiedenen Folien liegen, wäre

das Zusammenfassen in einem Raster Bild ohnehin nicht möglich. Deswegen sind 15

Klassen (Objekte) aus ATKIS ausgewählt worden, die eine CORINE Klassifikation

sinnvoll unterstützen.

Die Rasterauflösung der Eingangsdaten muss bei eCognition identisch sein.

Deswegen besteht das ATKIS Raster, wie das Landsat Raster, aus 25 m Pixeln. Eine

höhere Pixelauflösung würde die Lagegenauigkeit von ATKIS zwar besser nutzen

4. Projekt 2 62

und vor allem Detailgetreuer darstellen, aber eine höhere Auflösung war aus

technischen Gründen nicht möglich. Erklärung: Zur Herstellung des ATKIS

Rasterbildes wurde die Software ArcInfo und Erdas Imagine verwendet. Mit ArcInfo

wurden die 30 Klassen ausgewählt und so dargestellt, dass die Grenzpolygone nicht

sichtbar waren. Schwarze Polygone hätten sonst bei der Rasterung die Grauwerte zu

stark beeinflusst. Von dieser Darstellung wurde ein Screen-shot gemacht, der dann

mit Hilfe von Erdas Imagine wieder georeferenziert und in der korrekten Auflösung

gerastert wurde. Diese Herstellungstechnik ermöglicht keine viel bessere

Pixelauflösung als 25 m. Außerdem können die Klassenbeschreibungen aus Projekt

1 nur bei dieser Pixelgröße auch für Projekt 2 genutzt werden. Welche Auswirkungen

diese große Pixelgröße auf die Klassifikation hat, kann den Ergebnissen entnommen

werden.

Abb.35, Landsat 7 (Kanalkombination 4-3-2)

4. Projekt 2 63

Abb. 36, Gerastertes ATKIS Bild

Es existieren zwei Möglichkeiten bei eCognition das ATKIS Bild in das Projekt zu

importieren. Eine Möglichkeit ist, dass ATKIS Bild als weiteren Layer zu benutzen.

Dabei würden die Graustufen des ATKIS Bildes für einzelne Klassen stehen. Das

Problem bei dieser Methode ist, dass bei der Segmentierung Flächen

zusammengefasst werden und einen gemittelten Grauwert bekommen. Der

gemittelte Grauwert aus ATKIS Grauwerten wäre nur schwer einer bestimmten

Bodennutzung zuzuordnen. Infolgedessen fällt diese Möglichkeit des Importes aus.

Die zweite Möglichkeit ist das ATKIS Bild als Thematischen Layer in eCognition zu

importieren. Der Thematische Layer ist nicht von der Segmentierung betroffen. Um

das Bild als Thematischen Layer zu importieren, muss es erst wieder geokodiert

werden. Dies erfolgte durch einfache Grauwertzuweisung mit Hilfe von eCognition in

einem separaten Projekt.

4. Projekt 2 64

4.2.2 Segmentierung

Der grundsätzliche Aufbau des Klassifikationsalgorithmus aus Projekt 1 hat sich

bewährt und soll in Projekt 2 erhalten bleiben. Das heißt, das auch in Projekt 2 ein

Level mit kleinen Segmenten (Grauwerte), ein Level mit großen Segmenten (Form,

Grauwerte) und ein Level mit mittelgroßen Segmenten (Interpretationsfolie) erzeugt

wird. Für die Klassifikation der Interpretationsfolie sollen jetzt auch ATKIS Daten

verwendet werden. Die ATKIS Daten liegen als Thematischer Layer vor. Bei der

Segmentierung mit eCognition kann eingestellt werden, ob der Thematische Layer

zur Segmentierung benutzt wird oder nicht. Wenn der Thematische Layer zur

Segmentierung benutzt wird, werden bei ihm nicht Segmente zusammengefasst, wie

bei den anderen Layern (Landsat Kanäle), sondern die Teilflächen (Flächen einer

Klasse) des Thematischen Layers definieren „Obersegmente“. Das bedeutet, dass

die Segmente, die durch die Segmentierung der Landsat Kanäle entstehen, immer

innerhalb eines „Obersegmentes“ liegen. Beim verwenden dieses Ansatzes würden

die ATKIS Grenzen einfach auf das CORINE Projekt übertragen werden. Dieses

würde dann Sinn machen, wenn die ATKIS Grenzen als korrekt angesehen werden

würden und nur die Klassenart durch die Landsat Daten überprüft werden sollte. Weil

aber die Landsat Bilder einen aktuelleren Stand der Umwelt wiederspiegeln als die

ATKIS Daten, sollen die ATKIS Grenzen nicht berücksichtigt werden und damit auch

nicht der Thematische Layer zur Segmentierung. Um die Informationen eines

Thematischen Layers aber zur Klassifikation nutzen zu können, muss dieser zur

Segmentierung genutzt werden. Um diesen Wiederspruch zu lösen wird unter den

drei Level, die zur Klassifikation der Landsat Bilder genutzt werden, ein neues Level

eingeführt. Dieses Level soll eine „eins zu eins“ Kopie des Thematischen Layers

werden. Um dies zu erreichen, werden in Level 1 kleinst mögliche Segmente (1

Pixel) gebildet und der Thematische Layer wird zur Segmentierung mit benutzt. Die

Level 2 bis 4 entstehen auf die gleiche Art und Weise wie die korrespondierenden

Level 1 bis 3 in Projekt 1 (Abb.37). Das heißt auch, dass sie ohne Verwendung des

Thematischen Layers entstehen.

4. Projekt 2 65

Abb.37, Segmente des Hierarchischen Netzwerkes für Projekt 2

4.2.3 1.Klassifikation Genau wie in Projekt 1 Level 2 soll in Projekt 2 Level 3 die Informationen aus den

anderen Level bündeln und zur Klassifikation nutzen. Level 2 und Level 4 des

Projektes 2 übernehmen die gleichen Aufgaben wie Level 1 und Level 3 in Projekt 1.

Neu ist Level 1, in dem ATKIS Informationen als „Textur“ für Level 3 bereitgestellt

werden (Abb.38).

Abb.38 , Hierarchisches Netz der Klassifikation

Level 4: Große Segmente

Level 2: Kleine Segmente

Pixelebene (Landsat)

Level 3: Interpretationsebene

Level 1: Kleinste Segmente

Thematischer Layer: ATKIS

L 4: Form, Grauwerte

L 2: Grauwerte

L 3: Level 1, Level 2,Level 3, Level 4

Pixelebene: Landsat

L 1: ATKIS Daten

Thematischer Layer:

4. Projekt 2 66

Klassifikation Level 1: Da in der „Interpretationsebene“ Level 3 aus beschriebenen

Gründen nicht direkt auf den Thematischen Layer zurückgegriffen werden kann, soll

Level 1 als Bindeglied zwischen ATKIS Daten und Klassifikation dienen. Hierzu

bekommen die Segmente in Level 1 einfach die entsprechende ATKIS Klasse

zugewiesen. Dieses erfolgt mit Hilfe des Klassifikationsmerkmals „Thematic

Attributes“(Abb.39). Da die Segmente in Level 1 nur aus einem Pixel bestehen, ist

Level 1 mit dem Thematischen Layer und damit mit den ATKIS Daten identisch

(Abb.40).

Abb. 39, Klassenbeschreibung für die ATKIS Klasse Wald (Level 1)

Abb.40, Klassifikationsergebnis Level 1 (ATKIS Klassen)

4. Projekt 2 67

Klassifikation Level 2: In Level 2 soll, wie bereits erläutert, der Vorteil von kleinen

Objekten genutzt werden. Der nur wenig gemittelte Grauwert wird zur Klassifikation

genutzt und das Klassifikationsergebnis dient als Textur für die Klassifikation von

Level 3. Bei der Klassifikation können im Prinzip die Klassen aus Projekt 1 für Level 1

übernommen werden. Allerdings haben sich die Spektralwerte und damit auch die

Grauwerte für die einzelnen Klassen verändert. Dieses liegt vor allem an dem

unterschiedlichen Aufnahmezeitpunkt der beiden Landsat Szenen. Das

Reflektionsverhalten von Vegetation verändert sich im Laufe des Jahreszyklus und

auch die spektralen Eigenschaften der Atmosphäre unterscheiden sich bei

verschiedenen Zeitpunkten. Die einzelnen Zuweisungsfunktionen, die bestimmte

Spektralwerte bestimmten Klassen zuordnen, müssen dementsprechend für die

meisten Klassen neu bestimmt werden. Für einige Klassen kann es notwendig sein,

neue Unterklassen zu bilden oder Unterklassen zu streichen. Die Klasse Acker z.B.

kann je nach Szene aus 6 oder auch aus 10 Unterklassen Acker (Acker 1,...,Acker 6

bzw. Acker 10) bestehen. Dieser gesamte Prozess ist, wie in Projekt 1 beschrieben,

iterativ. Für das Klassifikationsergebnis ist es unerheblich, ob die gleichen oder

andere Flächen als Sample für die Klassen verwändet werden.

Abb. 41, Klassifikation Landsat Daten (Level 2)

4. Projekt 2 68

Klassifikation Level 4: Level 4 entspricht Level 3 aus Projekt 1 und soll vor allem die

Vorteile von großen Segmenten nutzen. Die Vorgehensweise zur Klassifikation von

Level 4 entspricht der von Level 2. Auch hier müssen die Zuweisungsfunktionen für

die Grauwerte neu bestimmt werden. Die Formmerkmale für bestimmte Klassen

(Strassen und Flüsse) können allerdings aus Projekt 1 übernommen werden.

Klassifikation Level 3: Level 3 besteht aus mittelgroßen Segmenten, die groß genug

sind, um die größere Anzahl von Segmenten in Level 1 und Level 2 als „Textur“ zu

benutzen, aber auch klein genug, um nicht auf zwei verschiedenen

Bodennutzungsarten zu liegen. Bei der Klassifikation von Level 3 werden die

Klassifikationen der anderen Level sinnvoll miteinander genutzt. Ein Grundgedanke

hierbei ist, dass Klassifikationsergebnis in Level 2, also aus Landsat Daten, mit dem

Klassifikationsergebnis aus Level 1, also aus ATKIS Daten, zu vergleichen. Deuten

beide Klassifikationsergebnisse auf die gleiche Landnutzung hin, so kann mit hoher

Wahrscheinlichkeit davon ausgegangen werden, dass diese Landnutzung auch in

der Realität vorliegt. Die Abb.42 zeigt die Implementierung dieses Ansatzes am

Beispiel der Klasse 5.1.2 Wasserflächen. Bei diesem Beispiel wird auch deutlich,

dass verschiedene ATKIS Klassen zu einer CORINE Klasse gehören. Die ATKIS

Klassen Absetzbecken und Wasserflächen werden bei CORINE in der Klasse 5.1.2

Wasserflächen zusammengefasst. Welche Rolle Level 4 bei der Klassifikation von

Level 3 spielt, ist ebenfalls an diesem Beispiel gut zu erkennen. In Level 4 wird die

Klasse Strassen und Flüsse aufgrund ihrer Form klassifiziert. Strassen oder Flüsse

bilden erst ab einer Breite von 100 m eine eigene Klasse bei CORINE.

Abb.42, Klassenbeschreibung der Klasse 512 Wasserflächen (Level3)

4. Projekt 2 69

Sind jetzt Strassen oder Flüsse schmaler als diese 100 m, müssen sie einer sie

umgebenden Fläche zugeordnet werden, damit sie nicht unklassifiziert bleiben.

Dieses erfolgt in Level 3 durch die Klassenbeschreibungen: Existance of Strassen

und Flüsse 4 Super Objects [1] und Rel. Border to 512 Wasserflächen Neighbor

Objects (Abb.42).

Das Beispiel einer Klassenbeschreibung für die Klasse 512 Wasserflächen zeigt

relativ einfache Klassifizierungsregeln. Dies ist für alle Klassen der Fall, die sich nur

aus einer Klasse des Landsat Levels (Level 2) ableiten lassen. Zum besseren

Verständnis werden ab jetzt die Klassen in Level 2, die ja zur Klassifikation des

Landsat Bildes genutzt werden, Landsat Klassen genannt. Kompliziertere

Klassenbeschreibungen haben die CORINE Klassen (Level 3), die sich aus

mehreren Landsat Klassen ableiten lassen. Dieses soll die Abb.43 verdeutlichen, in

der die Klasse 2.3.1 Wiesen und Weiden beschrieben ist. Ackerflächen mit jungen

Bewuchs haben häufig ähnliche spektrale Eigenschaften wie Wiesen oder Weiden

und sind deswegen im Landsat Bild nur schwer voneinander zu trennen. Es besteht

also eine gewisse Wahrscheinlichkeit, dass Wiesen und Weiden fälschlicher Weise

als Ackerland klassifiziert werden und andersherum. Wie bereits beschrieben,

werden die Landsat Klassifikation und die ATKIS Klassifikation miteinander

verglichen. Ist z.B. eine Fläche im Landsat Bild als Ackerland und im ATKIS Bild als

Wiese klassifiziert worden, besteht eine hohe Wahrscheinlichkeit, dass die Landsat

Klassifikation falsch war. Diese Wahrscheinlichkeit steigt, wenn diese Fläche zu

einem großen Teil von Flächen mit Wiesen und Weiden umgeben ist. Die

Implementierung dieser Regeln ist in Abb.43 in dem Block unter dem zweiten

and(min) zu finden.

Abb.43, Klassenbeschreibung der Klasse 231 Wiesen und Weiden (Level 3)

4. Projekt 2 70

Der dritte Block stellt wieder den Optimal Fall dar, dass ATKIS und Landsat Daten

übereinstimmen. Auf diese und vergleichbare Weise können alle CORINE Klassen

beschrieben werden.

Bei der Betrachtung des Klassifikationsergebnisses (Abb.44) fallen sofort die

schwarzen Flächen auf. Das sind Flächen, bei denen die ATKIS und die Landsat

Klassifikation nicht übereinstimmten und auch keine anderen Regeln sie einer Klasse

sicher zuordnen konnten. 85 bis 90 % des Gebietes konnten aber einer Klasse

zugeordnet werden. Dieser Wert ist als sehr positiv anzusehen, besonders wenn

berücksichtigt wird, dass die Klassifikationskriterien sehr streng sind und damit die

Klassifikationsgenauigkeit sehr hoch ist.

Abb.44, Klassifikationsergebnis Level 3

4.2.4 Classification-based Segmentation

Ziel dieses Arbeitsschrittes ist die Anzahl der unklassifizierten Flächen weiter zu

minimieren. Viele dieser Flächen sind für den menschlichen Betrachter leicht einer

Klasse zuzuordnen. Das eCognition diese Flächen nicht zuordnen konnte, liegt

häufig an folgendem Grund. Die Abb.45 zeigt eine unklassifizierte Fläche (Rote

Fläche), die der menschlichen Betrachter korrekterweise der Klasse 2.1.1 Ackerland

4. Projekt 2 71

zuordnen würde, weil die Fläche zu 100 % von Ackerland umgeben ist und zu klein

ist, um eine eigene Klasse zu bilden.

Abb.45, Unklassifizierte Flächen

In dem bisherigen Klassifikationsansatz bekamen Flächen bereits bei einem

Grenzanteil von 80 Prozent zu einer Klasse A, eine sehr hohe Wahrscheinlichkeit

zugewiesen, auch dieser Klasse A zuzugehören. Weil aber viele der unklassifizierten

Flächen aus mehreren Segmenten bestehen (Abb.45, Fläche recht unter der roten

Fläche) und sie damit einen Großteil ihrer Grenzen ebenfalls zu unklassifizierten

Segmenten haben, können sie nicht über Nachbarschaftsbeziehungen klassifiziert

werden. Eine Lösung dieses Problems wäre, benachbarte unklassifizierte Segmente

mit Hilfe der Classification-based Segmentation zu einem Segment

zusammenzufassen. Dieses zusammengefasste Segment könnte dann aufgrund von

Nachbarschaftsbeziehungen klassifiziert werden. Ein Problem dieses Ansatzes ist

es, dass auch große unklassifizierte Flächen zu einem Segment zusammengefasst

werden. Und je größer dieses Segment wird, desto größer wird die

Wahrscheinlichkeit, dass Teile dieses Segmentes zu verschiedenen Klassen

gehören. Es müssen also nur die unklassifizierte Flächen zusammengefasst werden,

die zu einer Klasse gehören. Weil aber die Klassenzugehörigkeit dieser Segmente

unbekannt ist, kann dies nicht wissensbasiert geschehen. Die einzige Möglichkeit,

die zur Verfügung steht, ist spektrale Informationen für die Segmentierung zu nutzen,

in der Annahme, dass unklassifizierte Segmente mit gleichen spektralen

Eigenschaften zu einer Klasse gehören. Um diesen Ansatz zu realisieren, sind einige

Arbeitsschritte notwendig. Zur Erinnerung: Level 3 zeigt das vorläufige

Klassifikationsergebnis (Abb.44). Um bei der späteren Segmentierung mit Hilfe der

Spektral-Informationen die Klassengrenzen dieser Klassifikation zu erhalten, werden

die Segmente der einzelnen Klassen durch die Classification-based Segmentation in

4. Projekt 2 72

Level 4 zu einem Segment verbunden (Abb.47). Hierzu muss vorher der alte Level 4

gelöscht werden. Da in Level 4 die Klassengrenzen des vorläufigen Ergebnisses

stecken und weil diese Klassengrenzen aufgrund des Hierarchischen Netzaufbaus

von eCognition bei allen niedrigeren Level auch vorhanden sein müssen, kann Level

3 jetzt neu Segmentiert werden, ohne das die Klassengrenzen verloren gehen. Bei

dieser Segmentierung werden die alten Segmente in Level 3 durch neue ersetzt. Um

Segmente mit den geforderten Eigenschaften (groß genug, um

Nachbarschaftsbeziehungen besser zu nutzen, und klein genug, um nur einer Klasse

anzugehören) zu erzeugen, hat sich der Segmentierungs-Maßstab 20 bewährt.

Abb.46, Level 3 und 4 vor dem Arbeitsschritt

Abb.47, Level 3 und 4 nach dem Arbeitsschritt

4.2.5 2. Klassifikation

Nachdem Level 3 neu erzeugt wurde, soll es jetzt ebenfalls neu klassifiziert werden.

Allerdings müssen für die neuen Segmente in Level 3 auch neue

Klassenbeschreibungen erstellt werden, die den neuen Segmenten gerecht werden.

Außerdem beziehen sich die alten Klassenbeschreibungen auch auf das alte 4.

Level, welches gelöscht wurde. Da es nicht möglich ist, nur für ein Level eine neue

Klassenbeschreibung zu laden, müssen alle Klassenbeschreibungen gelöscht

werden. Das hat zur Folge, dass alle Klassifikationen (auch die für die ersten beiden

Level) gelöscht sind. Als nächstes werden neue Klassenbeschreibungen für die

Level 1 bis 3 geladen. Die Klassenbeschreibungen für Level 1 (ATKIS Level) und

Level 2 (Landsat Level) sind identisch mit ihren Vorgängern. Aus diesem Grund ist

auch die neue Klassifikation vom 1. und 2. Level identisch mit der alten. Erst jetzt

kann der neue Level 3 klassifiziert werden.

Level 4 (alt): wird gelöscht

Level 3 (alt): vorl. Klassifizierungsergebnis

Level 3 (neu): neu Segmentiert

Level 4 (neu): classif.-based Seg. von Lev. 3 (alt)

4. Projekt 2 73

Die Klassifikation vom neuen 3. Level verfolgt einen ähnlichen Ansatz wie die des

alten 3. Level. Der Hauptansatz ist wieder, dass die ATKIS Klassifikation und die

Landsat Klassifikation miteinander verglichen werden. Dieser Ansatz sei noch mal

durch das Beispiel für die Klasse 1.2.1 Industrie und Gewerbe (Abb.48) genauer

beschrieben. Ein Segment muss eines von vier Kriterien erfüllen, um dieser Klasse

zugeordnet zu werden. Zur Erinnerung: Der Operator or(max) , der die 4 Kriterien

verbindet, erzeugt kein „ja“ oder „nein“ für eine Klassenzugehörigkeit, sondern einen

Zuweisungswert, der eine Wahrscheinlichkeit der Klassenzugehörigkeit beschreibt.

Die 4 Kriterien lauten im einzelnen:

��Das Segment besitzt einen bestimmten Anteil der ATKIS Klasse Parkplatz und

einen bestimmten Anteil der Landsat Klasse Schotter 2 als Subobjekt. - Für diese

Landsat Szene reichte diese Beschreibung aus. Für andere Szenen wäre es aber

sinnvoll, Nachbarschaftsbeziehungen zur Klasse 121 mit zu benutzen / Unter

bestimmter Anteil können abhängig von der Klasse ganz unterschiedliche Werte

gemeint sein.

��Das Segment besitzt einen bestimmten Anteil der Landsat Klasse Bebaut 2 als

Subobjekt und einen gewissen Grenzanteil zur Klasse 121 Industrie und

Gewerbe (min. größer 50%). - Die Klasse Bebaut 2 steht für alle bebauten

Flächen. Erst durch die Nachbarschaftsbeziehungen können diese Segmente der

Klasse 121 zugewiesen werden.

��Das Segment besitzt entweder einen bestimmten Anteil der Landsat Klassen

Bebaut b 2 oder Bebaut c 2 oder Schotter 2 und einen bestimmten Anteil der

ATKIS Klasse Industrie als Subobjekt.

��Das Segment besitzt eine gewisse Größe (kleiner als 5 ha) oder ein bestimmtes

Länge/Breite Verhältnis und einen bestimmten Grenzanteil zur Klasse 121

Industrie (min. größer 50%). - Das Kriterium kleiner als 5 ha trifft aufgrund des

relativ großen Segmentierungs-Maßstabes fast nur auf vorher unklassifizierte

Gebiete zu. Das Kriterium Länge/Breite versucht die Wege und Flüsse zu

erkennen, die bei der bisherigen Klassifikation durch die Klasse Strassen und

Flüsse (Level 4) noch nicht detektiert wurden.

4. Projekt 2 74

Abb.48, Klassenbeschreibung 121 Industrie und Gewerbe (Level 3)

Das Ergebnis der Klassifikation von Level 3 zeigt Abb.49. In dieser Abbildung sind

immer noch unklassifizierte Flächen auszumachen, die nicht sicher einer Klasse

zugeordnet werden können. Diese Flächen müssen in einem weiteren Schritt

manuell oder durch heranziehen von weiteren Daten klassifiziert werden. Viele

unklassifizierte Flächen liegen am Rand der Szene. Dass lässt den Schluss zu, das

einige Klassenbeschreibungen in Randgebieten der Szene nicht richtig wirken. Dem

zu Folge sollten die Eingangsdaten einen größeren Ausschnitt des Gebietes

vorhalten, als das Gebiet, das klassifiziert werden soll. Die Klassen sind noch nicht

nach der Erfassungsuntergrenze von 25 ha untersucht worden. Erst müssen die

unklassifizierten Flächen einer Klasse zugewiesen werden, weil sich dadurch die

Größe einer Klasse noch ändern kann. Dass es mit eCognition möglich ist, nur

Klassen mit einer Größe von mehr als 25 ha zu klassifizieren, wurde bereits in

Projekt 1 bewiesen.

4. Projekt 2 75

Abb.49, Klassifikationsergebnis von Projekt 2

4.2.6 Ergebnisse Projekt 2

Zur Beurteilung eines Klassifikationsergebnisses ist die Konfusionstafel (engl. Error

Matrix) ein geeignetes Mittel (Ute Gangkofner,1996). In ihr werden das

Klassifikationsergebnis und die Referenzdaten gegenüber gestellt. Zum Erzeugen

von Referenzdaten werden für alle in der Realität vorkommenden Klassen

Stichproben genommen, deren Lage zufällig ist. Um für alle Klassen ausreichend

Stichproben zu bekommen, werden zuerst die Flächen für alle Klassen gesucht und

dann, innerhalb dieser Flächen, die Stichproben zufällig verteilt. Dieser Schritt ist

notwendig, weil sonst die Klassen, die nur wenig Fläche bedecken, zu wenig

Stichproben bekommen würden oder aber die Anzahl der Stichproben zu groß

werden würde. Die Klassenzuordnung der Stichproben erfolgte mit Hilfe der Landsat

Daten, der ATKIS Daten, einer Topographischen Karte und Ortskenntnisse. Die

4. Projekt 2 76

Stichproben können als TTA (Training and Test Area, Abb.50) in eCognition

importiert werden.

Abb.50, TTA Maske für die Konfusionstafel

Klasse Pixel 111 112 121 131 141 143 211 231 311 512 Unklassifiziert

111 Durchgängig Bebaut 135 81,50 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 18,50

112 Nicht durchgängig Bebaut 127 0,00 100,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00

121 Industrie 82 0,00 0,00 72,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 28,00

131 Abbaufläche 61 0,00 0,00 0,00 83,60 0,00 0,00 0,00 0,00 0,00 0,00 16,40

141 Städtische Grünflächen 193 0,00 0,00 0,00 0,00 92,70 0,00 0,00 0,00 7,30 0,00 0,00

143 Sport und Freizeit 98 0,00 6,10 0,00 0,00 0,00 68,40 15,30 0,00 0,00 0,00 10,20

211 Ackerflächen 230 0,00 0,00 0,00 0,00 0,00 0,00 100,00 0,00 0,00 0,00 0,00

231 Wiesen und Weiden 148 0,00 0,00 0,00 0,00 0,00 0,00 18,20 81,80 0,00 0,00 0,00

311 Laubwald 272 0,00 0,00 0,00 0,00 0,00 0,00 4,40 0,00 95,60 0,00 0,00

512 Wasserflächen 455 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 96,30 3,70 Abb. 51, Konfusionstafel

Die Konfusionstafel (Abb.51) lässt sich wie folgt lesen. Die Klasse 1.1.1 Durchgängig

Bebaut hat einen Stichprobenumfang von 135 Pixel als Referenzdaten. 81,5 %

4. Projekt 2 77

dieser Pixel wurden bei der Klassifikation auch dieser Klasse korrekt zugeordnet. 0 %

der Pixel wurden unkorrekt einer anderen Klasse zugeordnet. 18,5 % der Pixel sind

bei der Klassifikation unklassifiziert geblieben. Bei der Betrachtung der Werte in der

Konfusionstafel ist zu erkennen, dass die korrekte Klassenzuweisungen für einzelne

Klassen zwischen 68,4 % und 100% liegen. Wobei 100 % für die korrekte Zuweisung

mit Sicherheit ein zu optimistischer Wert ist, der durch den relativ kleinen

Stichprobenumfang begründet ist. Die einzelnen Werte zeigen nur Tendenzen und

keine absoluten Werte.

Bei der Fehlerbetrachtung sind nicht die unklassifizierten Flächen, sondern die falsch

klassifizierten Flächen ein Problem. Hier fallen vor allem die Klassen 2.3.1 Wiesen

und Weiden und 1.4.3 Sport und Freizeit, mit einen Anteil der falsch zugewiesenen

Flächen von 18,2 % bzw. 21,4 %, auf. Die 18,2 % sind wegen des geringen

Stichprobenumfangs ein zu hoher Wert, aber aufgrund des Aufnahmezeitpunktes

(April) und dem davon abhängigen Wachstumszyklus der Pflanzen kommt es zu

Klassifizierungsunsicherheiten zwischen Ackerflächen und Wiesen. Ein späterer

Aufnahmezeitpunkt könnte dieses Problem minimieren. Die 21,4 % inkorrekter

Zuweisung der Klasse 1.4.3 Sport und Freizeit kann durch eine Unschärfe der

Klassendefinitionen bei CORINE begründet werden, denn ein Grossteil der

inkorrekten Klassifikation kann auf ein bewaldetes Tiergehege zurückgeführt werden.

Ein öffentliches Tiergehege kann bei CORINE sowohl der Klasse 1.4.3 Sport und

Freizeit als auch einer Wald Klasse zugeordnet werden. Das Gehege wurde bei

ATKIS als Laubwald geführt und dadurch wurde diese Fläche auch als Laubwald

klassifiziert. In den Referenzdaten wird dieses Gebiet aber als 1.4.3 Sport und

Freizeit geführt. Die teilweise auftretende Unschärfe der Klassendefinitionen bei

CORINE führte in diesem Fall zu der Fehlklassifikation.

Die beiden großen unklassifizierten Flächen in der Mitte des Bildes können auf

Landnutzungsänderungen zwischen dem Erfassungszeitpunkt von ATKIS und dem

Aufnahmezeitpunkt von Landsat zurückgeführt werden. Während in der Landsat

Szene dieses Gebiet bereits Bebaut ist (Expo-Gelände), weisen die ATKIS Daten für

dieses Gebiet noch Ackerflächen aus. Das lässt den Schluss zu, dass Flächen, in

denen ATKIS nicht mehr die reale Bodennutzung vorhält, in den meisten Fällen

unklassifiziert bleiben. Es ist deshalb zwingend notwendig die neuesten ATKIS Daten

zu verwenden.

4. Projekt 2 78

Ansonsten zeigen die hohen Anteile der korrekten Klassifikation in der

Konfusionstafel und auch das Klassifikationsergebnis in Abb.49, dass eine

automatische CORINE-Klassifikation aus Landsat Daten und ATKIS Daten in weiten

Teilen möglich ist. Es bleibt allerdings notwendig einige Gebiete manuell oder mit

Hilfe anderer Software Produkte zu klassifizieren.

5. Zusammenfassung 79

5. Kurze Ergebniszusammenfassung aus Projekt 1 und Projekt 2

Die Frage, ob die Software eCognition für Zwecke der CORINE Landnutzungs-

Klassifikation verwendet werden kann, kann positiv beantwortet werden, wenn auch

mit einigen Einschränkungen. Klassen, die nur eine Bodenbedeckung beinhalten,

können schon sehr gut nur aus Landsat Szenen klassifiziert werden, vorausgesetzt

die Landsat Szene wurde zu einem geeigneten Zeitpunkt (z.B. Mai) aufgenommen.

Um Klassen, die eine Bodennutzung beschreiben, zu klassifizieren, sind häufig

ATKIS Daten notwendig. Es ist anzunehmen, dass das Klassifikationsergebnis noch

verbessert wird, wenn die ATKIS Daten in einer besseren Auflösung hergestellt und

verwendet werden können. Eine höhere Auflösung der ATKIS Daten würde auf jeden

Fall bedeuten, dass aus ihnen linienhafte Objekte wie z.B. Strassen oder Flüsse

besser detektiert werden können. Dieses wäre sehr wichtig für die Klassifikation, weil

es mit eCognition häufig unmöglich ist, z.B. eine Autobahn zu klassifizieren. Dafür

reicht die Auflösung von 25 m Pixelgröße des Landsat Bildes nicht aus.

Die beiden Projekte haben weiterhin aufgezeigt, dass der Klassifikationsalgorithmus

nur dann an den Rändern der Klassifikationsgebiete funktioniert, wenn die

Eingangdaten über die Grenzen des Klassifikationsgebietes hinausragen.

Projekt 2 machte deutlich, dass es generell möglich ist, die Klassenbeschreibungen

und damit auch den Klassifikationsalgorithmus auf andere Projekte zu übertragen. Es

ist aber notwendig, die Grauwert-Zuweisungen für jede Szene neu durchzuführen.

6. Ausblick 80

6.Ausblick Ziel bei der Klassifikation nach CORINE ist es, die Landnutzungs-Klassifikation und

die Landnutzungsänderungs-Klassifikation so weit wie möglich zu automatisieren.

Diese Diplomarbeit kann natürlich nur erste Schritte zu diesem Endziel aufzeigen. Es

müssen noch weitere Untersuchungen folgen, um das gesteckte Ziel zu erreichen.

Als erstes müsste die Übertragbarkeit des Klassifikationsalgorithmus auf andere

Gebiete getestet werden. In anderen Gebieten treten dann auch andere CORINE

Klassen auf, die im Untersuchungsgebiet nicht vorkamen. Zum Beispiel wurde im

Untersuchungsgebiet die Klassifizierung der Klasse 3.1.2 Nadelwälder nicht

überprüft. Es muss also auch noch untersucht werden, ob die übrigen CORINE

Klassen ebenfalls mit der Software eCognition erfasst werden können.

Die Auflösung des ATKIS Bildes im Projekt 2 wird der eigentlichen Genauigkeit der

ATKIS Daten nicht gerecht. Es müssen andere Ansätze für die Vektor-Raster

Transformation gefunden werden, die bessere Ergebnisse liefern. Wenn das

Importieren höher aufgelöster Rasterdaten es nicht ermöglicht linienhafte Objekte

(z.B. Strassen) besser zu erfassen, muss untersucht werden, in wieweit andere

Software Produkte für die Lösung dieses Problems genutzt werden können.

Die Ergebnisse dieser Diplomarbeit sollten auch noch mit den Ergebnissen anderer

Forschungsarbeiten verglichen werden. Hierbei wäre von besonderem Interesse,

welche Ergebnisse andere Software Produkte liefern. Auch könnte Untersucht

werden, welche Klassifikationsergebnisse bei der Verwendung von anderen

Eingangsdaten (z.B. IKONOS Daten) entstehen.

Untersuchungen zur automatisierten Erfassung der Landnutzungsänderung

zwischen zwei CORINE Kampagnen waren nicht Teil dieser Diplomarbeit. Hierauf

wird aber in Zukunft ein Schwerpunkt der Forschung liegen.

7. Literatur 81

7. Literaturverzeichnis

Baatz/Schäpe 1999 Baatz, M., Schäpe, A.: eCognition, Online Hilfe und

Software Tutorial. München: Definiens AG, 1999

Gangkofner 1996 Gangkofner, U.: Methodische Untersuchung zur Vor- und

Nachbereitung der Maximum Likelihood Klassifizierung optischer

Fernerkundungsdaten, München: GEOBUCH - Verlag, 1996

Kraus/Schneider 1988 Kraus, K., Schneider, W.: Fernerkundung Band

1,Physikalische Grundlagen und Aufnahmetechniken. Bonn: Ferd. Dümmlers

Verlag, 1988

Kraus 1990 Kraus, K.: Fernerkundung Band 2, Auswertung photographischer

und digitaler Bilder, Bonn: Ferd. Dümmlers Verlag, 1990

Schmidt 2000 Schmidt, R.: Untersuchung des Bildanalysesystems eCognition,

Hannover, 2000

Stolz 1998 Stolz, R.: Die Verwendung der Fuzzy Logic Theorie zur

wissensbasierten Klassifikation von Fernerkundungsdaten, München:

GEOBUCH - Verlag, 1998

CORINE Land Cover Datenerhebungsanleitung für CORINE, Statistisches

Bundesamt, 1996

CORINE Land Cover – Update 2000 Technical Reference Document, EEA, 2000

eCognition User Guide der Software eCognition, München, 2000

7. Literatur 82

Internetadressen

http://www.definiens.com Homepage der Firma Definiens

http://etc.satellus.se Homepage des European Topic Centre

http://org.eea.ea.int Homepage der Europäischen Umweltagentur

http://www.statistik-bund.de/stabis Homepage des Statistischen Bundesamtes

http://www.jrc.org Homepage des Joint Research Centre

(Ispra)

8. Anhang 83

8. Anhang: Inhaltsverzeichnis der CD:

Projekt 1:

CORINE90.dpr Gesamtes Projekt 1

Landsat92.img Landsat Szene (als Layer importieren)

CORINE90Prot.dpt Ablauf - Protokoll von Projekt 1

CORCLASSHI.dkb 1.Klassenbeschreibung

CORCLASSHI2.dkb 2.Klassenbeschreibung

TTACORINE90.ASC Test Area (Referenzdaten CLC90)

TABLECORINE90TTA.txt Anhang zu TTACORINE90

Projekt 2:

CORINE2000.2bb.dpr Gesamtes Projekt 2

Landsat2000kl.img Landsat 7 Szene (Kanal 1 – 5 und 7)

Landsat20001kl.img Landsat 7 (Kanal 6/TIR)

Cor2000.2bb.dpt Ablauf – Protokoll von Projekt 2

Cor2000.2.dkb 1.Klassenbeschreibung

Cor2000.2bb.dkb 2.Klassenbeschreibung

8. Anhang 84

Atkis2000layer2.ASC ATKIS Daten (Thematischer Layer)

Atkis2000table2.txt Anhang für Atkis2000layer2

TTA.ASC Test Area (Referenz Daten)

TTAtable.txt Anhang für TTA

Diplomarbeit.doc Word Dokument der Diplomarbeit