104
Sensor-Aktor-Systeme Intelligente Universität Karlsruhe (TH), Fakultät für Informatik Institut für Technische Informatik Lehrstuhl für Intelligente Sensor-Aktor-Systeme (ISAS) Prof. Dr.-Ing. Uwe D. Hanebeck Diplomarbeit Statistische Bildrekonstruktion f¨ ur die 3D Ultraschall-Computertomographie unter Verwendung des (erweiterten) Kalman Filters Uwe Mayer 31. M¨ arz 2008 Referent: Prof. Dr.-Ing. Uwe D. Hanebeck Betreuer: Dipl.-Inform. Gregor Schwarzenberg

Diplomarbeit - ipe.fzk.deruiter/DPA/KalmanFilterRekon.pdf · (erweiterten) Kalman Filters Uwe Mayer 31. M arz 2008 Referent: Prof. Dr.-Ing. Uwe D. Hanebeck Betreuer: Dipl.-Inform

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

  • Sensor-Aktor-Systeme

    Inte

    llige

    nte Universität Karlsruhe (TH), Fakultät für Informatik

    Institut für Technische Informatik Lehrstuhl für Intelligente Sensor-Aktor-Systeme (ISAS)

    Prof. Dr.-Ing. Uwe D. Hanebeck

    Diplomarbeit

    Statistische Bildrekonstruktion für die 3D

    Ultraschall-Computertomographie unter Verwendung des

    (erweiterten) Kalman Filters

    Uwe Mayer

    31. März 2008

    Referent: Prof. Dr.-Ing. Uwe D. Hanebeck

    Betreuer: Dipl.-Inform. Gregor Schwarzenberg

  • Eidesstattliche Erklärung

    Hiermit erkläre ich, die vorliegende Diplomarbeit selbstständig angefertigt zuhaben. Die verwendeten Quellen sind im Text gekennzeichnet und im Literatur-verzeichnis aufgeführt.

    Karlsruhe, 31. März 2008

    Uwe Mayer

  • Inhaltsverzeichnis

    Abbildungsverzeichnis VI

    Tabellenverzeichnis VII

    Zusammenfassung 1

    1 Einleitung 3

    1.1 Brustkrebs und Diagnoseverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . 3

    1.2 Ultraschall-Computertomographie . . . . . . . . . . . . . . . . . . . . . . . . . . 4

    1.3 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

    2 Grundlagen 9

    2.1 Ultraschall–Computertomographie . . . . . . . . . . . . . . . . . . . . . . . . . . 9

    2.1.1 Physikalischer Aufbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

    2.1.2 Konventionelle Bildgebung . . . . . . . . . . . . . . . . . . . . . . . . . . 12

    2.2 Systemtheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

    2.2.1 Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

    2.2.2 Messmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

    2.2.3 Schätzverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

    2.3 Grundlagen der Statistik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

    2.3.1 Wahrscheinlichkeitsdichten . . . . . . . . . . . . . . . . . . . . . . . . . . 17

    2.3.2 Zentaler Grenzwertsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

    2.3.3 Chi-Quadrat Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

    2.3.4 Orthogonalitätsprinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

    I

  • Inhaltsverzeichnis

    3 Zustandsschätzung stochastischer Systeme 22

    3.1 Methode der kleinsten Quadrate . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

    3.2 Rekursive Methode der kleinsten Quadrate . . . . . . . . . . . . . . . . . . . . . 23

    3.3 Das Kalman Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

    3.3.1 Lineares Systemmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

    3.3.2 Lineares Messmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

    3.3.3 Kalman Filterschritt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

    3.3.4 Das erweiterte Kalman Filter . . . . . . . . . . . . . . . . . . . . . . . . 35

    3.4 Daten-Assoziation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

    3.4.1 Gating . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

    4 Entwicklung der Rekonstruktion 39

    4.1 Untersuchung der Informationsquellen . . . . . . . . . . . . . . . . . . . . . . . 39

    4.1.1 Transmissionspulse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

    4.1.2 Auflösungsvermögen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

    4.1.3 Wandlercharakteristik . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

    4.1.4 Eindringtiefe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

    4.1.5 Pulsdetektierte Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

    4.1.6 Schallgeschwindigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

    4.1.7 Objekteigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

    4.1.8 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

    4.2 Allgemeine Vorgehensweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

    4.2.1 Annahmen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

    4.2.2 Ansatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

    4.3 Aufbau des Kalman Filters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

    4.3.1 System- und Messmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

    4.3.2 Shaping Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

    4.3.3 Direkt korrelierte Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

    II

  • Inhaltsverzeichnis

    5 Evaluierung 59

    5.1 Vorverarbeitung der Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

    5.1.1 Pulsdetektion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

    5.1.2 Auswahl des Rekonstruktionsvolumen . . . . . . . . . . . . . . . . . . . . 61

    5.1.3 Dimensionierung der Kovarianzmatrizen . . . . . . . . . . . . . . . . . . 62

    5.1.4 Festlegung der Schallgeschwindigkeit . . . . . . . . . . . . . . . . . . . . 63

    5.1.5 Einschränkung und Vorverarbeitung der Daten . . . . . . . . . . . . . . . 63

    5.1.6 Wahl des Messfehlers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

    5.1.7 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

    5.2 Vergleiche zur konventionellen Rekonstruktion . . . . . . . . . . . . . . . . . . . 65

    5.2.1 Visueller Vergleich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

    5.2.2 Signaldifferenz im Verhältnis zum Hintergrundrauschen . . . . . . . . . . 66

    5.2.3 Bildartefakte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

    5.3 Rekonstruktion des Fadenphantoms . . . . . . . . . . . . . . . . . . . . . . . . . 68

    5.3.1 SAFT Rekonstruktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

    5.3.2 Kalman Filter Rekonstruktion . . . . . . . . . . . . . . . . . . . . . . . . 74

    5.3.3 Shaping Filter Rekonstruktion . . . . . . . . . . . . . . . . . . . . . . . . 76

    5.3.4 Direkt korrelierte Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

    5.4 Rekonstruktion am Brustphantom . . . . . . . . . . . . . . . . . . . . . . . . . . 83

    6 Diskussion und Ausblick 87

    6.1 Diskussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

    6.2 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

    Literaturverzeichnis 91

    III

  • Inhaltsverzeichnis

    IV

  • Abbildungsverzeichnis

    1.1 Beispiel für Speckle-Rauschen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

    1.2 Rekonstruktionsartefakte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

    2.1 USCT Demonstrator . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

    2.2 Transducer Array System (TAS) . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

    2.3 Anregungspuls & Frequenzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . 11

    2.4 Systematische Darstellung eines Punktstreuers . . . . . . . . . . . . . . . . . . . 12

    2.6 Orthogonalitätsprinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

    3.1 Systematischer Aufbau des Kalman Filter . . . . . . . . . . . . . . . . . . . . . 33

    4.1 Auflösungsvermögen eines A-Scans . . . . . . . . . . . . . . . . . . . . . . . . . 40

    4.2 Wandlercharakteristik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

    4.3 Modellierung des Messfehlers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

    4.4 Auswirkung einer Messung auf das Kalman Filter . . . . . . . . . . . . . . . . . 54

    5.1 Abbildung der zwei Phantome . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

    5.2 Vergleich zwischen A-Scan und pulsdetektierten Daten . . . . . . . . . . . . . . 60

    5.3 Software zur Platzierung der Kalman Filter . . . . . . . . . . . . . . . . . . . . 61

    5.4 Dimensionierung der Fehler-Kovarianzen . . . . . . . . . . . . . . . . . . . . . . 62

    5.5 Bildartefakt am Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

    5.6 Exemplarische Darstellung der Vorverarbeitung . . . . . . . . . . . . . . . . . . 69

    5.7 SAFT Rekonstruktion (Fadenphantom) . . . . . . . . . . . . . . . . . . . . . . . 71

    5.8 SAFT Rekonstruktion (Profilansicht, Fadenphantom) . . . . . . . . . . . . . . . 72

    5.9 Kalman Filter Rekonstruktion (Fadenphantom) . . . . . . . . . . . . . . . . . . 75

    V

  • Abbildungsverzeichnis

    5.10 Ausschnitt aus der Kalman Filter Rekonstruktion (Fadenphantom) . . . . . . . 76

    5.11 Shaping Filter Rekonstruktion: Messfehler (Fadenphantom) . . . . . . . . . . . . 78

    5.12 Shaping Filter Rekonstruktion (Fadenphantom) . . . . . . . . . . . . . . . . . . 80

    5.13 Rekonstruktion mit geschätztem Messfehler (Fadenphantom) . . . . . . . . . . . 81

    5.14 Rekonstruktion über einen hochdimensionalen Zustand (Fadenphantom) . . . . 82

    5.15 SAFT & Kalman Filter Rekonstruktion (Brustphantom) . . . . . . . . . . . . . 84

    5.16 Shaping Filter Rekonstruktion (Brustphantom) . . . . . . . . . . . . . . . . . . 86

    VI

  • Tabellenverzeichnis

    2.1 Kenngrößen des USCT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

    2.2 Abstände zwischen Sender- & Empfängerelementen . . . . . . . . . . . . . . . . 11

    3.1 Zusammenfassung der Größen des Systemmodells . . . . . . . . . . . . . . . . . 27

    3.2 Zusammenfassung der Größen des Messmodells . . . . . . . . . . . . . . . . . . 28

    3.3 Zusammenfassung der Kalman Filter Gleichungen . . . . . . . . . . . . . . . . . 34

    3.4 Zusammenfassung der erweiterten Kalman Filter Gleichungen . . . . . . . . . . 36

    4.1 Zusammenfassung der hier verwendeten erweiterten Kalman Filter Gleichungen . 53

    5.1 Übersicht der Vorverarbeitungsschritte . . . . . . . . . . . . . . . . . . . . . . . 65

    5.2 Rekonstruktionsparameter nach der Vorverarbeitung (Fadenphantom) . . . . . . 69

    5.3 SDNR-Werte der SAFT Rekonstruktion (Fadenphantom) . . . . . . . . . . . . . 73

    5.4 SDNR-Werte der Kalman Filter Rekonstruktion (Fadenphantom) . . . . . . . . 76

    5.5 SDNR-Werte zur Shaping Filter Rekonstruktion (Fadenphantom) . . . . . . . . 79

    5.6 SDNR-Werte zur Rekonstruktion über einen hochdimensionalen Zustand . . . . 83

    5.7 Rekonstruktionsparameter nach der Vorverarbeitung (Brustphantom) . . . . . . 85

    VII

  • Tabellenverzeichnis

    VIII

  • Zusammenfassung

    Am Forschungszentrum Karlsruhe wird ein dreidimensionaler Ultraschall-Computer-

    tomograph (USCT) zur Brustkrebsfrüherkennung entwickelt. Das Gerät besteht aus

    einem Zylinder, das an der Innenseite mit Sensoren bestückt ist. Über die Aufnahme

    der Signale hinaus lassen sich eine Vielzahl weiterer Zusammenhänge angeben, die

    nicht direkt über die aufgenommenen Daten quantifizierbar sind.

    Bei der Rekonstruktion von dreidimensionalen Bildern wird zur Zeit von einer Rei-

    he vereinfachender Annahmen ausgegangen, damit der Algorithmus einfach gehalten

    werden kann. Dadurch ist es schwieriger die Rekonstruktion durch zusätzliche Infor-

    mationen so zu steuern, dass zu einer verbesserten Bildgebung gelangt werden kann.

    Daraufhin wurde ein statistischer Rekonstruktionsansatz entwickelt und implemen-

    tiert, der auf Grundlage des erweiterten Kalman Filters das vermessene Objekt als

    Wahrscheinlichkeitsdichte schätzt. Erwartet wurden davon bessere Möglichkeiten auf

    die Rekonstruktion Einfluss zu nehmen, um somit zu einer besseren Bildrekonstruk-

    tion gelangen zu können.

    Mit der implementierten Bildrekonstruktion konnte eine erheblich höhere Flexibilität

    erreicht werden, bei der die rekonstruierten Bilder eine vergleichbare oder bessere

    Qualität zu bisherigen Rekonstruktionen aufweisen. Das gesamte Verfahren konnte

    in zwei Teile getrennt werden. Der berechnende Teil kann leicht um existierende Ver-

    fahren zur Bildverbesserung erweitert werden und lässt sich elegant parallelisieren.

    Getrennt davon wird die Bildgenerierung verwendet um den berechneten Zustand als

    Bild darzustellen. Die gute Bildqualität nach der Rekonstruktion konnte rechnerisch

    durch eine höhere Signaldifferenz im Verhältnis zum Hintergrundrauschen (SDNR)

    und optisch durch schärfer dargestellte Objekte im Bild bestätigt werden. Über die

    statistischen Eigenschaften des Kalman Filters ist es möglich jeden einzelne Refle-

    xion während der Zustandsschätzung zu beeinflussen. Das implementierte Verfahren

    erreicht trotz aller Berechnungen noch eine Bearbeitungsdauer, die in der gleichen

    Größenordnung liegt, wie sie auch von bisher verwendeten Methoden benötigt wird.

    Zu den größten Nachteilen gehört die erhöhte Komplexität des Verfahrens. Es ist nicht

    immer einfach die berechneten Größen in ein Verhältnis zueinander zu setzen, so dass

    der Algorithmus gute Resultate liefert. Die hohe Anzahl der variablen Parameter

    erschwert diesen Umstand zusätzlich. In seiner aktuellen Implementierung baut das

    vorgestellte Verfahren auf sehr einfache statistische Modelle auf. Diese können im

    Rahmen weiterer Forschungen genauer spezifiziert werden um weitere Verbesserungen

    zu erzielen.

    Während mit dem hier entwickelten Ansatz eine statistische Grundlage zur Bildre-

    konstruktion zur Verfügung steht, bleibt der beste Weg zur Wahl der vielzähligen

    Parameter Gegenstand weiterer Forschungsarbeiten.

    1

  • Zusammenfassung

    2

  • KAPITEL 1

    Einleitung

    1.1 Brustkrebs und Diagnoseverfahren

    Das Mammakarzinom (Brustkrebs) ist eine bösartige Tumorerkrankung der Brustdrüse. Der

    primäre Brusttumor selbst ist für die Frau keine tödliche Erkrankung, trotzdem sterben jährlich

    ca. 18 000 Frauen in Deutschland an Brustkrebs. Dies ist mit 17% die am Häufigsten zum Tode

    führende Form des Krebses [15]. Dieser scheinbare Widerspruch erklärt sich dadurch, dass die

    weibliche Brust zwar kein lebenswichtiges Organ ist, sich aber bösartige Krebszellen durch das

    Lymphsystem und den Blutkreislauf verteilen und andere, lebensnotwendige Organe befallen

    (Metastasen).

    Mit der Größe der Mammakarzinome bei der ersten Diagnose von Brustkrebs steigt auch die

    Wahrscheinlichkeit der Metastasenbildung. Vorsorge und eine frühe sichere Diagnose sind daher

    Schlüsselpunkte im Kampf zur Verringerung der Sterblichkeitsrate durch Brustkrebs.

    Die Diagnose erfolgt bei jungen Frauen vorallem durch Abtastung der Brust durch den Frau-

    enarzt oder die Patientin selbst. Die mittlere Größe eines Tumors zum Diagnosezeitpunkt ist

    2 cm. Die Wahrscheinlichkeit, dass sich zu diesem Zeitpunkt schon Metastasen gebildet haben

    beträgt ca. 60%.

    Bei kleinen Brüsten mit viel Drüsengewebe wird auch die Sonographie als Diagnoseverfahren an-

    gewandt. Dabei handelt es sich um ein 2D Ultraschallverfahren, in dem mit einem stabförmigen

    Ultraschallkopf die Brust abgefahren wird, um Schichtbilder zu erzeugen. Auf einem Monitor

    kann dann das Gewebe nach verdächtigen Strukturen abgesucht werden. Diese Untersuchungs-

    methode ist schmerzfrei und zeichnet sich durch eine fehlende Strahlenbelastung aus. Als Nach-

    teil ist unter anderem Bilder von niedriger Bildqualität zu nennen. Dies liegt beispielsweise an

    der starken Dämpfung des Schalls mit zunehmender Tiefe und dem Speckle-Rauschen, (Abb.

    1.1) welches die rekonstruierten Bilder überlagert.

    Ab der Menopause hat jede Frau in Deutschland das Recht auf eine gesetzliche Vorsorgeuntersu-

    chung durch Mammographie. Dabei wird die Brust zwischen zwei Plexiglasplatten gepresst und

    mittels Röntgenstrahlen ein zweidimensionales Bild von oben und von der Seite erstellt. Das

    Verfahren hat eine hohe Auflösung von ca. 0, 1 mm2. Dir durchschnittliche Größe eines Tumors

    zum Diagnosezeitpunkt ist ca. 1 cm. Die Metastasenwahrscheinlichkeit liegt dort immer noch

    3

  • Kapitel 1. Einleitung

    Abbildung 1.1: Beispiel für Speckle-Rauschen: Diese Abbildung zeigt das für die Sonographie typische Speckle-

    Rauschen (Quelle: [2]). Bei der grün markierten Region handelt es sich möglicherweise um eine bösartige

    Krebsgeschwulst.

    bei ca. 30%. Nachteilig wirkt sich die erhöhte Strahlenbelastung aus, weshalb dieses Verfahren

    bei jüngeren Frauen nicht angewandt wird um das Krebsrisiko nicht zu erhöhen. Außerdem ist

    in jungem Alter der Anteil des Drüsengewebes in der Brust höher, was für schlechtere Bilder

    sorgt. Eine Mammographie erzeugt nur Projektionsbilder der Brust. Durch die Kompression

    wird die Lokalisierung eines Tumors zusätzlich erschwert.

    Aus Kostengründen wird die Magnetresonanztomographie (MRT) bei Vorsorgeuntersuchungen

    nicht eingesetzt.Bei diesem Verfahren, auch Kernspintomographie genannt, wird der Frau ein

    Kontrastmittel gespritzt und mittels Magnetwellen ein Volumenbild der Brust erstellt. Diese

    Untersuchungsmethode dauert zwar länger, ist aber schmerzfrei und kommt ohne Strahlen-

    belastung aus. Die resultierenden Schichtbilder haben eine relativ geringe Auflösung von ca.

    1 mm2 , weisen aber eine hohe Sensitivität auf. Da das Verfahren sehr teuer ist, wird es in

    Deutschland noch nicht zu Vorsorgeuntersuchungen herangezogen.

    1.2 Ultraschall-Computertomographie

    Am Institut für Prozessdatenverarbeitung und Elektronik (IPE) im Forschungszentrum Karls-

    ruhe (FZK) wird ein neuartiges bildgebendes Verfahren zur Brustkrebsfrüherkennung mittels

    Ultraschall-Computertomographie entwickelt.

    Beim Ultraschall-Computertomographen (USCT) handelt es sich um einen zylindrischen Topf,

    in dessen Wände Ultraschallsender und -empfänger ringförmig angeordnet sind. Der USCT

    4

  • 1.3. Motivation

    wird in eine Liege eingelassen, auf die sich die Frau zur Untersuchung bäuchlings nieder-

    legt. Die zu untersuchende Brust hängt dabei in den USCT. Daraufhin wird der Zylinder

    mit Wasser als Koppelmedium gefüllt. Nacheinander sendet jeder Sender einzeln einen vorde-

    finierten Puls aus, während alle anderen Empfänger aufnehmen. Der Schall wird an jedem

    Dichteübergang in der Brust reflektiert und von allen Seiten aufgenommen. Dadurch läßt

    sich mittels Reflexionstomographie ein dreidimensionales Volumen der undeformierten Brust

    rekonstruieren.

    Diese Methode kombiniert mehrere Vorteile gebräuchlicher Untersuchungsmethoden. Durch die

    Verwendung von Ultraschall kommt sie ohne Strahlenbelastung aus und ist somit in jedem Al-

    ter anwendbar. Die ringförmige Anordnung und die abwechselnde Ansteuerung der Sensoren

    ermöglicht es ein echtes dreidimensionales Volumen der Brust auszumessen, ohne dass die Brust

    durch äußere Einwirkungen deformiert wird. So lässt sich ein Tumor genauer in der Brust lo-

    kalisieren und der Patientin werden keine Schmerzen durch Kompression der Brust verursacht.

    An rekonstruierten Schichtbildern ist zu erkennen, dass dieser Aufbau das für die Sonographie

    typische Speckle-Rauschen verhindert. Erste Messergebnisse an künstlichen Objekten (Phanto-

    men) haben ein Auflösungsvermögen im Sub-Millimeterbereich demonstriert. Ziel ist es durch

    eine hohe dreidimensionale Auflösung und unter Kombination mehrerer Modalitäten die Bild-

    qualität zu verbessern um die durchschnittliche Tumorgröße zum Diagnosezeitpunkt auf 5 mm

    zu senken. Bei dieser Größe sinkt damit die Metastasenwahrscheinlichkeit auf geschätzte 5%.

    Im Gegensatz zur MRT ist der USCT auch wesentlich kostengünstiger herzustellen und zu

    betreiben. Er kommt daher auch für Vorsorgeuntersuchen in Frage.

    1.3 Motivation

    Trotz vielversprechender Eigenschaften ist die Ultraschall-Computertomographie zur Brus-

    krebsfrüherkennung noch kein gelöstes Problem. Bei der Umsetzung zeigen sich zahlreiche prak-

    tische und theoretische Herausforderungen an denen noch aktiv geforscht wird. Ein Schwerpunkt

    liegt dabei auf der Verbesserung der Bildrekonstruktion.

    Zu jedem der 384 Ultraschallsender nehmen 1536 Ultraschallempfänger gleichzeitig das am

    Gewebe reflektierte Signal auf. Sender und Empfänger lassen sich zusätzlich noch in sechs

    verschiedene Stellungen um das Objekt im USCT rotieren, so dass insgesamt ca. 3,5 Millio-

    nen Datensätze anfallen. Jedem Datensatz entspricht ein eindimensionales Signal, in dem sich

    der Sendepuls mehrmals verzögert und verzerrt wiederfindet. Anhand der Laufzeitdauer eines

    Pulses (TOA1) lässt sich der Ort einer Reflexion im USCT bis auf die Oberfläche eines Ellipsoi-

    den, mit Sender und Empfänger als Brennpunkten, genau bestimmen. Durch die Überlagerung

    aller Ellipsoiden läßt sich im einfachsten Falle ein 3D Volumenbild erstellen. Dies liefert die

    Grundlage des aktuellen Rekonstruktionsansatzes, der ellipsoiden Rückprojektion (SAFT2).

    1 engl. time of arrival

    2 engl. synthetic aperture focusing technique

    5

  • Kapitel 1. Einleitung

    Diesem Ansatz folgend fließen bereits eine Vielzahl von Informationen in die Bildrekonstrukti-

    on mit ein, die der Verbesserung der Bildqualität dienen. Die Ellipsoiden werden anhand ihrer

    Amplitude gewichtet ins Volumen projiziert. Pulse, welche die Ultraschallsensoren absenden,

    werden nicht mit konstanter Intensität in alle Richtungen ausgesandt, sondern winkelabhängig

    zur Senderichtung. Dies ist das Ergebnis einer vorangegangenen Diplomarbeit [20]. Reflexionen,

    die tiefer im Raum auftreten, haben ebenso eine schwächere Reflexion als jene, die in einem

    ungünstigeren Winkel zum Sender oder Empfänger stehen. Der Rekonstruktionsansatz erkennt

    den Ursprung einer Messung und gewichtet die Ellipsoiden entsprechend. Bei komplexen Objek-

    ten besteht zudem das Problem, dass sich die Schallgeschwindigkeit mit dem Übergang in ein

    anderes Medium, beispielsweise von Wasser in Fettgewebe, ändert. Zur Kompensation dieses

    Effektes wurde in einer früheren Arbeit bereits ein Verfahren entwickelt womit sich die dadurch

    entstehenden Effekte korrigieren lassen [13]. In einer weiteren Arbeit wurden die aufgenomme-

    nen Signale einer Pulsdetektion unterzogen. Dadurch können mittlerweile Reflexionen im Raum

    genauer bestimmt werden [18].

    Bei der SAFT Bildrekonstruktion treten allerdings noch weitere Artefakte auf, die bisher ein

    rekonstruiertes Bild negativ beeinflussen. Anhand von Abbildung 1.2 lassen sich drei solcher

    Artefakte beschreiben.

    X /Bildpunkte

    Y /B

    ildpu

    nkte

    50 100 150 200 250

    50

    100

    150

    200

    250

    Abbildung 1.2: Rekonstruktionsartefakte: Diese Abbildung zeigt die Rekonstruktion der horizontalen Schicht aus

    einer künstlichen Brust. Bei den kreisförmigen, geschlossenen Gebilden links unten und rechts oben handelt es sich

    um zystenartige Strukturen. Der helle Fleck in der Mitte stammt von einem starken Reflektor im Objekt.

    Der helle Fleck in der Mitte des Bildes stammt von einem Reflektor, der nicht in der hier

    rekonstruierten Schicht, sondern in einer darüberliegenden Schicht angesiedelt ist. Aufgrund

    6

  • 1.3. Motivation

    der geometrischen Eigenschaften wie die Ellipsoiden ins Bild projiziert werden, lässt sich nicht

    entscheiden aus welcher Schicht die aufgezeichneten Reflexionen stammen.

    Ein weiteres Problem ist, dass dieser Fleck so hell im Bild rekonstruiert wird, dass die Struktu-

    ren, welche sich in der rekonstruierten Schicht befinden, überlagert werden. Hier ist von einem

    Dynamikproblem die Rede. Im Hintergrund des weißen Flecks sind zwei weitere Zysten kaum

    sichtbar zu erkennen.

    Bei genauer Betrachtung des Bildes fällt auf, dass im Hintergrund Streifen zu sehen sind. Diese

    Streifen stammen nicht von wirklichen Reflexionen, sondern entstehen dadurch, dass immer der

    gesamte Ellipsoid ins Bild projiziert wird. Damit werden auch Punkte im Bild erhellt an denen

    gar keine Reflexion stattgefunden hat.

    Eine weiteres Teilproblem stellt die Ungenauigkeit bei der Lokalisierung der Ellipsoiden im

    Raum dar. Diese hängt ab von der verwendeten Sender-Empfänger Kombination und der ak-

    tuellen Position im Raum. Unter großen Distanzen zwischen Sender und Empfänger entstehen

    Regionen im Bild, die durch die aufgenommenen Daten genauso fein aufgelöst werden können

    wie Andere.

    Der USCT sammelt während einer Messung große Mengen an Daten. Durch die immer vielfälti-

    geren und komplexeren Verarbeitungsschritte auf dem Weg zur Verbesserung der Bildqualität

    darf der Berechnungsaufwand nicht außer Acht gelassen werden.

    Das Ziel dieser Arbeit ist es eine alternative Bildrekonstruktionsmethode zur ellipsoiden Rück-

    projektion zu entwickeln. Darin sollen die unterschiedlichen Fehlerquellen, die in einem komple-

    xen System existieren berücksichtigt werden. So sollen Ellipsoiden nicht mehr als gleichförmige

    Objekte in den Raum zurückprojiziert werden. Anhand eines statistischen Schätzsverfahrens

    soll eine Gewichtung anhand der genannten Kriterien erfolgen können. Diese Gewichtung soll

    die Verteilung von Reflektoren auf dem Ellipsoiden berücksichtigen.

    Während der Rekonstruktion soll es möglich sein das Verhalten des Algorithmuses gezielt zu

    lenken. Es soll damit möglich sein modellbasierte Annahmen über das Objekt oder die Geome-

    trie des USCT zu berücksichtigen.

    Besonders wichtig ist, dass die bisher erarbeiteten Verfahren zur Verbesserung der Bildqualität

    möglichst weiterverwendet werden können sollen.

    Während der Entwicklung dieses Ansatzes darf die zu verarbeitende Datenmenge nicht außer

    Acht gelassen werden. Trotz erhöhter Komplexität soll es dennoch möglich sein, zumindest

    kleinere Teilvolumen, in annehmbarer Zeit zur rekonstruieren.

    Eine besondere Herausforderung in dieser Arbeit liegt in der Konstruktion eines neuen Verfah-

    rens, welches bislang in der Ultraschall-Computertomographie keine Anwendung gefunden hat.

    Für Rekonstruktionen von Volumenbildern kommen in der Ultraschall-Computertomographie

    seit langer Zeit zwei Verfahren zum Einsatz.

    Die ellipsoide Rückprojektion wurde schon genannt und grob beschrieben. Für dieses Verfahren

    existieren zahlreiche Erweiterungen, welche zu einer Verbesserung der Bildqualität beitragen.

    Diese reichen von verhältnismäßig einfachen Signalverarbeitungsschritten zu komplexen Be-

    rechnungen, die teilweise Tage zur Vorberechnung benötigen.

    7

  • Kapitel 1. Einleitung

    Die zweite Rekonstruktionsmethode ist die Diffraktionstomographie. Hier wird aufgrund von

    genauen Kenntnissen der physikalischen Ausbreitungseigenschaften des Schalls versucht das

    Objekt zu rekonstruieren, welches die beobachteten Daten erklährt. Während auch am IPE an

    diesem Verfahren weiter geforscht wird, ist Methode, bei den zu rekonstruierenden Volumen,

    zur Zeit noch zu rechenaufwendig um sich als Standardverfahren angewendet zu können.

    8

  • KAPITEL 2

    Grundlagen

    2.1 Ultraschall–Computertomographie

    2.1.1 Physikalischer Aufbau

    Beim Ultraschall–Computertomograph (USCT) am Institut für Prozessdatenverarbeitung und

    Elektronik (IPE) handelt es sich um einen zylindrischen Topf mit 18 cm Innendurchmesser und

    15 cm aktiver Höhe (vgl. Abb. 2.1). An der Innenseite sind insgesamt 384 Ultraschallsender

    und 1536 Ultraschallempfänger angebracht. Diese sind jeweils mit acht Senderelementen und 32

    Empfängerelementen auf einem “Transducer Array System” (TAS) untergebracht (siehe Abb.

    2.2). Die TAS sind in drei Ringen gegeneinander versetzt über die Innenseite des USCT verteilt.

    Durch einen Motor kann der USCT noch in sechs verschiedene Stellungen um seine vertikale

    Achse gedreht werden. Weitere Maßzahlen zur Anzahl von Sender- und Empfängerelementen

    und deren Abstand zueinander können den Tabellen 2.1 und 2.2 (S. 11) entnommen werden.

    Um ein Objekt im USCT zu vermessen, wird der Messzylinder mit Wasser als Koppelmedium

    gefüllt. Das Objekt wird in das Wasser eingetaucht und soweit befestigt, dass es während der

    Vermessung seine Position nicht ändern kann. In einer festgelegten Reihenfolge sendet nun jedes

    Sendeelement nacheinander einen sinusförmigen Puls mit einer Mittelfrequenz von 2, 4 MHz und

    ca. 3 µs Länge aus (Abb. 2.3).

    Die gesamte Sendedauer beträgt 6.4 µs, bei einer Abstrahlfrequenz von 40 MHz. Bei Dich-

    teübergängen innerhalb des Zylinders wird der Puls gestreut und reflektiert. Über eine Zeit-

    spanne von 300 µs werden diese Reflexionen von allen Empfängerelementen gleichzeitig mit

    einer Frequenz von 10 MHz abgetastet und mit 12 Bit quantisiert. Innerhalb dieser Zeit kann

    ein Puls 2.4 mal den Durchmesser des USCT zurücklegen. Das aufgenommene Signal misst also

    über 3000 Abtastwerte hinweg den Druckverlauf (Amplitudenscan, kurz: A-Scan) innerhalb des

    Zylinders.

    In der Theorie wird von Punktquellen als Sender ausgegangen, die eine gleichmäßige Kugelwelle

    ausstrahlen. Aufgrund der Größe der Wandler variiert die Schalldruckintensität abhängig von

    der Abstrahlrichtung. Man spricht hier von der Sender- / Empfängercharakteristik. Bei -6 dB

    9

  • Kapitel 2. Grundlagen

    Abbildung 2.1: USCT Demonstrator am IPE (Quelle: USCT-Gruppe)

    Abbildung 2.2: Transducer Array System (TAS); Wie bei einem 5er Würfelbild sind jeweils vier Ultraschall-

    empfänger (grün) um einen Ultraschallsender (rot) herum angeordnet. Davon sind jeweils acht untereinander auf

    einem TAS angebracht. (Quelle: USCT-Gruppe)

    10

  • 2.1. Ultraschall–Computertomographie

    Anzahl

    Sender / TAS 8

    Empfänger / TAS 4 ∗ 8 = 32TAS übereinander 3 (versetzt)

    TAS nebeneinander 16

    Senderschichten 3 ∗ 8 = 24Empfängerschichten 3 ∗ 8 ∗ 2 = 48Senderspalten 16

    Empfängerspalten 32

    Motorpositionen 6

    Sender-Empfänger Kombinationen 6 ∗ 16 ∗ 32 = 3072Senderelemente gesamt 24 ∗ 16 = 384Empfängerelemente gesamt 48 ∗ 32 = 1536Datensätze 6 ∗ 24 ∗ 48 ∗ 16 ∗ 32 = 3538944

    Tabelle 2.1: Kenngrößen des USCT

    minimale Abstände horizontal & vertikal

    Sender-Sender 6 mm

    Sender-Empfänger 3 mm

    Empfänger-Empfänger 3 mm

    Tabelle 2.2: Abstände zwischen Sender- & Empfängerelementen

    Abbildung 2.3: Abstrahlpuls (links); Leistungsdichtesprektrum (rechts)

    11

  • Kapitel 2. Grundlagen

    Druckabfall hat die Hauptkeule in Abstrahl- / Empfangsrichtung noch einen Öffnungswinkel

    von ca. 30◦ [20].

    Bei ca. 3,5 Millionen Datensätzen (Tabelle 2.1, S. 11), 16 Bit und 3000 Abtastwerten pro

    Datensatz ergeben das 19,7 GByte pro Messung. Dies stellt hohe Anforderungen an die Daten-

    akquisitionshardware. Trotz der 192 zur Verfügung stehenden Eingangskanäle und Multiplexing

    dauert eine Messung heute noch ca. 10 Stunden.

    Auf den weiteren Aufbau der Hardware soll im Folgenden nicht mehr eingegangen werden, da

    dieser für die vorliegende Arbeit nicht weiter von Bedeutung ist.

    2.1.2 Konventionelle Bildgebung

    Um die aktuelle Methode der Bildrekonstruktion zu erläutern, sollen zunächst einige Verein-

    fachungen angenommen werden. So wird im Folgenden von einem idealen Punktstreuer in der

    Nähe des USCT-Zentrums ausgegangen und die Sensorcharakteristik ignoriert. Das Kopplungs-

    medium Wasser soll während der gesamten Rekonstruktion eine konstante Temperatur haben,

    so dass Änderungen der Schallgeschwindigkeit aufgrund von Temperaturschwankungen nicht

    auftreten.

    Abbildung 2.4 verdeutlich diese Situation: Im linken Bild ist der USCT dargestellt. Die grün

    markierten Sensorelemente S und E auf dem Außenrand stellen einen Ultraschallsender und

    -empfänger dar. Der rote Punkt in der Mitte symbolisiert einen einzelnen Punktstreuer, der

    blaue Hintergrund das Wasser im Zylinder. Der Sender strahlt einen Puls aus, der sich zunächst

    in Form von Kugelwellen durch das Wasser (hier gelb dargestellt) fortpflanzt. Treffen die-

    se Wellen auf den Punktstreuer wird der Schall gestreut (hier schwarz dargestellt). Der vom

    Empfänger aufgenommene A-Scan ist rechts zu sehen. Von Rauschen und Wandreflexionen ab-

    t

    p(t)

    Laufzeit

    Druck

    S

    E

    Abbildung 2.4: Systematische Darstellung eines Punktstreuers (Quelle: USCT-Gruppe)

    12

  • 2.1. Ultraschall–Computertomographie

    gesehen nimmt der Empfänger zwei deutliche Pulse auf. Einmal den Transmissionsimpuls (hier

    rot), der durch den direkten Verlauf des Pulses vom Sender zum Empfänger entsteht und den

    Reflexionsimpuls (hier grün), welcher durch die Reflexion des Schalls am Punktstreuer entsteht.

    Die einzige Information, die aus einem einzelnen A-Scan direkt entnommen werden kann, ist

    die Amplitude (ai, i = 1, . . . , 3000) zu einem gegebenen Zeitpunkt (t). Letzteres ergibt sich aus

    der Abtastfrequenz (fA) und der Position des Abtastwertes:

    t =i

    fA(2.1)

    Bei gegebener Schallgeschwindigkeit (vw) lässt sich somit die zurückgelegte Strecke (s) berech-

    nen:

    s = t ∗ vw (2.2)s = ||PR − S||+ ||E − PR|| (2.3)

    Gesucht ist PR, die Position des Punktstreuers. Dieser Ort ist aber durch die Norm in Gleichung

    2.3 unterbestimmt. Die (nicht leere) Punktemenge, die Gleichung (2.3) erfüllen, liegen auf

    einem zigarrenförmigen Ellipsoiden (3D), bzw. einer Ellipse im Zweidimensionalen. Sender- und

    Empfängerelement nehmen dabei die Position der Brennpunkte des Ellipsoiden ein (Abbildung

    2.5).

    Abbildung 2.5: Alle Punkte auf einer Ellipse haben den selben Weg vom Sender zum Punkt zum Empfänger

    (s = s′). Die Ellipsen der Pulse mehrerer Sender- und Empfängersensoren schneiden sich an der Position des

    Punktstreuers.

    Hieraus lässt sich die Ellipsoiden-Rückprojektion herleiten, welches als konventionelles Bildge-

    bungsverfahren zurzeit Verwendung findet. Zuerst werden die Transmissionsimpulse aus dem

    13

  • Kapitel 2. Grundlagen

    A-Scan entfernt. Diese sind die ersten Abtastwerte mit hoher Amplitude. Ihre ungefähre Posi-

    tion im A-Scan lässt sich aus der Distanz zwischen Sender- und Empfängerelement berechnen.

    Ausgehend von einem quadratischen Punkteraster wird dann auf jeden Punkt, der auf einer

    elliptischen Bahn um die Brennpunkte S und E liegt, der Betrag der Amplitude aufaddiert. Das

    führt nach wiederholtem Eintragen mehrerer A-Scans dazu, dass sich auf dem Punkteraster an

    den entsprechenden Positionen hohe Werte aufaddieren. Dieses Punkteraster kann schließlich

    als Graustufenbild angezeigt werden.

    Im Rahmen weiterer Forschungsarbeiten sind vielzählige Verbesserungen in Form von Vor- und

    Nachverarbeitungsschritten eingeführt worden.

    Während in dieser Diplomarbeit wird vorerst von einer konstanten Schallgeschwindigkeit ausge-

    gangen. In [13] wurde die Verzögerung des Transmissionspulses vom Idealwert dazu verwendet

    eine Schallgeschwindigkeitsschätzung für jeden Punkt im Raum durchzuführen. Gerade bei

    komplexen Objekten mit unterschiedlichen Dichten schwankt die Schallgeschwindigkeit erheb-

    lich. Bei einer künstlichen Brust konnte eine Standardabweichung von 50ms

    gemessen werden.

    Das führt dazu, dass sich die Ellipsoiden nicht mehr in einem Punkt, sondern nur innerhalb

    eines Gebietes schneiden. Zum Abschluss dieser Arbeit wird erläutert, wie sich dieses Verfahren

    in die hier entwickelte Rekonstruktionsmethode eingebunden werden kann.

    In [18] wurde durch Kenntniss des vom Sender ausgehenden Anregungsimpulses ein auf der

    Wavelet-Transformation basierendes Verfahren zur Pulsdetektion in den A-Scans entwickelt.

    Dadurch reduziert sich die Datenmenge von 3000 Abtastwerten pro A-Scan auf ca. 60 Stück

    (auf realen Daten). Auf diese Art reduziert sich das Signal-Rauschverhältniss (SNR) innerhalb

    des A-Scans auf Kosten der Ungenauigkeit, die die Pulsdetektion mit sich bringt.

    Wegen der Reduktion irrelevanter Daten und der zusätzlichen Parameter, welche die Pulsde-

    tektion zur Weiterverarbeitung liefert (Phase, Bandbreite, Sicherheit bei der Signaldetektion),

    baut das in Kapitel 4.2 vorgestellte Verfahren nicht auf den einzelnen Abtastwerten, sondern

    auf den detektierten Pulsen auf.

    Nachdem bisher der Hardwareaufbau und die aktuelle Bildrekonstruktion beschrieben worden

    sind, konzentrieren sich die folgenden Abschnitte mehr auf die Grundlagen der vorliegenden

    Arbeit.

    2.2 Systemtheorie

    Die folgenden Kapitel beschäftigen sich mit einem Ansatz zur statistischen Bildrekonstruktion.

    Zuerst werden hier einige Begriffe und Zusammenhänge aus der Systemtheorie beschrieben.

    Diese sind für ein umfassendes Verständnis der Zusammenhänge notwendig.

    14

  • 2.2. Systemtheorie

    2.2.1 Systeme

    Der Begriff des Systems findet in vielen verschiedenen Fachbereichen Anwendung. Allgemein

    bekannt sind Systeme aus der Ökologie, Politik, Mathematik oder zum Beispiel der Kunst. In der

    Informatik spricht man beispielsweise auch von “eingebetteten Systemen”. Verallgemeinenert

    kann man unter einem System ein Teil der Realität verstehen, das durch Schnittstellen in einer

    Wechselbeziehung mit seiner Umwelt steht. Mathematisch läßt sich ein System als Funktion

    mit Ein- und Ausgangsparameter modellieren.

    Systeme lassen sich unter Anderem durch die nachfolgende Eigenschaften klassifizieren [8], [5]:

    skalar – vektorwertig

    Ob ein System skalar oder vektorwertig ist, hängt von der Ausgangsgröße eines Systems ab.

    Es ist dabei nicht von Bedeutung, ob eine oder mehrere Eingangsgrößen skalar oder vektor-

    wertig sind. Man spricht entsprechend von Single Input Single Output (SISO)- oder Multiple

    Input Single Output (MISO)-Systemen. Analog teilen sich vektorwertige Systeme in SIMO-

    und MIMO-Systeme auf.

    statisch – dynamisch

    Bei statischen Systemen ändert sich der aktuelle Zustand über die Zeit hinweg nicht. Dies ist

    äquivalent mit einer fehlenden Auswirkung des Systemeinganges.

    zeitdiskret – zeitkontinuierlich

    Sind für ein System der Initialzustand, sowie die erste Eingabe gegeben, so ist der Zustand

    eines (dynamischen) Systems durch die kleinste Menge von Variablen, den Zustandsvariablen,

    definiert, die das Verhalten des Systems vollständig beschreiben. Die Zustandsvariablen werden

    normalerweise zu einem Zustandsvektor zusammengefasst: xk = [xk,1, . . . , xk,N ]T .

    Bei zeitdiskreten Systemen, wie sie für die Verarbeitung auf dem Computer notwendig sind,

    nehmen die Zustandsvariablen endliche Werte an. Die meisten Systeme in der realen Welt sind

    zeitkontinuierlich, dort kann durch Diskretisierung des das zeitkontinuierliche Systemmodell in

    ein diskretes Modell umgewandelt werden.

    linear – nichtlinear

    Abhängig von der Vorschrift, wie ein Systemzustand xk und seine Eingänge auf den nachfol-

    genden Zustand abgebildet werden, kann eine Unterteilung in lineare- oder nichtlineare Syste-

    me vorgenommen werden. Bei linearen Systemen gilt das Superpositionsprinzip und die Ab-

    bildung, welche den aktuellen Zustand auf den Folgezustand abbildet, ist durch ein lineares

    15

  • Kapitel 2. Grundlagen

    Gleichungssystem möglich:

    xk+1 = Axk + Buk

    Hier ist A die (statische) Systemmatrix, B die (statische) Eingangsmatrix, welches die (vektor-

    vertige) Eingabe uk auf den Systemzustand abbildet. Bei realen Systemen liegt normalerweise

    eine nichtlineare System- oder -Eingangsfunktion vor. Nichtlineare Systeme sind oft schwieriger

    zu handhaben, stattdessen werden die Funktionen gelegentlich linearisiert, beispielsweise durch

    eine Taylor-Entwicklung um den aktuellen Systemzustand.

    wertediskret – wertekontinuierlich

    Können die Zustandsvariablen nur eine endliche Anzahl von Werten annehmen, spricht man von

    einem wertediskreten System. Diese Systeme sind in der Literatur gut verstanden [4]. Im wer-

    tekontinuierlichen Fall sind die Berechnungen des Folgezustandes meist wesentlich schwieriger

    durchzuführen.

    zeitinvariant - zeitvariant

    Liegt ein zeitvariantes System vor, können sich die Berechnungsvorschriften zu jedem Zeitschritt

    ändern. Dies wird durch einen Zeitindex k bei den Abbildungsvorschriften gekennzeichnet. Ein

    zeitvariantes, nichtlineares (vektorvertiges) System lässt sich demnach durch die Gleichung

    xk+1 = ak(xk,uk)

    beschreiben.

    deterministisch - stochastisch

    Bei deterministischen Systemen kann die Systemfunktion anhand der Eingänge das System

    exakt modellieren. Dies ist in der Regeln nicht der Fall. Um dem habhaft zu werden, wird die

    Systemfunktion um eine unsichere Komponente, dem Systemrauschen wk erweitert, welche die

    Unsicherheit zwischen den Systemkomponenten modelliert.

    Im vorliegenden Falle werden wir uns mit vektorwertigen, dynamischen, zeit- und wertediskre-

    ten, aber linearen und nichtlinearen, stochastischen Systemen beschäftigen:

    xk+1 = ak(xk,uk,wk) (2.4)

    xk+1 = Akxk + Bkuk + wk (2.5)

    2.2.2 Messmodell

    Oft lässt sich der Systemzustand nicht direkt messen. Stattdessen müssen mehrere Daten, die

    von verschiedenen Sensoren aufgenommen worden sind, über eine Messgleichung hk( · ) mit der

    16

  • 2.3. Grundlagen der Statistik

    Systemgleichung in Beziehung gesetzt werden. Meist ist auch dies nicht immer deterministisch

    möglich und das Messmodell wird analog zum Systemmodell um eine unsichere Komponente

    erweitert:

    yk

    = hk(xk,vk) (2.6)

    Hier ist vk die Modellkomponente für das Messrauschen. Die Messfunktion hk( · ) liefert ausdem aktuellen Systemzustand xk eine Schätzung des Messwerts yk.

    2.2.3 Schätzverfahren

    Wenn sowohl das Systemmodell als auch das Messmodell keine direke und nur eine mit Unsi-

    cherheit behaftete Aussage über den Systemzustand machen können, liegt es nahe zu versuchen,

    beide Modelle zu kombinieren, so dass eine Schätzung des neuen Systemzustandes insgesamt

    verbessert wird. Die Kombination beider unsicheren Werte aus System- und Messgleichung

    übernimmt ein Schätzverfahren:

    Dazu wird im ersten Schritt eine Prädiktion des neuen Systemzustandes x−k+1 anhand der Syste-

    meingänge durch die Systemgleichung durchgeführt. Dieser wird dann in einem zweiten Schritt,

    Filterung genannt, mit der Ausgabe der Messgleichung kombiniert, um zu einem verbesserten

    Systemzustand x+k+1 zu gelangen. Beide Schritte, Prädiktion und Filterung wechseln sich im

    Verlauf jeweils miteinander ab.

    Ziel eines Schätzverfahren muss es sein, diese Kombination von stochastischen Größen in einer

    statistisch sinnvollen Art und Weise durchzuführen. Es wird sich später in Kapitel 3.3 zeigen,

    dass das Kalman Filter so ein Schätzverfahren liefert. Zunächst müssen allerdings noch einige

    Grundlagen aus der Statistik wiederholt werden.

    2.3 Grundlagen der Statistik

    In diesem Abschnitt werden einige Grundlagen aus der Statistik und Wahrscheinlichkeitstheorie

    wiederholt. Im Verlauf der nachfolgenden Ausführungen soll dadurch Verständnis dafür geschaf-

    fen werden, wie es in Kapitel 3.3 zur Verwendung des Kalman Filter zur Bildrekonstruktion

    kommt. Außerdem liefern die unten aufgeführten Sätze wichtige Hintergrundinformationen, mit

    der das Verhalten der Filter während der Bildrekonstruktion erklährt werden kann.

    2.3.1 Wahrscheinlichkeitsdichten

    Im Allgemeinen kann die Dichte eines Zufallsvektors eine beliebige Form annehmen. Es ist in

    der Praxis jedoch von Vorteil, wenn diese Dichte mathematisch gut handhabbar ist und durch

    eine geringe Anzahl von Momenten charakterisiert werden kann. In der Literatur finden sich

    daher häufig normalverteilte Dichten.

    17

  • Kapitel 2. Grundlagen

    Gauß-Dichten lassen sich durch ihre ersten beiden Momente vollständig beschreiben. Die mul-

    tivariate Normalverteilung und (multivariate) Gauß-Mischverteilung sind im Verlauf dieser

    Arbeit von zentraler Bedeutung, weshalb deren Dichtefunktionen hier kurz aufgeführt werden:

    Ist x ein n×1-dimensionaler Zufallsvektor, so hat die dazugehörige n-dimensionale Dichtefunk-tion die Form:

    fx(x) =1√

    (2π)n|Cx|e−

    12

    (x−x̂)T C−1x (x−x̂) (2.7)

    = N (x− x̂,Cx) (2.8)

    Wobei Cx die n×n-dimensionale Kovarianzmatrix von x ist.

    Solch eine Gauß-Dichte verfügt aber nur über ein Maximum. Bei Zufallsvektoren, die multi-

    modal verteilt sind, eignet sich die Gauß-Mixtur-Dichte zur Approximation der Dichtefunk-

    tion. So eine Dichte besteht aus der gewichteten Summe mehrerer n-dimensionaler Gauß-

    Dichtefunktionen:

    fx(x) =L∑i=1

    wiN (x− x̂i,Cx,i) (2.9)

    Damit die resultierende Funktion eine Wahrscheinlichkeitsdichte bleibt, müssen zwei weitere

    Bedingungen an die Gewichte gestellt werden:

    1. wi ≥ 0 ∀i = 1, . . . , L

    2.∑L

    i=1wi = 1

    Damit wird sichergestellt, dass die Wahrscheinlichkeitsmasse der gesamten Dichte gleich 1 ist.

    Solche Gauß-Mixtur-Dichten können andere Dichtefunktionen in der Regel beliebig genau ap-

    proximieren, allerdings ist hier kein analytisches Verfahren mehr bekannt, mit dem alle Parame-

    ter der Mixtur-Dichte mittels Maximum-Likelihood geschätzt werden können [12]. Stattdessen

    kommt hier ein iteratives Verfahren, der Expectation-Maximisation (EM-) Algorithmus, zum

    Einsatz.

    2.3.2 Zentaler Grenzwertsatz

    Die Zentralen Grenzwertsätze (ZGW) liefern eine Aussage über Verteilung einer Summe un-

    abhängiger Zufallsvariablen und damit eine Erklärung für die Sonderstellung der Normalver-

    teilung in der Statistik.

    Im nachfolgenden Satz wird eine identische Verteilung der Zufallsvariablen vorausgesetzt, so-

    wie deren statistischen Unabhängigkeit. Es existieren auch Verallgemeinerungen, die keine

    Annahmen über eine identische Verteilung machen [9].

    Satz 2.1 Seien x1, x2, . . . unabhängige Zufallsvariablen mit gleicher Verteilung, Erwartungs-

    wert µ = E{x1} und der positiven Varianz σ2 := V (x1)

  • 2.3. Grundlagen der Statistik

    limn→∞

    P

    (∑nj=1 xj − n ·µσ ·√n

    ≤ t

    )= Φ(t) =

    ∫ t−∞

    1√2πe−x

    2/2dx.

    Beweis. Siehe [7]. �

    Anders formuliert:

    n∑j=1

    xj ≈ N (n ·µ, n ·σ2) (2.10)

    d.h. die Summe der Zufallsvariablen ist annähernd normalverteilt mit dem gleichen Erwar-

    tungswert und Varianz wie∑n

    j=1 xj selbst.

    Dies erklährt die Sonderstellung der Normalverteilung in der Statistik und liefert der vorliegen-

    den Arbeit in Kapitel 4.1.8 den Grund für die Modellierung des Messfehlers als normalverteilte

    Zufallsvariable.

    2.3.3 χ2-Verteilung

    Die χ2-Verteilung taucht meistens dort auf, wo es um Summen von unabhängigen, normalver-

    teilten Zufallsvariablen geht. Diese Verteilung wird später in Kapitel 3.4.1 benötigt.

    Definition 2.1 Die χ2-Verteilung mit n Freiheitsgraden ist die Verteilung der Summe von n

    unabhängigen, quadrierten, standard-normalverteilten Zufallsvariablen:

    y := x21 + x22 + · · ·+ x

    2n

    xk ∼ N (0, 1), k = 1, . . . , n

    man schreibt: y ∼ χ2n

    Die Dichtefunktion ist etwas komplizierter, wird aber im Verlauf dieser Diplomarbeit nicht

    weiter benötigt. Näheres zur Dichtefunktion findet sich unter [6].

    Satz 2.2 Sei nun x ein n-dimensionaler, normalverteilter Zufallsvektor mit Mittelwert x̂ und

    Kovarianzmatrix C, dann ist die skalare Zufallsvariable

    q = (x− x̂)TP−1(x− x̂) (2.11)

    ebenfalls die Summe von n unabhängigen, quadrierten, standard-normalverteilten Zufallsvar-

    riablen und χ2n-verteilt.

    Beweis. Siehe [1]. �

    Das Produkt auf der rechten Seite der Gleichung (2.11) heißt auch quadratische Form und ist

    in der Informatik auch als Mahalanobis-Distanz zwischen x und x̂ bekannt.

    19

  • Kapitel 2. Grundlagen

    2.3.4 Orthogonalitätsprinzip

    Die zentrale Aussage des Orthogonalitätsprinzip ist, dass bei einem optimalen (im Sinne des

    kleinsten quadratischen Fehlers) und linearen Schätzer der geschätzte Wert die orthogonale

    Projektion der zu schätzenden Größe auf den Raum der beobachtbaren Größen ist. Um dies zu

    motivieren soll folgende Herleitung aus [1] betrachtet werden.

    Die Menge der mittelwertfreien Zufallsvariablen yi, i = 1, . . . , n können als Vektoren in einem

    Vektorraum V betrachtet werden. Darin lässt sich ein Skalarprodukt

    < yi,y

    k> = E{yT

    iyk} (2.12)

    definieren, welches kompatibel zu einer Norm ist und als Abstandsmaß interpretiert werden

    kann.

    Zwei Vektoren yi,y

    kheißen orthogonal, wenn für ihr Skalarprodukt gilt:

    < yi,y

    k>= 0 auch: y

    i⊥ y

    k

    Bei einem linearen Schätzer soll eine Zufallsvariable x als Linearkombination mehrerer beob-

    achtbaren, verrauschten Größen yiausgedrückt werden, d.h. der Schätzer x̂ lässt sich darstellen

    als:

    x̂ =n∑i=1

    βiyi

    Dieser Schätzer soll den quadratischen Fehler minimieren:

    x̃ := x− x̂||x̃||2 = E{(x− x̂)2}

    = E{

    (x−n∑i=1

    βiyi)2}

    Dieser Ausdruck wird als mittlerer quadratischer Fehler bezeichnet. Um diesen Ausdruck zu

    minimieren, wird dieser Ausdruck bezüglich der Koeffizienten βi, i = 1, . . . , n abgeleitet. Das

    ergibt:

    ∂βk||x̃||2 = E

    {(x−

    n∑i=1

    βiyi)Ty

    k

    }= E{x̃Ty

    k}

    = < x̃,yk>

    =! 0, k = 1, . . . , n

    Dies ist äquivalent mit der Forderung nach x̃ ⊥ yk∀k. Die folgende Abbildung 2.6 verdeutlicht

    dieses Resultat.

    20

  • 2.3. Grundlagen der Statistik

    Abbildung 2.6: Orthogonalitätsprinzip: Die Ebene Y stellt die Menge der beobachtbaren Größen dar. x ist der

    zu schätzende Zufallsvektor, welcher anhand einer verrauschten Messung y1

    geschätzt werden soll.

    Der quadratische Fehler E{(x− β1y1)2} ist genau dann am Kleinsten, wenn x− β1y

    1orthogonal auf y

    1steht.

    21

  • KAPITEL 3

    Zustandsschätzung stochastischer Systeme

    In den nächsten Abschnitten steht die Herleitung der Kalman Filter Gleichungen im Vor-

    dergrund. Dieser wird während der Entwicklung der Rekonstruktion dazu verwendet das zu

    vermessende Objekt als Wahrscheinlichkeitsdichte zu schätzen.

    Die Herleitungen aus diesem Kapitel wurden größtenteils aus [4] übernommen. An einigen Stel-

    len wurden die Beweise um einige Erläuterungen und Rechenschritte ergänzt um das Verständ-

    nis für die zugrundeliegende Mathematik zu fördern.

    Die Kalman Filter Gleichungen Diese stehen in engem Zusammenhang mit der (rekursiven)

    Methode der kleinsten Quadrate [4]. Es wird sich später zeigen, dass die Rechenvorschriften,

    bis auf die stochastische Interpretation der Größen, mit denen des Kalman Filters identisch

    sind. Danach folgen noch zwei weitere Methoden, die in dieser Arbeit zum Einsatz kommen.

    3.1 Methode der kleinsten Quadrate

    Im vorliegenden Problem sei für eine gegebene Messung y ∈ Rm der Systemzustand x ∈ Rn

    gesucht, für den eine lineare Messgleichung der Form

    y = Hx

    gegeben ist. Für m > n liegt hier ein überbestimmtes Gleichungssystem vor, also H ∈ Rm×n,für das gewöhnlich keine Lösung existiert. Stattdessen soll das Problem “so gut wie möglich”

    gelöst werden, d.h. es wird eine Fehlerfunktion J(x) eingeführt und die Parameter von x so

    gewählt, dass ||Hx− y|| bezüglich eines Distanzmaßes || · || minimiert wird.

    Für || · || kommen mehrere Normen in Frage, jedoch hat die Lösung unter der L2-Norm beson-ders einfache statistische Eigenschaften [16], so dass im Folgenden ausschließlich die L2-Norm

    verwendet wird. Da diese Norm streng monoton ist, kann stattdessen auch 12|| · ||2 minimiert

    22

  • 3.2. Rekursive Methode der kleinsten Quadrate

    werden, oder besser noch:

    J(x) =1

    2||Hx− y||2W−1 (3.1)

    =1

    2(y −Hx)TW−1(y −Hx) (3.2)

    =1

    2

    m∑k=1

    [n∑i=1

    wk,i (hk,ixi − yk)

    ]2Die noch nicht näher spezifizierte, positiv definite, symmetrische Matrix W−1 ∈ Rm×m dientdabei der Bewertung der Qualität der einzelnen Messwerte im Messvektor y.

    Durch Ausmultiplizieren der Fehlerfunktion (3.2) erhält man:

    J(x) =1

    2(yTW−1y − xTHTW−1y − yTW−1Hx+ xTHTW−1Hx) (3.3)

    Notwendige Bedingung für ein Minimum von J( · ) ist:∂J

    ∂x(x) =! 0

    =1

    2(0−HTW−1y − yTW−1H + 2HTW−1Hx)

    =1

    2(−HTW−1y −HTW−1y + 2HTW−1Hx)

    = −HTW−1y + HTW−1Hx (3.4)

    Durch Umformung erhält man mit

    HTW−1y = HTW−1Hx , (3.5)

    die sogenannte Normalform. Durch Auflösen nach x ergibt sich die beste Lösung von x im Sinne

    des kleinsten quadratischen Fehlers zu:

    x = (HTW−1H)−1HTW−1y (3.6)

    Es ist offensichtlich, dass für die Existenz einer Lösung H mindestens Rang(H) ≥ n geltenmuss, da ansonsten die Matrixinversion von (HTW−1H) fehlschlägt.

    Zur hinreichenden Bedingung für ein Minimum muss noch gezeigt werden, dass die zweite

    Ableitung von J( · ) positiv definit ist, was durch

    ∂2J

    ∂x∂x(x) = HTW−1H

    gegeben ist.

    3.2 Rekursive Methode der kleinsten Quadrate

    Liegt einmal eine Schätzung des Systemzustandes x aus den bisherigen m Messungen vor und

    trifft danach noch eine weitere Messung ein, gibt es zwei Möglichkeiten weiter zu verfahren.

    23

  • Kapitel 3. Zustandsschätzung stochastischer Systeme

    Eine Möglichkeit besteht darin x aus dem kompletten Satz der vorliegenden m+ 1 Messungen

    nach der Methode der kleinsten Quadrate neu zu berechnen. Dieses Vorgehen ist aus zwei

    Gründen unvorteilhaft. Als erstes ist der redundante Aufwand bei der Berechnung der ersten

    m Messungen zu nennen. Zweitens ist leicht ersichtlich, dass mit zunehmender Anzahl weiterer

    Messungen die Länge des Messvektors y anwächst, womit auch die Komplexität der Berechnung

    nach (3.6) weiter zunimmt.

    Geschickter wäre es, wenn ausgehend vom aktuellen Zustand x, die neue Messung rekursiv

    einfließen könnte.

    Die hier hergeleitete Rekursive Methode kleinster Quadrate liefert genau das. Dazu werden die

    Matrizen Hk+1 und W−1k+1 zum Zeitpunkt k + 1 in Abhängigkeit der Matrizen Hk, bzw. W

    −1k

    zum Zeitpunkt k gesetzt, was zu einer rekursiven Berechnungsvorschrift von xk+1 führt.

    Seien nun die skalaren Messungen yi, i = 1, . . . , k zu diskreten Zeitpunkten aufgenommen

    worden. Zum Zeitpunkt tk lässt sich das Messsystem in folgender Form schreiben:

    yk

    = Hkxk

    mit:

    yk

    =

    y1...yk

    , Hk = h

    T1...

    hTk

    Die Vektoren hT1 , . . . , h

    Tk sind die Zeilenvektoren von Hk. Beim Übergang von tk → tk+1

    wird Hk um hTk+1 zu Hk+1 um eine Zeile erweitert. Gleichung (3.6), für die Schätzung des

    Systemzustandes zu den Zeitpunkten tk und tk+1, lautet dann:

    xk = (HTkW

    −1k Hk)

    −1HTkW−1k yk (3.7)

    xk+1 = (HTk+1W

    −1k+1Hk+1)

    −1HTk+1W−1k+1yk+1 (3.8)

    Der Einfachheit halber gehen wir davon aus, dass W−1 Diagonalgestalt hat:

    W−1k =

    w1 0 . . . 0

    0 w2...

    .... . . 0

    0 . . . 0 wk

    Setzt man (3.7) in (3.8) ein, erhält man:

    xk+1 =

    ([HTk hk+1

    ] [ Wk 00 wk+1

    ][HkhTh+1

    ])−1[HTk hk+1

    ] [ Wk 00 wk+1

    ][yk

    yh+1

    ](3.9)

    = (HTkW−1k Hk + hk+1w

    −1k+1h

    Tk+1)

    −1(HTkW−1k yk + hk+1w

    −1k+1yk+1) (3.10)

    24

  • 3.2. Rekursive Methode der kleinsten Quadrate

    An diesem Ausdruck stört noch der Messvektor yk. Mit Hilfe der Normalform (3.5):

    HTkW−1k yk = H

    TkW

    −1k Hkxk (3.11)

    und einer Hilfsdefinition

    C−1k := HTkW

    −1k Hk (3.12)

    lässt sich xk+1 in (3.10) umformen zu:

    xk+1 = (C−1k + hk+1︸︷︷︸

    u

    w−1k+1hTk+1︸ ︷︷ ︸

    vT

    )−1(C−1xk + hk+1w−1k+1yk+1) (3.13)

    Dieser Ausdruck lässt sich noch weiter vereinfachen und intuitiver gestalten. Dazu ist folgendes

    Lemma zur Matrixinversion notwendig.

    Lemma 3.1 Sherman-Morrison-Lemma

    (A + uvT )−1 = A−1 − A−1uvTA−1

    1 + vTA−1u

    Damit kann (3.13) überführt werden in:

    xk+1 =

    (Ck −

    Ckhk+1w−1k+1h

    Tk+1Ck

    1 + hTk+1w−1k+1Ckhk+1

    )(C−1k xk + hk+1w

    −1k+1yk+1

    )=: (T1 + T2)(T3 + T4)

    Dieses Produkt kann noch ausmultipliziert werden. Zur Vereinfachung der Nebenrechnung

    werden die Summanden, wie oben angedeutet abgekürzt:

    T1 ·T3 = CkC−1k xk = xk ,

    T2 ·T3 = −Ckhk+1

    wk+1 + hTk+1Ckhk+1

    ·hTk+1xk ,

    (T1 + T2) ·T4 =

    (Ckhk+1 −

    Ckhk+1hTk+1Ck

    wk+1 + hTk+1Ckhk+1

    )w−1k+1yk+1

    =Ckhk+1wk+1

    wk+1 + hTk+1Ckhk+1

    w−1k+1yk+1

    Zusammengesetzt ergibt sich damit die Rekursionsformel für den Folgezustand xk+1:

    xk+1 = xk +Ckhk+1

    wk+1 + hTk+1Ckhk+1︸ ︷︷ ︸

    VerstärkungKk

    (yk+1 − hTk+1xk)︸ ︷︷ ︸Korrekturterm

    (3.14)

    Der Korrekturterm berechnet sich also aus der aktuellen Messung yk+1 und einer Prädiktion

    hTk+1xk anhand des aktuellen Systemzustandes xk. Der Verstärkungsfaktor hängt von der Ge-

    wichtung wk+1 der aktuellen Messung und von der Matrix Ck ab. Letztere ist ein Maß für die

    Unsicherheit des aktuellen Schätzswertes xk. Beides zusammen, addiert zum aktuellen Zustand

    xk, ergibt den nächsten Folgezustand.

    25

  • Kapitel 3. Zustandsschätzung stochastischer Systeme

    Was jetzt noch fehlt, ist eine Rekursionsformel für Ck. Durch die geleistete Vorarbeit ist diese

    wesentlich einfacher herzuleiten. Analog zu (3.7) – (3.10) gilt:

    Ck = (HTkW

    −1k Hk)

    −1 ,

    Ck+1 =

    ([HTk hk+1

    ] [ Wk 00 wk+1

    ][HkhTh+1

    ])−1= (HTkW

    −1k Hk︸ ︷︷ ︸

    C−1k

    +hk+1︸︷︷︸u

    w−1k+1hTk+1︸ ︷︷ ︸

    vT

    )−1

    Durch erneute Anwendung des Sherman-Morrison-Lemmas erhält man:

    Ck+1 = Ck −Ckhk+1w

    −1k+1h

    Tk+1Ck

    1 + hTk+1w−1k+1Ckhk+1

    = Ck −Ckhk+1h

    Tk+1Ck

    wk+1 + hTk+1Ckhk+1

    (3.15)

    Hiermit stehen zwei Rekursionsformeln zur Verfügung, die jeweils abwechselnd Anwendung fin-

    den. Für den Start der Rekursion gibt es zwei Möglichkeiten. Entweder werden die ersten m > n

    Messwerte verwendet, um x0 und C0 zu berechnen, oder es wird für x0 ein beliebiger Startwert

    verwendet, z.B. x0 = 0 und diesem eine hohe Unsicherheit zugewiesen, so dass C−1k ≈ 0. Die

    Rekursionsgleichungen finden dann direkt ab dem ersten Messwert Anwendung.

    Weitere Ausführungen und Beispiele zu der (rekursiven) Methode kleinster Quadrate finden

    sich unter Anderem in [4]. Im folgenden Abschnitt geht es um die Herleitung der eigentlichen

    Kalman Filter Gleichungen.

    3.3 Das Kalman Filter

    In Kapitel 2.2.3 ist das Konzept eines Schätzverfahren eingeführt worden. Dieses hat zur Auf-

    gabe hat zwei mit Unsicherheiten behaftete Werte zu einem, bisher noch nicht näher spezifizier-

    ten, “optimalen” Systemzustand zu kombinieren. Hier soll nun wie in [4] ein solches Verfahren

    hergeleitet werden, das als Kalman Filter bekannt ist.

    Die zwei Größen, welche vom Schätzverfahren kombiniert werden sollen, sind die Vorhersage des

    neuen Zustandes aus dem Systemmodell und die Korrektur des Zustandes aus dem Messmodell.

    Beide Modelle werden in den nachfolgenden zwei Abschnitten näher spezifiziert.

    3.3.1 Lineares Systemmodell

    Aufgabe des Systemmodells ist es, eine Abbildung anzugeben, unter der sich der zu schätzende

    Systemzustand aufgrund einer Eingabe über die Zeit hinweg fortpflanzt. Ein solches lineares

    Systemmodell kann beispielsweise folgende Form annehmen

    xk+1 = Akxk + Bkuk + wk , (3.16)

    26

  • 3.3. Das Kalman Filter

    wobei Ak ∈ Rn×n die (zeitvariante) Systemmatrix darstellt, die den aktuellen Zustand xk aufeinen Folgezustand xk+1 abbildet. Der Vektor uk ∈ Rr ist der Eingabevektor, der von der (zeit-varianten) Eingangsübergangsmatrix Bk ∈ Rn×r auf den Systemzustand abgebildet wird. DieUnsicherheit im Systemmodell wird von einem mittelwertfreien Rauschterm wk modelliert.

    Sei nun ein geschätzter Zustand xek mit Erwartungswert x̂ek und Kovarianzmatrix C

    ek bekannt.

    Zusätzlich sei der Eingabevektor uk gegeben und das Systemrauschen wk durch seine Kova-

    rianzmatrix Cwk charakterisiert. Der von der Systemgleichung (3.16) prädizierte Folgezustand

    xpk+1 lässt sich dann schreiben als:

    xpk+1 = Akxek + Bkuk + wk (3.17)

    Um die Kovarianzmatrix Cpk+1 des prädizierten Folgezustandes anzugeben, wird als nächstes

    angenommen, dass der geschätzte Systemzustand xek und das Systemrauschen wk unkorreliert

    sind. Die Verbundkovarianzmatrix ist dann

    Cov

    {[xekwk

    ]}=

    [Cek 0

    0 Cwk

    ]

    und die Kovarianzmatrix Cpk+1 = E{xpk+1(x

    pk+1)

    T} ergibt sich zu

    Cpk+1 = [Ak Bk]

    [Cek 0

    0 Cwk

    ][ATkBTk

    ]= AkC

    ekA

    Tk + BkC

    wk B

    Tk . (3.18)

    Tabelle 3.1 fasst die relevanten Größen und deren Eigenschaften zusammen.

    Größe Eigenschaften

    Ak Systemmatrix (∈ Rn×n)Bk Eingangsübergangsmatrix (∈ Rn×r)uk Eingabevektor (∈ Rr)xpk prädizierter Systemzustand zum Zeitpunkt k (∈ Rn)Cpk Kovarianzmatrix von x

    pk

    xek geschätzter Systemzustand zum Zeitpunkt k (∈ Rn)Cek Kovarianzmatrix von x

    ek

    wk mittelwertfreies Systemrauschen

    Cwk Kovarianzmatrix von wk

    Tabelle 3.1: Zusammenfassung der Größen des Systemmodells

    3.3.2 Lineares Messmodell

    Das Messmodell bildet den vom Systemmodell prädizierten Zustand xpk auf einen Messwert ab.

    Sowohl xpk, yk, sowie die Messmatrix Hk sind bekannt. Zusätzlich wird, analog zum System-

    modell, das Messmodell um eine unsichere Komponente vk erweitert. Die Messgleichung hat

    27

  • Kapitel 3. Zustandsschätzung stochastischer Systeme

    damit folgende Form:

    yk

    = Hkxpk + vk (3.19)

    Im Unterschied zu Kapitel 3.1 stellt der Messvektor hier eine Zufallsgröße yk∈ Rm dar.

    Analog zu (3.17) ist vk das mittelwertfreies Messrauschen, charakterisiert durch seine Kovari-

    anzmatrix Cvk. Das Messrauschen vk über die Zeit unabhängig von dem Systemrauschen wk.

    Für die Dimension m der Messgröße yk

    soll hier angenommen werden, dass m ≤ n ist. DasGleichungssystem ist damit nicht mehr überbestimmt.

    Tabelle 3.2 fasst diese Angaben zusammen.

    Größe Eigenschaften

    yk

    Messvektor (∈ Rm)m,n m ≤ nHk Messmatrix (∈ Rm×n)vk mittelwertfreies Messrauschen

    Cvk Kovarianzmatrix zu vkwk, vk unabhängig voneinander über die Zeit

    Tabelle 3.2: Zusammenfassung der Größen des Messmodells

    3.3.3 Kalman Filterschritt

    System- und Messmodell sind hiermit für die folgenden Ausführungen hinreichend spezifiziert.

    Gesucht ist nun ein Schätzer der die sogenannte BLUE (best linear unbiased estimate) Eigen-

    schaft erfüllt. Das heißt, gesucht ist der Beste (im Sinne des kleinsten quadratischen Fehlers),

    linearen, erwartungswerttreuen1 Schätzer. Diese Bedingungen bedeuten im Einzelnen:

    Gesucht ist eine lineare Funktion, die den Messvektor yk

    auf den Systemzustand abbildet. Solch

    eine Abbildung hat die Form

    xk = Kkyk + ck , (3.20)

    wobei Kk eine n×m–Matrix ist und ck ein konstanter Vektor.

    Die Forderung der Erwartungswerttreue besagt, dass der Erwartungswert der Schätzung x̂,

    gleich dem tatsächlichen Erwartungswert der gemessenen Quantität yk

    entsprechen soll ([3]).

    Durch Bildung des Erwartungswert auf beiden Seiten von (3.20) erhält man:

    E{xk} = E{Kkyk + ck}x̂k = E{Kkyk + ck}

    = Kk E{yk}+ ck= KkHkx̂k + ck (3.21)

    1 engl. unbiased

    28

  • 3.3. Das Kalman Filter

    Daraus folgt, dass für die gesuchte Abbildung in (3.20) gelten muss:

    KkHk = I (3.22)

    ck = 0 (3.23)

    Dritte und letzte Bedingung fordert, dass der quadratische Fehler der Schätzung minimal sein

    soll2, d.h.

    x̂k = arg minx

    E{(xk − x)2} (3.24)

    Das entspricht gerade der Forderung nach demjenigen x̂k, welches die Varianz von xk minimiert.

    Zu einem beliebigen Zeitpunkt k > 0 sei nun Vorwissen über den geschätzten Zustand in Form

    einer Prädiktion xpk gegeben, sowie eine Messung yk. Ein einfacher, linearer Schätzer lässt sich

    als Linearkombination beider Werte darstellen:

    xek = K1kx

    pk + K

    2kyk (3.25)

    Mit der Forderung nach Erwartungswerttreue muss, analog zu (3.21), gelten:

    E{xek} = E{K1kxpk + K

    2kyk}

    x̂k = E{K1kxpk}+ E{K

    2kyk}

    = K1kx̂k + K2k E{yk}

    = K1kx̂k + K2kHkx̂k

    Daraus folgt durch Koeffizientenvergleich:

    I = K1k + K2kHk oder

    K1k = I−K2kHk (3.26)

    Durch Einsetzen von (3.26) in (3.25) erhält man daraus:

    xek = (I−KkHk)xpk + Kkyk . (3.27)

    Der Erwartungswert der Schätzung ergibt sich dann zu

    E{xek} = E{(I−KkHk)xpk + Kkyk}

    x̂ek = E{(I−KkHk)xpk}+ E{Kkyk}

    = E{xpk} − E{KkHkxpk}+ Kkŷk

    = x̂pk −KkHkx̂pk + Kkŷk

    = x̂pk + Kk(ŷk −Hkx̂pk︸ ︷︷ ︸

    Innovation

    ) . (3.28)

    Der neue Zustand berechnet sich also aus dem prädizierten Zustand plus dem Produkt aus

    einem Fehlerterm, Innovation genannt, und einem Verstärkungsfaktor. Dieser Faktor Kk heißt

    Kalman-Verstärkungsfaktor3.

    2 engl. Minimum Mean Square Error (MMSE)

    3 engl.: Kalman Gain

    29

  • Kapitel 3. Zustandsschätzung stochastischer Systeme

    Damit ist die Herleitung der Zustand-Aktualisierung für den Kalman Filter Schritt abge-

    schlossen. Es fehlt noch die Angabe der Abbildung Kk und die Angabe der Kovarianz zu

    xek.

    Nach Bedingung (3.24) soll die Abbildung Kk so gewählt werden, dass die Kovarianz der

    Schätzung Cek minimal wird. Also wird als nächstes daher der Ausdruck für die Kovarianz

    von xek hergeleitet.

    Es gilt:

    Cek = Cov{xek}= E{(xek − x̂ek)(xek − x̂ek)T}

    Durch Einsetzen von (3.27) erhält man

    Cek = E{(

    (I−KkHk)(xpk − x̂pk) + Kk(yk − ŷk)

    )(

    (I−KkHk)(xpk − x̂pk) + Kk(yk − ŷk)

    )T}

    = E{((I−KkHk)(xpk − x̂

    pk)(x

    pk − x̂

    pk)T (I−KkHk)T

    )+ Kk(yk − ŷk)(yk − ŷk)

    TKTk

    + (I−KkHk)(xpk − x̂pk)(yk − ŷk)

    TKTk

    + Kk(yk − ŷk)(xpk − x̂

    pk)T (I−KkHk)T}

    Sind xpk und yk unkorreliert, vereinfacht sich letzter Ausdruck zu

    Cek = E{((I−KkHk)(xpk − x̂

    pk)(x

    pk − x̂

    pk)T (I−KkHk)T

    )+ Kk(yk − ŷk)(yk − ŷk)

    TKTk }

    = (I−KkHk)Cpk(I−KkHk)T + KkC

    ykK

    Tk (3.29)

    Um diesen Ausdruck zu minimieren ist ein Maß für die Ausdehnung der Kovarianz notwendig.

    Dafür eignet sich die Projektion der Kovarianz auf einen Einheitsvektor e:

    P(Kk) = eTCek(Kk)e (3.30)

    Die so definierte Projektion P( · ) ist eine Funktion von Kk, da Kk ist die zu minimierendeFunktion zur Kombination zweier Werte ist (vgl. (3.20)). Für euklidische Einheitsvektoren

    e1, . . . , en liefert P( · ) gerade die Elemente auf der Hauptdiagonalen zurück.

    Die notwendige Bedingung zur Minimierung von P( · ) ist:

    ∂P

    ∂Kk(Kk)=

    ! 0

    Zum besseren Verständnis der nachfolgenden Rechnung folgt als nächstes eine kurze Zusam-

    menfassung zweier Ableitungsregeln für Matrizen.

    30

  • 3.3. Das Kalman Filter

    Wiederholung: Ableitungsregeln für Matrizen

    Für eine Matrix K gilt:

    ∂K(aT ·K · b) = a · bT (3.31)

    ∂K(aTKCKT b) = a · bTKCT + b · aTKC (3.32)

    Daraus folgt aus (3.31):

    • für a = e und b = De∂

    ∂K(eT ·KD · e) = e · eTDT

    • für a = De und b = e∂

    ∂K(eT ·DTKT · e) = e · eTDT

    und aus (3.32) für a = e, b = e und symmetrische C:

    ∂K(eTKCKT e) = 2e · eTKC

    (3.29) in (3.30) eingesetzt und nach Kk abgeleitet ergibt:

    ∂KkP(Kk) =

    ∂KkeT((I−KkHk)Cpk(I−KkHk)

    T + KkCykK

    Tk

    )e

    =∂

    ∂KkeT (Cpk −C

    pkH

    TkK

    Tk −KkHkC

    pk + KkHkC

    pkH

    TkK

    Tk + KkC

    ykK

    Tk )e

    = −eeTCpkHTk

    :::::::− eeTCpkH

    Tk

    :::::::+ 2eeTKkHkC

    pkHk

    ::::::+ 2eeTKkC

    yk . (3.33)

    Gleichsetzen mit Null, faktorisieren von CpkHk und Berücksichtigung von eeT = I ergibt:

    (−I + KkHk)CpkHTk + KkC

    yk=

    ! 0

    was sich schließlich nach dem gesuchten Ausdruck für Kk auflösen lässt:

    Kk = CpkH

    Tk (C

    yk + HkC

    pkH

    Tk )−1 . (3.34)

    Vergleicht man nun die Gleichung (3.34) mit (3.6) aus dem Abschnitt zur Methode der kleinsten

    Quadrate, stellt man die Ähnlichkeit zwischen beiden Berechnungsvorschriften fest.

    Zur hinreichenden Bedingung eines Minimums muss noch gezeigt werden, dass die zweite

    Ableitung der Projektion nach Kk positiv definit ist:

    ∂Kk∂KkP(Kk) =

    ∂Kk

    ((−I + KkHk)CpkH

    Tk + KkC

    yk

    )=

    ∂Kk

    (−CpkH

    Tk + KkHkC

    pkH

    Tk + KkC

    yk

    )= HkC

    pkH

    Tk + C

    yk ,

    31

  • Kapitel 3. Zustandsschätzung stochastischer Systeme

    was als Summe zweier positiv definiter Matrizen gegeben ist.

    Zuletzt muss noch die Kovarianzmatrix der optimalen Schätzung Cek angegeben werden. Diese

    lässt sich durch Einsetzen von (3.34) in (3.29) gewinnen:

    Cek =(I−CpkH

    Tk (C

    yk + HkC

    pkH

    Tk )−1Hk

    )Cpk(

    I−CpkHTk (C

    yk + HkC

    pkH

    Tk )−1Hk

    )T+ CpkH

    Tk (C

    yk + HkC

    pkH

    Tk )−1Cyk(C

    yk + HkC

    pkH

    Tk )−1HkC

    pk

    =Cpk − 2CpkH

    Tk (C

    yk + HkC

    pkH

    Tk )−1HkC

    pk

    + CpkHTk (C

    yk + HkC

    pkH

    Tk )−1HkC

    pkH

    T

    ::::::::::(Cyk + HkC

    pkH

    Tk )−1HTCpk

    + CpkHTk (C

    yk + HkC

    pkH

    Tk )−1Cyk

    :::(Cyk + HkC

    pkH

    Tk )−1HkC

    pk

    =Cpk − 2CpkH

    Tk (C

    yk + HkC

    pkH

    Tk )−1HkC

    pk

    + CpkHTk (C

    yk + HkC

    pkH

    Tk )−1(Cyk + HkC

    pkH

    T )(Cyk + HkCpkH

    Tk )−1HTCpk

    =Cpk − 2CkHTk (C

    yk + HkC

    pkH

    Tk )−1HkC

    pk

    + CpkHTk (C

    yk + HkC

    pkH

    Tk )−1HkC

    pk

    =Cpk −CpkH

    T (Cyk + HkCpkH

    Tk )−1HkC

    pk (3.35)

    =Cpk −KkHkCpk . (3.36)

    Damit sind alle notwendigen Beziehungen hergeleitet worden. Die Gleichungen (3.16), (3.18),

    (3.34), (3.28) und (3.36) bilden zusammen die Kalman Filter Gleichungen.

    Gleichungen (3.18) und (3.35) können auch zu einer Rekursionsgleichung zusammengefasst

    werden. Durch Einsetzen erhält man:

    Cpk+1 = Ak

    [Cpk −C

    pkH

    T(Cyk + HkC

    pkH

    Tk

    )−1HkC

    pk

    ]ATk + BkC

    wk B

    Tk (3.37)

    Diese Ein-Schritt-Kovarianz-Vorhersage-Rekursion ist als zeitdiskrete Riccati Gleichung be-

    kannt [1]. Wie auch in Gleichung (3.36), hängt die prädizierte Kovarianz nicht von den Mess-

    werten ab, d.h. sie kann für die Anwendung im voraus berechnet werden.

    Es ist interessant festzustellen, dass bislang keine Annahmen über die Verteilung der Zufalls-

    größen gemacht wurde. Die bisherigen Annahmen sind:

    • lineares System- und Messmodell

    • stochastische Größen werden vollständig durch ihre ersten beiden Momente beschrieben

    • mittelwertfreies Rauschen

    • Rauschprozesse sind unabhängig über die Zeit, d.h. weißes Rauschen

    Es ist hierbei wichtig, dass die Verteilung unterhalb der linearen Transformation erhalten bleibt

    und weiterhin eindeutig durch ihre ersten beiden Momente charakterisiert werden kann. Die

    32

  • 3.3. Das Kalman Filter

    einzig kontinuierlichen Verteilungen, welche dies leisten sind die Normalverteilung und Gauß-

    Mischdichten. Aus diesem Grund wird im Folgenden nur noch von normalverteilten Größen

    ausgegangen.

    In Kapitel 3.3.1 wurde angenommen, dass Zustand und Rauschen unkorreliert sind. Dies ist

    nicht zwingend notwendig. In dem Falle lässt sich Gleichung (3.18) auch um Kreuzkovarianz-

    matrizen erweitern.

    Tabelle 3.3 fasst die Gleichungen des Kalman Filter noch einmal zusammen, während folgendes

    Schaubild 3.3.3 die Wechselwirkung zwischen dem Prädiktion- und Filterschritt verdeutlicht:

    Abbildung 3.1: Systematischer Aufbau des Kalman Filter: Das Kalman Filter aufgeteilt in Prädiktions- und

    Filterschritt (adaptiert aus [4]).

    Die genaue Auswertungsreihenfolge läuft wie folgt ab. Zu Beginn (k = 0) liegt eine Schätzung

    des initialen Zustandes xe0 und der Fehler-Kovarianzmatrix Ce0 vor. Daraufhin erfolgt eine

    Prädiktion anhand Systemmodells. Unter der Eingabe uk wird der prädizierte Folgezustand

    xp1 (Zustandsextrapolation) und die Fehler-Kovarianzmatrix Cp1 (Fehler-Kovarianz Extrapola-

    tion) vorhergesagt.

    Darauf folgt der Filterschritt. Als nächstes wird der Kalman Verstärkungsfaktor K1 berechnet.

    Das Messmodell liefert eine geschätzte Messung, aufgrund des aktuellen Zustandes xp1 des Fil-

    ters. Spätestens ab diesem Zeitpunkt liegt dem Filter eine neue Messung yk

    vor. Aus der Inno-

    vation, gewichtet mit dem Kalman Verstärkungsfaktor wird ausgehend vom aktuellen Zustand

    xp1 der erwartete neue Zustand xe1 berechnet (Zustandsupdate). Aufgrund der neuen Messung

    ist die Unsicherheit über den Filterzustand geringer geworden und die Fehler-Kovarianz wird

    ebenfalls aktualisiert (Fehler-Kovarianz Update).

    Damit schließt sich der Kreis und die Berechnungen beginnen von Neuem.

    33

  • Kapitel 3. Zustandsschätzung stochastischer Systeme

    lineares, zeitvariantes Systemmodell:

    xpk+1 = Akxek + Bkuk + wk

    wk ∼ N (0,Cwk )lineares, zeitvariantes Messmodell:

    yk

    = Hkxpk + vk

    vk ∼ N (0,Cvk)Anfangsbedingungen:

    E{x0} = xe0E{x0xT0 } = Ce0

    Unabhängigkeitsannahmen:

    E{wkvTj } = 0 ∀k 6= jZustandsextrapolation:

    xpk = Akxek−1 + Bkuk + wk

    Fehler-Kovarianz Extrapolation:

    Cpk = AkCek−1A

    Tk + BkC

    wk B

    Tk

    Kalman Verstärkungsfaktor:

    Kk = CpkH

    Tk (C

    vk + HkC

    pkH

    Tk )−1

    Zustandsupdate:

    xek = xpk + Kk(yk −Hkx

    pk)

    Fehler-Kovarianz Update:

    Cek = Cpk −KkHkC

    pk

    Tabelle 3.3: Zusammenfassung der Kalman Filter Gleichungen

    34

  • 3.4. Daten-Assoziation

    3.3.4 Das erweiterte Kalman Filter

    Die im letzten Abschnitt hergestellten Beziehungen sind in der Praxis nur anwendbar, wenn

    lineare System- und Messfunktionen zur Verfügung stehen. Die meisten Probleme in der realen

    Welt sind nichtlinearer Natur, wodurch sich die Modellformulierungen folgendermaßen ändern:

    xpk+1 = f(xek, uk,wk) (3.38)

    yk

    = h(xpk,vk) (3.39)

    Um mit der Nichtlinearität umzugehen gibt es prinzipiell zwei Möglichkeiten. Beim linearisierten

    Kalman Filter wird dazu eine Linearisierung des System- und Messmodels um den nominellen

    Zustand unternommen. Eine andere Methode besteht in der Linearisierung der Funktionen um

    den geschätzten Zustand. Hier spricht man vom erweiterten Kalman Filter [1].

    Eine Linearisierung wird in der Regel durch eine Taylorreihen-Entwicklung erreicht. Nach der

    Linearisierung entsprechen die verschiedenen Zufallsvektoren in der Regel nicht mehr ihrer ur-

    sprünglichen Verteilung. Das erweiterte Kalman Filter ignoriert diese Tatsache jedoch [19], was

    zum Verlust der Optimalität führt. In der Praxis können in der Regel trotzdem gute Ergebnisse

    erreicht werden, solange die Systemfehler- Cwk und Messfehler-Kovarianz Cvk hinreichend klein

    bleiben [1].

    Die Gleichungen für das erweiterte Kalman Filter können der Übersicht halber nachfolgender

    Tabelle 3.4 entnommen werden. Am prinzipiellen Vorgehen zur Auswertung der erweiterten

    Kalman Filter Gleichungen ändert sich nichts im Vergleich zum linearen Kalman Filter.

    Nachdem System- und Messfunktion angegeben worden sind, werden zusätzlich die partiellen

    Ableitungen A[i,j], W[i,j] der Systemfunktion nach dem Zustand x[i], bzw. nach dem System-

    fehler w[i] berechnet. Das Gleiche gilt für die partiellen Ableitungen H[i,j] und V[i,j] der Mess-

    funktion nach dem Zustand x[i] und dem Messfehler v[i]. Danach kann, was die Reihenfolge der

    Auswertung betrifft, wie beim linearen Kalman Filter verfahren werden. Bei den Berechnun-

    gen der Fehler-Kovarianz und des Kalman Verstärkungsfaktors kommen die Jacobi-Matrizen

    zum Einsatz, während bei den Zustandsberechnungen die nichtlinearen Funktionen verwendet

    werden.

    Kapitel 4.3 beschreibt detailliert die Verwendung des erweiterten Kalman Filter zum Einsatz

    in der Bildrekonstruktion.

    3.4 Daten-Assoziation

    Das Problem der Daten-Assoziation ist vor allem im Bereich der Objektverfolgung bekannt.

    Die Situation stellt sich dort wie folgt dar.

    Gegeben sind ein oder mehrere Objekte deren Zustand sich unabhängig von einander ändern

    kann. Durch Beobachtung fallen neue Messungen an, die Rückschlüsse über den aktuellen Zu-

    stand zulassen. Wenn das Messmodell keine genaue Identifikation des zu verfolgenden Objekts

    35

  • Kapitel 3. Zustandsschätzung stochastischer Systeme

    nichtlineares, zeitvariantes Systemmodell:

    xpk+1 = f(xek, uk,wk)

    wk ∼ N (0,Cwk )nichtlineares, zeitvariantes Messmodell:

    yk

    = h(xpk,vk)

    vk ∼ N (0,Cvk)Anfangsbedingungen:

    E{x0} = xe0E{x0xT0 } = Ce0

    Unabhängigkeitsannahmen:

    E{wkvTj } = 0 ∀k 6= jZustandsextrapolation:

    xpk = fk(xek−1, uk, 0)

    Lineare Approximation:

    A[i,j] =∂f

    [i](x,wk,0)

    ∂x[j] x=xek−1

    W[i,j] =∂f

    [i](xek,w,0)

    ∂w[j] w=0

    H[i,j] =∂h[i](x,0)

    ∂x[j] x=xpk

    V[i,j] =∂h[i](x,0)

    ∂v[j] v=0

    Fehler-Kovarianz Extrapolation:

    Cpk = ACek−1A

    T + WCwk WT

    Kalman Verstärkungsfaktor:

    Kk = CpkH

    T (VCvkVT + HCpkH

    T )−1

    Zustandsupdate:

    xek = xpk + Kk

    (yk− hk(x

    pk, 0)

    )Fehler-Kovarianz Update:

    Cek = Cpk −KkHC

    pk

    Tabelle 3.4: Zusammenfassung der erweiterten Kalman Filter Gleichungen: Der Zeitindex k ist der Übersichtlichkeit

    halber bei den Jakobi-Matrizen, System- und Modellgleichungen weggelassen worden.

    zulässt, stellt sich die Frage, zu welchem oder welchen der verfolgten Objekte die Messung

    überhaupt gehört.

    In Kapitel 5.2.3 wird aufgeführt, dass es nach der bei der Bildrekonstruktion zu Artefakten

    kommt, die sich auf ein ungelöstes Daten-Assoziationsproblem zurückführen lassen. Diese Ur-

    sache wird in dieser Arbeit nicht direkt behandelt. Nach tieferer Beschäftigung mit diesem

    Thema ist aus dem Bereich der Daten-Assoziation ein einfaches Hilfsmittel zur Lokalisierung

    von Messungen gefunden worden, welches sich nahtlos mit dem Kalman Filter kombinieren

    lässt.

    36

  • 3.4. Daten-Assoziation

    Im folgenden Teilabschnitt wird dieses allgemeine Verfahren zur Validierung von Messungen

    hergeleitet. Die Vorarbeit aus Kapitel 3.3 leistet dabei wertvolle Hilfe.

    3.4.1 Gating

    In der Regel setzt sich eine Messung aus mehreren Komponenten zusammen, die dazu verwendet

    werden können, den Ursprungsort ungefähr zu lokalisieren. Beispiele dafür sind Höhe, Distanz

    oder Richtungs-Cosinus eines Objektes.

    Im Folgenden wird angenommen, dass ein Filter wie in Kapitel 3.3 wenigstens initialisiert

    worden ist. Die prädizierte Messung ergibt sich durch Bildung des Erwartungswertes aus dem

    Messmodell (3.19):

    E{yk} = E{Hkxk + vk}ŷk

    = Hkx̂k (3.40)

    Subtrahiert man dieses von (3.19) erhält man den geschätzten Messfehler ỹk:

    ỹk

    = yk− ŷ

    k

    = Hkxk + vk −Hkx̂k= Hk(xk − x̂k) + vk (3.41)

    Die dazugehörige Innovations-Kovarianzmatrix Sk lautet damit

    Sk = E{ỹkỹT

    k}

    = E{(Hk(xk − x̂k) + vk)(Hk(xk − x̂k) + vk)T}= E{Hk(xk − x̂k)(xk − x̂k)THTk }+ E{vkvTk }+ 2 E{Hk(xk − x̂k)vTk }

    und für unkorrelierte xk und vk folgt für Sk:

    Sk = HkCpkH

    Tk + C

    vk (3.42)

    Unter der Annahme, dass die Messwerte normalverteilt sind, definiert die prädizierte Messfehler-

    Kovarianz einen ellipsoidalen Bereich, in dem eine Messung mit hoher Wahrscheinlichkeit

    gefunden werden kann:

    Ṽk(γ) = {y|(y − ŷk)S−1k (y − ŷk)

    T ≤ γ}= {vkS−1k v

    Tk ≤ γ} (3.43)

    vk ist die Innovation aus (3.28). Die Bedingung in (3.43) kann als statistische Distanz aufgefasst

    werden. Messungen, die innerhalb Ṽk(γ) liegen, fließen in die Schätzung mit ein.

    Mit Satz 2.2 ist klar, dass γ ∼ χ2m eine Chi-Quadrat verteilte Zufallsvariable mit m (derDimension des Messvektors) Freiheitsgraden ist. Werte für γ werden normalerweise einer Tabelle

    37

  • Kapitel 3. Zustandsschätzung stochastischer Systeme

    im vorhinein entnommen und für die Dauer einer Anwendung konstant gehalten. Ein Wert von

    γ = 1 entspricht gerade einem Abstand vom Betrag der Standardabweichung.

    Es fällt auf, dass der Wert für Sk derselbe ist, wie er in Gleichung (3.34) zur Berechnung des

    Kalman Verstärkungsfaktor benötigt wird.

    38

  • KAPITEL 4

    Entwicklung der Rekonstruktion

    Nachdem in den vorangehenden Abschnitten die statistischen Grundlagen dieser Arbeit entwi-

    ckelt worden sind, steht vorliegenden Abschnitt die Herleitung der Vorgehensweise zur Rekon-

    struktion von Bildern im Vordergrund.

    Zunächst werden die verschiedenen, zur Verfügung stehenden Informations- und Fehlerquellen

    eingeführt und beschrieben welche Auswirkungen Pulse im A-Scan auf die Bildrekonstruktion

    haben. Ausgehend davon wird die zentrale Idee zur statistischen Bildrekonstruktion erläutert.

    Anschließend wird, beginnend mit der Verwendung des erweiterten Kalman Filter aus Kapi-

    tel 3.3, der Bildrekonstruktionsalgorithmus beschrieben. Dieser verwendet unter Anderem die

    Methode des Gating aus Kapitel 3.4.1, um Reflexionen örtlich einzuschränken. Die einzige

    Informationsquelle, welche direkt Rückschlüsse auf den Ort einer Reflexion liefert, sind die auf-

    gezeichneten Pulse der Reflexionen. Von denen ist nur die TOA und die zugehörigen Sender

    und Empfänger bekannt. Durch die niedrige Dimensionalität dieser Messwerte ist diese Ein-

    schränkung nur bis auf ein Teilvolumen genau. Eine genauere Lokalisierung innerhalb dieses

    Teilvolumen ist nur unter aufwendigen Schätzverfahren möglich. Die allgemeine Problematik

    ist als Daten-Assoziation bekannt.

    4.1 Untersuchung der Informationsquellen

    4.1.1 Transmissionspulse

    Reflexionen im A-Scan, die dadurch entstehen dass ein Sendepuls auf direktem Weg vom Sender

    zum Empfänger ausbreitet, sind für die Bildrekonstruktion nicht von Interesse, da sie nicht

    durch die Reflexion des Sendepulses am zu untersuchenden Objekt entstanden sind. Abbildung

    4.1(a) zeigt einen solchen Transmissionspuls in Form einer entarteten Ellipse auf dem direkten

    Weg zwischen Sender (rot) und Empfänger (grün).

    In der Regel sind Transmissionspulse die ersten und stärksten Reflexionen, die der Empfänger

    aufzeichnet. Diese Pulse, wie auch die Rückwandreflexionen, werden während der Vorverarbei-

    tung herausgeschnitten.

    39

  • Kapitel 4. Entwicklung der Rekonstruktion

    4.1.2 Auflösungsvermögen

    Die Betrachtung der Wellenausbreitung des Schalls, zusammen mit einem aufgenommenen A-

    Scan, zeigt eine interessante Eigenschaft, welche die Auflösungsfähigkeit von A-Scans, abhängig

    von der verwendeten Sender-Empfänger-Kombination, limitiert.

    Abbildung 4.1(a) zeigt die prinzipielle Situation auf wenn alle 10 µs eine Reflexion gemessen

    worden wäre. Auf dem direkten Weg zwischen Sender (grün) und Empfänger (rot) ist eine Art

    (a) Auflösungsvermögen eines A-Scans, abhängig von Sender-

    und Empfängerelement

    (b) Ellipsoiden-Halbachsen

    Abbildung 4.1: Auflösungsvermögen eines A-Scans: In der linken Abbildung 4.1(a) sind für eine feste Sender-

    Empfänger Kombination die Ellipsen jedes zehnten Abtastpunktes in einem A-Scans eingezeichnet.

    In der rechten Abbildung 4.1(b) sind die charakteristischen Größen einer Ellipse eingezeichnet.

    blinder Fleck zu erkennen. Anhand von Abbildung 4.1(b) lässt sich dieses Phänomen erläutern:

    Eine Ellipse (im Zweidimensionalen), hat zwei Haupt- und zwei Nebenscheitel. Diese sind als

    HS, bzw. NS gekennzeichnet. Die Strecke zwischen Mittelpunkt und Hauptscheitel heißt Haupt-

    achse (a),