Upload
others
View
0
Download
0
Embed Size (px)
Citation preview
Sensor-Aktor-Systeme
Inte
llige
nte Universität Karlsruhe (TH), Fakultät für Informatik
Institut für Technische Informatik Lehrstuhl für Intelligente Sensor-Aktor-Systeme (ISAS)
Prof. Dr.-Ing. Uwe D. Hanebeck
Diplomarbeit
Statistische Bildrekonstruktion für die 3D
Ultraschall-Computertomographie unter Verwendung des
(erweiterten) Kalman Filters
Uwe Mayer
31. März 2008
Referent: Prof. Dr.-Ing. Uwe D. Hanebeck
Betreuer: Dipl.-Inform. Gregor Schwarzenberg
Eidesstattliche Erklärung
Hiermit erkläre ich, die vorliegende Diplomarbeit selbstständig angefertigt zuhaben. Die verwendeten Quellen sind im Text gekennzeichnet und im Literatur-verzeichnis aufgeführt.
Karlsruhe, 31. März 2008
Uwe Mayer
Inhaltsverzeichnis
Abbildungsverzeichnis VI
Tabellenverzeichnis VII
Zusammenfassung 1
1 Einleitung 3
1.1 Brustkrebs und Diagnoseverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Ultraschall-Computertomographie . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2 Grundlagen 9
2.1 Ultraschall–Computertomographie . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.1.1 Physikalischer Aufbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.1.2 Konventionelle Bildgebung . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2 Systemtheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.1 Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.2 Messmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2.3 Schätzverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3 Grundlagen der Statistik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3.1 Wahrscheinlichkeitsdichten . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3.2 Zentaler Grenzwertsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3.3 Chi-Quadrat Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3.4 Orthogonalitätsprinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
I
Inhaltsverzeichnis
3 Zustandsschätzung stochastischer Systeme 22
3.1 Methode der kleinsten Quadrate . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.2 Rekursive Methode der kleinsten Quadrate . . . . . . . . . . . . . . . . . . . . . 23
3.3 Das Kalman Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3.1 Lineares Systemmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3.2 Lineares Messmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.3.3 Kalman Filterschritt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3.4 Das erweiterte Kalman Filter . . . . . . . . . . . . . . . . . . . . . . . . 35
3.4 Daten-Assoziation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.4.1 Gating . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4 Entwicklung der Rekonstruktion 39
4.1 Untersuchung der Informationsquellen . . . . . . . . . . . . . . . . . . . . . . . 39
4.1.1 Transmissionspulse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.1.2 Auflösungsvermögen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.1.3 Wandlercharakteristik . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.1.4 Eindringtiefe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.1.5 Pulsdetektierte Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.1.6 Schallgeschwindigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.1.7 Objekteigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.1.8 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2 Allgemeine Vorgehensweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2.1 Annahmen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2.2 Ansatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.3 Aufbau des Kalman Filters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.3.1 System- und Messmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.3.2 Shaping Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.3.3 Direkt korrelierte Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
II
Inhaltsverzeichnis
5 Evaluierung 59
5.1 Vorverarbeitung der Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.1.1 Pulsdetektion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.1.2 Auswahl des Rekonstruktionsvolumen . . . . . . . . . . . . . . . . . . . . 61
5.1.3 Dimensionierung der Kovarianzmatrizen . . . . . . . . . . . . . . . . . . 62
5.1.4 Festlegung der Schallgeschwindigkeit . . . . . . . . . . . . . . . . . . . . 63
5.1.5 Einschränkung und Vorverarbeitung der Daten . . . . . . . . . . . . . . . 63
5.1.6 Wahl des Messfehlers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5.1.7 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.2 Vergleiche zur konventionellen Rekonstruktion . . . . . . . . . . . . . . . . . . . 65
5.2.1 Visueller Vergleich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.2.2 Signaldifferenz im Verhältnis zum Hintergrundrauschen . . . . . . . . . . 66
5.2.3 Bildartefakte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.3 Rekonstruktion des Fadenphantoms . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.3.1 SAFT Rekonstruktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.3.2 Kalman Filter Rekonstruktion . . . . . . . . . . . . . . . . . . . . . . . . 74
5.3.3 Shaping Filter Rekonstruktion . . . . . . . . . . . . . . . . . . . . . . . . 76
5.3.4 Direkt korrelierte Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
5.4 Rekonstruktion am Brustphantom . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6 Diskussion und Ausblick 87
6.1 Diskussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
6.2 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
Literaturverzeichnis 91
III
Inhaltsverzeichnis
IV
Abbildungsverzeichnis
1.1 Beispiel für Speckle-Rauschen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Rekonstruktionsartefakte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.1 USCT Demonstrator . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2 Transducer Array System (TAS) . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3 Anregungspuls & Frequenzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.4 Systematische Darstellung eines Punktstreuers . . . . . . . . . . . . . . . . . . . 12
2.6 Orthogonalitätsprinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.1 Systematischer Aufbau des Kalman Filter . . . . . . . . . . . . . . . . . . . . . 33
4.1 Auflösungsvermögen eines A-Scans . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2 Wandlercharakteristik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.3 Modellierung des Messfehlers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.4 Auswirkung einer Messung auf das Kalman Filter . . . . . . . . . . . . . . . . . 54
5.1 Abbildung der zwei Phantome . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.2 Vergleich zwischen A-Scan und pulsdetektierten Daten . . . . . . . . . . . . . . 60
5.3 Software zur Platzierung der Kalman Filter . . . . . . . . . . . . . . . . . . . . 61
5.4 Dimensionierung der Fehler-Kovarianzen . . . . . . . . . . . . . . . . . . . . . . 62
5.5 Bildartefakt am Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.6 Exemplarische Darstellung der Vorverarbeitung . . . . . . . . . . . . . . . . . . 69
5.7 SAFT Rekonstruktion (Fadenphantom) . . . . . . . . . . . . . . . . . . . . . . . 71
5.8 SAFT Rekonstruktion (Profilansicht, Fadenphantom) . . . . . . . . . . . . . . . 72
5.9 Kalman Filter Rekonstruktion (Fadenphantom) . . . . . . . . . . . . . . . . . . 75
V
Abbildungsverzeichnis
5.10 Ausschnitt aus der Kalman Filter Rekonstruktion (Fadenphantom) . . . . . . . 76
5.11 Shaping Filter Rekonstruktion: Messfehler (Fadenphantom) . . . . . . . . . . . . 78
5.12 Shaping Filter Rekonstruktion (Fadenphantom) . . . . . . . . . . . . . . . . . . 80
5.13 Rekonstruktion mit geschätztem Messfehler (Fadenphantom) . . . . . . . . . . . 81
5.14 Rekonstruktion über einen hochdimensionalen Zustand (Fadenphantom) . . . . 82
5.15 SAFT & Kalman Filter Rekonstruktion (Brustphantom) . . . . . . . . . . . . . 84
5.16 Shaping Filter Rekonstruktion (Brustphantom) . . . . . . . . . . . . . . . . . . 86
VI
Tabellenverzeichnis
2.1 Kenngrößen des USCT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Abstände zwischen Sender- & Empfängerelementen . . . . . . . . . . . . . . . . 11
3.1 Zusammenfassung der Größen des Systemmodells . . . . . . . . . . . . . . . . . 27
3.2 Zusammenfassung der Größen des Messmodells . . . . . . . . . . . . . . . . . . 28
3.3 Zusammenfassung der Kalman Filter Gleichungen . . . . . . . . . . . . . . . . . 34
3.4 Zusammenfassung der erweiterten Kalman Filter Gleichungen . . . . . . . . . . 36
4.1 Zusammenfassung der hier verwendeten erweiterten Kalman Filter Gleichungen . 53
5.1 Übersicht der Vorverarbeitungsschritte . . . . . . . . . . . . . . . . . . . . . . . 65
5.2 Rekonstruktionsparameter nach der Vorverarbeitung (Fadenphantom) . . . . . . 69
5.3 SDNR-Werte der SAFT Rekonstruktion (Fadenphantom) . . . . . . . . . . . . . 73
5.4 SDNR-Werte der Kalman Filter Rekonstruktion (Fadenphantom) . . . . . . . . 76
5.5 SDNR-Werte zur Shaping Filter Rekonstruktion (Fadenphantom) . . . . . . . . 79
5.6 SDNR-Werte zur Rekonstruktion über einen hochdimensionalen Zustand . . . . 83
5.7 Rekonstruktionsparameter nach der Vorverarbeitung (Brustphantom) . . . . . . 85
VII
Tabellenverzeichnis
VIII
Zusammenfassung
Am Forschungszentrum Karlsruhe wird ein dreidimensionaler Ultraschall-Computer-
tomograph (USCT) zur Brustkrebsfrüherkennung entwickelt. Das Gerät besteht aus
einem Zylinder, das an der Innenseite mit Sensoren bestückt ist. Über die Aufnahme
der Signale hinaus lassen sich eine Vielzahl weiterer Zusammenhänge angeben, die
nicht direkt über die aufgenommenen Daten quantifizierbar sind.
Bei der Rekonstruktion von dreidimensionalen Bildern wird zur Zeit von einer Rei-
he vereinfachender Annahmen ausgegangen, damit der Algorithmus einfach gehalten
werden kann. Dadurch ist es schwieriger die Rekonstruktion durch zusätzliche Infor-
mationen so zu steuern, dass zu einer verbesserten Bildgebung gelangt werden kann.
Daraufhin wurde ein statistischer Rekonstruktionsansatz entwickelt und implemen-
tiert, der auf Grundlage des erweiterten Kalman Filters das vermessene Objekt als
Wahrscheinlichkeitsdichte schätzt. Erwartet wurden davon bessere Möglichkeiten auf
die Rekonstruktion Einfluss zu nehmen, um somit zu einer besseren Bildrekonstruk-
tion gelangen zu können.
Mit der implementierten Bildrekonstruktion konnte eine erheblich höhere Flexibilität
erreicht werden, bei der die rekonstruierten Bilder eine vergleichbare oder bessere
Qualität zu bisherigen Rekonstruktionen aufweisen. Das gesamte Verfahren konnte
in zwei Teile getrennt werden. Der berechnende Teil kann leicht um existierende Ver-
fahren zur Bildverbesserung erweitert werden und lässt sich elegant parallelisieren.
Getrennt davon wird die Bildgenerierung verwendet um den berechneten Zustand als
Bild darzustellen. Die gute Bildqualität nach der Rekonstruktion konnte rechnerisch
durch eine höhere Signaldifferenz im Verhältnis zum Hintergrundrauschen (SDNR)
und optisch durch schärfer dargestellte Objekte im Bild bestätigt werden. Über die
statistischen Eigenschaften des Kalman Filters ist es möglich jeden einzelne Refle-
xion während der Zustandsschätzung zu beeinflussen. Das implementierte Verfahren
erreicht trotz aller Berechnungen noch eine Bearbeitungsdauer, die in der gleichen
Größenordnung liegt, wie sie auch von bisher verwendeten Methoden benötigt wird.
Zu den größten Nachteilen gehört die erhöhte Komplexität des Verfahrens. Es ist nicht
immer einfach die berechneten Größen in ein Verhältnis zueinander zu setzen, so dass
der Algorithmus gute Resultate liefert. Die hohe Anzahl der variablen Parameter
erschwert diesen Umstand zusätzlich. In seiner aktuellen Implementierung baut das
vorgestellte Verfahren auf sehr einfache statistische Modelle auf. Diese können im
Rahmen weiterer Forschungen genauer spezifiziert werden um weitere Verbesserungen
zu erzielen.
Während mit dem hier entwickelten Ansatz eine statistische Grundlage zur Bildre-
konstruktion zur Verfügung steht, bleibt der beste Weg zur Wahl der vielzähligen
Parameter Gegenstand weiterer Forschungsarbeiten.
1
Zusammenfassung
2
KAPITEL 1
Einleitung
1.1 Brustkrebs und Diagnoseverfahren
Das Mammakarzinom (Brustkrebs) ist eine bösartige Tumorerkrankung der Brustdrüse. Der
primäre Brusttumor selbst ist für die Frau keine tödliche Erkrankung, trotzdem sterben jährlich
ca. 18 000 Frauen in Deutschland an Brustkrebs. Dies ist mit 17% die am Häufigsten zum Tode
führende Form des Krebses [15]. Dieser scheinbare Widerspruch erklärt sich dadurch, dass die
weibliche Brust zwar kein lebenswichtiges Organ ist, sich aber bösartige Krebszellen durch das
Lymphsystem und den Blutkreislauf verteilen und andere, lebensnotwendige Organe befallen
(Metastasen).
Mit der Größe der Mammakarzinome bei der ersten Diagnose von Brustkrebs steigt auch die
Wahrscheinlichkeit der Metastasenbildung. Vorsorge und eine frühe sichere Diagnose sind daher
Schlüsselpunkte im Kampf zur Verringerung der Sterblichkeitsrate durch Brustkrebs.
Die Diagnose erfolgt bei jungen Frauen vorallem durch Abtastung der Brust durch den Frau-
enarzt oder die Patientin selbst. Die mittlere Größe eines Tumors zum Diagnosezeitpunkt ist
2 cm. Die Wahrscheinlichkeit, dass sich zu diesem Zeitpunkt schon Metastasen gebildet haben
beträgt ca. 60%.
Bei kleinen Brüsten mit viel Drüsengewebe wird auch die Sonographie als Diagnoseverfahren an-
gewandt. Dabei handelt es sich um ein 2D Ultraschallverfahren, in dem mit einem stabförmigen
Ultraschallkopf die Brust abgefahren wird, um Schichtbilder zu erzeugen. Auf einem Monitor
kann dann das Gewebe nach verdächtigen Strukturen abgesucht werden. Diese Untersuchungs-
methode ist schmerzfrei und zeichnet sich durch eine fehlende Strahlenbelastung aus. Als Nach-
teil ist unter anderem Bilder von niedriger Bildqualität zu nennen. Dies liegt beispielsweise an
der starken Dämpfung des Schalls mit zunehmender Tiefe und dem Speckle-Rauschen, (Abb.
1.1) welches die rekonstruierten Bilder überlagert.
Ab der Menopause hat jede Frau in Deutschland das Recht auf eine gesetzliche Vorsorgeuntersu-
chung durch Mammographie. Dabei wird die Brust zwischen zwei Plexiglasplatten gepresst und
mittels Röntgenstrahlen ein zweidimensionales Bild von oben und von der Seite erstellt. Das
Verfahren hat eine hohe Auflösung von ca. 0, 1 mm2. Dir durchschnittliche Größe eines Tumors
zum Diagnosezeitpunkt ist ca. 1 cm. Die Metastasenwahrscheinlichkeit liegt dort immer noch
3
Kapitel 1. Einleitung
Abbildung 1.1: Beispiel für Speckle-Rauschen: Diese Abbildung zeigt das für die Sonographie typische Speckle-
Rauschen (Quelle: [2]). Bei der grün markierten Region handelt es sich möglicherweise um eine bösartige
Krebsgeschwulst.
bei ca. 30%. Nachteilig wirkt sich die erhöhte Strahlenbelastung aus, weshalb dieses Verfahren
bei jüngeren Frauen nicht angewandt wird um das Krebsrisiko nicht zu erhöhen. Außerdem ist
in jungem Alter der Anteil des Drüsengewebes in der Brust höher, was für schlechtere Bilder
sorgt. Eine Mammographie erzeugt nur Projektionsbilder der Brust. Durch die Kompression
wird die Lokalisierung eines Tumors zusätzlich erschwert.
Aus Kostengründen wird die Magnetresonanztomographie (MRT) bei Vorsorgeuntersuchungen
nicht eingesetzt.Bei diesem Verfahren, auch Kernspintomographie genannt, wird der Frau ein
Kontrastmittel gespritzt und mittels Magnetwellen ein Volumenbild der Brust erstellt. Diese
Untersuchungsmethode dauert zwar länger, ist aber schmerzfrei und kommt ohne Strahlen-
belastung aus. Die resultierenden Schichtbilder haben eine relativ geringe Auflösung von ca.
1 mm2 , weisen aber eine hohe Sensitivität auf. Da das Verfahren sehr teuer ist, wird es in
Deutschland noch nicht zu Vorsorgeuntersuchungen herangezogen.
1.2 Ultraschall-Computertomographie
Am Institut für Prozessdatenverarbeitung und Elektronik (IPE) im Forschungszentrum Karls-
ruhe (FZK) wird ein neuartiges bildgebendes Verfahren zur Brustkrebsfrüherkennung mittels
Ultraschall-Computertomographie entwickelt.
Beim Ultraschall-Computertomographen (USCT) handelt es sich um einen zylindrischen Topf,
in dessen Wände Ultraschallsender und -empfänger ringförmig angeordnet sind. Der USCT
4
1.3. Motivation
wird in eine Liege eingelassen, auf die sich die Frau zur Untersuchung bäuchlings nieder-
legt. Die zu untersuchende Brust hängt dabei in den USCT. Daraufhin wird der Zylinder
mit Wasser als Koppelmedium gefüllt. Nacheinander sendet jeder Sender einzeln einen vorde-
finierten Puls aus, während alle anderen Empfänger aufnehmen. Der Schall wird an jedem
Dichteübergang in der Brust reflektiert und von allen Seiten aufgenommen. Dadurch läßt
sich mittels Reflexionstomographie ein dreidimensionales Volumen der undeformierten Brust
rekonstruieren.
Diese Methode kombiniert mehrere Vorteile gebräuchlicher Untersuchungsmethoden. Durch die
Verwendung von Ultraschall kommt sie ohne Strahlenbelastung aus und ist somit in jedem Al-
ter anwendbar. Die ringförmige Anordnung und die abwechselnde Ansteuerung der Sensoren
ermöglicht es ein echtes dreidimensionales Volumen der Brust auszumessen, ohne dass die Brust
durch äußere Einwirkungen deformiert wird. So lässt sich ein Tumor genauer in der Brust lo-
kalisieren und der Patientin werden keine Schmerzen durch Kompression der Brust verursacht.
An rekonstruierten Schichtbildern ist zu erkennen, dass dieser Aufbau das für die Sonographie
typische Speckle-Rauschen verhindert. Erste Messergebnisse an künstlichen Objekten (Phanto-
men) haben ein Auflösungsvermögen im Sub-Millimeterbereich demonstriert. Ziel ist es durch
eine hohe dreidimensionale Auflösung und unter Kombination mehrerer Modalitäten die Bild-
qualität zu verbessern um die durchschnittliche Tumorgröße zum Diagnosezeitpunkt auf 5 mm
zu senken. Bei dieser Größe sinkt damit die Metastasenwahrscheinlichkeit auf geschätzte 5%.
Im Gegensatz zur MRT ist der USCT auch wesentlich kostengünstiger herzustellen und zu
betreiben. Er kommt daher auch für Vorsorgeuntersuchen in Frage.
1.3 Motivation
Trotz vielversprechender Eigenschaften ist die Ultraschall-Computertomographie zur Brus-
krebsfrüherkennung noch kein gelöstes Problem. Bei der Umsetzung zeigen sich zahlreiche prak-
tische und theoretische Herausforderungen an denen noch aktiv geforscht wird. Ein Schwerpunkt
liegt dabei auf der Verbesserung der Bildrekonstruktion.
Zu jedem der 384 Ultraschallsender nehmen 1536 Ultraschallempfänger gleichzeitig das am
Gewebe reflektierte Signal auf. Sender und Empfänger lassen sich zusätzlich noch in sechs
verschiedene Stellungen um das Objekt im USCT rotieren, so dass insgesamt ca. 3,5 Millio-
nen Datensätze anfallen. Jedem Datensatz entspricht ein eindimensionales Signal, in dem sich
der Sendepuls mehrmals verzögert und verzerrt wiederfindet. Anhand der Laufzeitdauer eines
Pulses (TOA1) lässt sich der Ort einer Reflexion im USCT bis auf die Oberfläche eines Ellipsoi-
den, mit Sender und Empfänger als Brennpunkten, genau bestimmen. Durch die Überlagerung
aller Ellipsoiden läßt sich im einfachsten Falle ein 3D Volumenbild erstellen. Dies liefert die
Grundlage des aktuellen Rekonstruktionsansatzes, der ellipsoiden Rückprojektion (SAFT2).
1 engl. time of arrival
2 engl. synthetic aperture focusing technique
5
Kapitel 1. Einleitung
Diesem Ansatz folgend fließen bereits eine Vielzahl von Informationen in die Bildrekonstrukti-
on mit ein, die der Verbesserung der Bildqualität dienen. Die Ellipsoiden werden anhand ihrer
Amplitude gewichtet ins Volumen projiziert. Pulse, welche die Ultraschallsensoren absenden,
werden nicht mit konstanter Intensität in alle Richtungen ausgesandt, sondern winkelabhängig
zur Senderichtung. Dies ist das Ergebnis einer vorangegangenen Diplomarbeit [20]. Reflexionen,
die tiefer im Raum auftreten, haben ebenso eine schwächere Reflexion als jene, die in einem
ungünstigeren Winkel zum Sender oder Empfänger stehen. Der Rekonstruktionsansatz erkennt
den Ursprung einer Messung und gewichtet die Ellipsoiden entsprechend. Bei komplexen Objek-
ten besteht zudem das Problem, dass sich die Schallgeschwindigkeit mit dem Übergang in ein
anderes Medium, beispielsweise von Wasser in Fettgewebe, ändert. Zur Kompensation dieses
Effektes wurde in einer früheren Arbeit bereits ein Verfahren entwickelt womit sich die dadurch
entstehenden Effekte korrigieren lassen [13]. In einer weiteren Arbeit wurden die aufgenomme-
nen Signale einer Pulsdetektion unterzogen. Dadurch können mittlerweile Reflexionen im Raum
genauer bestimmt werden [18].
Bei der SAFT Bildrekonstruktion treten allerdings noch weitere Artefakte auf, die bisher ein
rekonstruiertes Bild negativ beeinflussen. Anhand von Abbildung 1.2 lassen sich drei solcher
Artefakte beschreiben.
X /Bildpunkte
Y /B
ildpu
nkte
50 100 150 200 250
50
100
150
200
250
Abbildung 1.2: Rekonstruktionsartefakte: Diese Abbildung zeigt die Rekonstruktion der horizontalen Schicht aus
einer künstlichen Brust. Bei den kreisförmigen, geschlossenen Gebilden links unten und rechts oben handelt es sich
um zystenartige Strukturen. Der helle Fleck in der Mitte stammt von einem starken Reflektor im Objekt.
Der helle Fleck in der Mitte des Bildes stammt von einem Reflektor, der nicht in der hier
rekonstruierten Schicht, sondern in einer darüberliegenden Schicht angesiedelt ist. Aufgrund
6
1.3. Motivation
der geometrischen Eigenschaften wie die Ellipsoiden ins Bild projiziert werden, lässt sich nicht
entscheiden aus welcher Schicht die aufgezeichneten Reflexionen stammen.
Ein weiteres Problem ist, dass dieser Fleck so hell im Bild rekonstruiert wird, dass die Struktu-
ren, welche sich in der rekonstruierten Schicht befinden, überlagert werden. Hier ist von einem
Dynamikproblem die Rede. Im Hintergrund des weißen Flecks sind zwei weitere Zysten kaum
sichtbar zu erkennen.
Bei genauer Betrachtung des Bildes fällt auf, dass im Hintergrund Streifen zu sehen sind. Diese
Streifen stammen nicht von wirklichen Reflexionen, sondern entstehen dadurch, dass immer der
gesamte Ellipsoid ins Bild projiziert wird. Damit werden auch Punkte im Bild erhellt an denen
gar keine Reflexion stattgefunden hat.
Eine weiteres Teilproblem stellt die Ungenauigkeit bei der Lokalisierung der Ellipsoiden im
Raum dar. Diese hängt ab von der verwendeten Sender-Empfänger Kombination und der ak-
tuellen Position im Raum. Unter großen Distanzen zwischen Sender und Empfänger entstehen
Regionen im Bild, die durch die aufgenommenen Daten genauso fein aufgelöst werden können
wie Andere.
Der USCT sammelt während einer Messung große Mengen an Daten. Durch die immer vielfälti-
geren und komplexeren Verarbeitungsschritte auf dem Weg zur Verbesserung der Bildqualität
darf der Berechnungsaufwand nicht außer Acht gelassen werden.
Das Ziel dieser Arbeit ist es eine alternative Bildrekonstruktionsmethode zur ellipsoiden Rück-
projektion zu entwickeln. Darin sollen die unterschiedlichen Fehlerquellen, die in einem komple-
xen System existieren berücksichtigt werden. So sollen Ellipsoiden nicht mehr als gleichförmige
Objekte in den Raum zurückprojiziert werden. Anhand eines statistischen Schätzsverfahrens
soll eine Gewichtung anhand der genannten Kriterien erfolgen können. Diese Gewichtung soll
die Verteilung von Reflektoren auf dem Ellipsoiden berücksichtigen.
Während der Rekonstruktion soll es möglich sein das Verhalten des Algorithmuses gezielt zu
lenken. Es soll damit möglich sein modellbasierte Annahmen über das Objekt oder die Geome-
trie des USCT zu berücksichtigen.
Besonders wichtig ist, dass die bisher erarbeiteten Verfahren zur Verbesserung der Bildqualität
möglichst weiterverwendet werden können sollen.
Während der Entwicklung dieses Ansatzes darf die zu verarbeitende Datenmenge nicht außer
Acht gelassen werden. Trotz erhöhter Komplexität soll es dennoch möglich sein, zumindest
kleinere Teilvolumen, in annehmbarer Zeit zur rekonstruieren.
Eine besondere Herausforderung in dieser Arbeit liegt in der Konstruktion eines neuen Verfah-
rens, welches bislang in der Ultraschall-Computertomographie keine Anwendung gefunden hat.
Für Rekonstruktionen von Volumenbildern kommen in der Ultraschall-Computertomographie
seit langer Zeit zwei Verfahren zum Einsatz.
Die ellipsoide Rückprojektion wurde schon genannt und grob beschrieben. Für dieses Verfahren
existieren zahlreiche Erweiterungen, welche zu einer Verbesserung der Bildqualität beitragen.
Diese reichen von verhältnismäßig einfachen Signalverarbeitungsschritten zu komplexen Be-
rechnungen, die teilweise Tage zur Vorberechnung benötigen.
7
Kapitel 1. Einleitung
Die zweite Rekonstruktionsmethode ist die Diffraktionstomographie. Hier wird aufgrund von
genauen Kenntnissen der physikalischen Ausbreitungseigenschaften des Schalls versucht das
Objekt zu rekonstruieren, welches die beobachteten Daten erklährt. Während auch am IPE an
diesem Verfahren weiter geforscht wird, ist Methode, bei den zu rekonstruierenden Volumen,
zur Zeit noch zu rechenaufwendig um sich als Standardverfahren angewendet zu können.
8
KAPITEL 2
Grundlagen
2.1 Ultraschall–Computertomographie
2.1.1 Physikalischer Aufbau
Beim Ultraschall–Computertomograph (USCT) am Institut für Prozessdatenverarbeitung und
Elektronik (IPE) handelt es sich um einen zylindrischen Topf mit 18 cm Innendurchmesser und
15 cm aktiver Höhe (vgl. Abb. 2.1). An der Innenseite sind insgesamt 384 Ultraschallsender
und 1536 Ultraschallempfänger angebracht. Diese sind jeweils mit acht Senderelementen und 32
Empfängerelementen auf einem “Transducer Array System” (TAS) untergebracht (siehe Abb.
2.2). Die TAS sind in drei Ringen gegeneinander versetzt über die Innenseite des USCT verteilt.
Durch einen Motor kann der USCT noch in sechs verschiedene Stellungen um seine vertikale
Achse gedreht werden. Weitere Maßzahlen zur Anzahl von Sender- und Empfängerelementen
und deren Abstand zueinander können den Tabellen 2.1 und 2.2 (S. 11) entnommen werden.
Um ein Objekt im USCT zu vermessen, wird der Messzylinder mit Wasser als Koppelmedium
gefüllt. Das Objekt wird in das Wasser eingetaucht und soweit befestigt, dass es während der
Vermessung seine Position nicht ändern kann. In einer festgelegten Reihenfolge sendet nun jedes
Sendeelement nacheinander einen sinusförmigen Puls mit einer Mittelfrequenz von 2, 4 MHz und
ca. 3 µs Länge aus (Abb. 2.3).
Die gesamte Sendedauer beträgt 6.4 µs, bei einer Abstrahlfrequenz von 40 MHz. Bei Dich-
teübergängen innerhalb des Zylinders wird der Puls gestreut und reflektiert. Über eine Zeit-
spanne von 300 µs werden diese Reflexionen von allen Empfängerelementen gleichzeitig mit
einer Frequenz von 10 MHz abgetastet und mit 12 Bit quantisiert. Innerhalb dieser Zeit kann
ein Puls 2.4 mal den Durchmesser des USCT zurücklegen. Das aufgenommene Signal misst also
über 3000 Abtastwerte hinweg den Druckverlauf (Amplitudenscan, kurz: A-Scan) innerhalb des
Zylinders.
In der Theorie wird von Punktquellen als Sender ausgegangen, die eine gleichmäßige Kugelwelle
ausstrahlen. Aufgrund der Größe der Wandler variiert die Schalldruckintensität abhängig von
der Abstrahlrichtung. Man spricht hier von der Sender- / Empfängercharakteristik. Bei -6 dB
9
Kapitel 2. Grundlagen
Abbildung 2.1: USCT Demonstrator am IPE (Quelle: USCT-Gruppe)
Abbildung 2.2: Transducer Array System (TAS); Wie bei einem 5er Würfelbild sind jeweils vier Ultraschall-
empfänger (grün) um einen Ultraschallsender (rot) herum angeordnet. Davon sind jeweils acht untereinander auf
einem TAS angebracht. (Quelle: USCT-Gruppe)
10
2.1. Ultraschall–Computertomographie
Anzahl
Sender / TAS 8
Empfänger / TAS 4 ∗ 8 = 32TAS übereinander 3 (versetzt)
TAS nebeneinander 16
Senderschichten 3 ∗ 8 = 24Empfängerschichten 3 ∗ 8 ∗ 2 = 48Senderspalten 16
Empfängerspalten 32
Motorpositionen 6
Sender-Empfänger Kombinationen 6 ∗ 16 ∗ 32 = 3072Senderelemente gesamt 24 ∗ 16 = 384Empfängerelemente gesamt 48 ∗ 32 = 1536Datensätze 6 ∗ 24 ∗ 48 ∗ 16 ∗ 32 = 3538944
Tabelle 2.1: Kenngrößen des USCT
minimale Abstände horizontal & vertikal
Sender-Sender 6 mm
Sender-Empfänger 3 mm
Empfänger-Empfänger 3 mm
Tabelle 2.2: Abstände zwischen Sender- & Empfängerelementen
Abbildung 2.3: Abstrahlpuls (links); Leistungsdichtesprektrum (rechts)
11
Kapitel 2. Grundlagen
Druckabfall hat die Hauptkeule in Abstrahl- / Empfangsrichtung noch einen Öffnungswinkel
von ca. 30◦ [20].
Bei ca. 3,5 Millionen Datensätzen (Tabelle 2.1, S. 11), 16 Bit und 3000 Abtastwerten pro
Datensatz ergeben das 19,7 GByte pro Messung. Dies stellt hohe Anforderungen an die Daten-
akquisitionshardware. Trotz der 192 zur Verfügung stehenden Eingangskanäle und Multiplexing
dauert eine Messung heute noch ca. 10 Stunden.
Auf den weiteren Aufbau der Hardware soll im Folgenden nicht mehr eingegangen werden, da
dieser für die vorliegende Arbeit nicht weiter von Bedeutung ist.
2.1.2 Konventionelle Bildgebung
Um die aktuelle Methode der Bildrekonstruktion zu erläutern, sollen zunächst einige Verein-
fachungen angenommen werden. So wird im Folgenden von einem idealen Punktstreuer in der
Nähe des USCT-Zentrums ausgegangen und die Sensorcharakteristik ignoriert. Das Kopplungs-
medium Wasser soll während der gesamten Rekonstruktion eine konstante Temperatur haben,
so dass Änderungen der Schallgeschwindigkeit aufgrund von Temperaturschwankungen nicht
auftreten.
Abbildung 2.4 verdeutlich diese Situation: Im linken Bild ist der USCT dargestellt. Die grün
markierten Sensorelemente S und E auf dem Außenrand stellen einen Ultraschallsender und
-empfänger dar. Der rote Punkt in der Mitte symbolisiert einen einzelnen Punktstreuer, der
blaue Hintergrund das Wasser im Zylinder. Der Sender strahlt einen Puls aus, der sich zunächst
in Form von Kugelwellen durch das Wasser (hier gelb dargestellt) fortpflanzt. Treffen die-
se Wellen auf den Punktstreuer wird der Schall gestreut (hier schwarz dargestellt). Der vom
Empfänger aufgenommene A-Scan ist rechts zu sehen. Von Rauschen und Wandreflexionen ab-
t
p(t)
Laufzeit
Druck
S
E
Abbildung 2.4: Systematische Darstellung eines Punktstreuers (Quelle: USCT-Gruppe)
12
2.1. Ultraschall–Computertomographie
gesehen nimmt der Empfänger zwei deutliche Pulse auf. Einmal den Transmissionsimpuls (hier
rot), der durch den direkten Verlauf des Pulses vom Sender zum Empfänger entsteht und den
Reflexionsimpuls (hier grün), welcher durch die Reflexion des Schalls am Punktstreuer entsteht.
Die einzige Information, die aus einem einzelnen A-Scan direkt entnommen werden kann, ist
die Amplitude (ai, i = 1, . . . , 3000) zu einem gegebenen Zeitpunkt (t). Letzteres ergibt sich aus
der Abtastfrequenz (fA) und der Position des Abtastwertes:
t =i
fA(2.1)
Bei gegebener Schallgeschwindigkeit (vw) lässt sich somit die zurückgelegte Strecke (s) berech-
nen:
s = t ∗ vw (2.2)s = ||PR − S||+ ||E − PR|| (2.3)
Gesucht ist PR, die Position des Punktstreuers. Dieser Ort ist aber durch die Norm in Gleichung
2.3 unterbestimmt. Die (nicht leere) Punktemenge, die Gleichung (2.3) erfüllen, liegen auf
einem zigarrenförmigen Ellipsoiden (3D), bzw. einer Ellipse im Zweidimensionalen. Sender- und
Empfängerelement nehmen dabei die Position der Brennpunkte des Ellipsoiden ein (Abbildung
2.5).
Abbildung 2.5: Alle Punkte auf einer Ellipse haben den selben Weg vom Sender zum Punkt zum Empfänger
(s = s′). Die Ellipsen der Pulse mehrerer Sender- und Empfängersensoren schneiden sich an der Position des
Punktstreuers.
Hieraus lässt sich die Ellipsoiden-Rückprojektion herleiten, welches als konventionelles Bildge-
bungsverfahren zurzeit Verwendung findet. Zuerst werden die Transmissionsimpulse aus dem
13
Kapitel 2. Grundlagen
A-Scan entfernt. Diese sind die ersten Abtastwerte mit hoher Amplitude. Ihre ungefähre Posi-
tion im A-Scan lässt sich aus der Distanz zwischen Sender- und Empfängerelement berechnen.
Ausgehend von einem quadratischen Punkteraster wird dann auf jeden Punkt, der auf einer
elliptischen Bahn um die Brennpunkte S und E liegt, der Betrag der Amplitude aufaddiert. Das
führt nach wiederholtem Eintragen mehrerer A-Scans dazu, dass sich auf dem Punkteraster an
den entsprechenden Positionen hohe Werte aufaddieren. Dieses Punkteraster kann schließlich
als Graustufenbild angezeigt werden.
Im Rahmen weiterer Forschungsarbeiten sind vielzählige Verbesserungen in Form von Vor- und
Nachverarbeitungsschritten eingeführt worden.
Während in dieser Diplomarbeit wird vorerst von einer konstanten Schallgeschwindigkeit ausge-
gangen. In [13] wurde die Verzögerung des Transmissionspulses vom Idealwert dazu verwendet
eine Schallgeschwindigkeitsschätzung für jeden Punkt im Raum durchzuführen. Gerade bei
komplexen Objekten mit unterschiedlichen Dichten schwankt die Schallgeschwindigkeit erheb-
lich. Bei einer künstlichen Brust konnte eine Standardabweichung von 50ms
gemessen werden.
Das führt dazu, dass sich die Ellipsoiden nicht mehr in einem Punkt, sondern nur innerhalb
eines Gebietes schneiden. Zum Abschluss dieser Arbeit wird erläutert, wie sich dieses Verfahren
in die hier entwickelte Rekonstruktionsmethode eingebunden werden kann.
In [18] wurde durch Kenntniss des vom Sender ausgehenden Anregungsimpulses ein auf der
Wavelet-Transformation basierendes Verfahren zur Pulsdetektion in den A-Scans entwickelt.
Dadurch reduziert sich die Datenmenge von 3000 Abtastwerten pro A-Scan auf ca. 60 Stück
(auf realen Daten). Auf diese Art reduziert sich das Signal-Rauschverhältniss (SNR) innerhalb
des A-Scans auf Kosten der Ungenauigkeit, die die Pulsdetektion mit sich bringt.
Wegen der Reduktion irrelevanter Daten und der zusätzlichen Parameter, welche die Pulsde-
tektion zur Weiterverarbeitung liefert (Phase, Bandbreite, Sicherheit bei der Signaldetektion),
baut das in Kapitel 4.2 vorgestellte Verfahren nicht auf den einzelnen Abtastwerten, sondern
auf den detektierten Pulsen auf.
Nachdem bisher der Hardwareaufbau und die aktuelle Bildrekonstruktion beschrieben worden
sind, konzentrieren sich die folgenden Abschnitte mehr auf die Grundlagen der vorliegenden
Arbeit.
2.2 Systemtheorie
Die folgenden Kapitel beschäftigen sich mit einem Ansatz zur statistischen Bildrekonstruktion.
Zuerst werden hier einige Begriffe und Zusammenhänge aus der Systemtheorie beschrieben.
Diese sind für ein umfassendes Verständnis der Zusammenhänge notwendig.
14
2.2. Systemtheorie
2.2.1 Systeme
Der Begriff des Systems findet in vielen verschiedenen Fachbereichen Anwendung. Allgemein
bekannt sind Systeme aus der Ökologie, Politik, Mathematik oder zum Beispiel der Kunst. In der
Informatik spricht man beispielsweise auch von “eingebetteten Systemen”. Verallgemeinenert
kann man unter einem System ein Teil der Realität verstehen, das durch Schnittstellen in einer
Wechselbeziehung mit seiner Umwelt steht. Mathematisch läßt sich ein System als Funktion
mit Ein- und Ausgangsparameter modellieren.
Systeme lassen sich unter Anderem durch die nachfolgende Eigenschaften klassifizieren [8], [5]:
skalar – vektorwertig
Ob ein System skalar oder vektorwertig ist, hängt von der Ausgangsgröße eines Systems ab.
Es ist dabei nicht von Bedeutung, ob eine oder mehrere Eingangsgrößen skalar oder vektor-
wertig sind. Man spricht entsprechend von Single Input Single Output (SISO)- oder Multiple
Input Single Output (MISO)-Systemen. Analog teilen sich vektorwertige Systeme in SIMO-
und MIMO-Systeme auf.
statisch – dynamisch
Bei statischen Systemen ändert sich der aktuelle Zustand über die Zeit hinweg nicht. Dies ist
äquivalent mit einer fehlenden Auswirkung des Systemeinganges.
zeitdiskret – zeitkontinuierlich
Sind für ein System der Initialzustand, sowie die erste Eingabe gegeben, so ist der Zustand
eines (dynamischen) Systems durch die kleinste Menge von Variablen, den Zustandsvariablen,
definiert, die das Verhalten des Systems vollständig beschreiben. Die Zustandsvariablen werden
normalerweise zu einem Zustandsvektor zusammengefasst: xk = [xk,1, . . . , xk,N ]T .
Bei zeitdiskreten Systemen, wie sie für die Verarbeitung auf dem Computer notwendig sind,
nehmen die Zustandsvariablen endliche Werte an. Die meisten Systeme in der realen Welt sind
zeitkontinuierlich, dort kann durch Diskretisierung des das zeitkontinuierliche Systemmodell in
ein diskretes Modell umgewandelt werden.
linear – nichtlinear
Abhängig von der Vorschrift, wie ein Systemzustand xk und seine Eingänge auf den nachfol-
genden Zustand abgebildet werden, kann eine Unterteilung in lineare- oder nichtlineare Syste-
me vorgenommen werden. Bei linearen Systemen gilt das Superpositionsprinzip und die Ab-
bildung, welche den aktuellen Zustand auf den Folgezustand abbildet, ist durch ein lineares
15
Kapitel 2. Grundlagen
Gleichungssystem möglich:
xk+1 = Axk + Buk
Hier ist A die (statische) Systemmatrix, B die (statische) Eingangsmatrix, welches die (vektor-
vertige) Eingabe uk auf den Systemzustand abbildet. Bei realen Systemen liegt normalerweise
eine nichtlineare System- oder -Eingangsfunktion vor. Nichtlineare Systeme sind oft schwieriger
zu handhaben, stattdessen werden die Funktionen gelegentlich linearisiert, beispielsweise durch
eine Taylor-Entwicklung um den aktuellen Systemzustand.
wertediskret – wertekontinuierlich
Können die Zustandsvariablen nur eine endliche Anzahl von Werten annehmen, spricht man von
einem wertediskreten System. Diese Systeme sind in der Literatur gut verstanden [4]. Im wer-
tekontinuierlichen Fall sind die Berechnungen des Folgezustandes meist wesentlich schwieriger
durchzuführen.
zeitinvariant - zeitvariant
Liegt ein zeitvariantes System vor, können sich die Berechnungsvorschriften zu jedem Zeitschritt
ändern. Dies wird durch einen Zeitindex k bei den Abbildungsvorschriften gekennzeichnet. Ein
zeitvariantes, nichtlineares (vektorvertiges) System lässt sich demnach durch die Gleichung
xk+1 = ak(xk,uk)
beschreiben.
deterministisch - stochastisch
Bei deterministischen Systemen kann die Systemfunktion anhand der Eingänge das System
exakt modellieren. Dies ist in der Regeln nicht der Fall. Um dem habhaft zu werden, wird die
Systemfunktion um eine unsichere Komponente, dem Systemrauschen wk erweitert, welche die
Unsicherheit zwischen den Systemkomponenten modelliert.
Im vorliegenden Falle werden wir uns mit vektorwertigen, dynamischen, zeit- und wertediskre-
ten, aber linearen und nichtlinearen, stochastischen Systemen beschäftigen:
xk+1 = ak(xk,uk,wk) (2.4)
xk+1 = Akxk + Bkuk + wk (2.5)
2.2.2 Messmodell
Oft lässt sich der Systemzustand nicht direkt messen. Stattdessen müssen mehrere Daten, die
von verschiedenen Sensoren aufgenommen worden sind, über eine Messgleichung hk( · ) mit der
16
2.3. Grundlagen der Statistik
Systemgleichung in Beziehung gesetzt werden. Meist ist auch dies nicht immer deterministisch
möglich und das Messmodell wird analog zum Systemmodell um eine unsichere Komponente
erweitert:
yk
= hk(xk,vk) (2.6)
Hier ist vk die Modellkomponente für das Messrauschen. Die Messfunktion hk( · ) liefert ausdem aktuellen Systemzustand xk eine Schätzung des Messwerts yk.
2.2.3 Schätzverfahren
Wenn sowohl das Systemmodell als auch das Messmodell keine direke und nur eine mit Unsi-
cherheit behaftete Aussage über den Systemzustand machen können, liegt es nahe zu versuchen,
beide Modelle zu kombinieren, so dass eine Schätzung des neuen Systemzustandes insgesamt
verbessert wird. Die Kombination beider unsicheren Werte aus System- und Messgleichung
übernimmt ein Schätzverfahren:
Dazu wird im ersten Schritt eine Prädiktion des neuen Systemzustandes x−k+1 anhand der Syste-
meingänge durch die Systemgleichung durchgeführt. Dieser wird dann in einem zweiten Schritt,
Filterung genannt, mit der Ausgabe der Messgleichung kombiniert, um zu einem verbesserten
Systemzustand x+k+1 zu gelangen. Beide Schritte, Prädiktion und Filterung wechseln sich im
Verlauf jeweils miteinander ab.
Ziel eines Schätzverfahren muss es sein, diese Kombination von stochastischen Größen in einer
statistisch sinnvollen Art und Weise durchzuführen. Es wird sich später in Kapitel 3.3 zeigen,
dass das Kalman Filter so ein Schätzverfahren liefert. Zunächst müssen allerdings noch einige
Grundlagen aus der Statistik wiederholt werden.
2.3 Grundlagen der Statistik
In diesem Abschnitt werden einige Grundlagen aus der Statistik und Wahrscheinlichkeitstheorie
wiederholt. Im Verlauf der nachfolgenden Ausführungen soll dadurch Verständnis dafür geschaf-
fen werden, wie es in Kapitel 3.3 zur Verwendung des Kalman Filter zur Bildrekonstruktion
kommt. Außerdem liefern die unten aufgeführten Sätze wichtige Hintergrundinformationen, mit
der das Verhalten der Filter während der Bildrekonstruktion erklährt werden kann.
2.3.1 Wahrscheinlichkeitsdichten
Im Allgemeinen kann die Dichte eines Zufallsvektors eine beliebige Form annehmen. Es ist in
der Praxis jedoch von Vorteil, wenn diese Dichte mathematisch gut handhabbar ist und durch
eine geringe Anzahl von Momenten charakterisiert werden kann. In der Literatur finden sich
daher häufig normalverteilte Dichten.
17
Kapitel 2. Grundlagen
Gauß-Dichten lassen sich durch ihre ersten beiden Momente vollständig beschreiben. Die mul-
tivariate Normalverteilung und (multivariate) Gauß-Mischverteilung sind im Verlauf dieser
Arbeit von zentraler Bedeutung, weshalb deren Dichtefunktionen hier kurz aufgeführt werden:
Ist x ein n×1-dimensionaler Zufallsvektor, so hat die dazugehörige n-dimensionale Dichtefunk-tion die Form:
fx(x) =1√
(2π)n|Cx|e−
12
(x−x̂)T C−1x (x−x̂) (2.7)
= N (x− x̂,Cx) (2.8)
Wobei Cx die n×n-dimensionale Kovarianzmatrix von x ist.
Solch eine Gauß-Dichte verfügt aber nur über ein Maximum. Bei Zufallsvektoren, die multi-
modal verteilt sind, eignet sich die Gauß-Mixtur-Dichte zur Approximation der Dichtefunk-
tion. So eine Dichte besteht aus der gewichteten Summe mehrerer n-dimensionaler Gauß-
Dichtefunktionen:
fx(x) =L∑i=1
wiN (x− x̂i,Cx,i) (2.9)
Damit die resultierende Funktion eine Wahrscheinlichkeitsdichte bleibt, müssen zwei weitere
Bedingungen an die Gewichte gestellt werden:
1. wi ≥ 0 ∀i = 1, . . . , L
2.∑L
i=1wi = 1
Damit wird sichergestellt, dass die Wahrscheinlichkeitsmasse der gesamten Dichte gleich 1 ist.
Solche Gauß-Mixtur-Dichten können andere Dichtefunktionen in der Regel beliebig genau ap-
proximieren, allerdings ist hier kein analytisches Verfahren mehr bekannt, mit dem alle Parame-
ter der Mixtur-Dichte mittels Maximum-Likelihood geschätzt werden können [12]. Stattdessen
kommt hier ein iteratives Verfahren, der Expectation-Maximisation (EM-) Algorithmus, zum
Einsatz.
2.3.2 Zentaler Grenzwertsatz
Die Zentralen Grenzwertsätze (ZGW) liefern eine Aussage über Verteilung einer Summe un-
abhängiger Zufallsvariablen und damit eine Erklärung für die Sonderstellung der Normalver-
teilung in der Statistik.
Im nachfolgenden Satz wird eine identische Verteilung der Zufallsvariablen vorausgesetzt, so-
wie deren statistischen Unabhängigkeit. Es existieren auch Verallgemeinerungen, die keine
Annahmen über eine identische Verteilung machen [9].
Satz 2.1 Seien x1, x2, . . . unabhängige Zufallsvariablen mit gleicher Verteilung, Erwartungs-
wert µ = E{x1} und der positiven Varianz σ2 := V (x1)
2.3. Grundlagen der Statistik
limn→∞
P
(∑nj=1 xj − n ·µσ ·√n
≤ t
)= Φ(t) =
∫ t−∞
1√2πe−x
2/2dx.
Beweis. Siehe [7]. �
Anders formuliert:
n∑j=1
xj ≈ N (n ·µ, n ·σ2) (2.10)
d.h. die Summe der Zufallsvariablen ist annähernd normalverteilt mit dem gleichen Erwar-
tungswert und Varianz wie∑n
j=1 xj selbst.
Dies erklährt die Sonderstellung der Normalverteilung in der Statistik und liefert der vorliegen-
den Arbeit in Kapitel 4.1.8 den Grund für die Modellierung des Messfehlers als normalverteilte
Zufallsvariable.
2.3.3 χ2-Verteilung
Die χ2-Verteilung taucht meistens dort auf, wo es um Summen von unabhängigen, normalver-
teilten Zufallsvariablen geht. Diese Verteilung wird später in Kapitel 3.4.1 benötigt.
Definition 2.1 Die χ2-Verteilung mit n Freiheitsgraden ist die Verteilung der Summe von n
unabhängigen, quadrierten, standard-normalverteilten Zufallsvariablen:
y := x21 + x22 + · · ·+ x
2n
xk ∼ N (0, 1), k = 1, . . . , n
man schreibt: y ∼ χ2n
Die Dichtefunktion ist etwas komplizierter, wird aber im Verlauf dieser Diplomarbeit nicht
weiter benötigt. Näheres zur Dichtefunktion findet sich unter [6].
Satz 2.2 Sei nun x ein n-dimensionaler, normalverteilter Zufallsvektor mit Mittelwert x̂ und
Kovarianzmatrix C, dann ist die skalare Zufallsvariable
q = (x− x̂)TP−1(x− x̂) (2.11)
ebenfalls die Summe von n unabhängigen, quadrierten, standard-normalverteilten Zufallsvar-
riablen und χ2n-verteilt.
Beweis. Siehe [1]. �
Das Produkt auf der rechten Seite der Gleichung (2.11) heißt auch quadratische Form und ist
in der Informatik auch als Mahalanobis-Distanz zwischen x und x̂ bekannt.
19
Kapitel 2. Grundlagen
2.3.4 Orthogonalitätsprinzip
Die zentrale Aussage des Orthogonalitätsprinzip ist, dass bei einem optimalen (im Sinne des
kleinsten quadratischen Fehlers) und linearen Schätzer der geschätzte Wert die orthogonale
Projektion der zu schätzenden Größe auf den Raum der beobachtbaren Größen ist. Um dies zu
motivieren soll folgende Herleitung aus [1] betrachtet werden.
Die Menge der mittelwertfreien Zufallsvariablen yi, i = 1, . . . , n können als Vektoren in einem
Vektorraum V betrachtet werden. Darin lässt sich ein Skalarprodukt
< yi,y
k> = E{yT
iyk} (2.12)
definieren, welches kompatibel zu einer Norm ist und als Abstandsmaß interpretiert werden
kann.
Zwei Vektoren yi,y
kheißen orthogonal, wenn für ihr Skalarprodukt gilt:
< yi,y
k>= 0 auch: y
i⊥ y
k
Bei einem linearen Schätzer soll eine Zufallsvariable x als Linearkombination mehrerer beob-
achtbaren, verrauschten Größen yiausgedrückt werden, d.h. der Schätzer x̂ lässt sich darstellen
als:
x̂ =n∑i=1
βiyi
Dieser Schätzer soll den quadratischen Fehler minimieren:
x̃ := x− x̂||x̃||2 = E{(x− x̂)2}
= E{
(x−n∑i=1
βiyi)2}
Dieser Ausdruck wird als mittlerer quadratischer Fehler bezeichnet. Um diesen Ausdruck zu
minimieren, wird dieser Ausdruck bezüglich der Koeffizienten βi, i = 1, . . . , n abgeleitet. Das
ergibt:
∂
∂βk||x̃||2 = E
{(x−
n∑i=1
βiyi)Ty
k
}= E{x̃Ty
k}
= < x̃,yk>
=! 0, k = 1, . . . , n
Dies ist äquivalent mit der Forderung nach x̃ ⊥ yk∀k. Die folgende Abbildung 2.6 verdeutlicht
dieses Resultat.
20
2.3. Grundlagen der Statistik
Abbildung 2.6: Orthogonalitätsprinzip: Die Ebene Y stellt die Menge der beobachtbaren Größen dar. x ist der
zu schätzende Zufallsvektor, welcher anhand einer verrauschten Messung y1
geschätzt werden soll.
Der quadratische Fehler E{(x− β1y1)2} ist genau dann am Kleinsten, wenn x− β1y
1orthogonal auf y
1steht.
21
KAPITEL 3
Zustandsschätzung stochastischer Systeme
In den nächsten Abschnitten steht die Herleitung der Kalman Filter Gleichungen im Vor-
dergrund. Dieser wird während der Entwicklung der Rekonstruktion dazu verwendet das zu
vermessende Objekt als Wahrscheinlichkeitsdichte zu schätzen.
Die Herleitungen aus diesem Kapitel wurden größtenteils aus [4] übernommen. An einigen Stel-
len wurden die Beweise um einige Erläuterungen und Rechenschritte ergänzt um das Verständ-
nis für die zugrundeliegende Mathematik zu fördern.
Die Kalman Filter Gleichungen Diese stehen in engem Zusammenhang mit der (rekursiven)
Methode der kleinsten Quadrate [4]. Es wird sich später zeigen, dass die Rechenvorschriften,
bis auf die stochastische Interpretation der Größen, mit denen des Kalman Filters identisch
sind. Danach folgen noch zwei weitere Methoden, die in dieser Arbeit zum Einsatz kommen.
3.1 Methode der kleinsten Quadrate
Im vorliegenden Problem sei für eine gegebene Messung y ∈ Rm der Systemzustand x ∈ Rn
gesucht, für den eine lineare Messgleichung der Form
y = Hx
gegeben ist. Für m > n liegt hier ein überbestimmtes Gleichungssystem vor, also H ∈ Rm×n,für das gewöhnlich keine Lösung existiert. Stattdessen soll das Problem “so gut wie möglich”
gelöst werden, d.h. es wird eine Fehlerfunktion J(x) eingeführt und die Parameter von x so
gewählt, dass ||Hx− y|| bezüglich eines Distanzmaßes || · || minimiert wird.
Für || · || kommen mehrere Normen in Frage, jedoch hat die Lösung unter der L2-Norm beson-ders einfache statistische Eigenschaften [16], so dass im Folgenden ausschließlich die L2-Norm
verwendet wird. Da diese Norm streng monoton ist, kann stattdessen auch 12|| · ||2 minimiert
22
3.2. Rekursive Methode der kleinsten Quadrate
werden, oder besser noch:
J(x) =1
2||Hx− y||2W−1 (3.1)
=1
2(y −Hx)TW−1(y −Hx) (3.2)
=1
2
m∑k=1
[n∑i=1
wk,i (hk,ixi − yk)
]2Die noch nicht näher spezifizierte, positiv definite, symmetrische Matrix W−1 ∈ Rm×m dientdabei der Bewertung der Qualität der einzelnen Messwerte im Messvektor y.
Durch Ausmultiplizieren der Fehlerfunktion (3.2) erhält man:
J(x) =1
2(yTW−1y − xTHTW−1y − yTW−1Hx+ xTHTW−1Hx) (3.3)
Notwendige Bedingung für ein Minimum von J( · ) ist:∂J
∂x(x) =! 0
=1
2(0−HTW−1y − yTW−1H + 2HTW−1Hx)
=1
2(−HTW−1y −HTW−1y + 2HTW−1Hx)
= −HTW−1y + HTW−1Hx (3.4)
Durch Umformung erhält man mit
HTW−1y = HTW−1Hx , (3.5)
die sogenannte Normalform. Durch Auflösen nach x ergibt sich die beste Lösung von x im Sinne
des kleinsten quadratischen Fehlers zu:
x = (HTW−1H)−1HTW−1y (3.6)
Es ist offensichtlich, dass für die Existenz einer Lösung H mindestens Rang(H) ≥ n geltenmuss, da ansonsten die Matrixinversion von (HTW−1H) fehlschlägt.
Zur hinreichenden Bedingung für ein Minimum muss noch gezeigt werden, dass die zweite
Ableitung von J( · ) positiv definit ist, was durch
∂2J
∂x∂x(x) = HTW−1H
gegeben ist.
3.2 Rekursive Methode der kleinsten Quadrate
Liegt einmal eine Schätzung des Systemzustandes x aus den bisherigen m Messungen vor und
trifft danach noch eine weitere Messung ein, gibt es zwei Möglichkeiten weiter zu verfahren.
23
Kapitel 3. Zustandsschätzung stochastischer Systeme
Eine Möglichkeit besteht darin x aus dem kompletten Satz der vorliegenden m+ 1 Messungen
nach der Methode der kleinsten Quadrate neu zu berechnen. Dieses Vorgehen ist aus zwei
Gründen unvorteilhaft. Als erstes ist der redundante Aufwand bei der Berechnung der ersten
m Messungen zu nennen. Zweitens ist leicht ersichtlich, dass mit zunehmender Anzahl weiterer
Messungen die Länge des Messvektors y anwächst, womit auch die Komplexität der Berechnung
nach (3.6) weiter zunimmt.
Geschickter wäre es, wenn ausgehend vom aktuellen Zustand x, die neue Messung rekursiv
einfließen könnte.
Die hier hergeleitete Rekursive Methode kleinster Quadrate liefert genau das. Dazu werden die
Matrizen Hk+1 und W−1k+1 zum Zeitpunkt k + 1 in Abhängigkeit der Matrizen Hk, bzw. W
−1k
zum Zeitpunkt k gesetzt, was zu einer rekursiven Berechnungsvorschrift von xk+1 führt.
Seien nun die skalaren Messungen yi, i = 1, . . . , k zu diskreten Zeitpunkten aufgenommen
worden. Zum Zeitpunkt tk lässt sich das Messsystem in folgender Form schreiben:
yk
= Hkxk
mit:
yk
=
y1...yk
, Hk = h
T1...
hTk
Die Vektoren hT1 , . . . , h
Tk sind die Zeilenvektoren von Hk. Beim Übergang von tk → tk+1
wird Hk um hTk+1 zu Hk+1 um eine Zeile erweitert. Gleichung (3.6), für die Schätzung des
Systemzustandes zu den Zeitpunkten tk und tk+1, lautet dann:
xk = (HTkW
−1k Hk)
−1HTkW−1k yk (3.7)
xk+1 = (HTk+1W
−1k+1Hk+1)
−1HTk+1W−1k+1yk+1 (3.8)
Der Einfachheit halber gehen wir davon aus, dass W−1 Diagonalgestalt hat:
W−1k =
w1 0 . . . 0
0 w2...
.... . . 0
0 . . . 0 wk
Setzt man (3.7) in (3.8) ein, erhält man:
xk+1 =
([HTk hk+1
] [ Wk 00 wk+1
][HkhTh+1
])−1[HTk hk+1
] [ Wk 00 wk+1
][yk
yh+1
](3.9)
= (HTkW−1k Hk + hk+1w
−1k+1h
Tk+1)
−1(HTkW−1k yk + hk+1w
−1k+1yk+1) (3.10)
24
3.2. Rekursive Methode der kleinsten Quadrate
An diesem Ausdruck stört noch der Messvektor yk. Mit Hilfe der Normalform (3.5):
HTkW−1k yk = H
TkW
−1k Hkxk (3.11)
und einer Hilfsdefinition
C−1k := HTkW
−1k Hk (3.12)
lässt sich xk+1 in (3.10) umformen zu:
xk+1 = (C−1k + hk+1︸︷︷︸
u
w−1k+1hTk+1︸ ︷︷ ︸
vT
)−1(C−1xk + hk+1w−1k+1yk+1) (3.13)
Dieser Ausdruck lässt sich noch weiter vereinfachen und intuitiver gestalten. Dazu ist folgendes
Lemma zur Matrixinversion notwendig.
Lemma 3.1 Sherman-Morrison-Lemma
(A + uvT )−1 = A−1 − A−1uvTA−1
1 + vTA−1u
Damit kann (3.13) überführt werden in:
xk+1 =
(Ck −
Ckhk+1w−1k+1h
Tk+1Ck
1 + hTk+1w−1k+1Ckhk+1
)(C−1k xk + hk+1w
−1k+1yk+1
)=: (T1 + T2)(T3 + T4)
Dieses Produkt kann noch ausmultipliziert werden. Zur Vereinfachung der Nebenrechnung
werden die Summanden, wie oben angedeutet abgekürzt:
T1 ·T3 = CkC−1k xk = xk ,
T2 ·T3 = −Ckhk+1
wk+1 + hTk+1Ckhk+1
·hTk+1xk ,
(T1 + T2) ·T4 =
(Ckhk+1 −
Ckhk+1hTk+1Ck
wk+1 + hTk+1Ckhk+1
)w−1k+1yk+1
=Ckhk+1wk+1
wk+1 + hTk+1Ckhk+1
w−1k+1yk+1
Zusammengesetzt ergibt sich damit die Rekursionsformel für den Folgezustand xk+1:
xk+1 = xk +Ckhk+1
wk+1 + hTk+1Ckhk+1︸ ︷︷ ︸
VerstärkungKk
(yk+1 − hTk+1xk)︸ ︷︷ ︸Korrekturterm
(3.14)
Der Korrekturterm berechnet sich also aus der aktuellen Messung yk+1 und einer Prädiktion
hTk+1xk anhand des aktuellen Systemzustandes xk. Der Verstärkungsfaktor hängt von der Ge-
wichtung wk+1 der aktuellen Messung und von der Matrix Ck ab. Letztere ist ein Maß für die
Unsicherheit des aktuellen Schätzswertes xk. Beides zusammen, addiert zum aktuellen Zustand
xk, ergibt den nächsten Folgezustand.
25
Kapitel 3. Zustandsschätzung stochastischer Systeme
Was jetzt noch fehlt, ist eine Rekursionsformel für Ck. Durch die geleistete Vorarbeit ist diese
wesentlich einfacher herzuleiten. Analog zu (3.7) – (3.10) gilt:
Ck = (HTkW
−1k Hk)
−1 ,
Ck+1 =
([HTk hk+1
] [ Wk 00 wk+1
][HkhTh+1
])−1= (HTkW
−1k Hk︸ ︷︷ ︸
C−1k
+hk+1︸︷︷︸u
w−1k+1hTk+1︸ ︷︷ ︸
vT
)−1
Durch erneute Anwendung des Sherman-Morrison-Lemmas erhält man:
Ck+1 = Ck −Ckhk+1w
−1k+1h
Tk+1Ck
1 + hTk+1w−1k+1Ckhk+1
= Ck −Ckhk+1h
Tk+1Ck
wk+1 + hTk+1Ckhk+1
(3.15)
Hiermit stehen zwei Rekursionsformeln zur Verfügung, die jeweils abwechselnd Anwendung fin-
den. Für den Start der Rekursion gibt es zwei Möglichkeiten. Entweder werden die ersten m > n
Messwerte verwendet, um x0 und C0 zu berechnen, oder es wird für x0 ein beliebiger Startwert
verwendet, z.B. x0 = 0 und diesem eine hohe Unsicherheit zugewiesen, so dass C−1k ≈ 0. Die
Rekursionsgleichungen finden dann direkt ab dem ersten Messwert Anwendung.
Weitere Ausführungen und Beispiele zu der (rekursiven) Methode kleinster Quadrate finden
sich unter Anderem in [4]. Im folgenden Abschnitt geht es um die Herleitung der eigentlichen
Kalman Filter Gleichungen.
3.3 Das Kalman Filter
In Kapitel 2.2.3 ist das Konzept eines Schätzverfahren eingeführt worden. Dieses hat zur Auf-
gabe hat zwei mit Unsicherheiten behaftete Werte zu einem, bisher noch nicht näher spezifizier-
ten, “optimalen” Systemzustand zu kombinieren. Hier soll nun wie in [4] ein solches Verfahren
hergeleitet werden, das als Kalman Filter bekannt ist.
Die zwei Größen, welche vom Schätzverfahren kombiniert werden sollen, sind die Vorhersage des
neuen Zustandes aus dem Systemmodell und die Korrektur des Zustandes aus dem Messmodell.
Beide Modelle werden in den nachfolgenden zwei Abschnitten näher spezifiziert.
3.3.1 Lineares Systemmodell
Aufgabe des Systemmodells ist es, eine Abbildung anzugeben, unter der sich der zu schätzende
Systemzustand aufgrund einer Eingabe über die Zeit hinweg fortpflanzt. Ein solches lineares
Systemmodell kann beispielsweise folgende Form annehmen
xk+1 = Akxk + Bkuk + wk , (3.16)
26
3.3. Das Kalman Filter
wobei Ak ∈ Rn×n die (zeitvariante) Systemmatrix darstellt, die den aktuellen Zustand xk aufeinen Folgezustand xk+1 abbildet. Der Vektor uk ∈ Rr ist der Eingabevektor, der von der (zeit-varianten) Eingangsübergangsmatrix Bk ∈ Rn×r auf den Systemzustand abgebildet wird. DieUnsicherheit im Systemmodell wird von einem mittelwertfreien Rauschterm wk modelliert.
Sei nun ein geschätzter Zustand xek mit Erwartungswert x̂ek und Kovarianzmatrix C
ek bekannt.
Zusätzlich sei der Eingabevektor uk gegeben und das Systemrauschen wk durch seine Kova-
rianzmatrix Cwk charakterisiert. Der von der Systemgleichung (3.16) prädizierte Folgezustand
xpk+1 lässt sich dann schreiben als:
xpk+1 = Akxek + Bkuk + wk (3.17)
Um die Kovarianzmatrix Cpk+1 des prädizierten Folgezustandes anzugeben, wird als nächstes
angenommen, dass der geschätzte Systemzustand xek und das Systemrauschen wk unkorreliert
sind. Die Verbundkovarianzmatrix ist dann
Cov
{[xekwk
]}=
[Cek 0
0 Cwk
]
und die Kovarianzmatrix Cpk+1 = E{xpk+1(x
pk+1)
T} ergibt sich zu
Cpk+1 = [Ak Bk]
[Cek 0
0 Cwk
][ATkBTk
]= AkC
ekA
Tk + BkC
wk B
Tk . (3.18)
Tabelle 3.1 fasst die relevanten Größen und deren Eigenschaften zusammen.
Größe Eigenschaften
Ak Systemmatrix (∈ Rn×n)Bk Eingangsübergangsmatrix (∈ Rn×r)uk Eingabevektor (∈ Rr)xpk prädizierter Systemzustand zum Zeitpunkt k (∈ Rn)Cpk Kovarianzmatrix von x
pk
xek geschätzter Systemzustand zum Zeitpunkt k (∈ Rn)Cek Kovarianzmatrix von x
ek
wk mittelwertfreies Systemrauschen
Cwk Kovarianzmatrix von wk
Tabelle 3.1: Zusammenfassung der Größen des Systemmodells
3.3.2 Lineares Messmodell
Das Messmodell bildet den vom Systemmodell prädizierten Zustand xpk auf einen Messwert ab.
Sowohl xpk, yk, sowie die Messmatrix Hk sind bekannt. Zusätzlich wird, analog zum System-
modell, das Messmodell um eine unsichere Komponente vk erweitert. Die Messgleichung hat
27
Kapitel 3. Zustandsschätzung stochastischer Systeme
damit folgende Form:
yk
= Hkxpk + vk (3.19)
Im Unterschied zu Kapitel 3.1 stellt der Messvektor hier eine Zufallsgröße yk∈ Rm dar.
Analog zu (3.17) ist vk das mittelwertfreies Messrauschen, charakterisiert durch seine Kovari-
anzmatrix Cvk. Das Messrauschen vk über die Zeit unabhängig von dem Systemrauschen wk.
Für die Dimension m der Messgröße yk
soll hier angenommen werden, dass m ≤ n ist. DasGleichungssystem ist damit nicht mehr überbestimmt.
Tabelle 3.2 fasst diese Angaben zusammen.
Größe Eigenschaften
yk
Messvektor (∈ Rm)m,n m ≤ nHk Messmatrix (∈ Rm×n)vk mittelwertfreies Messrauschen
Cvk Kovarianzmatrix zu vkwk, vk unabhängig voneinander über die Zeit
Tabelle 3.2: Zusammenfassung der Größen des Messmodells
3.3.3 Kalman Filterschritt
System- und Messmodell sind hiermit für die folgenden Ausführungen hinreichend spezifiziert.
Gesucht ist nun ein Schätzer der die sogenannte BLUE (best linear unbiased estimate) Eigen-
schaft erfüllt. Das heißt, gesucht ist der Beste (im Sinne des kleinsten quadratischen Fehlers),
linearen, erwartungswerttreuen1 Schätzer. Diese Bedingungen bedeuten im Einzelnen:
Gesucht ist eine lineare Funktion, die den Messvektor yk
auf den Systemzustand abbildet. Solch
eine Abbildung hat die Form
xk = Kkyk + ck , (3.20)
wobei Kk eine n×m–Matrix ist und ck ein konstanter Vektor.
Die Forderung der Erwartungswerttreue besagt, dass der Erwartungswert der Schätzung x̂,
gleich dem tatsächlichen Erwartungswert der gemessenen Quantität yk
entsprechen soll ([3]).
Durch Bildung des Erwartungswert auf beiden Seiten von (3.20) erhält man:
E{xk} = E{Kkyk + ck}x̂k = E{Kkyk + ck}
= Kk E{yk}+ ck= KkHkx̂k + ck (3.21)
1 engl. unbiased
28
3.3. Das Kalman Filter
Daraus folgt, dass für die gesuchte Abbildung in (3.20) gelten muss:
KkHk = I (3.22)
ck = 0 (3.23)
Dritte und letzte Bedingung fordert, dass der quadratische Fehler der Schätzung minimal sein
soll2, d.h.
x̂k = arg minx
E{(xk − x)2} (3.24)
Das entspricht gerade der Forderung nach demjenigen x̂k, welches die Varianz von xk minimiert.
Zu einem beliebigen Zeitpunkt k > 0 sei nun Vorwissen über den geschätzten Zustand in Form
einer Prädiktion xpk gegeben, sowie eine Messung yk. Ein einfacher, linearer Schätzer lässt sich
als Linearkombination beider Werte darstellen:
xek = K1kx
pk + K
2kyk (3.25)
Mit der Forderung nach Erwartungswerttreue muss, analog zu (3.21), gelten:
E{xek} = E{K1kxpk + K
2kyk}
x̂k = E{K1kxpk}+ E{K
2kyk}
= K1kx̂k + K2k E{yk}
= K1kx̂k + K2kHkx̂k
Daraus folgt durch Koeffizientenvergleich:
I = K1k + K2kHk oder
K1k = I−K2kHk (3.26)
Durch Einsetzen von (3.26) in (3.25) erhält man daraus:
xek = (I−KkHk)xpk + Kkyk . (3.27)
Der Erwartungswert der Schätzung ergibt sich dann zu
E{xek} = E{(I−KkHk)xpk + Kkyk}
x̂ek = E{(I−KkHk)xpk}+ E{Kkyk}
= E{xpk} − E{KkHkxpk}+ Kkŷk
= x̂pk −KkHkx̂pk + Kkŷk
= x̂pk + Kk(ŷk −Hkx̂pk︸ ︷︷ ︸
Innovation
) . (3.28)
Der neue Zustand berechnet sich also aus dem prädizierten Zustand plus dem Produkt aus
einem Fehlerterm, Innovation genannt, und einem Verstärkungsfaktor. Dieser Faktor Kk heißt
Kalman-Verstärkungsfaktor3.
2 engl. Minimum Mean Square Error (MMSE)
3 engl.: Kalman Gain
29
Kapitel 3. Zustandsschätzung stochastischer Systeme
Damit ist die Herleitung der Zustand-Aktualisierung für den Kalman Filter Schritt abge-
schlossen. Es fehlt noch die Angabe der Abbildung Kk und die Angabe der Kovarianz zu
xek.
Nach Bedingung (3.24) soll die Abbildung Kk so gewählt werden, dass die Kovarianz der
Schätzung Cek minimal wird. Also wird als nächstes daher der Ausdruck für die Kovarianz
von xek hergeleitet.
Es gilt:
Cek = Cov{xek}= E{(xek − x̂ek)(xek − x̂ek)T}
Durch Einsetzen von (3.27) erhält man
Cek = E{(
(I−KkHk)(xpk − x̂pk) + Kk(yk − ŷk)
)(
(I−KkHk)(xpk − x̂pk) + Kk(yk − ŷk)
)T}
= E{((I−KkHk)(xpk − x̂
pk)(x
pk − x̂
pk)T (I−KkHk)T
)+ Kk(yk − ŷk)(yk − ŷk)
TKTk
+ (I−KkHk)(xpk − x̂pk)(yk − ŷk)
TKTk
+ Kk(yk − ŷk)(xpk − x̂
pk)T (I−KkHk)T}
Sind xpk und yk unkorreliert, vereinfacht sich letzter Ausdruck zu
Cek = E{((I−KkHk)(xpk − x̂
pk)(x
pk − x̂
pk)T (I−KkHk)T
)+ Kk(yk − ŷk)(yk − ŷk)
TKTk }
= (I−KkHk)Cpk(I−KkHk)T + KkC
ykK
Tk (3.29)
Um diesen Ausdruck zu minimieren ist ein Maß für die Ausdehnung der Kovarianz notwendig.
Dafür eignet sich die Projektion der Kovarianz auf einen Einheitsvektor e:
P(Kk) = eTCek(Kk)e (3.30)
Die so definierte Projektion P( · ) ist eine Funktion von Kk, da Kk ist die zu minimierendeFunktion zur Kombination zweier Werte ist (vgl. (3.20)). Für euklidische Einheitsvektoren
e1, . . . , en liefert P( · ) gerade die Elemente auf der Hauptdiagonalen zurück.
Die notwendige Bedingung zur Minimierung von P( · ) ist:
∂P
∂Kk(Kk)=
! 0
Zum besseren Verständnis der nachfolgenden Rechnung folgt als nächstes eine kurze Zusam-
menfassung zweier Ableitungsregeln für Matrizen.
30
3.3. Das Kalman Filter
Wiederholung: Ableitungsregeln für Matrizen
Für eine Matrix K gilt:
∂
∂K(aT ·K · b) = a · bT (3.31)
∂
∂K(aTKCKT b) = a · bTKCT + b · aTKC (3.32)
Daraus folgt aus (3.31):
• für a = e und b = De∂
∂K(eT ·KD · e) = e · eTDT
• für a = De und b = e∂
∂K(eT ·DTKT · e) = e · eTDT
und aus (3.32) für a = e, b = e und symmetrische C:
∂
∂K(eTKCKT e) = 2e · eTKC
(3.29) in (3.30) eingesetzt und nach Kk abgeleitet ergibt:
∂
∂KkP(Kk) =
∂
∂KkeT((I−KkHk)Cpk(I−KkHk)
T + KkCykK
Tk
)e
=∂
∂KkeT (Cpk −C
pkH
TkK
Tk −KkHkC
pk + KkHkC
pkH
TkK
Tk + KkC
ykK
Tk )e
= −eeTCpkHTk
:::::::− eeTCpkH
Tk
:::::::+ 2eeTKkHkC
pkHk
::::::+ 2eeTKkC
yk . (3.33)
Gleichsetzen mit Null, faktorisieren von CpkHk und Berücksichtigung von eeT = I ergibt:
(−I + KkHk)CpkHTk + KkC
yk=
! 0
was sich schließlich nach dem gesuchten Ausdruck für Kk auflösen lässt:
Kk = CpkH
Tk (C
yk + HkC
pkH
Tk )−1 . (3.34)
Vergleicht man nun die Gleichung (3.34) mit (3.6) aus dem Abschnitt zur Methode der kleinsten
Quadrate, stellt man die Ähnlichkeit zwischen beiden Berechnungsvorschriften fest.
Zur hinreichenden Bedingung eines Minimums muss noch gezeigt werden, dass die zweite
Ableitung der Projektion nach Kk positiv definit ist:
∂
∂Kk∂KkP(Kk) =
∂
∂Kk
((−I + KkHk)CpkH
Tk + KkC
yk
)=
∂
∂Kk
(−CpkH
Tk + KkHkC
pkH
Tk + KkC
yk
)= HkC
pkH
Tk + C
yk ,
31
Kapitel 3. Zustandsschätzung stochastischer Systeme
was als Summe zweier positiv definiter Matrizen gegeben ist.
Zuletzt muss noch die Kovarianzmatrix der optimalen Schätzung Cek angegeben werden. Diese
lässt sich durch Einsetzen von (3.34) in (3.29) gewinnen:
Cek =(I−CpkH
Tk (C
yk + HkC
pkH
Tk )−1Hk
)Cpk(
I−CpkHTk (C
yk + HkC
pkH
Tk )−1Hk
)T+ CpkH
Tk (C
yk + HkC
pkH
Tk )−1Cyk(C
yk + HkC
pkH
Tk )−1HkC
pk
=Cpk − 2CpkH
Tk (C
yk + HkC
pkH
Tk )−1HkC
pk
+ CpkHTk (C
yk + HkC
pkH
Tk )−1HkC
pkH
T
::::::::::(Cyk + HkC
pkH
Tk )−1HTCpk
+ CpkHTk (C
yk + HkC
pkH
Tk )−1Cyk
:::(Cyk + HkC
pkH
Tk )−1HkC
pk
=Cpk − 2CpkH
Tk (C
yk + HkC
pkH
Tk )−1HkC
pk
+ CpkHTk (C
yk + HkC
pkH
Tk )−1(Cyk + HkC
pkH
T )(Cyk + HkCpkH
Tk )−1HTCpk
=Cpk − 2CkHTk (C
yk + HkC
pkH
Tk )−1HkC
pk
+ CpkHTk (C
yk + HkC
pkH
Tk )−1HkC
pk
=Cpk −CpkH
T (Cyk + HkCpkH
Tk )−1HkC
pk (3.35)
=Cpk −KkHkCpk . (3.36)
Damit sind alle notwendigen Beziehungen hergeleitet worden. Die Gleichungen (3.16), (3.18),
(3.34), (3.28) und (3.36) bilden zusammen die Kalman Filter Gleichungen.
Gleichungen (3.18) und (3.35) können auch zu einer Rekursionsgleichung zusammengefasst
werden. Durch Einsetzen erhält man:
Cpk+1 = Ak
[Cpk −C
pkH
T(Cyk + HkC
pkH
Tk
)−1HkC
pk
]ATk + BkC
wk B
Tk (3.37)
Diese Ein-Schritt-Kovarianz-Vorhersage-Rekursion ist als zeitdiskrete Riccati Gleichung be-
kannt [1]. Wie auch in Gleichung (3.36), hängt die prädizierte Kovarianz nicht von den Mess-
werten ab, d.h. sie kann für die Anwendung im voraus berechnet werden.
Es ist interessant festzustellen, dass bislang keine Annahmen über die Verteilung der Zufalls-
größen gemacht wurde. Die bisherigen Annahmen sind:
• lineares System- und Messmodell
• stochastische Größen werden vollständig durch ihre ersten beiden Momente beschrieben
• mittelwertfreies Rauschen
• Rauschprozesse sind unabhängig über die Zeit, d.h. weißes Rauschen
Es ist hierbei wichtig, dass die Verteilung unterhalb der linearen Transformation erhalten bleibt
und weiterhin eindeutig durch ihre ersten beiden Momente charakterisiert werden kann. Die
32
3.3. Das Kalman Filter
einzig kontinuierlichen Verteilungen, welche dies leisten sind die Normalverteilung und Gauß-
Mischdichten. Aus diesem Grund wird im Folgenden nur noch von normalverteilten Größen
ausgegangen.
In Kapitel 3.3.1 wurde angenommen, dass Zustand und Rauschen unkorreliert sind. Dies ist
nicht zwingend notwendig. In dem Falle lässt sich Gleichung (3.18) auch um Kreuzkovarianz-
matrizen erweitern.
Tabelle 3.3 fasst die Gleichungen des Kalman Filter noch einmal zusammen, während folgendes
Schaubild 3.3.3 die Wechselwirkung zwischen dem Prädiktion- und Filterschritt verdeutlicht:
Abbildung 3.1: Systematischer Aufbau des Kalman Filter: Das Kalman Filter aufgeteilt in Prädiktions- und
Filterschritt (adaptiert aus [4]).
Die genaue Auswertungsreihenfolge läuft wie folgt ab. Zu Beginn (k = 0) liegt eine Schätzung
des initialen Zustandes xe0 und der Fehler-Kovarianzmatrix Ce0 vor. Daraufhin erfolgt eine
Prädiktion anhand Systemmodells. Unter der Eingabe uk wird der prädizierte Folgezustand
xp1 (Zustandsextrapolation) und die Fehler-Kovarianzmatrix Cp1 (Fehler-Kovarianz Extrapola-
tion) vorhergesagt.
Darauf folgt der Filterschritt. Als nächstes wird der Kalman Verstärkungsfaktor K1 berechnet.
Das Messmodell liefert eine geschätzte Messung, aufgrund des aktuellen Zustandes xp1 des Fil-
ters. Spätestens ab diesem Zeitpunkt liegt dem Filter eine neue Messung yk
vor. Aus der Inno-
vation, gewichtet mit dem Kalman Verstärkungsfaktor wird ausgehend vom aktuellen Zustand
xp1 der erwartete neue Zustand xe1 berechnet (Zustandsupdate). Aufgrund der neuen Messung
ist die Unsicherheit über den Filterzustand geringer geworden und die Fehler-Kovarianz wird
ebenfalls aktualisiert (Fehler-Kovarianz Update).
Damit schließt sich der Kreis und die Berechnungen beginnen von Neuem.
33
Kapitel 3. Zustandsschätzung stochastischer Systeme
lineares, zeitvariantes Systemmodell:
xpk+1 = Akxek + Bkuk + wk
wk ∼ N (0,Cwk )lineares, zeitvariantes Messmodell:
yk
= Hkxpk + vk
vk ∼ N (0,Cvk)Anfangsbedingungen:
E{x0} = xe0E{x0xT0 } = Ce0
Unabhängigkeitsannahmen:
E{wkvTj } = 0 ∀k 6= jZustandsextrapolation:
xpk = Akxek−1 + Bkuk + wk
Fehler-Kovarianz Extrapolation:
Cpk = AkCek−1A
Tk + BkC
wk B
Tk
Kalman Verstärkungsfaktor:
Kk = CpkH
Tk (C
vk + HkC
pkH
Tk )−1
Zustandsupdate:
xek = xpk + Kk(yk −Hkx
pk)
Fehler-Kovarianz Update:
Cek = Cpk −KkHkC
pk
Tabelle 3.3: Zusammenfassung der Kalman Filter Gleichungen
34
3.4. Daten-Assoziation
3.3.4 Das erweiterte Kalman Filter
Die im letzten Abschnitt hergestellten Beziehungen sind in der Praxis nur anwendbar, wenn
lineare System- und Messfunktionen zur Verfügung stehen. Die meisten Probleme in der realen
Welt sind nichtlinearer Natur, wodurch sich die Modellformulierungen folgendermaßen ändern:
xpk+1 = f(xek, uk,wk) (3.38)
yk
= h(xpk,vk) (3.39)
Um mit der Nichtlinearität umzugehen gibt es prinzipiell zwei Möglichkeiten. Beim linearisierten
Kalman Filter wird dazu eine Linearisierung des System- und Messmodels um den nominellen
Zustand unternommen. Eine andere Methode besteht in der Linearisierung der Funktionen um
den geschätzten Zustand. Hier spricht man vom erweiterten Kalman Filter [1].
Eine Linearisierung wird in der Regel durch eine Taylorreihen-Entwicklung erreicht. Nach der
Linearisierung entsprechen die verschiedenen Zufallsvektoren in der Regel nicht mehr ihrer ur-
sprünglichen Verteilung. Das erweiterte Kalman Filter ignoriert diese Tatsache jedoch [19], was
zum Verlust der Optimalität führt. In der Praxis können in der Regel trotzdem gute Ergebnisse
erreicht werden, solange die Systemfehler- Cwk und Messfehler-Kovarianz Cvk hinreichend klein
bleiben [1].
Die Gleichungen für das erweiterte Kalman Filter können der Übersicht halber nachfolgender
Tabelle 3.4 entnommen werden. Am prinzipiellen Vorgehen zur Auswertung der erweiterten
Kalman Filter Gleichungen ändert sich nichts im Vergleich zum linearen Kalman Filter.
Nachdem System- und Messfunktion angegeben worden sind, werden zusätzlich die partiellen
Ableitungen A[i,j], W[i,j] der Systemfunktion nach dem Zustand x[i], bzw. nach dem System-
fehler w[i] berechnet. Das Gleiche gilt für die partiellen Ableitungen H[i,j] und V[i,j] der Mess-
funktion nach dem Zustand x[i] und dem Messfehler v[i]. Danach kann, was die Reihenfolge der
Auswertung betrifft, wie beim linearen Kalman Filter verfahren werden. Bei den Berechnun-
gen der Fehler-Kovarianz und des Kalman Verstärkungsfaktors kommen die Jacobi-Matrizen
zum Einsatz, während bei den Zustandsberechnungen die nichtlinearen Funktionen verwendet
werden.
Kapitel 4.3 beschreibt detailliert die Verwendung des erweiterten Kalman Filter zum Einsatz
in der Bildrekonstruktion.
3.4 Daten-Assoziation
Das Problem der Daten-Assoziation ist vor allem im Bereich der Objektverfolgung bekannt.
Die Situation stellt sich dort wie folgt dar.
Gegeben sind ein oder mehrere Objekte deren Zustand sich unabhängig von einander ändern
kann. Durch Beobachtung fallen neue Messungen an, die Rückschlüsse über den aktuellen Zu-
stand zulassen. Wenn das Messmodell keine genaue Identifikation des zu verfolgenden Objekts
35
Kapitel 3. Zustandsschätzung stochastischer Systeme
nichtlineares, zeitvariantes Systemmodell:
xpk+1 = f(xek, uk,wk)
wk ∼ N (0,Cwk )nichtlineares, zeitvariantes Messmodell:
yk
= h(xpk,vk)
vk ∼ N (0,Cvk)Anfangsbedingungen:
E{x0} = xe0E{x0xT0 } = Ce0
Unabhängigkeitsannahmen:
E{wkvTj } = 0 ∀k 6= jZustandsextrapolation:
xpk = fk(xek−1, uk, 0)
Lineare Approximation:
A[i,j] =∂f
[i](x,wk,0)
∂x[j] x=xek−1
W[i,j] =∂f
[i](xek,w,0)
∂w[j] w=0
H[i,j] =∂h[i](x,0)
∂x[j] x=xpk
V[i,j] =∂h[i](x,0)
∂v[j] v=0
Fehler-Kovarianz Extrapolation:
Cpk = ACek−1A
T + WCwk WT
Kalman Verstärkungsfaktor:
Kk = CpkH
T (VCvkVT + HCpkH
T )−1
Zustandsupdate:
xek = xpk + Kk
(yk− hk(x
pk, 0)
)Fehler-Kovarianz Update:
Cek = Cpk −KkHC
pk
Tabelle 3.4: Zusammenfassung der erweiterten Kalman Filter Gleichungen: Der Zeitindex k ist der Übersichtlichkeit
halber bei den Jakobi-Matrizen, System- und Modellgleichungen weggelassen worden.
zulässt, stellt sich die Frage, zu welchem oder welchen der verfolgten Objekte die Messung
überhaupt gehört.
In Kapitel 5.2.3 wird aufgeführt, dass es nach der bei der Bildrekonstruktion zu Artefakten
kommt, die sich auf ein ungelöstes Daten-Assoziationsproblem zurückführen lassen. Diese Ur-
sache wird in dieser Arbeit nicht direkt behandelt. Nach tieferer Beschäftigung mit diesem
Thema ist aus dem Bereich der Daten-Assoziation ein einfaches Hilfsmittel zur Lokalisierung
von Messungen gefunden worden, welches sich nahtlos mit dem Kalman Filter kombinieren
lässt.
36
3.4. Daten-Assoziation
Im folgenden Teilabschnitt wird dieses allgemeine Verfahren zur Validierung von Messungen
hergeleitet. Die Vorarbeit aus Kapitel 3.3 leistet dabei wertvolle Hilfe.
3.4.1 Gating
In der Regel setzt sich eine Messung aus mehreren Komponenten zusammen, die dazu verwendet
werden können, den Ursprungsort ungefähr zu lokalisieren. Beispiele dafür sind Höhe, Distanz
oder Richtungs-Cosinus eines Objektes.
Im Folgenden wird angenommen, dass ein Filter wie in Kapitel 3.3 wenigstens initialisiert
worden ist. Die prädizierte Messung ergibt sich durch Bildung des Erwartungswertes aus dem
Messmodell (3.19):
E{yk} = E{Hkxk + vk}ŷk
= Hkx̂k (3.40)
Subtrahiert man dieses von (3.19) erhält man den geschätzten Messfehler ỹk:
ỹk
= yk− ŷ
k
= Hkxk + vk −Hkx̂k= Hk(xk − x̂k) + vk (3.41)
Die dazugehörige Innovations-Kovarianzmatrix Sk lautet damit
Sk = E{ỹkỹT
k}
= E{(Hk(xk − x̂k) + vk)(Hk(xk − x̂k) + vk)T}= E{Hk(xk − x̂k)(xk − x̂k)THTk }+ E{vkvTk }+ 2 E{Hk(xk − x̂k)vTk }
und für unkorrelierte xk und vk folgt für Sk:
Sk = HkCpkH
Tk + C
vk (3.42)
Unter der Annahme, dass die Messwerte normalverteilt sind, definiert die prädizierte Messfehler-
Kovarianz einen ellipsoidalen Bereich, in dem eine Messung mit hoher Wahrscheinlichkeit
gefunden werden kann:
Ṽk(γ) = {y|(y − ŷk)S−1k (y − ŷk)
T ≤ γ}= {vkS−1k v
Tk ≤ γ} (3.43)
vk ist die Innovation aus (3.28). Die Bedingung in (3.43) kann als statistische Distanz aufgefasst
werden. Messungen, die innerhalb Ṽk(γ) liegen, fließen in die Schätzung mit ein.
Mit Satz 2.2 ist klar, dass γ ∼ χ2m eine Chi-Quadrat verteilte Zufallsvariable mit m (derDimension des Messvektors) Freiheitsgraden ist. Werte für γ werden normalerweise einer Tabelle
37
Kapitel 3. Zustandsschätzung stochastischer Systeme
im vorhinein entnommen und für die Dauer einer Anwendung konstant gehalten. Ein Wert von
γ = 1 entspricht gerade einem Abstand vom Betrag der Standardabweichung.
Es fällt auf, dass der Wert für Sk derselbe ist, wie er in Gleichung (3.34) zur Berechnung des
Kalman Verstärkungsfaktor benötigt wird.
38
KAPITEL 4
Entwicklung der Rekonstruktion
Nachdem in den vorangehenden Abschnitten die statistischen Grundlagen dieser Arbeit entwi-
ckelt worden sind, steht vorliegenden Abschnitt die Herleitung der Vorgehensweise zur Rekon-
struktion von Bildern im Vordergrund.
Zunächst werden die verschiedenen, zur Verfügung stehenden Informations- und Fehlerquellen
eingeführt und beschrieben welche Auswirkungen Pulse im A-Scan auf die Bildrekonstruktion
haben. Ausgehend davon wird die zentrale Idee zur statistischen Bildrekonstruktion erläutert.
Anschließend wird, beginnend mit der Verwendung des erweiterten Kalman Filter aus Kapi-
tel 3.3, der Bildrekonstruktionsalgorithmus beschrieben. Dieser verwendet unter Anderem die
Methode des Gating aus Kapitel 3.4.1, um Reflexionen örtlich einzuschränken. Die einzige
Informationsquelle, welche direkt Rückschlüsse auf den Ort einer Reflexion liefert, sind die auf-
gezeichneten Pulse der Reflexionen. Von denen ist nur die TOA und die zugehörigen Sender
und Empfänger bekannt. Durch die niedrige Dimensionalität dieser Messwerte ist diese Ein-
schränkung nur bis auf ein Teilvolumen genau. Eine genauere Lokalisierung innerhalb dieses
Teilvolumen ist nur unter aufwendigen Schätzverfahren möglich. Die allgemeine Problematik
ist als Daten-Assoziation bekannt.
4.1 Untersuchung der Informationsquellen
4.1.1 Transmissionspulse
Reflexionen im A-Scan, die dadurch entstehen dass ein Sendepuls auf direktem Weg vom Sender
zum Empfänger ausbreitet, sind für die Bildrekonstruktion nicht von Interesse, da sie nicht
durch die Reflexion des Sendepulses am zu untersuchenden Objekt entstanden sind. Abbildung
4.1(a) zeigt einen solchen Transmissionspuls in Form einer entarteten Ellipse auf dem direkten
Weg zwischen Sender (rot) und Empfänger (grün).
In der Regel sind Transmissionspulse die ersten und stärksten Reflexionen, die der Empfänger
aufzeichnet. Diese Pulse, wie auch die Rückwandreflexionen, werden während der Vorverarbei-
tung herausgeschnitten.
39
Kapitel 4. Entwicklung der Rekonstruktion
4.1.2 Auflösungsvermögen
Die Betrachtung der Wellenausbreitung des Schalls, zusammen mit einem aufgenommenen A-
Scan, zeigt eine interessante Eigenschaft, welche die Auflösungsfähigkeit von A-Scans, abhängig
von der verwendeten Sender-Empfänger-Kombination, limitiert.
Abbildung 4.1(a) zeigt die prinzipielle Situation auf wenn alle 10 µs eine Reflexion gemessen
worden wäre. Auf dem direkten Weg zwischen Sender (grün) und Empfänger (rot) ist eine Art
(a) Auflösungsvermögen eines A-Scans, abhängig von Sender-
und Empfängerelement
(b) Ellipsoiden-Halbachsen
Abbildung 4.1: Auflösungsvermögen eines A-Scans: In der linken Abbildung 4.1(a) sind für eine feste Sender-
Empfänger Kombination die Ellipsen jedes zehnten Abtastpunktes in einem A-Scans eingezeichnet.
In der rechten Abbildung 4.1(b) sind die charakteristischen Größen einer Ellipse eingezeichnet.
blinder Fleck zu erkennen. Anhand von Abbildung 4.1(b) lässt sich dieses Phänomen erläutern:
Eine Ellipse (im Zweidimensionalen), hat zwei Haupt- und zwei Nebenscheitel. Diese sind als
HS, bzw. NS gekennzeichnet. Die Strecke zwischen Mittelpunkt und Hauptscheitel heißt Haupt-
achse (a),