Technische Universitat
Munchen
Fakultat fur Informatik
Forschungs- und Lehreinheit Informatik IX
Ruckgewinnung/ Restauration von Informationen
Proseminar
Barbara Kohler
Betreuer: Dipl.-Inform. Suat Gedliki
Abgabetermin: 30. Januar 2007
Inhaltsverzeichnis
1 Einleitung 2
2 Ruckgewinnung von Tiefeninformation 32.1 Einfuhrung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32.2 Active Vision Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.2.1 Laufzeitverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42.2.2 Triangulationsverfahren . . . . . . . . . . . . . . . . . . . . . . . . 5
2.3 Auswertung monokularer Tiefenhinweise . . . . . . . . . . . . . . . . . . . 62.3.1 Shape from Shading . . . . . . . . . . . . . . . . . . . . . . . . . . 62.3.2 Shape from Texture . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.4 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3 Aliasing 103.1 Erscheinung - Moire-Muster . . . . . . . . . . . . . . . . . . . . . . . . . . 103.2 Entstehung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113.3 Shannon’sches Abtasttheorem . . . . . . . . . . . . . . . . . . . . . . . . . 123.4 Anti-Aliasing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.4.1 Einfuhrung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123.4.2 Erhohung der Abtastrate . . . . . . . . . . . . . . . . . . . . . . . . 123.4.3 unregelmaßige Abtastabstande . . . . . . . . . . . . . . . . . . . . . 133.4.4 Tiefpassfilter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.5 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4 Bildrestauration 144.1 Storungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4.1.1 Point Spread Function . . . . . . . . . . . . . . . . . . . . . . . . . 144.1.2 Einflusse von Rauschen . . . . . . . . . . . . . . . . . . . . . . . . . 15
4.2 Filtermethoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154.2.1 Inverse Filterung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154.2.2 Wiener Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.3 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
Literaturverzeichnis 18
1
Kapitel 1
Einleitung
Bei der Aufnahme eines Bildes kann es zu einer Vielzahl von Fehlern kommen. Diese
erschweren die Weiterverarbeitung der Bildinformation meist erheblich. Zudem kommt es
haufig zu Informationsverlust.
Um ein moglichst ungestortes Bild zu erhalten, dass besser zur Verarbeitung geeignet ist,
hat man verschiedene Verfahren zur Ruckgewinnung und Restauration von Bildinforma-
tionen entwickelt.
Diese sind insbesondere dann interessant, wenn die ursprunglich aufgenommene Szene
nicht mehr zur Verfugung steht, was eine Wiederaufnahme unmoglich macht oder wenn
das Aufnahmesystem fehlerhaft arbeitet, eine Reperatur jedoch unmoglich bzw. zu teuer
ist. Das bekannteste Beipiel hierfur ist das Hubble Teleskop, dass wegen einem Fehler am
Hauptspiegel zunachst nur unscharfe Bilder lieferte. Zudem sind Teile der Storeinflusse
bei der Aufnahme nicht eliminierbar. Hierzu zahlen athmospharische Storungen, die unter
anderem bei der Beobachtung des Weltraums von der Erde aus, signifikanten Einfluss
haben.
Diese Arbeit beschaftigt sich im folgenden mit drei großen Bereichen des Themengebiets:
• Ruckgewinnung von Tiefeninformation
• Reduktion von Abtastfehlern
• Bildrestauration
2
Kapitel 2
Ruckgewinnung vonTiefeninformation
2.1 Einfuhrung
Bei der Projektion von der realen Welt auf ein zweidimensionales Bild geht die Tiefen-
information großtenteils verloren. Bei der Rekonstruktion dieser Information gibt es zwei
prinzipiell verschiedene Ziele:
• Early Computer Vision mochte die Rekonstruktion der Tiefeninformation fur die
abgebildeten Punkte erreichen.
• Bei High Level Vision hingegen wird eine Rekonstruktion der gesamte 3D-Oberflache
versucht. Hierzu nutzt man Annahmen uber mogliche Symmetrie und konkrete Mo-
delle von Gegenstanden zum abgleichen.
Abbildung 2.1: Ubersicht uber verschiedene Verfahren zur Rekonstruktion von Tiefenin-formation
3
KAPITEL 2. RUCKGEWINNUNG VON TIEFENINFORMATION 4
In 2.1 sind die verschiedenen Early Computer Vision Verfahren zur Restauration von 3D
Information dargestellt.
Bei den direkten Verfahren kann die Information ohne weitere Umwege aus den Messer-
gebnissen gelesen werden. Bei indirekten Verfahren wird der Tiefenwert entweder durch
Triangulation errechnet oder aus einer normalenabhangigen Veranderung des Bildes.
Im folgenden werden nun beispielhaft zwei Active Vision Verfahren und zwei Verfahren,
die mit Normalenschatzung arbeiten, naher erlautert.
Beim ebenfalls sehr umfangreichen Thema Stereo Vision sei auf [Ban07] und [FHH04]
verwiesen.
2.2 Active Vision Verfahren
2.2.1 Laufzeitverfahren
Abbildung 2.2: Schema eines Laufzeitsensors
Bei einem Laufzeitsensor wird mit einem Emitter ein Signal ausgesendet. Dieses wird an-
schließend abgelenkt, z. B. durch Galvanometerspiegel. Sobald das Signal auf der Ober-
flache ankommt wird es von dieser zumindest teiweise reflektiert, wo es bei Ruckkunft am
Sensor durch den Empfanger registriert wird.
Die Zeit t, die das Signal fur seinen Weg braucht wird hierbei vom Sensor erfasst. Die
Geschwindigkeit v des Signals ist ebenfalls bekannt. Anhand des physikalischen Gesetzes
Strecke = Weg · Zeit
wird der Abstand d vom Sensor zum Bild ermittelt. Da d vom Sensor zweimal zuruckgelegt
wurde erhalt man die Gleichung
KAPITEL 2. RUCKGEWINNUNG VON TIEFENINFORMATION 5
d = vt2
in die man lediglich die Werte fur v und t einsetzen muss, um d zu erhalten.
Fur das Verfahren konnen sehr verschiedenartige Signale verwendet werden, z. B. Ra-
diowellen, Ultraschall oder Laser. Dies fuhrt zu starken Unterschieden im Sensoraufbau,
sowie der Qualitat der Tiefendaten. Daraus resultieren fur die einzelnen Signalarten auch
verschiedene Anwendungsgebiete.
Diese Messverfahren eignen sich besonders fur große Entfernungen. So kann man unter
anderem die Entfernung zum Mond auf wenige Zentimeter genau bestimmen.
2.2.2 Triangulationsverfahren
Die aktive Triangulation wird unter anderem bei Landvermessung verwendet und ist wohl
das am haufigsten eingesetze Meßprinzip zur optischen Abstandsmessung.
Das einfachste Verfahren aus der Gruppe der
Abbildung 2.3: Triangulation
Triangulationsverfahren, ist die Projektion ei-
nes Lichtstrahls in die Szene. Der Lichtfleck auf
der Oberflache wird von der Kamera aufgenom-
men. Anhand des Neigungswinkels von Kamera
und Projektor, sowie der Basislange B und der
Strecke f und der Position P’(i,j) im Bild kann
die Position des Punkts P(x,y,z) ermittelt wer-
den.
x = B tan Θi tan Θ + f · i
y = B tan Θi tan Θ + f · j
z = −B tan Θi tan Θ + f · f
Dieses Verfahren ist zwar genau und sehr leicht anwendbar, jedoch wird eine große Anzahl
an Einzelbildern benotigt, um ein flachendeckendes Tiefenbild zu erzeugen. Zudem ist eine
zweidimensionale Ablenkung notig, wodurch die Ablenkvorrichtung sehr komplex wird
und die Aufnahmezeiten weiter steigen.
Indem man eine Lichtebene statt eines Lichtstrahls projiziert, sinkt die Anzahl der notigen
Bildaufnahmen und die es werden alle Punkte durch eine eindimensionale Abtastung
erreicht.
KAPITEL 2. RUCKGEWINNUNG VON TIEFENINFORMATION 6
2.3 Auswertung monokularer Tiefenhinweise
Im Gegensatz zu anderen Verfahren zur Rekonstruktion von Tiefeninformationen aus
einem Intensitatsbild, kommen monokulare Verfahren auch mit nur einem einzigen Bild
aus. Aus den Intensitaten im Bild kann jedoch nicht genug Information gewonnen werden,
um die raumliche Szenengeometrie direkt zu bestimmen. Deshalb sind bei monokularen
Verfahren meist weiter einschankende Nebenbedingungen notig. So wird haufig von einer
stetigen Oberflachenform ausgegangen.
Die wichtigsten Verfahren, die dieser Gruppe zugeordnet werden konnen sind Shape from
Shading (“Form aus Schattierung“) und Shape from Texture (“Form aus Textur“).
Wegen der umfangreichen Einschrankungen, die fur das Bild notig sind, um die Tiefenin-
formation zuruckzugewinnen, konnte bisher unter realistischen Bildaufnahmebedingungen
keine Rekonstruktion ausreichender Qualitat erreicht werden.
Um die Verfahren zu verbessern wird eine Kombination verschiedener Verfahren notwen-
dig, was mit einer Nachbildung des menschlichen Sehprozesses vergleichbar ist.
2.3.1 Shape from Shading
2.3.1.1 Uberblick uber Funktionsweise
In der Malerei versucht man durch Hell-
Abbildung 2.4: Rembrandt - Gleichnisdes reichen Mannes 1627 - Durch Schat-tierungen wird ein plastischer Eindruckvermittelt.
Dunkel-Malerei einen Eindruck von Tiefe zu
erwecken (vgl. 2.4). Bei Shape from Sha-
ding wird dieses Verfahren umgekehrt. An-
hand der aufgenommenen Hellikeitsverteilung
wird in Kombination mit dem Beleuchtungs-
modell zunachst die Oberflachenorientierung
ermittelt. Uber diese Oberflachennormalen er-
rechnet man anschließend die Objektform.
Die Intensitat der Werte im Bild hangt von ei-
ner Kamerakonstanten κ, der Eingangsinten-
sitat des Lichts Ii(x, y, z) am Punkt P(x,y,z)
und der Reflektionsfunktion Φ ab. Diese wird
wiederum durch die Vektoren n(x,y,z), s(x,y,z)
und v(x,y,z) bestimmt. Hierbei ist n die ge-
suchte Oberflachennormale, s legt die Beleuchtungsrichtung fest und v heißt lokaler Pro-
jektionsstrahl. Eine quantitative Beschreibung dieser Relation schaut so aus:
I(i, j) = κIi(x, y, z)Φ((n(x, y, z), s(x, y, z), v(x, y, z)) (2.1)
KAPITEL 2. RUCKGEWINNUNG VON TIEFENINFORMATION 7
Abbildung 2.5: Geometrie der Bildentstehung
Bei weit entfernter Lichtquelle und großem Abstand der Kamera zur Szene im Verhaltnis
zur Objektgroße kann die Beziehung weiter vereinfacht werden. Unter diesen Vorraus-
setzungen sind Ii(x, y, z), der Projektionsvektor s der Beleuchtung, sowie v positionsun-
abhangig. Die Bildintensitat lasst sich nun beschreiben als:
I(i, j) = κIiΦ(n(x, y, z), s, v) (2.2)
Gleichung 2.3 Bei der Reflektionsfunktion Φ wird meisten von einer idealen Lambert-
Reflexion ausgegangen. Das Licht wird hierbei mit gleicher Intensitat in alle Richtungen
reflektiert. Spiegelung wird nicht berucksichtigt.
Φ(n, s, v) = α · cos Θi (2.3)
Beschreibt die Reflektionsfunktion. Wobei α eine Reflektionskonstante darstellt und Θi
der Winkel zwischen der Beleuchtungsrichtung s und der Flachennormalen ist.
Setzt man den Zusammenhang fur die Reflektion in die Gleichung 2.2 ein, so erhalt man:
I(i, j) = κIiα cos Θi = ρ cos Θi (2.4)
ρ fasst hierbei die drei Konstanten κ, Ii und α zu einem Term zusammen, der sich auch
Albedo nennt.
Die Vektoren n und s lassen sich in den Gradientenraum uberfuhren. Der erste Wert
ist hierbei die partielle Ableitung der Oberflache z(x,y) nach x, der zweite die partielle
Ableitung nach y. Ersetzen wir nun cos Θ durch den aquivalenten Ausdruck aus n(p,q)
und s(ps, qs), so erhalt man fur die Bildintensitatsfunktion:
I(i, j) = ρ · 1 + psp + qsq√1 + p2
s + q2s
√1 + p2 + q2
(2.5)
KAPITEL 2. RUCKGEWINNUNG VON TIEFENINFORMATION 8
Wie man aus der Gleichung erkennt ist die Rekonstruktion der Tiefenwerte allein auf-
grund des Intensitatenbildes ein unterbestimmtes Problem (p und q sind unbekannt).
Deshalb braucht man zur Losung weitere Informationen. Es gibt hier zwei grundlegend
verschiedene Vorgehensweisen.
• Bei der lokalen Schattierungsanalyse beschrankt man sich auf die direkte Nachbar-
schaft des Bildpunktes. Es wird davon ausgegangen, dass auf einem dermaßen be-
schranktem Raum die Oberflache durch eine Kugelflache approximiert werden kann.
Aus diesen Informationen wird eine Berechnung relativer Tiefenwerte ermoglicht.
• Globale Verfahren optimieren stattdessen eine Energiefunktion fur die gesamte
Flache. Hierzu sind als Startwerte Punkte mit bekannter Normalenrichtung notig.
2.3.1.2 Bewertung
Durch “Form aus Schattierung“ lasst sich die Form eines Gegenstands anhand seines In-
tensitatenbilds bestimmen. Allerdings erhalt man nur relative Tiefenwerte bzgl. einiger
selbstgewahlter Startpunkte. Da Informationen lediglich aus Schattierungen, nicht aber
aus Schlagschatten gewonnen werden konnen, sind kontinuierliche Flachen ohne steile
Kanten und Hinterschneidungen notwendig. Die Oberflache des Gegenstands muss au-
ßerdem moglichst der idealen Lambert-Reflexion genugen. Dass heißt transparente oder
halbtransparente, sowie stark spiegelnde Flachen lassen eine sinnvolle Rekonstruktion
kaum zu. Zudem muss man sehr genaue Aussagen uber das Beleuchtungsmodell machen
konnen.
2.3.1.3 Anwendung
Shape from Shading wird heute bereits vom Inspektionssystem DotScan von der 3D-
Shape GmbH verwendet. Sie nutzen das Verfahren, um auf Medikamentenpackungen die
Braille-Codes (Blindenschrift) zu prufen. Spiegelnde Reflexion wird durch Verwendung
von sehr kurzwelligem blauem Licht reduziert, da Spiegelung erst dann in relevantem
Maße auftritt, wenn die Oberflachenrauhigkeit kleiner ist, als die Lichtwellenlange. Um
die Unterbestimmtheit des Problems zu umgehen wird hier ein Verfahren verwendet, dass
die Tiefe aus mindestens 3 Bildern mit identischer Kameraposition, aber verschiedenen,
bekannten Lichtpositionen, errechnet.
KAPITEL 2. RUCKGEWINNUNG VON TIEFENINFORMATION 9
2.3.2 Shape from Texture
Form aus Textur Verfahren errechnen anhand von Informationen uber die Musterung der
Oberflache zunachst die Flachennormalen und ermitteln aus diesen ein Tiefenbild.
Den Einfluss von Abstand und Neigungswinkel zur Kamera auf eine Textur erkennt man,
wenn man ein Blatt Papier mit gleichmaßiger Musterung, z. B. mehrere Kreise, in die
Hand nimmt und es nach hinten weg kippt. Das Muster erscheint verzerrt. In unserem
Beispiel wurde man Ellipsen sehen. Beim einem Shape from Texture Verfahren schließt
man von dieser Verzerrung auf die Szenengeometrie.
Bei diesem Verfahren ist der Begriff des Texturgradienten sehr wichtig. Er ist Maß fur die
maximale Anderung der Texel. Die Richtung des Gradienten bestimmt die Drehung der
Oberflache zur Kamera. Am Betrag des Gradienten lasst sich der Grad der Neigung der
Oberflache ablesen. Dieses Vorgehen erlaubt bereits eine Bestimmung der Oberflachenori-
entierung an einem einzigen Texel (Texturelement). Jedoch ist hier eine genaue Kenntnis
uber die Form der Texel und die Art der Deformierung notig.
Die Anwendbarkeit von den bisher bekannten Verfahren zur Formrekonstruktion aus Tex-
tur ist starkt beschrankt. Dies begrundet sich daraus, dass ein genaues Wissen uber die
Form der Textur existieren muss, um diese im Intensitatsbild erkennen zu koennen, aber
auch um von einem Texel auf Tiefeninformationen schließen zu konnen.
2.4 Zusammenfassung
Active Vision Verfahren liefern sehr genaue Ergebnisse. Durch direktes einwirken auf die
Szene wird das Korrespondenzproblem, dass ublicherweise bei Stereo Visionsverfahren
auftritt und selbst unter hohem Rechenaufwand kaum losbar ist, vermieden. Jedoch sind
sie mit einem hohen Aufwand bei der Aufnahme verbunden. Fur ein 3D-Bild sind zumeist
zahlreiche Aufnahmen notig.
Shape from Shading und Shape from Texture erlauben bereits die Rekonstruktion eines
Tiefenbilds aus nur einem Grauwertbild. Damit eine solche Ruckgewinnung notig ist,
muss die Aufnahme jedoch viele verschiedene Vorraussetzungen erfullen, die fur reale
Aufnahmen kaum erfullt werden konnen, deshalb liefern sie meist noch zu ungenaue und
unbefriedigende Ergebnisse, was jedoch durch Kombination verschiedener monokularer
Verfahren in Zukunft weiter verbessert wird.
Kapitel 3
Aliasing
3.1 Erscheinung - Moire-Muster
Bei der Aufnahme von Bildern mit einer Digitalkamera oder auch nach dem Einscannen
von Bildern kann man in diesen Wellenmuster beobachten, die das eigentliche Bild uber-
lagern. Diese treten vor allem in kleinteiligen und damit auch hochfrequenten Mustern
auf. Der Effekt nennt sich Moire-Effekt (von frz. moirer, “moirieren, marmorieren“)
Da er sich mit der Bewegung eines Objekts bei filmischen Aufnahmen andert, liegt es
nahe die Fehlerursache bei der Abtastung zu suchen.
Abbildung 3.1: LTU Arena Dusseldorf - Moire-Effekt an den Gitterstaben der Konstruk-tion
10
KAPITEL 3. ALIASING 11
3.2 Entstehung
Ublicherweise hat eine niedrige Abtastrate Informationsverlust zur Folge. Im Falle des
Moire-Effekts wird das Ausgangssignal zusatzlich aber noch verfalscht. Die Ursache hierfur
kann man in Abbildung 3.2 erkennen. Ein hochfrequentes, kontinuierliches Signal (schwar-
ze Linie) wird mit einem Abtastintervall abgetastet, dass fast so groß ist wie die Wel-
lenlange. Interpoliert man zwischen den Messergebnissen (Kreise), so erhalt man wieder
ein sinusformiges Signal (rote Linie), dass jedoch wesentlich niedrigerer Frequenz ist als
das Ausgangssignal. Diese Frequenz nennt man Alias-Frequenz, weil sie fur eine andere
Frequenz posiert. Der Effekt heißt Alias-Effekt.
Abbildung 3.2: Veranschaulichung des Alias-Effekts
Der Alias-Effekt lasst sich auch sehr einfach selber von Hand nachvollziehen. Man nimmt
dafur ein Bild, z.B. das einer Fresnel-Zonenplatte und verkleinert es mit einem Bildbe-
arbeitungsprogramm, wobei man samtliche Filterungsverfahren abstellt. Dies entspricht
einer Abtastung (im Beispiel 30 Abtastungen je Kante). Bei anschließender Vergroßerung
auf Originalmaße ist eine deutliche Verfalschung erkennbar. Ausschließlich die Struktur in
der Mitte wird korrekt wiedergegeben. In den Randbereichen ubersteigt die Ortsfrequenz,
die Nyquist-Frequenz, wodurch Aliasing auftritt.
(a) Originalbild: Kosinusformi-ges Ringmuster einer Fresnel-Zonenplatte
(b) 30 Abtastpunkte je Kante (c) mit 30 Punkten je Kanteabgetastetes Bild mit eindeutigerkennbaren Verfalschungen
KAPITEL 3. ALIASING 12
3.3 Shannon’sches Abtasttheorem
Nachdem man Unterabtastung als Ursache fur Aliasing entdeckt hat, stellt sich nun die
Frage, welche Abtastrate mindestens notig ist, um Aliasing auszuschließen. Hieruber gibt
das Shannon’sche Abtasttheorem Auskunft. Nimmt man ein nach oben durch die Maxi-
malfrequenz fmax bandbegrenztes Signal, so erkennt man bei Betrachtung im Frequenz-
raum, dass die Abtastrate großer als 2 · fmax sein muss, damit keine Moire-Muster ent-
stehen. Die Abtastfrequenz muss also mindestens 12fmax sein, um Aliasing zu vermeiden.
Diese Frequenz nenn man auch Nyquist-Frequenz.
Hieraus kann man erkennen, mit welcher Frequenz Aliasing in Abhangigkeit von der Si-
gnalfrequenz fs und der Abtastfrequenz fa auftritt:
• fs < 12fa: In diesem Fall entsteht kein Moire-Muster, da die Signalfrequenz unterhalb
der Nyquist-Frequenz liegt
• 12fa < fs < fa: Aliasing mit Frequenz falias = fa − fs
• fs > fs: Hier berechnet man fsmodfa und wendet auf die erhaltene Frequenz die
oberen beiden Regeln an.
3.4 Anti-Aliasing
3.4.1 Einfuhrung
Aliasing tritt durch Unterabtastung auf. Da sich Alias-Frequenzen nach der Abtastung
nicht mehr von den tatsachlichen Bildfrequenzen unterscheiden lassen, muss eine Filterung
vor der Abtastung erfolgen. Hierzu gibt es verschiedene Vorgehensmoglichkeiten.
• erhohen der Abtastrate
• unregelmaßige Abtastabstande
• Tiefpassfilterung
Diese drei Verfahren werden nun genauer erlautert.
3.4.2 Erhohung der Abtastrate
Da Aliasing ausschließlich dann auftritt, wenn die Abtastrate unterhalb der Nyquist-
Frequenz ist, liegt es nahe, diese einfach zu erhohen. Reale Bilder erfullen jedoch das
Abtasttheorem nur Naherungsweise, sodass die Nyquist-Frequenz nicht exakt ermittelbar
ist. Zudem wird ein Erhohen der Abtastrate ab einem gewissen Grad so gut wie unmoglich.
KAPITEL 3. ALIASING 13
3.4.3 unregelmaßige Abtastabstande
Der Alias-Effekt macht sich durch das periodische Moire-Muster fur den Betrachter be-
merkbar. Indem man die Abtastabstande unregelmaßig wahlt kann man dies verhindern.
Stattdessen gehen hohe Frequenzen als Rauschen ins Bild ein. Dieses Verfahren arbei-
tet auf zwei Stufen. Oberhalb der Grenzfrequenz wird periodisch abgetastet, so dass die
hieraus erhaltenen Signale wahrnehmbar sind. Unterhalb der Nyquist-Frequenz werden
weitere Abtastpunkte zufallig verteilt. Hierbei ist vor allem entscheidend, dass die Egde-
Equivalent-Resolution (EER) maximal ist, weniger bedeutend ist die Anzahl der Abtast-
punkte.
3.4.4 Tiefpassfilter
Tiefpassfilter (engl. low-pass filter) sind Filter, die Signalanteile mit Frequenzen oberhalb
einer gewissen Frequenz stark abschwachen, wahrend sie Anteile mit niedriger Frequenz
annahernd ungschwacht passieren lassen. Hierdurch wird also das Eingangssignal in einen
bestimmten Grenzfrequenzbereich gefiltert, was die Erfullung des Abtasttheorems bei der
eigentlichen Abtastung vereinfacht.
3.5 Zusammenfassung
Aliasing entsteht bei Unterabtastung des Ausgangssignals, d. h. die Abtastfrequenz liegt
unterhalb der durch das Shannonsche Abtasttheorem geforderten Nyquist-Frequenz. Es
außert sich in Moire-Mustern. Es gibt verschiedene Gegenmaßnahmen, um den Effekt zu
verhindern. Diese sind je nach Einsatzzweck verschieden gut anwendbar.
Das Verwenden unregelmaßiger Abtastabstande ist fur die menschliche Wahrnehmung
am besten, da Rauschen fur das Auge leichter interpretierbar ist, als das storende Moire-
Muster. Diese Art der Abtastung entspricht auch der des menschlichen Auges selber. Diese
Methode ist jedoch fur Digitalkameras und Scanner nicht anwendbar. Bei Digicams wird
deshalb zumeist ein optischer Tiefpassfilter in Kombination mit ausreichender Abtastrate
verwendet.
Kapitel 4
Bildrestauration
Bei der Bildaufnahme kann es zu zahlreichen Storeinflussen kommen. Durch Bewegung der
Kamera wahrend der Bildaufnahme oder durch Defokussierung wirkt das Bild verwischt.
Weitere Einfusse wie Rauschen, Linsenfehler und athmospharische Storungen machen das
Bild noch weiter unkenntlich. Die Bildrestauration versucht diese Storeinflusse ruckgangig
zu machen.
Im folgenden werden nun Storeinflusse durch Rauschen und durch verschiebungsinvariante
Operatoren genauer erlautert, sowie zwei Invertierungsverfahren.
4.1 Storungen
4.1.1 Point Spread Function
Lineare verschiebungsinvariante Storungen lassen sich durch die Point Spread Function
(PSF) beschreiben. Es findet eine Faltung der Originalfunktion mit der PSF statt.
g(m, n) = f(m, n) ∗ h(m, n)
Hierbei ist f das Ausgangssignal, h beschreibt die PSF und g ist das gestorte Bild.
Um die Verfalschung der PSF auf das Originalbild ruckgangig zu machen, muss man diese
ermitteln. Hat man ausreichend Inforationen uber die Storeinflusse bei der Bildaufnahme,
so lasst sie sich analytisch herleiten. Dies ist jedoch selten der Fall. Stattdessen versucht
man die PSF nachtraglich aus dem Bild zu ermitteln.
Hierzu sucht man sich einen Bildausschnitt, der auf dem im Originalbild ein Impuls war
und bettet diesen in ein Nullbild ein. Das Ergebnis ist die PSF, da eine Konvolution einer
Funktion mit einer Impulsfunktion wieder die ursprngliche Funktion ergibt. Deswegen
wird die PSF auch oftmals Impuls- oder Punktantwort genannt.
14
KAPITEL 4. BILDRESTAURATION 15
Ist in dem Bild nicht direkt ein Impuls erkennbar, so kann man die Impulsantwort anhand
von Kanten ermitteln.
4.1.2 Einflusse von Rauschen
Rauschen ist zufallig und damit ein nicht wiederholbarer Einfluss. Er kann also nicht
einfach ermittelt und anschließend vom Bild abgezogen werden. Mathematisch, formal
lasst sich Rauschen als additiver Einfluss ausdrucken:
g(m, n) = f(m, n) ∗ h(m, n) + η(m,n)
Es werden zwei Arten von Rauschen unterschieden:
• weiß: Alle Frequenzen treten gleich haufig auf und es besteht kein Zusammenhang zu
den Bildfrequenzen. Mogliche Ursachen sind unter anderem thermische Bewegungen
von Elektronen oder Quantisierungsrauschen.
• farbig: Das Rauschen ist von den Eingangsfrequenzen abhangig.
Da der Einfluss von Rauschen durch verschiedene Bildrestaurierungsverfahren oft noch
verstarkt wird, entstehen bei der Weiterverarbeitung oftmals Probleme. Eine Kanten-
segmentation wird durch starkes Rauschen beispielsweise deutlich schwieriger. Deshalb
rechnet man bei einigen Verfahren das Rauschen direkt mit ein. Dazu muss man es je-
doch im Vorraus ermitteln. Hierzu kann man das Rauschen entweder aus der Differenz des
verfalschten Bildes und desselben Bildes nach durchlaufen eines Rauschfilters ermitteln
oder es direkt aus einer flachigen Bildregion schatzen.
4.2 Filtermethoden
4.2.1 Inverse Filterung
Bei der Inversen Filterung wird zunachst die PSF ermittelt. Durch Konvolution mit dem
Kehrbruch der PSF wird anschließend das Originalbild wiederhergestellt. Aus Effizienz-
grunden wird die Faltung durch eine Multiplikation im Frequenzraum implementiert.
f(m, n) = FT−1
(G(u, v)H(u, v)
)Theoretisch ist durch inverse Filterung die genaue Rekonstruktion des Originalbildes
moglich, wahrend andere Verfahren das Original lediglich Naherungsweise wiederherstel-
len konnen. In der Realitat sind die Ergebnisse jedoch eher maßig, da eine Abwesenheit
von Rauschen angenommen wird. Tritt im aufgenommenen, verfalschten Bild Rauschen
auf, so ist dies im rekonstruierten Bild noch wesentlich verstarkt.
KAPITEL 4. BILDRESTAURATION 16
(d) Gestortes Ausgangsbild ausfehlerhafter Aufnahme
(e) PSF des Bildes (f) korrigiertes Bild
4.2.2 Wiener Filter
Im Gegensatz zur inversen Filterung
Abbildung 4.1: Ablauf einer Restauration mitWiener Filter
ist das Wiener Filter so ausgelegt,
dass es moglichst gegen jede Art von
Rauschen unempfindlich ist. Es er-
folgt eine im statistischen Sinne opti-
male Abschatzung des Originalbildes.
Ausgangskriterium ist es, den mitt-
leren quadratischen Fehler zwischen
Originalbild und restauriertem Bild
moglichst gering zu halten.
Das Wiener Filter ist gegeben durch:
1H(u, v)
· |H(u, v)|2
|H(u, v)| + γ
(Sη(u, v)
Sf (u, v)
)Wobei Sη das quadrierte Spektrum
des Rauschens ist und Sf das des un-
gestorten Signals. Ist das Rauschspek-
trum sehr hoch gegenuber dem des
Bildspektrums, so erfolgt eine starke
Abschwachung. Bei Abwesenheit von
Rauschen erhalt man ein inverses Fil-
ter.
Da Sf und Sη meist unbekannt sind, kann man statt dem Verhaltnis der beiden Werte
auch eine Konstante verwenden. Man erhalt dann ein heuristisches Wiener Filter.
KAPITEL 4. BILDRESTAURATION 17
Abbildung 4.2: Vergleich zwischen Wiener Filter und inversem Filter, bei Bildrekonstruk-tion eines Bildes mit und ohne Rauschen. Die Ergebnisse des Wiener Filters sind vor allembeim durch Rauschen gestorten Bild wesentlich besser.
4.3 Zusammenfassung
Die hier vorgestellten Storungen und Filter sind nur beispielhaft. Unter anderem kann
auch noch eine Schwarzbildkorrektur vorgenommen oder Unterschiede in der Detektor-
empfindlichkeit ausgeglichen oder die Linsenverzerrung korrigiert werden. Auch die hier
vorgestellten Verfahren, insbesondere das Wiener Filter, existieren in verschiedenen Vari-
anten, die je nach Ausgangsbild besser oder schlechter geeignet sind.
Literaturverzeichnis
[Add] Johann H. Addicks. http://de.wikipedia.org/wiki/Bild:LTU-Arena D
[Ban07] Jan Bandouch. Stereo vision: Epipolargeometrie, 2007.
http://www9.in.tum.de/seminare/ps.WS06.gdbv/literatur.php.
[BM86] R. H. T. Bates and M. J. McDonnell. Image Restoration and Reconstruction.
Oxford Science Publications, New York, 1986.
[FHH04] M. Fodisch, M. Horstmann, and Th. Hermes. Bildverarbeitung 2, 2004.
http://www.tzi.de/ hermes/lectures/ss04/10.05.2004.folien.pdf.
[Hel] Martin Helfer. Alias-effekt. http://de.wikipedia.org/wiki/Alias-Effekt.
[JB97] Xiaoyi Jiang and Horst Bunke. Dreidimensionales Computersehen - Gewinnung
und Analyse von Tiefenbildern. Springer-Verlag, Berlin Heidelberg, 1997.
[Jia05] Prof. Dr. X. Jiang. Bildanalyse, 2005. http://cvpr.uni-
muenster.de/teaching/ws05/bildanalyseWS05/# script.
[Kat91] Professor Aggelos K. Katsaggelos, Ph. D. Digital Image Restoration. Springer-
Verlag, Berlin Heidelberg, 1991.
18
LITERATURVERZEICHNIS 19
[Koc04] Holger Koch. Aufbau eines 3d-sensors - shape from shading. Master’s thesis,
Friedrich-Alexander-Universitat Erlangen-Nurnberg, 2004. http://www-nt.e-
technik.uni-erlangen.de/lms/publications/lnt/ST Holger Koch 2004-02-14.pdf.
[Lu95] Maximilian Luckenhaus. Grundlagen des wiener-filters und seine anwendung
in der bildanalyse. Master’s thesis, TUM, 1995. http://www9.informatik.tu-
muenchen.de/people/lueckenhaus/lueckenh/h wien/title.html.
[Mar82] David Marr. Vision. W. H. Freeman and Company, 1982.
[Pas06] Dr. Rudiger Paschotta. Encyclopedia of laser physics and tech-
nology - time-of-flight measurement, 2006. http://www.rp-
photonics.com/time of flight measurements.html.
[Rad93] Prof. Dr. Bernd Radig. Verarbeiten und Verstehen von Bildern. Oldenburg,
Munchen, 1993.
[SME06] Sandra Soll, Helge Moritz, and Sauerlach Hartmut Ernst. 3d-formbestimmung,
2006. http://www.in-situ.de/presse/photonik 2006 04 74.pdf.
[Toe05a] Klaus D. Toennies. 3d computer vision, 2005. http://wwwisg.cs.uni-
magdeburg.de/bv/3dcv/3dcvskript.html.
[Toe05b] Klaus D. Toennies. Grundlagen der Bildverarbeitung. Pearson Studium,
Munchen/ Germany, 2005.