43
Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe: 15. März 2012 Gutachter: Prof. Dr.-Ing. Peter Eisert

Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

  • Upload
    vudang

  • View
    255

  • Download
    3

Embed Size (px)

Citation preview

Page 1: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

GesichtserkennungSeminararbeit

Institut für InformatikVisual Computing

Seminar Computational Photography

vonBenjamin Kees

Datum der Abgabe: 15. März 2012Gutachter: Prof. Dr.-Ing. Peter Eisert

Page 2: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:
Page 3: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

Inhaltsverzeichnis

Inhaltsverzeichnis

1 Einleitung 51.1 Biometrische Systeme . . . . . . . . . . . . . . . . . . . . . . . . . 61.2 Neue Dimension bei der Bilddatenauswertung . . . . . . . . . . . 71.3 Einsatz von Gesichtserkennung . . . . . . . . . . . . . . . . . . . 8

2 Methoden der Gesichtserkennung 102.1 Klassische Methoden . . . . . . . . . . . . . . . . . . . . . . . . . 102.2 3D-Gesichtserkennung . . . . . . . . . . . . . . . . . . . . . . . . 12

3 Qualitätsmaße 15

4 Robust 3D Face Recognition by Local Shape Difference Boosting 184.1 Arbeitsschritte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184.2 Lernen und Testen . . . . . . . . . . . . . . . . . . . . . . . . . . 284.3 Identifizierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314.4 Verifizierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314.5 Ergebnisse und Bewertung . . . . . . . . . . . . . . . . . . . . . . 324.6 Verbesserungsmöglichkeiten und weitere Anwendungsgebiete . . . 35

5 Gesellschaftliche Bedenken 36

6 Fazit 38

Literaturverzeichnis 40

Abbildungsverzeichnis 42

3

Page 4: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:
Page 5: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

1 Einleitung

Diese Seminararbeit stellt das Verfahren des Robust 3D Face Recognition by LocalShape Difference Boosting vor. Es ist ein 2009 von Wang, Liu und Tang vorgeschla-genes 3D-Verfahren zur Gesichtserkennung, das die bei 3D-Verfahren problema-tische Effizienz verbessert. Zur Einordnung dieses Verfahrens in den Kontext desForschungsgebietes der Gesichtserkennung, werden zunächst grundlegende Ge-sichtserkennungsverfahren und deren bestehende Schwierigkeiten erläutert sowieQualitätsmaße zur Bewertung der Effektivität vorgestellt.Neben möglichen oder bereits realisierten Anwendungsszenarien soll außerdemauch auf Kritik und Gefahren, die mit der Technik einhergehen, eingegangen wer-den.

Der Begriff der Gesichtserkennung ist im Deutschen doppelt belegt. In dieser Ar-beit soll es nicht um die Lokalisierung eines Gesichtes in einem Bild gehen (engl.face detection), sondern um die Wiedererkennung eines bereits lokalisierten undbekannten Gesichtes (engl. face recognition). Gesichtserkennung ist so eines vonmehreren biometrischen Verfahren zur Authentifizierung und Identifizierung vonPersonen. Im Bereich der Zutrittskontrolle zu physischen oder virtuellen Räume,haben biometrische Verfahren entscheidende Vorteile gegenüber wissensbasiertenVerfahren wie z. B. das Abfragen eines Passwortes oder tokenbasierte Verfahrenwie das Nutzen von Schlüsseln oder Zutrittskarten. Verschiedene Angriffsvekto-ren wie das Ausspähen, Knacken oder Erraten von Passwörtern oder das Aneig-nen der entsprechenden Token, werden bei biometrischen Verfahren minimiert.Bei biometrischen Verfahren wird nicht Besitz oder Wissen, sondern unmittelbargeprüft, ob eine Person diejenige ist, die sie zu sein ausgibt. Auf diese Weise ist

5

Page 6: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

1 Einleitung

sogar zusätzlich nachweisbar, dass eine bestimmte Person eine Handlung nach Er-langen des Zutritts ausgeführt hat, auch wenn diese das im Nachhinein bestreitet.Bei biometrischen Verfahren werden physische Personeneigenschaften, die sichschon beim Einsatz in der Forensik bewährt haben, mit Sensoren erfasst und indigitaler Form als numerische Werte verarbeitet. Unter allen biometrischen Perso-nenmerkmalen bietet sich das Gesicht neben der Zutrittskontrolle besonders auchfür die Überwachung und die Identifizierung an. Im Gegensatz zum Scannen vonFingerabdrücken oder der Iris, ist beim Erfassen der Daten ein Mitwirken odergar die Kenntnis der betreffenden Person nicht nötig.Die Anforderungen von Staaten und Firmen an Sicherheit und Kontrolle wur-den in den letzten Jahren stark vorangetrieben. Einhergehend mit einer raschenEntwicklung von Informationstechnik ist in den letzten 8 Jahren ein signifikan-ter Anstieg an Forschung auf dem Gebiet der Verarbeitung biometrischer Datenzu erkennen, die versucht den Anforderungen an Qualität und Skalierbarkeit derInteressenten gerecht zu werden.1

1.1 Biometrische Systeme

Ein biometrisches System besteht aus mehreren Modulen, die für einzelne Tei-laufgaben zuständig sind. Ein Sensormodul erfasst die präsentierten biometrischenDaten, die von einem weiteren Modul genutzt werden, um Merkmale zu extrahie-ren und einen Datensatz zu generieren. Ein Datenbankmodul enthält eine Mengesolcher oder ähnlicher Datensätze (Templates), die von einem Matchingmodul mitdem ermittelten Datensatz abgeglichen werden. Das Matchingmodul gibt einenÜbereinstimmungswert zurück bzw. entscheidet, je nach gewähltem Schwellwert,

1Jain, Handbook of Biometrics, 2008, S. 1.

6

Page 7: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

1.2 Neue Dimension bei der Bilddatenauswertung

ob der Datensatz als akzeptiert behandelt wird.2 Im Gegensatz zu einem Passwort,bei dem eine absolute Korrektheit ermittelt werden kann, müssen biometrischeVerfahren mit ungenauen Ergebnissen umgehen können. Die über Sensoren er-mittelten Daten können durch verschiedenste personenbezogene, technische undsituationsbedingte Faktoren ungenau werden. Aus dieser Tatsache ergibt sich dieSchwierigkeit, aus den ermittelten Daten Merkmale zu extrahieren, die bezüglichdieser Ungenauigkeiten ausreichend invariant sind.3

Ein solches System kann entweder im Verifikationsmodus genutzt werden, bei dem1:1 geprüft wird ob der präsentierte Datensatz zu einer bestimmten Person gehörtoder im Identifikationsmodus, bei dem anhand der Daten eine bestimmte Personunter vielen bekannten identifiziert wird.4

1.2 Neue Dimension bei der Bilddatenauswertung

Durch den Identifikationsmodus sind für vorhandene Techniken und Maßnahmenwie beispielsweise die Videoüberwachung – qualitativ und quantitativ ganz neueEinsatzmöglichkeiten anwendbar. Die Kombination aus leistungsfähiger Gesichts-erkennung und Videotechnik, die zur Überwachung von öffentlichen und nichtöffentlichen Räumen oder beispielsweise bei Demonstrationen eingesetzt werden,ermöglicht es, einzelne Personen in Bildmaterial mit großen Mengen von Men-schen zu finden oder sogar jede Person einzeln mit einer vorhandenen Datenbankabzugleichen. Die Sichtung des Materials durch Menschen und die damit verbun-dene Reduzierung der Aufmerksamkeit auf konkrete Personen ist so potentiellunnötig geworden. Doch nicht nur die Quantität, sondern auch die Qualität der

2Jain, Handbook of Biometrics, 2008, S. 3.3Jain, Handbook of Biometrics, 2008, S. 6.4Jain, Handbook of Biometrics, 2008, S. 6.

7

Page 8: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

1 Einleitung

Erkennung hat profitiert. Während der Mensch bei der Beobachtung eines Videosoder Bildes von Größe, Beleuchtung und Schärfe des Bildes eingeschränkt werdenkann, können gute Verfahren noch Gesichter erkennen, die vom Menschen nichtmehr identifizierbar sind. Obendrein unterliegt ein Algorithmus nicht – im Ge-gensatz zur manuellen Auswertung – bestimmten menschlichen Wahrnehmungs-einschränkungen wie etwa dem Cross-Race-Effect, der Tatsache, dass Menschendie Tendenz haben, Gesichter anderer Ethnien als gleich wahrzunehmen.5

1.3 Einsatz von Gesichtserkennung

Gesichtserkennung findet neben dem bereits Genannten auch in mehreren an-deren Bereichen Anwendung. Am Frankfurt Rhein-Main International Airportfindet bereits automatisierte Grenzkontrolle statt, und schon seit 2002 werden aufdem Züricher Flughafen ankommende Flugpassagiere überprüft. Dies sollte dieAbschiebung von Asylbewerbern erleichtern.6 Seit Juni 2011, so berichtet Techno-logy Review, ist ein Gesichtserkennungssystem auch im weit verbreiteten sozialenNetzwerk Facebook im Einsatz. Wer neue Bilder bei Facebook hochladen wür-de, dem machte nun eine Gesichtserkennungs-Software automatisch Vorschläge,welcher der Facebook-Freunde darauf zu sehen sein könnte. Wer sich nicht taggenlassen möchte, müsse selbst aktiv werden und die Option in einem gut versteck-ten Untermenü deaktivieren – ansonsten dürfe er damit rechnen, künftig auf allen

5Gehrke, Einflussfaktoren der unterschiedlichen Wiedererkennensleistung von Gesichtern der eigenenEthnie und Gesichtern anderer Ethnien, 2005.

6Donath, Andreas: Automatische Gesichtserkennung auf dem Flughafen Zürich. 01.07.2002Internet:http://www.golem.de/0207/20565.html [01.08.2011]

8

Page 9: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

1.3 Einsatz von Gesichtserkennung

möglichen Fotos im Facebook-Universum identifiziert zu werden.7

In Fotoverwaltungssoftware wie z. B. Picasa von Google oder iPhoto von Applefinden sich ebenfalls Gesichtserkennungsysteme, die mit nur wenigen vom Nutzergetätigten Vorgaben das eigene Fotoarchiv nach bekannten Personen durchsuchen.Auch die biometrischen Fotos in Ausweisdokumenten sind für die automatisierteErkennung optimiert. Der ISO-Standard ISO/IEC 19794-5 legt die Kriterien fürdiese fest.8 Ein weiteres Beispiel ist das in Rotterdam seit 2010 etablierte System„Smarter EE“, das für die Umsetzung des Hausverbots in öffentlichen Verkehrs-mitteln sorgt.9

7Heuer, Steffan: Nie mehr anonym. Technology Review. 29.07.11Internet:http://www.heise.de/tr/artikel/Nie-mehr-anonym-1286559.html [01.08.2011]

8iso.org: Three-dimensional face image data interchange format. 27.10.2009Internet:http://www.iso.org/iso/iso_catalogue/catalogue_tc/catalogue_detail.htm?

csnumber=50376 [02.08.2011]9Schahidi, Andre: Gesichts-Scanner in Rotterdamer Straßenbahn. 24.08.2010

Internet:http://nachrichten.rp-online.de/1.97734 [02.08.2011]

9

Page 10: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

2 Methoden der Gesichtserkennung

2 Methoden der Gesichtserkennung

Ob der Mensch eigens für die Wiedererkennung von Personen ein Gesichtsmodulnutzt, oder ob lediglich die Wichtigkeit für soziale Interaktion für die starke Aus-prägung der Fähigkeiten der Gesichtserkennung verantwortlich ist, wird von derPsychologie nach wie vor diskutiert.10 Fest steht, dass eine Vielzahl von Merkma-len genutzt wird um einen anderen Menschen zu erkennen. Dazu gehören die geo-metrische Anordnung von z. B. Nase, Mund und Augen, die Proportionen der ein-zelnen Teile und die Statur, Textureigenschaften wie Narben oder Teint, aber auchzeitlich veränderliche oder nichtvisuelle Merkmale wie Frisur, Accessoires, Klei-dung, Mimik, Gestik, Gang, oder Stimme. Die automatisierte Gesichtserkennungreduziert sich bisher auf eine Teilmenge dieser zu Verfügung stehenden Merkma-le. Da sie im Regelfall auf statischen Bildern beruht und sich nur auf das Gesichtselbst konzentriert, fallen andere Merkmale heraus oder behindern die Erkennungsogar, etwa stark veränderliche Merkmale wie die Frisur oder eine Brille.Im folgenden sollen die grundlegenden Herangehensweisen der automatisiertenGesichtserkennung vorgestellt werden und auf die aus den Verfahren resultieren-den Stärken und Schwächen eingegangen werden.

2.1 Klassische Methoden

Unter den klassischen Methoden, die als Eingangsmaterial zweidimensionale Bild-daten verarbeiten, können bezüglich der Art und Weise der Extrahierung vonMerkmalen (engl. features) für die Repräsentation des Gesichts zwei Klassen vonVerfahren unterschieden werden: die featurebasierten und die auf der Gesamter-

10Schönhammer, Einführung in die Wahrnehmungspsychologie, 2009, S. 153.

10

Page 11: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

2.1 Klassische Methoden

scheinung des Gesichts basierenden Verfahren.11

Bei der featurebasierten Herangehensweise werden geometrische Relationen wieFlächen, Winkel und Abstände zwischen Merkmalspunkten verarbeitet. Wie et-wa beim Elastic Bunch Graph Matching (EBGM) wird mit einem Trainingssatz vonBildern einer Person ein Graph erstellt, dessen Knoten auf markanten Punktendes Gesichts wie z. B. den Pupillen und den Mundwinkeln liegen. Beim Prozessder Gesichtserkennung werden die so erstellte Graphen mit den analog dazu er-stellten Graphen des zu verarbeitenden Gesichts verglichen. Die Ähnlichkeit derGraphen gibt die Wahrscheinlichkeit der Übereinstimmung der Person an.12

Die zweite Herangehensweise nutzt globale Eigenschaften des Gesichtes. Eine Po-puläre Methode ist die zur Gesichtserkennung erstmals von Turk und Pentlandgenutzte Eigenfacemethode.13 Vorbereitend werden basierend auf einer großenMenge von Trainingsbildern verschiedener Gesichter mit Hilfe der Hauptkom-ponentenanalyse eine Menge von Eigengesichtern berechnet. Ein solches Set vonEigengesichtern kann vereinfacht als eine Menge von Gesichtszutaten angesehenwerden. Bei einer ausreichend großen Menge von Eigengesichtern kann jedes Ge-sicht approximiert als eine gewichtete Kombination von Eigengesichtern beschrie-ben werden. Ein Gesicht kann demzufolge sehr effizient als ein Vektor von Wertengespeichert und verarbeitet werden.14 Diese Art der Verfahren haben jedoch dieSchwierigkeit mit Variationen von Pose und Beleuchtung umzugehen.Gelöst wird die Problematik durch spezifischere Verfahren wie Fischerfaces oderdem active appearance model. Beim active apperance model werden mit Hilfe dergeometrischen Informationen Textur und Gesichtsform entkoppelt, so dass die Ei-

11Jain, Handbook of Biometrics, 2008, S. 44.12Jain, Handbook of Biometrics, 2008, S. 47.13Turk/ Pentland, Face recognition using eigenfaces, 1991.14Jain, Handbook of Face Recognition, 2005, S. 67.

11

Page 12: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

2 Methoden der Gesichtserkennung

genfacemethode unabhängig von der Pose angewendet werden kann.15 Obwohl esfür einzelne Probleme der klassischen 2D-Gesichtserkennung Lösungen gibt, un-terliegt sie doch einigen unüberwindbaren Einschränkungen. Sobald ein Gesichtmehr als 20 Grad von der Bildebene weggedreht ist oder die Lichtverhältnisse starkvon den Trainingsdaten abweichen, wird eine Erkennung rasch unmöglich.

Die vorgestellten Verfahren können außerdem mit Techniken ergänzt werden,die durch die Analyse der Hauttextur personenspezifische Merkmale auf der Ge-sichtsoberfläche berücksichtigen. Hiermit kann die genaue Identifikation erheb-lich gesteigert werden. Mit dem Einsatz derartiger Verfahren können erstmaligauch eineiige Zwillinge unterschieden werden.16 Auf Texturanalyse soll im Rah-men dieser Seminararbeit nicht weiter eingegangen werden, da diese unabhängigvon der Gesichtserkennung einen ganz eigenen Forschungszweig darstellt.

2.2 3D-Gesichtserkennung

Bei der Aufnahme kann jedes Gesicht in Abhängigkeit von Pose, Beleuchtung, Ge-sichtsausdruck und Alter eine Vielzahl von Bildern ergeben. Durch Posenänderun-gen können Teile des Gesichts überdeckt werden, und die Proportionen zwischenmarkanten Punkten ändern sich. Selbst bei fester, idealer Pose, kann variierendeBeleuchtung durch Schattenwurf und Reflexionen die Erscheinung des Gesichtsim Bild stark verändern. Nur wenige durch die Schädelform festgelegte Punkte imGesicht sind invariant gegenüber Gesichtsausdruck und anderen Bewegungen derMuskeln und des Kiefers. Über einen längeren Zeitraum betrachtet kann auch der15Cootes, Interpreting Face Images using Active Appearance Models, 1998.16Williams, Mark: Better Face-Recognition Software 30.05.2007

Internet://http://www.technologyreview.com/computing/18796/ [21.08.2011].

12

Page 13: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

2.2 3D-Gesichtserkennung

Alterungsprozess die Erscheinung eines Gesichts beeinflussen.17

Die 3D-Gesichtserkennung ist ein Ansatz Gesichter in einer Art und Weise zurepräsentieren und zu vergleichen, die von diesen Invarianzen noch unabhängi-ger ist als die klassischen Methoden. Die verarbeiteten Daten sind dabei nicht vonKameras aufgenommene Helligkeits- und Farbwerte, sondern z. B. über spezielleLaserscanner aufgenommene Tiefeninformationen.Aus der Art der Daten und der Art der Erfassung ergeben sich jedoch einige neueProbleme. Die momentan zur Verfügung stehenden Geräte haben einige Eigen-schaften, die die Einsatzmöglichkeiten gegenüber den klassischen Methoden starkeinschränken. Die Geräte können bisher nur von Nahem eingesetzt werden undbenötigen für die Erfassung der Daten mehr Zeit, mitunter mehrere Sekunden. Inder Regel ist daher eine Kooperation des zu erkennenden Menschen nötig.Ein weiteres Problem ergibt sich aus der Komplexität und der Ungenauigkeit derermittelten Daten. Die Verarbeitung von 3D-Informationen erfordert wesentlichmehr Berechnungsaufwand – sowohl bei der Aufbereitung der Rohdaten als auchbeim Abgleich der erhobenen Daten mit Datenbanken. Dadurch ist es möglich,dass derartige Systeme für größere Datenbanken nicht skalieren.Nach Erstellung eines 3D-meshes des Gesichts sind verschiedene Herangehenswei-sen denkbar, die repräsentativen Eigenschaften des Gesichtes zu finden, die dannverglichen werden können. Die drei üblichsten – Kurven, Formbesschreibung undRelationen zwischen markanten Punkten – sollen hier erwähnt werden.Sollen Kurven (Abb. 1) auf der Oberfläche des Gesichts für den Vergleich genutztwerden, so besteht die Schwierigkeit genügend aussagekräftige und invariante Kur-ven zu finden. Eine Lösung hierfür ist das Schneiden des Meshes mit einem zen-trierten Zylinder und 2 Ebenen. Die so entstehenden Schnittlinien können vergli-

17Jain, Handbook of Face Recognition, 2005, S. 218.

13

Page 14: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

2 Methoden der Gesichtserkennung

Abb. 1: Kurven Abb. 2: Formbeschreibung Abb. 3: Relationen

chen werden.Die Formbeschreibung (Abb. 2) beruht darauf, möglichst mimikinvariante Flä-chen wie etwa auf Nasenrücken oder Wangenknochen zu finden und deren Größeund Ausrichtung im Raum als Vergleichsmerkmale zu nutzen.Ähnlich wie bei den klassischen Methoden können auch Abstände und Winkelzwischen markanten Punkten im Raum zur relationalen Repräsentation genutztwerden (Abb. 3).18

Einige der Methoden funktionieren nur unter vorgegebenen Bedingungen wiez. B. dem manuellen Vorgeben der markanten Punkte. Ausgehend von diesen Me-thoden wurden verschieden Verfahren entwickelt, die versuchen ausdrucksinva-riante Gesichtsrepräsentationen zu finden, in dem ein neutrales Modell verformtund mit dem zu untersuchenden Datensatz abgeglichen werden.19

18Wang, Robust 3D Face Recognition by Local Shape Difference Boosting, 2009, S. 1858.19Wang, Robust 3D Face Recognition by Local Shape Difference Boosting, 2009, S. 1859.

14

Page 15: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

Die Probleme der 3D-Gesichtserkennung sind:

• das effiziente Extrahieren der Hauptregion des Gesichts mit beliebiger Hal-tung,

• die Qualität der 3D-Rohdaten (Schultern, Haare, Flecken, Löcher, Fehler,etc.),

• das effiziente Angleichen der Gesichtsmodelle,

• die Optimierung der Auswahl der unveränderlichen Gesichtspunkte,

• die Berechnungseffizienz durch die Menge an Daten und die damit verbun-dene

• schlechte Skalierung beim Abgleich mit großen Datenbanken.

Nach dem im Folgenden Maße für die Qualität eingeführt werden wird das be-reits erwähnte Verfahren vorgestellt, welches versucht einige der eben genanntenProbleme der 3D-Gesichtserkennung zu minimieren.

3 Qualitätsmaße

Für den direkten Vergleich verschiedener Methoden der Gesichtserkennung sindzwei Größen von besonderer Bedeutung: die Falschrückweisungsrate (FRR) und dieFalschakzeptanzrate (FAR).Die FRR ist die Wahrscheinlichkeit, mit der ein Verfahren fälschlicherweise ent-scheidet, dass ein Gesicht nicht als zu der Person gehörig eingestuft wird zu deres jedoch tatsächlich gehört. Dies ist dann der Fall wenn die Übereinstimmung

15

Page 16: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

3 Qualitätsmaße

des Eingabegesichtes mit einem Vergleichsdatensatz als zu gering berechnet wur-de. Die FRR ist wie im Beispiel aus 4.4 über einen Schwellwert ζ mit Hilfe vongenügend umfangreichen Trainingsdaten einstellbar.Die FAR ist die Wahrscheinlichkeit mit der ein Verfahren fälschlicherweise ent-scheidet, dass ein Gesicht zu einer Vergleichsperson gehört. Die beiden Größenhängen über die Güte des Verfahrens und den gewählten Schwellwert direkt von-einander ab. Die Größen können nur dann sinnvoll miteinander verglichen wer-den, wenn eine der beiden fix gehalten wird. In der Regel wird die FRR mit einerfesten FAR angegeben. In verschiedenen Anwendungsszenarien sind unterschied-liche Einstellungen der Werte sinnvoll. Bei der Zutrittskontrolle zu einem sicher-heitsrelevanten Bereich wird die FAR besonders niedrig gehalten um keinem Un-berechtigten den Zugang zu gewähren. Bei der Suche einer Person in einer GroßenMenge von Bildmaterial wie – etwa bei Fahndung – soll jedoch die FRR beson-ders niedrig sein, sodass die Wahrscheinlichkeit die Person zu finden möglichstgroß ist. Dass auf diese Art viele Personen vom System geliefert werden, die nichtvon Interesse sind, wird dabei in Kauf genommen und hat keine sicherheitskriti-sche Relevanz.Oft wird auch der Begriff Verifizierungsrate verwendet, der der Wahrscheinlichkeitder korrekten Entscheidung entspricht. Nutzt man zur Berechnung der FAR undder FRR die Methode round robin so wird ein einziger Datensatz P von Gesich-tern aus einer Galerie G genutzt. Jedes Gesicht pj aus P wird mit allen anderen pi

aus P abgeglichen und die Übereinstimmung sij berechnet. Die Verifizierungsratelässt sich berechnen mit

Pv(τ) = |pj|sij ≥ τ, id(pi) = id(pj)||P|

16

Page 17: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

und die FAR mit

Pfar(τ) = |pj|sij ≥ τ, id(pi) 6= id(pj)|(|P| − 1) |G|

.Es gibt Kritik an der Tatsache auch die FAR mit Material aus der Referenzdaten-bank zu ermitteln. Im tatsächlichen Einsatz würde eine Person, die behauptet einePerson aus der Datenbank zu sein, schließlich nicht unbedingt selbst in der Daten-bank vorkommen. Als Alternative wird das true imposter protocol vorgeschlagen,das zur Berechnung unterschiedliche Sets von Gesichtern nutzt.20

Eine weitere Möglichkeit Verfahren zu vergleichen, bietet das Face RecognitionGrand Challenge (FRGC). Das Ziel der FRGC ist die Technologie der Gesichts-erkennung zu fördern und voranzubringen um die Belange der US-Regierung indiesem Bereich zu unterstützen. Um ein Verfahren testen zu können, gibt es so-wohl Galerien mit Gesichtsdaten als auch klar definierte Experimente.21

20Jain, Handbook of Face Recognition, 2005, S. 333.21National Institute of Standards and Technology: Face Recognition Grand Challenge

Internet:http://www.nist.gov/itl/iad/ig/frgc.cfm [16.08.2011]

17

Page 18: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

4 Robust 3D Face Recognition by Local Shape Difference Boosting

4 Robust 3D Face Recognition by Local ShapeDifference Boosting

2009 schlugen Yueming Wang, Jianzhuang Liu und Xiaoou Tang mit Robust 3DFace Recognition by Local Shape Difference Boosting eine neue Herangehensweisefür 3D-Gesichtserkennung vor, die sich zum Ziel gesetzt hat, einfach implemen-tierbar und effizient zu sein und dabei trotzdem eine hohe Erkennungsrate zu ha-ben. Sie beschreiben den kompletten Ablauf von der Aufbereitung der Rohdatenbis zum Abgleich eines Datensatzes mit einer Datenbank.

4.1 Arbeitsschritte

Die Arbeitsschritte lassen sich wie folgt differenzieren:

1. Optimierung der 3D-Rohdaten

2. Auswahl und Beschnitt des zu verarbeitenden Bereiches

3. Orientierung des Meshes in standardisierter Pose

4. Berechnung der Ähnlichkeit zweier Datensätze

Sie werden im Folgenden näher erläutert.

Optimierung der 3D-Rohdaten

Die vom 3D-Scanner erhobenen Daten weisen Fehler und Artefakte auf, die fürdie Weiterverarbeitung hinderlich wären. In den Daten können Ausreißer undLöcher vorhanden sein (Abb. 4). Besonders im Bereich der Haare muss wegen

18

Page 19: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

4.1 Arbeitsschritte

der feinen Struktur, die die Kamera nicht oder nur schwer erfassen kann, mitunnützen Messwerten gerechnet werde. Mit drei verschiedenen Gaussfiltern, diein [Wang2009] nicht weiter beschrieben werden, lassen sich Ausreißer entfernen,kleine Lücken schließen und Flächen und Kanten glätten (Abb. 5).

Abb. 4: 3D-RohdatenAbb. 5: Ergebnis nach

denoising

Auswahl und Beschnitt des zu verarbeitenden Bereiches

Um den für die Erkennung interessanten Teil des Gesichtes zu extrahieren, wirddie Nasenspitze gesucht und alle Punkte, die einen bestimmten Abstand von die-ser überschreiten, entfernt. Dies geschieht auf folgende Weise:Mit Hilfe eines vom gleichen Scanner parallel zu den 3D-Daten aufgenommenenFotos wird mit klassischen Verfahren das Gesicht gefunden (face detection) undals Ebene E mit den 3D-Daten abgeglichen (Abb. 6). Diese Ebene teilt den Da-tensatz des Meshes in 2 Teile. Der Teil mit dem geringeren mittleren Abständen

19

Page 20: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

4 Robust 3D Face Recognition by Local Shape Difference Boosting

zur Ebene enthält die Nase. Der Punkt dieses Teils mit dem größten Abstand vonder Ebene wird als Nasenspitze angenommen und wird dann als Grundlage fürden Beschnitt genutzt. Alles ab einer bestimmten Entfernung von der angenom-menen Nasenspitze wird weggeschnitten. Hals, Schultern und Haare werden aufdiese Weise schnell und einfach entfernt. Das Resultat ist in Abbildung 7 zu sehen.

Abb. 6:

Orientierung des Meshes in standardisierter Pose

Als nächstes muss das Mesh in eine standardisierte Pose gebracht werde. DiesePose soll allein anhand der Geometrie des Meshes selbst berechnet werden. DieseSelbstabhängigkeit (self-dependency) sorgt dafür, dass zwei Meshes ein und dessel-ben Gesichts jeweils eine möglichst gleiche Ausrichtung haben und gut verglichenwerden können. Hierfür wird das Mesh an der Nasenspitze, am Nasenrücken, dersich als besonders mimikinvariant erwiesen hat, und einer approximierten Sym-

20

Page 21: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

4.1 Arbeitsschritte

Abb. 7:

metrieachse ausgerichtet. Diese drei Elemente legen die Orientierung im Raumbereits vollständig fest. Man erreicht dieses Ergebnis wie folgt:

Durch das Angleichen des Gesichtes an sein Spiegelbild kann die Symmetrieachseberechnet werden (Abb. 8). Im Schnitt mit dem Mesh bildet die Ebene durch dieSymmetrieachse das Profil des Gesichtes (Abb. 9). In diesem kann als markantes-ter Punkt leicht die Nasenspitze gefunden werden. Die größte Varianz innerhalbeines Gesichtes geschieht in der Richtung von oben nach unten – die kleinste inRichtung der Normalen der Stirn. Auf dem beschnittenen Datensatz wird nuneine Hauptkomponentenanalyse durchgeführt. Es handelt sich dabei um ein Nä-herungsverfahren bei dem eine große Anzahl von Werten mit einer geringeren

21

Page 22: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

4 Robust 3D Face Recognition by Local Shape Difference Boosting

Abb. 8: Ein Gesichts und dessen Spiegelbild

Zahl möglichst aussagekräftiger Linearkombinationen angenähert wird. Auf dieseWeise erhält man die Eigenvektoren v1, v2 und v3. Dabei korrespondiert v1 zurRichtung, die im Gesicht von oben nach unten verläuft, v3 zur Normalen des Ge-sichtes und v2 bildet das Lot zu v1 und v3.Nach dem nun die Symmetrieachse des Gesichts bekannt ist und geschnitten mitdem Gesicht das Profil c ergibt, kann an diesem die Nasenspitze erkannt werden(Abb. 10). Als Nasenspitze wird der Punkt pt angenommen, der

• auf dem Profil c liegt,

• in den 10 mal 10 cm Bereich um die Mitte des beschnittenen Bereiches liegt,

• im kleineren Teil des durch E (in Abb. 10 in Türkis) geteilten Datensatzesliegt und unter den so zutreffenden Punkten

22

Page 23: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

4.1 Arbeitsschritte

Abb. 9: Finden der Symmetrieachse

• die größte Entfernung zu E aufweist.

Abb. 10: Finden der Nasenspitze

Da der Nasenrücken sich als ein stabiles Feature bezüglich einer breiten Palettevon Gesichtsasudrücken und auch längerfristigen Veränderungen erwiesen hat,soll dessen Ausrichtung np für die selbstbezügliche Ausrichtung nun bestimmtwerden:

Eine grobe Abschätzung für np kann mit einer Hauptkomponentenanalyse derPunkte auf c ermittelt werden. Entlang np werden die Punkte sortiert wobei die

23

Page 24: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

4 Robust 3D Face Recognition by Local Shape Difference Boosting

Nasenspitze c in zwei Bereiche unterteilt (Abb. 11). Innerhalb eines bestimmtenAbstandes dp von p ergeben sich so zwei Sets von Punkten Ppl und Ppr. Mit Hilfeder Methode der kleinsten Quadrate werden für Ppl und Ppr Geraden angelegtwie in Abbildung 11 zu sehen ist. In diesem mathematischen Standardverfahrender Numerik werden die Kurvenparameter so bestimmt, dass die Summe der qua-dratischen Abweichungen (Risiduen) der Kurve von den beobachteten Punkten(hier je aus Ppl und Ppr) minimiert wird.22 Da hier nicht mal nach einem Poly-nom höheren Ranges gesucht wird, sondern nur nach einer Linearfunktion, ist derBerechnungsaufwand ein geringes Problem. Die Gerade mit dem kleineren Risidu-en wird als Nasenrücken ny ausgewählt. Im Abbildung 11 ist Anhand der Abwei-chungen zwischen Nasenrücken und ny bzw. zwischen Profillinie von Nasenspitzebis einschließlich Oberlippe (hellgrün) und berechneter Gerade (dunkelgrün) zuerkennen, warum dieser Schritt sinnvoll ist. Um eine Vielzahl von Ausrichtungenim Raum zu berücksichtigen, wird im Paper ein Abstand von pd = 40mm emp-fohlen. Mit den so berechneten Punkten und Normalen, kann das Modell nun imRaum in die Standardpose gebracht werden:Die Nasenspitze wird auf den Ursprung des Koordinatensystems verschoben undanhand der Ausrichtung des Nasenrückens und der Symmetrieebene mit mehrma-liger Matrixmultiplikation das gesamte Mesh in die Standardpose transformiert.Als Resultat schaut das Gesicht aufrecht, mit der Nase im Ursprung, genau inRichtung Z-Achse. Die Schritte sind in Abbildung 12 nachzuvollziehen.

22Boehm/ Gose, Einführung in die Methoden der Numerischen Mathematik, 1977, S. 39.

24

Page 25: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

4.1 Arbeitsschritte

Abb. 11: Finden des Nasenrückens

Berechnung der Ähnlichkeit zweier Datensätze

Als nächstes wird zur Verringerung des Berechnungsaufwandes – dem eigentli-chen Anliegen dieses Verfahrens – aus dem 3D-Problem ein 2D-Problem gemachtin dem aus dem ausgerichteten Mesh, ausgehend von der Nasenspitze, ein Tiefen-bild I erzeugt wird (Abb. 13). Dabei ist I(i, j) der Tiefenwert an der Stelle (i, j).Im Paper wurde für I eine Auflösung von 75 mal 75 Pixeln als ausreichend be-

schrieben.Aus zwei Tiefenbildern – dem zu bewertenden und einem zu vergleichenden –werden nun zwei verschiedene Differenzbilder erzeugt: Die signed shape differencemap (SSDM) mit negativen und positiven Werten (bsp. siehe Abb. 14) und die shapedifference map (SDM), die nur die Beträge beinhaltet.

Es wird empfohlen bei den Trainingsdaten in der Reihenfolge der Differenz-

25

Page 26: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

4 Robust 3D Face Recognition by Local Shape Difference Boosting

Abb. 12: Ausrichtung an berechneten Vektoren und der Nasenspitze

bildung konsistent zu bleiben. Beispielsweise sollten Gesichter mit starkem Aus-druck jeweils von neutraleren Gesichtern abgezogen werden. Die Differenzbilderbeinhalten nun die Informationen zur Bewertung der Ähnlichkeit zweier Gesich-ter.Es ist offensichtlich, dass unterschiedliche Areale der Differenzbilder unterschied-liche Aussagekraft über die Ähnlichkeit haben – darum wird nun ein Gewich-tungsprinzip eingeführt:Der Collective Shape Difference Classifier (CSDC) soll bei der Eingabe eines Dif-ferenzbildes durch Gewichtung der Werte eine Fließkommazahl generieren, dieeine Aussage über die Ähnlichkeit der beiden Gesichter trifft. Ein CSDC ist vonder Form

HT (Ds) =T∑

t=1ct(Ds)

wobei Ds eine SSDM, ct(Ds) ein schwacher Classifier (ausgewählt auf Basis derlokalen features der SSDM während des boosting trainings) und T die Anzahl derschwachen Classifier ist. Die schwachen Classifier werden beim Training anhandder lokalen Features ausgewählt und haben als Ausgabe ebenfalls eine Fließkom-mazahl. Es ist schwierig herauszufinden welche Punkte für ein breites Mimikspek-trum invariant sind. Der Boostingalgorithmus kann diese Punkte auswählen und

26

Page 27: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

4.1 Arbeitsschritte

Abb. 13: Tiefenbild

gewichten. Dazu muss er trainiert werden.Die Classifier basieren auf drei verschiedenen Typen von Merkmalen (features) derSSDMs. HAAR-features geben ein Maß für den Unterschied zweier Regionen. Da-zu werden die Intensitäten der Pixel einer rechteckigen Region aufsummiert undmit den Summen einer anderen Region verglichen. Unterschiedliche Mittelwer-te zweier Regionen spiegeln also lokale Unterschiede der Formen zweier Regio-nen wieder und der Unterschied selbst spiegelt das Veränderungsmuster der For-munterschiede wieder. Durch den Gebrauch verschiedener Filter und verschiedengroßer Regionen sind diese Merkmale sehr effizient berechenbar. Gabor-featurescodieren die Charakteristika einer Reihe von räumlichen Bereichen und Orientie-rungen einer SSDM. Local binary patterns (LBPs) und multiblock LBPs beschreibendie Texturcharakteristik einer SSDM. Dabei werden in unterschiedlichen Größendie Durchschnitte eines rechteckigen Bereichs mit denen seiner Nachbarbereicheverglichen.

27

Page 28: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

4 Robust 3D Face Recognition by Local Shape Difference Boosting

Abb. 14: Beispiele für inter- und intrapersonelle SSDMs

Der Vorteil der Nutzung solcher lokalen features – so wird im Paper betont –liegt in der Tatsache, dass die Position der features auf der SSDM zur Position imOriginalgesicht korrespondiert. Daher können die invarianten Teile des Gesichtesoptimal ausgewählt werden. Außerdem können mit den beschriebenen featuresauch intrapersonelle Veränderungen der 3D-Gesichtsform erfasst werden.

4.2 Lernen und Testen

Der CSDC muss nun trainiert werden. Dazu werden sowohl interpersonelle alsauch intrapersonelle Differenzbilder X (wie in Abb. 14) aus einem set Q genutzt.Für die drei Featuretypen Haar, Gabor, und LBP werden individuelle CSDCs trai-niert: HHaar

T , HGaborT und HLBP

T .

Die Classifier werden aus Effizienzgründen zunächst nur mit einer Teilmenge Qw

aus Q trainiert, die alle intrapersonellen und einen Teil der interpersonellen SS-

28

Page 29: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

4.2 Lernen und Testen

DMs beinhaltet. Sind die Ergebnisse zufriedenstellend, wird ein Teil des Sets Qw

mit Differenzbildern aus Q ausgetauscht. Durch den stetigen Austausch werdenim Laufe des Trainings auch alle interpersonellen SSDMs genutzt.Die drei Arten von Features (Haar, Garbor und LBP) werden einzeln für das Trai-ning genutzt und so 3 CSDSs erstellt: HHaar

T ,HGaborT und HLBP

T .Der Trainingsalgorithmus wählt die schwachen Classifier jeweils so, dass die Ge-wichte einen möglichst geringen Fehler machen. Ist der interpersonelle Unter-schied sehr klein (das Feature trägt also nicht besonders zur Individualität bei),so wird auch das jeweilige Gewicht klein – ist hingegen der intrapersonelle Unter-schied klein (das Feature ist also in beiden Aufnahmen der Person sehr ähnlich), sowird das jeweilige Gewicht erhöht, denn es trägt zur Wiedererkennung stärker bei.

Der Algorithmus erhält folgenden Input:

1. Q = (Xi, Yi)|1 ≤ i ≤ v und Qw = (Xi, Yi)|1 ≤ i ≤ m + n wobeiXi die i-te SSDM und Yi = 1 oder −1 falls Xi intra-personell bzw. inter-personell ist, Q und Qw beinhalten alle Proben und Start-Proben, m und nist die Anzahl der inter- und intrapersonellen Proben.

2. T ist die gewünschte Anzahl der schwachen classifier.

Initialisierung: w0,i =

1

2m, Yi = 1

12n, Yi = −1

, 1 ≤ i ≤ m+ n.

Das Lernen läuft nach folgendem Algorithmus ab:

29

Page 30: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

4 Robust 3D Face Recognition by Local Shape Difference Boosting

For t = 1, 2, ..., T

1. Normalisiere Gewichte:

wt,i =

12

wt−1,i∑i

wt−1,i, Yi = 1

12

wt−1,i∑i

wt−1,i, Yi = −1

, 1 ≤ i ≤ m+ n.

2. für jedes feature, trainiere einen schwachen classifier aus Qw und finde denbesten schwachen classifier ct mit dem kleinsten Fehler mit dem von Shapireund Singer vorgeschlagenen Boostingalgorithmus.23

3. aktualisiere die momentane CSDC: Ht = Ht−1 + ct.

4. wenn sign(Ht) erfolgreich alle Proben aus Qw klassifiziert, aktualisiere Qw

durch Austausch von 20 Prozent der kleinsten Gewichte der interpersonel-len Proben mit nicht in Q benutzten interpersonellen Proben.

5. aktualisiere die Gewichte: wt,i =

1

2me−YiHt(Xi), Yi = 1

12ne−YiHt(Xi), Yi = −1

, 1 ≤ i ≤ m+n.

Output: HT

23Schapire/ Singer, Improved Boosting Algorithms Using Confidence-Rated Predictions, 1999, SS.297-336.

30

Page 31: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

4.3 Identifizierung

4.3 Identifizierung

Im Gegensatz zur Verifizierung, bei dem nur ein Differenzbild bewertet werdenmuss, werden für die Identifizierung auf Grund der Effizienz nur Haar-featuresgenutzt. Mit der Tiefenkarte Ip eines Gesichtes und allen Tiefenkarten einer Ver-gleichsdatenbank DB = I1, ..., Ir werden die Differenzbilder D+

i = Ip − Ii undD−

i = Ii − Ip für 1 ≤ i ≤ r erstellt und mit den CSDCs die Ähnlichkeit

Ωi = max(HHaarT (D−

i ), HHaarT (D+

i ))

bewertet.

4.4 Verifizierung

Für die Verifizierung werden nur D+ und D− berechnet und mit allen CSDCsund einem sinnvoll gewähltem Schwellwert ζ bewertet.

Ω1 = max(HHaarT (D−

i ), HHaarT (D+

i ))

Ω2 = max(HGaborT (D−

i ), HGaborT (D+

i ))

Ω3 = max(HLBPT (D−

i ), HLBPT (D+

i ))

Das Gesicht gilt als verifiziert wenn gilt:

ζ < Ω1 + Ω2 + Ω3

31

Page 32: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

4 Robust 3D Face Recognition by Local Shape Difference Boosting

4.5 Ergebnisse und Bewertung

Die Autoren testeten das Verfahren mit den beiden 3D-Gesichtsdatenbanken FRGCv2 mit 466 Personen und BU-3DFE mit 100 Personen. Zu jeder Person gab es ei-ne Reihe von unterschiedlich starken Gesichtsausdrücken. Insgesamt ergaben sichdaraus 15.600 intrapersonelle und 1,544,400 interpersonelle SSDMs. Bei einer festgewählten FAR von 0.1%, ergab sich beim Nutzen von SSDMs gegenüber SDMsein Verbesserung der Verifikationsrate um 2%. Dieses Ergebnis zeigt, dass die si-gned shape difference map bedeutender ist, da sie mit dem Vorzeichen mehr Infor-mationen kodiert als eine SDM. Der Vergleich der Verifikationsrate über die FARzwischen SDM und SSDM mit Haar wird in Abbildung 15 dargestellt.24 Man kann

Abb. 15: Vergleich der Verifikationsrate über die FAR zwischen SDM und SSDM

beim Vergleich von HHaarT , HGabor

T und HLBPT beobachten, dass Haar features die

höchste Performanz haben, wie in Abbildung 16 dargestellt. Dieses Ergebnis magzunächst überraschen da Gabor und LBP intuitiv „stärker“ erscheinen, dies hatjedoch seine Gründe: Unter den mit dem oben beschriebenen Verfahren ausge-24Genutzt wurden die standard ROC III Masken vom FRGC v2.

32

Page 33: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

4.5 Ergebnisse und Bewertung

Abb. 16: Vergleich der Verifikationsrate über die FAR zwischen SDM und SSDM

richteten Proben gibt es nach wie vor kleine Verschiebungen. Haar features, diedie Unterschiede zwischen patches in den SSDMs nutzen, können diese kleinenAusrichtungsfehler in der näheren Umgebung bis zu einem bestimmten Maßeausgleichen. Ein weiterer Grund liegt in der Tatsache, dass bei Gabor und LBPso viele Features berechnet werden, dass nur eine Untermenge davon verarbeitetwird, die unter Umständen nicht alle „starken“ features enthält.Die Vereinigung der 3 Klassifizierer ergibt eine höhere Verifizierungsrate. Bei ei-ner festen FAR von 0,1%, ergibt sich eine Verifizierungsrate von 97,97%. Werdenals Datensatz nur neutrale Gesichtern genutzt, ergibt sich sogar eine Verifizie-rungsrate von 99,2%.Verglichen mit anderen Verfahren, zu denen Ergebnisse mit FRGCC v2 vorliegen,liegt das vorgestellte Verfahren mit rund 98% weit oben oder ist sogar leicht bes-ser. Dies ist besonders dann der Fall, wenn Gesichter mit mehr als nur neutralemGesichtsausdruck in der Datenbank und somit auch in den SSDMs vorkommen.Hier erreicht das Verfahren sogar 5% Verbesserung verglichen mit dem zum Ver-öffentlichungszeitpunkt des Papers besten Verfahren.

33

Page 34: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

4 Robust 3D Face Recognition by Local Shape Difference Boosting

Bezüglich der Performanz sind die Größe der Vergleichsdatenbank und die damitverbundene Zeit für einen Abgleich die größten Hürden für eine schnelle Identifi-zierung. Ein weiterer entscheidender Faktor ist die Auflösung und die sich darausergebende Anzahl der Vertices des aufgenommenen 3D-Bildes.Die Identifizierung anhand einer Datenbank mit 1000 Gesichtern dauert auf ei-nem PC mit P4-CPU, 3 GHz und 2 GB RAM nur 3,6 Sekunden. Der Verifizie-rungsaufwand ist vernachlässigbar. Das Matching mit HGabor

T dauert nur etwa 3Millisekunden. Die durchschnittliche Dauer einer Verifizierung liegt damit bei et-wa 2,2 Sekunden.

Problematisch ist, dass das Verfahren davon ausgeht, das Gesichter symmetrischsind. Da dies auf einzelne Gesichter nicht zutrifft, kann es zu einer falschen Aus-richtung kommen. Auch wenn in den 3D-Rohdaten zu viele Punkte der Nasefehlen, kann es bei der automatischen Ausrichtung zu Fehlern kommen. DieEinschränkungen, die durch schlechte Aufnahmequalität entstehen, sollten unterkontrollierten Umständen nicht störend auffallen. Im Eingangsbereich eines be-sonders gesicherten Gebäudeteils kann zum einen mit der Kooperation des Men-schen, der Einlass erwünscht, gerechnet werden und zum anderen können auchdie Lichtverhältnisse an die Einschränkungen der Technik angepasst werden.Zusammenfassend kann festgehalten werden, dass die guten Verifizierungs- undIdentifikationsraten zeigen dass die SSDMs reich an relevanten Informationenüber Gleichheit und Unterschiede der Gesichtsformen sind und die entwickeltenFeatures sich gut ergänzen und die Art und Weise ihrer Kombination entscheidendfür die Qualität des Verfahrens ist. Die selbstabhängige automatische Ausrichtungermöglicht es, aus dem 3D-Problem ein 2D-Problem zu machen, wodurch der Be-

34

Page 35: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

4.6 Verbesserungsmöglichkeiten und weitere Anwendungsgebiete

rechnungsaufwand erheblich reduziert werden kann. Einen weiteren Vorteil desVerfahrens sehen die Entwickler in der Einfachheit des Prinzips und dem damitverbundenen geringen Implementierungsaufwand.

4.6 Verbesserungsmöglichkeiten und weitereAnwendungsgebiete

Da das vorgestellte Verfahren die Daten in einer Art Pipeline verarbeitet, könneneinzelne Schritte unabhängig voneinander bezüglich Effizienz, Effektivität undFunktionalität optimiert werden oder ganz neue Verarbeitungsschritte hinzuge-nommen werden.Sollen 3D-Kameras beispielsweise auch für die Überwachung eines Eingangsberei-ches z. B. für die Umsetzung des Hausrechtes genutzt werden, müsste der Opti-mierung der Rohdaten und dem Beschnitt noch ein Schritt vorangestellt werden,der aus einer 3D-Szene, in der sich eventuell mehr als nur eine Person befindet,die einzelnen Gesichter extrahieren kann.Ein Beispiel für die Verbesserung eines Schrittes stellt die Optimierung der Filterzur Glättung und die Verfahren zum Füllen der Lücken dar. Eine kühne Vor-stellung wäre das heuristische Glätten und Füllen der Daten nach empirisch aufeiner Menge von Gesichtsdaten beruhenden Regeln. Eventuell könnten sich in die-sen Regeln die überhaupt möglichen Eigenschaften der Gesichtsoberfläche wie dieElastizität der Haut widerspiegeln und somit realistischere und mit dem Originalbesser übereinstimmende Ergebnisse erzielen als eine rein mathematische Interpo-lation.

Denkbar wären auch Techniken, die das Zusammenspiel der einzelnen Schritte

35

Page 36: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

5 Gesellschaftliche Bedenken

verbessern. Wird eine größere Lücke bei der Datenoptimierung gefüllt, so könntees sinnvoll sein, diesem Bereich für den späteren Vergleich eine geringere Wich-tung zuzuteilen.

Interessante Überlegungen könnten auch auf dem Bereich des parallel compu-ting angestellt werden. Besonders im Identifikationsmodus bietet das Verfahrendie Möglichkeit die Parallelisierbarkeit auszunutzen und die Berechnungen aufspezieller Grafikhardware oder ganz und gar verteilt zu berechnen.

Erwägenswert ist auch das Übertragen des vorgestellten Konzeptes auf andere Be-reiche - etwa auf die Objekterkennung. So ist denkbar, dass im Tourismusbereich,die sich immer mehr verbreitenden 3D-Fotoapparate oder zukünftig auch Smart-phones die Informationen auf die vorgestellte Art und Weise nutzen, um Gebäudeoder andere Objekte zu erkennen und die Bilder automatisch zu verschlagwortenoder Informationen anzuzeigen, wie es bereits von Google mit dem Produkt Gog-gles für 2D-Bilder angeboten wird.

5 Gesellschaftliche Bedenken

Neben vielen sinnvollen Einsatzgebieten der Gesichtserkennung haben solche Sys-temen, die auch in immer mehr Bereichen des Alltags eingesetzt werden, starkeAuswirkungen auf die Gesellschaft. Im Juni 2011 führte Facebook, ein stark ver-breitetes soziales Netzwerk mit über 20 Millionen Mitgliedern in Deutschland undüber 600 Millionen Mitgliedern weltweit, ein Gesichtserkennungssystem ein.25

25dpa: Computer: Facebook hat nun 20 Millionen Nutzer in Deutschland. (01.06.2011)Internet:

36

Page 37: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

Die Bilder, die von den Nutzern hochgeladen werden, werden nach Gesichterndurchsucht. Bisher konnten die Nutzer die Gesichter manuell Personen zuordnen.Die so gewonnen Personenbezogenen biometrischen Daten werden seit neustemgenutzt um den Nutzern für Gesichter, die Facebook bereits bekannt sind, au-tomatisiert Personen vorzuschlagen, die zu dem Gesicht gehören könnten. DerBesitzer des Bildes kann dann entscheiden, ob die Verknüpfung des Bildes mit derPerson geschehen soll. Heise berichtet, der Social-Networking-Riese sitze insge-samt auf geschätzten 30 bis 40 Milliarden Fotos, und Monat für Monat kämenweitere 2,5 Milliarden Schnappschüsse hinzu.26 Der hamburger Datenschutzbe-auftragte Johannes Caspar meinte in einem Interview im ZDF, dass diese massen-weise automatisierte Verarbeitung von biometrischen Merkmalen ein immensesPotential des Missbrauchs in sich birge.27 Facebook betont, dass lediglich Perso-nen, mit denen man selbst auf Facebook zu tun hat, vorgeschlagen werden. Kritikwird jedoch auch an der Tatsache geübt, dass die Einführung der Technologie oh-ne die Einwilligung der Mitglieder stattgefunden hat. Es lässt sich außerdem nichtverhindern, dass auf den Bildern auch Menschen erfasst und erkannt werden, diedies nicht wollen, oder selbst gar nicht Mitglied von Facebook sind. Selbst wenndie Daten nicht öffentlich durchsuchbar sind oder angezeigt werden, so stehen sie

http://www.focus.de/digital/computer/computer-facebook-hat-nun-20-millionen-nutzer-in-deutschland_

aid_633038.html [16.08.2011]26Heuer, Stefan: Nie mehr anonym (29.07.2011)

Internet:http://www.heise.de/tr/artikel/Nie-mehr-anonym-1286559.html [16.08.2011]

27ZDF Heute Journal: Facebook: Kritik an Gesichtserkennung (09.06.2011)Internet:http://www.zdf.de/ZDFmediathek/beitrag/video/1357274/

Facebook-Kritik-an-Gesichtserkennung [16.08.2011]

37

Page 38: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

6 Fazit

doch Facebook selbst zur Verfügung.Immer wieder ist auch der Einsatz von Gesichtserkennung in Videoüberwachungim Gespräch. Zwar ist die Identifizierung jeder im Videomaterial vorkommendenPerson wegen des hohen Berechnungsaufwandes noch unwahrscheinlich, aber dierasche Entwicklung der Rechentechnik, der Möglichkeiten der parallelen Verar-beitung und die Verbesserung der Erkennungsverfahren lassen diese Art der Nut-zung technisch gesehen für die Zukunft durchaus umsetzbar erscheinen. Gesichts-erkennung könnte somit ein entscheidendes Instrument in Überwachungsstaatenwerden oder allein durch ihre Existenz die Tendenz zu einer Überwachungskul-tur verstärken. Auswirkungen von Videoüberwachung auf das Verhalten einzelnerMenschen durch Beobachtungsdruck könnten durch das Wissen um Gesichtser-kennungssysteme im öffentlichen Raum extrem verstärkt werden.

6 FazitMit Erkennungsraten von annähernd 100 % ist Gesichtserkennung inzwischen fürviele Einsatzgebiete tauglich geworden.Gesichtserkennung hat gegenüber anderen biometrischen Merkmalen verschiede-ne Vorteile, die die Erfassung und Verarbeitung stark vereinfachen und beispiels-weise dem Fingerabdruck bezüglich Erkennungsraten in nichts nachsteht.28

Nach wie vor sind Hauptprobleme die Effizienz und die Robustheit gegenüberVeränderungen der Beleuchtung, Pose und Mimik. Die Verbesserung der Verfah-ren und der Trend der Prozessorentwicklung sowie der parallelen Verarbeitungmit verteilten Algorithmen wird die Effizienzprobleme verringern und die quanti-tativen Möglichkeiten erweitern. 3D-Verfahren haben die letzteren drei Probleme28Bhanu, Computational Algorithms for Fingerprint Recognition, 2004, S. 118.

38

Page 39: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

in den Griff bekommen und mit dem vorgestellten Verfahren konnte gezeigt wer-den, dass auch bezüglich der Effizienz noch Potenzial zur Verbesserung besteht.Die Vorteile der 3D-Verfahren können bisher nur in bestimmten Einsatzgebietengenossen werden, in denen eine Erfassung des Gesichtes von Nahem möglich undeine Kooperation erwartet werden kann. Diese Einschränkung besteht jedoch nurauf Grund des aktuellen Technikstandes und wird bereits mit großem Eifer ange-gangen.Durch die zunehmende Digitalisierung des Alltags hat Gesichtserkennung einenernstzunehmenden Einfluss auf die Gesellschaft und steht außerdem in der großenGefahr Instrument von Überwachungskultur zu werden.

39

Page 40: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

6 Fazit

Bhanu, Bir/ Tan Xuejun Tan (2004): Computational Algorithms for FingerprintRecognition. Boston / Dordrecht / London: Kluwer Academic Publishers, 1. Auf-lage.

Boehm, Wolfgang/ Gose, Günther. (1977): Einführung in die Methoden der Nu-merischen Mathematik., Braunschweig: Vieweg, 1. Auflage.

Cootes,T.F./ Edwards,G.J./ Taylor, C.J.(1998): Interpreting Face Images using Ac-tive Appearance Models., Manchester: University of Manchester.

Gehrke, Jürgen. (2005): Einflussfaktoren der unterschiedlichen Wiedererkennensleis-tung von Gesichtern der eigenen Ethnie und Gesichtern anderer Ethnien (Cross-RaceBias). Gießen: Justus-Liebig-Universität Gießen, 1. Auflage

Jain, Anil K./ Flynn, Patrick/ Ross, Arun A. (2008): Handbook of Biometrics. NewYork: Springer, 1. Auflage.

Turk, Mathew/ Pentland, Alex (1991): Face recognition using eigenfaces. Massachu-setts: Massachusetts Institute of Technology.

Jain, Anil K./ Li, Stan Z. (2005): Handbook of Face Recognition. New York: Sprin-ger, 1. Auflage.

Schapire, R./ Singer, Y. (1999): Improved Boosting Algorithms Using Confidence-Rated Predictions, Machine Learning, vol. 37, no. 3, pp. 297-336

40

Page 41: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

Schönhammer, Rainer. (2009): Einführung in die Wahrnehmungspsychologie. Sin-ne, Körper, Bewegung. Wien: Facultas wuv, 1. Auflage.

Wang, Yueming/ Liu, Jianzhuang/ Tang, Xiaoou. (2010): Robust 3D Face Reco-gnition by Local Shape Difference Boosting. IEEE Transaction on pattern analysis andmachine Intelligence, Vol. 32, No. 10:1858-1870

41

Page 42: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

Abbildungsverzeichnis

Abbildungsverzeichnis

1 Finden der vergleichbaren Eigenschaften: KurvenOrginal: 3D Head, Shaded Wireframe by AlexanderLee1,URL: http://tinyurl.com/alexanderlee-3d-head (30.01.2012). 14

2 Finden der Vergleichbaren Eigenschaften: Formbeschreibungebend. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

3 Finden der Vergleichbaren Eigenschaften: Relationenebend. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

4 3D-RohdatenQuelle: Wang 2009. . . . . . . . . . . . . . . . . . . . . . . . . . . 19

5 Ergebnis nach dem denoisingQuelle: Wang 2009. . . . . . . . . . . . . . . . . . . . . . . . . . . 19

6 Gesicht im Texturkanal findenQuelle: Wang 2009. . . . . . . . . . . . . . . . . . . . . . . . . . . 20

7 Beschnittene RegionQuelle: Wang 2009. . . . . . . . . . . . . . . . . . . . . . . . . . . 21

8 Ein Gesichts und dessen SpiegelbildQuelle: Wang 2009. . . . . . . . . . . . . . . . . . . . . . . . . . . 22

9 Finden der SymmetrieachseQuelle: Wang 2009. . . . . . . . . . . . . . . . . . . . . . . . . . . 23

10 Finden der NasenspitzeQuelle: Wang 2009. . . . . . . . . . . . . . . . . . . . . . . . . . . 23

11 Finden des NasenrückensQuelle: Wang 2009. . . . . . . . . . . . . . . . . . . . . . . . . . . 25

42

Page 43: Gesichtserkennung - algoropticon.de · Gesichtserkennung Seminararbeit Institut für Informatik Visual Computing Seminar Computational Photography von Benjamin Kees Datum der Abgabe:

Abbildungsverzeichnis

12 Ausrichtung an berechneten Vektoren und der NasenspitzeQuelle: Wang 2009. . . . . . . . . . . . . . . . . . . . . . . . . . . 26

13 TiefenbildQuelle: Wang 2009. . . . . . . . . . . . . . . . . . . . . . . . . . . 27

14 Beispiele für inter- und intrapersonelle SSDMsQuelle: Wang 2009. . . . . . . . . . . . . . . . . . . . . . . . . . . 28

15 Vergleich der Verifikationsraten zwischen SDM und SSDMQuelle: Wang 2009. . . . . . . . . . . . . . . . . . . . . . . . . . . 32

16 Vergleich der Verifikationsraten zwischen SDM und SSDMQuelle: Wang 2009. . . . . . . . . . . . . . . . . . . . . . . . . . . 33

43