www.wikidata.de-de.nina.az
Eigengesichter auch engl Eigenfaces genannt sind das Resultat eines Verfahrens zur automatisierten Gesichtserkennung Als Methode des maschinellen Sehens ermoglichen Eigengesichter die Erkennung von einer vorab trainierten Menge menschlicher Identitaten in Echtzeit verlangen jedoch ein sehr hohes Mass an Homogenitat in Bezug auf Lichtverhaltnisse Grosse der Bilder Rotation und Skalierung des Gesichts Aufgrund dieser hohen Sensibilitat fur Variation zwischen Trainingsdatensatz und tatsachlich zu klassifizierendem Gesicht werden Eigengesichter in der Praxis immer seltener zur Gesichtserkennung verwandt Das 1991 entwickelte Verfahren gilt als die erste vollautomatisierte Gesichtserkennungstechnologie und stellte die Grundlage fur eine Vielzahl an Weiterentwicklungen industriellen Anwendungen und Inspirationen fur alternative Ansatze dar 1 Die Methode basiert auf der Hauptkomponentenanalyse und fallt daher im Gegensatz zu moderneren Verfahren mittels Convolutional Neural Networks in die Kategorie des unuberwachten Lernens Inhaltsverzeichnis 1 Geschichte des Verfahrens 1 1 Grundlegende Entwicklung 1 2 Weiterentwicklungen 1 3 Software 2 Beschreibung des Verfahrens 2 1 Anleitung zur praktischen Implementation 2 2 Geschwindigkeitsproblematik 2 3 Interpretation der Eigengesichter 2 4 Kompression und Rekonstruktion von Gesichtern 2 5 Eigengesichter zur Identitatserkennung 3 Verallgemeinerung von Eigengesichtern zu Eigenbildern 4 Zusammenfassung 4 1 Pro 4 2 Kontra 5 EinzelnachweiseGeschichte des Verfahrens BearbeitenGrundlegende Entwicklung Bearbeiten Ein Kernproblem des maschinellen Sehens ist dass ein Bild mit den Abmessungen M N displaystyle M times N nbsp als Vektor in einem hochdimensionalen Raum mit M N displaystyle MN nbsp Dimensionen betrachtet werden kann und diese immense Zahl an Freiheitsgraden es gibt bereits 2 5 10 24 082 displaystyle 2 5 10 24 082 nbsp graustufige 8 bit Bilder der Grosse 100 100 displaystyle 100 times 100 nbsp Pixel Objekterkennung rein statistisch zu einem sehr schwierigen Problem macht Die Hauptkomponentenanalyse PCA engl Principal Component Analysis ist eine Methode um einen kleinstmoglichen vektoriellen Unterraum zu finden der die grosstmogliche Menge an Varianz in den Daten reprasentiert und redundante Korrelationen eliminiert Auf der Suche nach einer kompakteren Reprasentation von Bildern von Gesichtern benutzten Sirovich und Kirby 1987 erstmals die Hauptkomponentenanalyse um mithilfe der wichtigsten Hauptkomponenten als Basisvektoren eine geringer dimensionale Reprasentation zu erzeugen deren Linearkombination die ursprunglichen Bilder effektiv rekonstruieren konnte 2 Dabei werden mittels PCA die Richtungen der grossten Varianz extrahiert indem die Eigenvektoren und Eigenwerte der Kovarianzmatrix von der Wahrscheinlichkeitsverteilung uber den hochdimensionalen Raum an moglichen Gesichtsbildern berechnet wird vereinfacht gesagt die charakteristischsten Features der jeweiligen Gesichter Vier Jahre spater hatten Turk und Pentland das Verfahren weiterentwickelt sodass Gesichter annahernd in Echtzeit klassifiziert und kategorisiert werden konnten was einen Durchbruch in der Gesichtserkennungstechnologie darstellte 3 Im Allgemeinen ist die Berechnung der Eigenvektoren der Korrelationsmatrix sehr zeitintensiv da die Grosse dieser quadratischen Matrix von der Bildqualitat abhangt Entscheidend fur die Echtzeit Berechnung war dass Turk und Pentland eine Moglichkeit fanden die Eigenvektoren dieser hochdimensionalen Korrelationsmatrix zu berechnen indem sie die Eigenvektoren einer verwandten Matrix berechneten deren Grosse nur mit der Menge an Bildern in dem Datenset skaliert Details im Abschnitt Beschreibung des Verfahrens Weiterentwicklungen Bearbeiten Das ursprungliche Verfahren hat eine Reihe an offensichtlichen Schwachen Details weiter unten die durch Verbesserungen zu kompensiert gesucht wurden Es werden exemplarisch genannt Pentland et al stellten 1994 mit View Based Eigenfaces einen Ansatz vor der separate Eigenraume fur unterschiedliche mimische Ausdrucke von Gesichtern erstellt damit die Gesichtserkennung nicht auf neutrale Ausdrucke beschrankt bleibt 4 In derselben Arbeit wurde ein modularer Eigenfeature Framework beschrieben der unterschiedliche Eigenraume fur bestimmte Komponenten des Gesichts berechnet und die resultierenden Eigennasen Eigenaugen und weitere Features benutzt um eine grobe Eigengesichtreprasentation zu verfeinern Um Klassifizierung von Gesichtern zu optimieren anstatt maximal kompakte Reprasentationen zu erzeugen konnen Fishergesichter engl Fisherfaces anstatt von Eigengesichtern verwandt werden basierend auf Linear Discriminant Analysis 5 Local Binary Patterns Histograms LBPH Eigenfaces und Fisherfaces sind stark abhangig von den Lichtverhaltnissen Dieser Nachteil wird mit Hilfe der LBPH Gesichtserkennung uberwunden 6 Software Bearbeiten In der freien Software Bibliothek zur Bildverarbeitung OpenCV sind Eigenfaces Fisherfaces und LBPH implementiert 7 Beschreibung des Verfahrens BearbeitenEigengesichter werden erzeugt mittels der Hauptkomponentenanalyse PCA Anleitung zur praktischen Implementation Bearbeiten Angenommen man hat einen Datensatz mit K 16 displaystyle K 16 nbsp Bildern von Gesichtern sodass jedes Bild die Abmessungen M N displaystyle M times N nbsp hat beispielsweise M N 300 displaystyle M N 300 nbsp also besteht jedes Bild aus 90 000 displaystyle 90 000 nbsp Pixeln Damit die Methodik funktioniert mussen die Bilder unter ahnlichen Lichtverhaltnissen aufgenommen worden sein und dieselben Bestandteile Auge Nase Mund etc an denselben Positionen liegen Dann ist die Prozedur wie folgt 1 Die einzelnen Bilder I 1 I K displaystyle I 1 I K nbsp werden von einer Matrix zu einem Vektor mit 90 000 Dimensionen umgeformt sodass I i R M N i K displaystyle I i in mathbb R MN forall i leq K nbsp 2 Es wird ein Durchschnittsgesicht I displaystyle bar I nbsp aus dem gesamten Trainingsdatensatz berechnet I 1 K i 1 K I i displaystyle bar I frac 1 K sum i 1 K I i nbsp 3 Dieses Durchschnittsgesicht wird von jedem Bild aus dem Trainingsdatensatz abgezogen F i I i I displaystyle Phi i I i bar I nbsp 4 Nun konkateniert man die Differenzgesichter F i displaystyle Phi i nbsp zu einer Matrix A F 1 F 2 F K R M N K displaystyle A Phi 1 Phi 2 cdots Phi K in mathbb R MN times K nbsp 5 Die Kovarianzmatrix C displaystyle C nbsp wird berechnet C A A T displaystyle C AA T nbsp Nun speichert C R M N M N displaystyle C in mathbb R MN times MN nbsp auf der Hauptdiagonalen die Varianzen der einzelnen Pixel uber den gesamten Datensatz und abseits der Hauptdiagonalen an Position i j displaystyle i j nbsp die Kovarianz von Pixel i displaystyle i nbsp mit Pixel j displaystyle j nbsp uber den gesamten Datensatz 6 Als nachstes berechnet man die Eigenvektoren und Eigenwerte der Kovarianzmatrix C displaystyle C nbsp Die Eigenvektoren der Kovarianzmatrix C displaystyle C nbsp haben die gleiche Dimensionalitat wie die Originalbilder Turk und Pentland nannten sie wegen ihres gesichtsahnlichen Aussehens Eigengesichter 7 Die Eigenvektoren werden absteigend nach der absoluten Grosse der Eigenwerte sortiert sodass die ersten Eigenvektoren die meiste Varianz erfassen Die Menge k lt K displaystyle k lt K nbsp der berucksichtigten Eigengesichter wird nun recht willkurlich auf Basis eines Schwellenwertes fur die kumulierte erklarte Varianz getroffen 8 Die Eigengesichter konnen nun benutzt werden um bekannte oder neue Gesichter kompakt zu reprasentieren und spater zu rekonstruieren oder um die Identitat einer Person zu bestimmen Geschwindigkeitsproblematik Bearbeiten Das Berechnen der Eigenvektoren aus C displaystyle C nbsp ist in der Regel aus zwei Grunden nicht ohne Weiteres moglich Erstens Da C R M N M N displaystyle C in mathbb R MN times MN nbsp erhalt man schon bei Bildern der Grosse 300 300 displaystyle 300 times 300 nbsp Pixeln eine Kovarianzmatrix der Grosse 90 000 displaystyle 90 000 nbsp erzeugt dessen Eigenvektoren sich nicht in zufriedenstellender Zeit berechnen lassen Zweitens gilt im Allgemeinen dass r a n g C r a n g A A T r a n g A min M N K displaystyle mathrm rang C mathrm rang AA T mathrm rang A leq min MN K nbsp Weil nun im speziellen Fall der Berechnung von Eigengesichtern in der Regel K lt M N displaystyle K lt MN nbsp gilt das Trainingsset also weniger Bilder als jedes Bild Pixel enthalt hat C displaystyle C nbsp keinen vollen Rang und dementsprechend sind einige Eigenwerte gleich Null In der Regel gibt es exakt K 1 displaystyle K 1 nbsp tatsachliche Eigenvektoren Statt diese nun mit extremen Rechenaufwand anhand von C displaystyle C nbsp zu berechnen benutzten Turk and Pentland einen Trick der Echtzeit Lokalisierung und Erkennung von Gesichtern ermoglicht Man berechnet die K 1 displaystyle K 1 nbsp Eigenvektoren einer neuen Matrix L displaystyle L nbsp die wie folgt definiert ist L A T A R K K displaystyle L A T A in mathbb R K times K nbsp Die Eigenvektoren von L displaystyle L nbsp lassen sich in einem Bruchteil der Zeit berechnen da L displaystyle L nbsp viel kleinere Dimension als C displaystyle C nbsp hat Bei einem Trainingsset von K 16 displaystyle K 16 nbsp Bildern der Grosse 300 300 displaystyle 300 times 300 nbsp hat L displaystyle L nbsp nur noch die Grosse 16 16 displaystyle 16 times 16 nbsp anstatt der ursprunglichen Grosse von 90 000 90 000 displaystyle 90 000 times 90 000 nbsp Die Berechnung der Eigenvektoren von C displaystyle C nbsp auf L displaystyle L nbsp zu verlagern gilt aufgrund des Folgenden Sei die Eigenwertzerlegung von C displaystyle C nbsp gegeben durch C v i A A T v i l i v i displaystyle Cv i AA T v i lambda i v i nbsp gesucht Weil A A T R M N M N displaystyle AA T in mathbb R MN times MN nbsp eine zu grosse Matrix ist betrachten wir stattdessen die Eigenwertzerlegung von L displaystyle L nbsp L u i A T A u i l i u i displaystyle Lu i A T Au i lambda i u i nbsp Bei linksseitiger Multiplikation der Gleichung mit A displaystyle A nbsp ergibt sich A A T A u i l i A u i displaystyle AA T Au i lambda i Au i nbsp Sei nun v i A u i displaystyle v i Au i nbsp so ergibt sich aus der Eigenwertzerlegung von L displaystyle L nbsp eindeutig die gesuchte Eigenwertzerlegung von C displaystyle C nbsp Die somit erhaltenen Vektoren v i displaystyle v i nbsp sind die Eigenvektoren von C displaystyle C nbsp wobei uns nur die K displaystyle K nbsp v displaystyle v nbsp s mit den hochsten Eigenwerten interessieren Die u displaystyle u nbsp s mussen orthonormal sein d h sie mussen noch normalisiert werden Interpretation der Eigengesichter Bearbeiten nbsp Eigengesichter Beispiele generiert von einer grossen DatenbankDie Eigengesichter sind die resultierenden Eigenvektoren v i displaystyle v i nbsp der Korrelationsmatrix C displaystyle C nbsp Eigengesichter sind generische Gesichter in dem Sinne dass tatsachliche Gesichter durch Linearkombination der Eigengesichter rekonstruiert werden konnen Bei einem hinreichend grossen Datensatz konnte also jedes menschliche Gesicht durch eine Kombination von diesen standardisierten Gesichtern dargestellt werden Anhand der rechterhand dargestellten Eigengesichter wird deutlich dass verschiedene Eigengesichter verschiedene Eigenschaften features der Trainingsbilder encodieren Wahrend die oberen Eigengesichter Teile der Frisur widerspiegeln reprasentiert das Gesicht unten links die Ausleuchtung des Hintergrunds und das Gesicht unten rechts die Richtung des Lichteinfalls Um die Eigengesichter zu visualisieren mussen sie zunachst von Vektor zu Matrixnotation umgewandelt werden Es ist ublich die Eigengesichter nach dem Absolutbetrag der zugehorigen Eigenwerte l i displaystyle lambda i nbsp zu ordnen sodass die ersten Eigengesichter die Positionen grosster Varianz darstellen und die Relevanz der folgenden Eigengesichter graduell abfallt Mathematisch gesehen wird durch PCA das Koordinatensystem so rotiert dass die Achsen des neuen Koordinatensystems die Eigengesichter in Richtung der grossten Varianz der durch die Trainingsdaten gegebenen Mannigfaltigkeit liegt Kompression und Rekonstruktion von Gesichtern Bearbeiten Eigengesichter ermoglichen es Bilder in sehr kompakter Form zu speichern indem jedes Trainingsbild in den durch die Eigengesichter aufgespannten Eigenraum projiziert wird Dies kann durch eine simple Multiplikation des Bildvektors mit der Eigengesichtermatrix erreicht werden und resultiert in einem Vektor der Lange K displaystyle K nbsp anstatt der ursprunglichen Matrix der Grosse M N displaystyle M times N nbsp Da in der Regel sogar nur auf die k lt K displaystyle k lt K nbsp wichtigsten Eigengesichter projiziert wird ist die tatsachliche Reprasentation eines Bildes noch kompakter Die tatsachlichen Trainingsbilder konnen nun durch eine Linearkombination der k lt K displaystyle k lt K nbsp wichtigsten Eigengesichter rekonstruiert werden Dabei verkleinert sich der Rekonstruktionsfehler je mehr Eigengesichter zur Rekonstruktion verwandt werden Beispielsweise konnte fur das erste Trainingsbild F i displaystyle Phi i nbsp gelten F i 0 15 v 1 0 42 v 2 0 2 v k displaystyle Phi i 0 15v 1 0 42v 2 0 2v k nbsp also 15 des ersten Eigengesichts plus 42 des zweiten und so weiter Eigengesichter zur Identitatserkennung Bearbeiten Eigengesichter konnen auf sehr elegante Art und Weise zur Erkennung von vorab trainierten Identitaten verwandt werden Dies geschieht indem eine dem Algorithmus unbekannte Aufnahme einer bekannten Person in den durch die Eigengesichter erzeugten Eigenraum projiziert wird Der resultierende Vektor kann nun mittels klassischer vektorieller Abstandsmessung z Bsp Euklidische Norm mit allen Bildern aus der Trainingsdatenbank verglichen werden Mittels K Nachste Nachbarn oder ahnlichen Klassifikationsverfahren kann dann die Identitat der unbekannten Aufnahme bestimmt werden Verallgemeinerung von Eigengesichtern zu Eigenbildern BearbeitenDas Konzept von Eigengesichtern lasst sich problemlos verallgemeinern auf alle andere Arten von Bildern Eigenbilder englisch eigenimages Der Begriff Eigengesichter hat sich nur etabliert aufgrund der Tatsache dass die erste mittels Eigenbilder untersuchte Anwendung die Erkennung von Gesichtern war Beispielsweise konnen aus einer Menge an Bildern die dasselbe Objekt aus verschiedenen Blickwinkeln Distanzen und Lichtverhaltnissen zeigt die Eigenbilder extrahiert werden um eine moglichst transformationsinvariante Objektreprasentation zu erzeugen die dann fur top down Objekterkennungsalgorithmen wie Template Matching oder Drahtgittermodelle benutzt werden kann Ein anderes Beispiel ware eine Sequenz an Bildern die zeigt wie eine beobachtete statische Szene sich aufgrund von Mikrosakkaden auf der Retina hin und her bewegt Auch hier zeigen die Eigenbilder die besonders invarianten Bestandteile der Szene 8 Weitere Anwendungen von Eigenbildern sind im Lippenlesen in Sprecherauthentifizierung Bildgebenden Verfahren oder Handschrifterkennung Zusammenfassung BearbeitenPro Bearbeiten Der Trainingsprozess ist vollautomatisch unuberwacht und simpel zu implementieren Sobald der Trainingsprozess abgeschlossen ist kann Gesichtserkennung in Echtzeit erfolgen Eigengesichter konnen mit grossen Datenbanken an Trainingsbildern umgehen scalability Eigengesichter sind optimal in Bezug auf Varianz komprimierte Reprasentationen von hochdimensionalen Bildern von Gesichtern Kontra Bearbeiten Hohe Sensibilitat fur Variation in Lichtverhaltnissen Rotation und Skalierung des Gesichts Gesichtsausdruck Verdeckungen und Grosse des Bildes Dementsprechend mussen die Bedingungen unter denen die Bilder aufgenommen werden sehr prazise kontrolliert werden In praktischen Anwendungen reprasentieren die ersten Eigengesichter in der Regel Variation in den Lichtverhaltnissen und nicht Variation in den Gesichtern selbst Um die Prazision des Algorithmus zu verbessern werden oft die ersten 3 Eigengesichter ignoriert Einzelnachweise Bearbeiten Shang Zeng and Matthew Turk Eigenfaces Scholarpedia Artikel 2008 abgerufen am 1 Januar 2018 englisch Lawrence Sirovich Michael Kirby Low dimensional procedure for the characterization of human faces PDF Journal of the Optical Society of America 1987 S 509 524 abgerufen am 1 Januar 2018 englisch Matthew Turk Alex Petland Eigenfaces for Recognition PDF Journal of Cognitive Neuroscience 1991 S 71 86 abgerufen am 1 Januar 2018 englisch A Pentland et al View based and modular eigenspaces for face recognition Proceedings of CVPR 1994 abgerufen am 1 Januar 2018 englisch P B Belhumeur et al Eigenfaces vs Fisherfaces Recognition Using Class Specific Linear Projection PDF IEEE Transactions on Pattern Analysis and Machine Intelligence Juli 1997 abgerufen am 1 Januar 2018 englisch Ramiz Raja Face Detection using OpenCV and Python Super Data Science 3 August 2017 abgerufen am 24 Januar 2019 englisch OpenCV documentation Face Recognition with OpenCV Abgerufen am 24 Januar 2019 englisch Born J et al Hebbian Learning of Hand Centred Represenations in a Hierarchical Neural Network Model of the Primate Visual System PLOS ONE Mai 2017 abgerufen am 1 Januar 2018 englisch Abgerufen von https de wikipedia org w index php title Eigengesicht amp oldid 230425451