Analyse bestehender Ansätze zur Gesichtserkennung

    Mit beneidenswerter Regelmäßigkeit erscheinen auf Habré Artikel über verschiedene Gesichtserkennungsmethoden. Wir haben uns dazu entschlossen, dieses wunderbare Thema nicht nur zu unterstützen, sondern unser internes Dokument zu erstellen, das, wenn nicht alle, aber viele Ansätze zur Gesichtserkennung sowie deren Stärken und Schwächen behandelt. Es wurde von unserem Ingenieur Andrei Gusak für die jungen Mitarbeiter der Bildverarbeitungsabteilung sozusagen zu Ausbildungszwecken zusammengestellt. Heute bieten wir es allen an. Am Ende des Artikels befindet sich eine beeindruckende Referenzliste für die Neugierigsten.

    Also fangen wir an.
    Trotz der großen Vielfalt der vorgestellten Algorithmen kann die allgemeine Struktur des Gesichtserkennungsprozesses herausgearbeitet werden:


    Der allgemeine Prozess der Verarbeitung von Gesichtsbildern während der Erkennung

    In der ersten Phase wird das Gesicht erkannt und im Bild lokalisiert. In der Erkennungsphase wird die Ausrichtung des Gesichtsbildes (geometrisch und hell) durchgeführt, Zeichen werden berechnet und die Erkennung wird direkt durchgeführt - Vergleich der berechneten Zeichen mit den in der Datenbank gespeicherten Standards. Der Hauptunterschied zwischen allen vorgestellten Algorithmen besteht in der Berechnung der Merkmale und dem Vergleich ihrer Mengen untereinander.

    1. Die Methode des flexiblen Vergleichs auf Graphen (Elastic Graph Matching) [13].


    Das Wesen der Methode ist auf den elastischen Vergleich von Graphen reduziert, die Bilder von Gesichtern beschreiben. Gesichter werden als Diagramme mit gewichteten Eckpunkten und Kanten dargestellt. In der Erkennungsphase bleibt einer der Graphen - der Referenzgraphen - unverändert, während der andere verformt wird, um den ersten bestmöglich anzupassen. In solchen Erkennungssystemen können Graphen entweder ein rechteckiges Gitter oder eine Struktur sein, die durch charakteristische (anthropometrische) Gesichtspunkte gebildet wird.

    a)

    b)

    Ein Beispiel für eine Diagrammstruktur zur Gesichtserkennung: a) ein reguläres Gitter b) ein Diagramm, das auf anthropometrischen Gesichtspunkten basiert.

    An den Scheitelpunkten des Graphen werden die Werte der Vorzeichen berechnet. Meistens verwenden sie die komplexen Werte der Gabor-Filter oder ihrer geordneten Mengen - Gabor-Wavelets (Gabor-Builds), die lokal in einem lokalen Bereich des Scheitelpunkts des Graphen durch Faltung der Pixelhelligkeitswerte mit Gabor-Filtern berechnet werden.


    Satz (Bank, Jet) von Gabor-Filtern


    Beispiel für die Faltung eines Gesichtsbildes mit zwei Gabor-Filtern Die

    Kanten des Diagramms werden mit den Abständen zwischen benachbarten Scheitelpunkten gewichtet. Die Differenz (Abstand, Unterscheidungsmerkmal) zwischen zwei Diagrammen wird unter Verwendung einer Preisdeformationsfunktion berechnet, die sowohl die Differenz zwischen den Werten der an den Eckpunkten berechneten Attribute als auch den Grad der Deformation der Kanten des Diagramms berücksichtigt.
    Der Graph wird deformiert, indem jeder seiner Scheitelpunkte um einen bestimmten Abstand in bestimmte Richtungen relativ zu seiner ursprünglichen Position verschoben und seine Position so ausgewählt wird, dass die Differenz zwischen den Werten der Zeichen (Gabor-Filterantworten) am oberen Rand des deformierbaren Graphen und dem entsprechenden Scheitelpunkt des Referenzgraphen minimal ist. Diese Operation wird abwechselnd für alle Eckpunkte des Diagramms ausgeführt, bis die kleinste Gesamtdifferenz zwischen den Merkmalen des deformierbaren Diagramms und des Referenzdiagramms erreicht ist. Der Wert der Verformungspreisfunktion an dieser Position des verformbaren Graphen ist ein Maß für die Differenz zwischen dem Eingabebild des Gesichts und dem Referenzgraphen. Dieser "Relaxations" -Verformungsvorgang sollte für alle in die Systemdatenbank eingebetteten Referenzpersonen durchgeführt werden.


    Ein Beispiel für eine Grafikdeformation in Form eines regelmäßigen Gitters:

    In einzelnen Veröffentlichungen wird eine Erkennungsrate von 95 bis 97% angegeben, selbst wenn verschiedene emotionale Ausdrücke vorhanden sind und sich der Gesichtswinkel auf 15 Grad ändert. Die Entwickler von elastischen Vergleichssystemen für Diagramme verweisen jedoch auf die hohen Rechenkosten dieses Ansatzes. Um beispielsweise das Eingabebild eines Gesichts mit 87 Referenzbildern zu vergleichen, dauerte es etwa 25 Sekunden, wenn an einem Parallelcomputer mit 23 Transputern gearbeitet wurde [15] (Hinweis: Veröffentlichung von 1993). Andere Veröffentlichungen zu diesem Thema geben entweder keine Zeit an oder sagen, dass es großartig ist.

    Nachteile:hohe rechnerische Komplexität des Erkennungsverfahrens. Geringe Herstellbarkeit beim Auswendiglernen neuer Standards. Die lineare Abhängigkeit der Betriebszeit von der Größe der Personendatenbank.

    2. Neuronale Netze


    Derzeit gibt es etwa ein Dutzend Arten neuronaler Netze (NS). Eine der am häufigsten verwendeten Optionen ist ein Netzwerk, das auf einem mehrschichtigen Perzeptron aufgebaut ist, mit dem Sie das Bild / Signal, das auf den Eingang angewendet wird, gemäß der Vorkonfiguration / dem Training des Netzwerks klassifizieren können.
    Neuronale Netze werden anhand einer Reihe von Trainingsbeispielen trainiert. Die Essenz des Trainings besteht darin, die Gewichte interneuronaler Verbindungen anzupassen, um das Optimierungsproblem durch die Gradientenabstiegsmethode zu lösen. Während des Trainings des NS werden die Schlüsselmerkmale automatisch extrahiert, ihre Wichtigkeit bestimmt und die Beziehungen zwischen ihnen aufgebaut. Es wird davon ausgegangen, dass ein geschulter NS die im Lernprozess gesammelten Erfahrungen aufgrund verallgemeinernder Fähigkeiten auf unbekannte Bilder anwenden kann.
    Die besten Ergebnisse auf dem Gebiet der Gesichtserkennung (gemäß der Analyse von Veröffentlichungen) wurden vom Convolutional Neural Network oder dem Convolutional Neural Network (im Folgenden - SNA) [29-31] gezeigt, was eine logische Weiterentwicklung der Ideen von NS-Architekturen wie dem Cognitron und dem Neocognitron ist. Der Erfolg beruht auf der Möglichkeit, die zweidimensionale Bildtopologie im Gegensatz zum mehrschichtigen Perzeptron zu berücksichtigen.
    Kennzeichen des SNS sind lokale Rezeptorfelder (für die lokale zweidimensionale Konnektivität von Neuronen), Gesamtgewichte (für die Erkennung einiger Merkmale an einer beliebigen Stelle im Bild) und hierarchische Organisation mit räumlicher Abtastung (räumliche Unterabtastung). Dank dieser Innovationen bietet der SNA einen partiellen Widerstand gegen Änderungen des Maßstabs, der Verschiebung, der Drehung, der Winkeländerung und anderer Verzerrungen.


    Schematische Darstellung der Architektur eines neuronalen Faltungsnetzwerks Das

    Testen des SNA unter Verwendung der ORL-Datenbank, die Bilder von Gesichtern mit geringfügigen Änderungen der Beleuchtung, des Maßstabs, der räumlichen Rotationen, der Position und verschiedener Emotionen enthielt, ergab eine Erkennungsgenauigkeit von 96%.
    Die SNA wurde in der Entwicklung von DeepFace [47] entwickelt, das
    Facebook erworben hat , um die Gesichter der Nutzer seines sozialen Netzwerks zu erkennen. Alle architektonischen Merkmale sind geschlossen.


    Das Funktionsprinzip von DeepFace

    Nachteile neuronaler Netze:Das Hinzufügen einer neuen Referenzperson zur Datenbank erfordert eine vollständige Umschulung des Netzwerks für den gesamten verfügbaren Satz (ein ziemlich langwieriger Vorgang, abhängig vom Stichprobenumfang von 1 Stunde bis zu mehreren Tagen). Mit dem Lernen verbundene mathematische Probleme: Erreichen eines lokalen Optimums, Auswahl des optimalen Optimierungsschritts, Umschulung usw. Es ist schwierig, die Phase der Auswahl einer Netzwerkarchitektur (Anzahl der Neuronen, Schichten, Art der Verbindungen) zu formalisieren. Zusammenfassend lässt sich feststellen, dass die Nationalversammlung eine „Black Box“ mit schwer interpretierbaren Arbeitsergebnissen ist.

    3. Versteckte Markov-Modelle (SMM, HMM)


    Eine der statistischen Methoden zur Gesichtserkennung sind Hidden-Markov-Modelle (SMM) mit diskreter Zeit [32-34]. SMMs nutzen die statistischen Eigenschaften von Signalen und berücksichtigen deren räumliche Eigenschaften direkt. Elemente des Modells sind: viele versteckte Zustände, viele beobachtbare Zustände, eine Matrix von Übergangswahrscheinlichkeiten, die anfängliche Wahrscheinlichkeit von Zuständen. Jedes hat sein eigenes Markov-Modell. Beim Erkennen eines Objekts werden die für eine gegebene Basis von Objekten erzeugten Markov-Modelle geprüft und das Maximum der beobachteten Wahrscheinlichkeit der Beobachtungssequenz für dieses Objekt wird durch das entsprechende Modell erzeugt.
    Bisher war es nicht möglich, ein Beispiel für die kommerzielle Verwendung von SMM zur Gesichtserkennung zu finden.

    Nachteile:
    - Für jede Datenbank müssen Modellparameter ausgewählt werden.
    - SMM hat keine Unterscheidungsfähigkeit, dh der Trainingsalgorithmus maximiert nur die Reaktion jedes Bildes auf sein Modell, minimiert jedoch nicht die Reaktion auf andere Modelle.

    4. Hauptkomponentenanalyse oder Hauptkomponentenanalyse (PCA) [11]


    Eine der bekanntesten und am weitesten entwickelten Methoden ist die PCA-Methode (Principal Component Analysis), die auf der Karunen-Loev-Transformation basiert.
    Anfänglich wurde die Methode der Hauptkomponenten in der Statistik eingesetzt, um den Bereich der Attribute ohne nennenswerten Informationsverlust zu verkleinern. Bei dem Gesichtserkennungsproblem wird es hauptsächlich verwendet, um ein Gesichtsbild mit einem kleinen Dimensionsvektor (Hauptkomponenten) darzustellen, der dann mit den in der Datenbank gespeicherten Referenzvektoren verglichen wird.
    Das Hauptziel der Hauptkomponentenmethode besteht darin, die Dimension des Merkmalsraums so zu verringern, dass die „typischen“ Bilder, die zu vielen Gesichtern gehören, so gut wie möglich beschrieben werden. Mit dieser Methode ist es möglich, verschiedene Variabilitäten im Trainingsmuster von Gesichtsbildern zu identifizieren und diese Variabilität anhand mehrerer orthogonaler Vektoren zu beschreiben, die Eigengesichter genannt werden.

    Der Satz von Eigenvektoren, der einmal in einer Trainingsprobe von Gesichtsbildern erhalten wurde, wird verwendet, um alle anderen Gesichtsbilder zu codieren, die durch eine gewichtete Kombination dieser Eigenvektoren dargestellt werden. Mit einer begrenzten Anzahl von Eigenvektoren ist es möglich, eine komprimierte Annäherung an das Eingabebild des Gesichts zu erhalten, die dann in der Datenbank als Koeffizientenvektor gespeichert werden kann, der gleichzeitig als Suchschlüssel in der Gesichtsdatenbank dient.

    Das Wesen der Methode der Hauptkomponenten ist wie folgt. Zu Beginn wird der gesamte Trainingssatz von Gesichtern in eine gemeinsame Datenmatrix konvertiert, wobei jede Zeile eine in einer Reihe angeordnete Instanz des Bildes einer Person darstellt. Alle Gesichter des Trainingssatzes sollten auf dieselbe Größe und mit normalisierten Histogrammen verkleinert werden.


    Transformieren des Trainingssatzes von Personen in eine gemeinsame Matrix X

    Dann werden die Daten normalisiert und die Zeilen auf den 0. Durchschnitt reduziert, und die 1. Varianz wird die Kovarianzmatrix berechnet. Für die erhaltene Kovarianzmatrix ist das Problem der Bestimmung der Eigenwerte und der entsprechenden Eigenvektoren (Eigenwerte) gelöst. Als nächstes werden die Eigenvektoren in absteigender Reihenfolge der Eigenwerte sortiert und es bleiben nur die ersten k Vektoren gemäß der folgenden Regel übrig:



    PCA-Algorithmus


    Beispiel der ersten zehn Eigenvektoren (Eigenwerte), die auf einer trainierten Menge von Flächen erhalten wurden

    = 0,956 * -1,842 * +0,046 ...

    Konstruktionsbeispiel (Synthese) menschliches Gesicht mit einer Kombination von persönlichen Gesichtern und Hauptkomponenten


    Das Prinzip der Auswahl einer Basis aus den ersten besten Eigenvektoren


    Ein Beispiel für die Abbildung eines Gesichts in einen dreidimensionalen metrischen Raum, der von drei richtigen Personen erhalten wurde, und weitere Erkenntnisse



    Die Hauptkomponentenmethode hat sich in praktischen Anwendungen bewährt. In Fällen, in denen sich die Helligkeit oder der Ausdruck des Gesichts signifikant ändert, nimmt die Wirksamkeit der Methode jedoch signifikant ab. Die Sache ist, dass die PCA einen Unterraum mit dem Ziel auswählt, den Eingabedatensatz so weit wie möglich anzunähern, anstatt zwischen Klassen von Individuen zu unterscheiden.

    In [22] wurde eine Lösung für dieses Problem unter Verwendung der linearen Diskriminante nach Fisher vorgeschlagen (der Name "Eigen-Fisher", "Fisherface", LDA wird in der Literatur gefunden). Die LDA wählt einen linearen Unterraum, der das Verhältnis maximiert:



    Wo ist die

    Matrix der Interklassenstreuung und die


    Matrix der Intraklassenstreuung? m ist die Anzahl der Klassen in der Datenbank.

    Die LDA sucht nach einer Datenprojektion, bei der Klassen so linear wie möglich trennbar sind (siehe folgende Abbildung). Zum Vergleich sucht die PCA eine Datenprojektion, bei der die Streuung über die gesamte Personendatenbank maximiert wird (ohne Klassen). Gemäß den Ergebnissen von Experimenten [22] zeigte Fisherface unter Bedingungen eines starken Behälters und einer geringeren Schattierung von Gesichtsbildern eine Effizienz von 95% im Vergleich zu 53% von Eigenface.


    Der grundlegende Unterschied zwischen der Bildung von Projektionen PCA und LDA

    Der Unterschied zwischen PCA und LDA




    5. Active Appearance Models (AAM) und Active Shape Models (ASM) ( Habra-Quelle )

    Active Appearance Models (AAM) Active Appearance Models (AAM)
    sind statistische Modelle von Bildern, die durch verschiedene Deformationen an ein reales Bild angepasst werden können. Dieser Modelltyp in der zweidimensionalen Version wurde 1998 von Tim Kuts und Chris Taylor vorgeschlagen [17, 18]. Anfangs wurden aktive Erscheinungsmodelle verwendet, um die Parameter von Gesichtsbildern zu bewerten.
    Das aktive Darstellungsmodell enthält zwei Arten von Parametern: Parameter, die der Form zugeordnet sind (Formparameter), und Parameter, die dem statistischen Modell der Bildpixel oder der Textur zugeordnet sind (Darstellungsparameter). Vor dem Gebrauch muss das Modell mit einer Reihe von vormarkierten Bildern trainiert werden. Die Bildmarkierung erfolgt manuell. Jedes Etikett hat eine eigene Nummer und definiert einen charakteristischen Punkt, den das Modell bei der Anpassung an ein neues Bild finden muss.


    Ein Beispiel für das Markieren eines Gesichtsbilds mit 68 Punkten, die eine AAM-Form bilden.

    Das AAM-Trainingsverfahren beginnt mit der Normalisierung der Formen auf den beschrifteten Bildern, um Unterschiede in Skalierung, Neigung und Abweichung auszugleichen. Hierzu wird die sogenannte generalisierte Prokrustov-Analyse verwendet.


    Die Koordinaten der Punkte der Gesichtsform vor und nach der Normalisierung

    Aus der Gesamtheit der normalisierten Punkte werden dann die Hauptkomponenten mit der PCA-Methode ausgewählt.


    Das AAM-Formmodell besteht aus einem Triangulationsgitter s0 und einer linearen Kombination von Verschiebungen si gegenüber s0

    Ferner wird aus den Pixeln innerhalb der durch die Punkte der Form gebildeten Dreiecke eine Matrix gebildet, so dass jede ihrer Spalten die Pixelwerte der entsprechenden Textur enthält. Es ist anzumerken, dass die für das Training verwendeten Texturen entweder einkanalig (Graustufen) oder mehrkanalig (z. B. RGB-Farbraum oder ein anderer) sein können. Im Fall von Mehrkanaltexturen werden Pixelvektoren für jeden Kanal separat gebildet, und dann wird ihre Verkettung durchgeführt. Nachdem die Hauptkomponenten der Texturmatrix gefunden wurden, gilt das AAM-Modell als trainiert.



    Das Erscheinungsmodell von AAM besteht aus der Basisansicht A0, die durch die Pixel innerhalb des Basisgitters s0 definiert ist, und einer linearen Kombination der Verschiebungen Ai relativ zu A0.



    Ein Beispiel für eine AAM-Spezifikation. Formoptionen Vektor
    p = (p_1, p_2, 〖..., p〗 _m) ^ T = (- 54,10, -9,1, ...) ^ T wird verwendet, um ein Modell der Form s und den Parametervektor λ = (λ_1, λ_2, 〖..., λ〗 _m) ^ T = (3559,351, -256, ...) ^ T zum Synthetisieren des Erscheinungsbilds des Modells. Das endgültige Gesichtsmodell 〖M (W (x; p))〗 ^ wird als Kombination von zwei Modellen erhalten - Form und Aussehen.

    Das Anpassen des Modells an ein bestimmtes Gesichtsbild wird durchgeführt, um das Optimierungsproblem zu lösen, dessen Kern darin besteht, die Funktionalität



    durch die Gradientenabstiegsmethode zu minimieren . Die in diesem Fall gefundenen Modellparameter geben die Position des Modells in einem bestimmten Bild wieder.



    Ein Beispiel für das Anpassen eines Modells an ein bestimmtes Bild für 20 Iterationen der Prozedur für den Gradientenabstieg.

    Mit AAM können Sie Bilder von Objekten simulieren, die sowohl einer starren als auch einer nicht starren Verformung unterliegen. AAM besteht aus einer Reihe von Parametern, von denen einige die Form des Gesichts darstellen, der Rest definiert seine Textur. Unter Deformation wird üblicherweise eine geometrische Transformation in Form einer Zusammensetzung aus Übertragung, Drehung und Skalierung verstanden. Wenn das Problem der Lokalisierung des Gesichts im Bild gelöst wird, wird nach den Parametern (Ort, Form, Textur) des AAM gesucht, die das synthetisierte Bild darstellen, das dem beobachteten am nächsten kommt. Durch den Grad der AAM-Nähe wird das einzustellende Bild bestimmt, ob es ein Gesicht gibt oder nicht.

    Aktive Formmodelle (ASM)

    Das Wesen der ASM-Methode [16, 19, 20] besteht darin, die statistischen Zusammenhänge zwischen dem Ort anthropometrischer Punkte zu berücksichtigen. Auf dem verfügbaren Beispiel von Bildern von Gesichtern, die in voller Größe aufgenommen wurden. Auf dem Bild markiert der Experte die Position der anthropometrischen Punkte. Auf jedem Bild sind die Punkte in derselben Reihenfolge nummeriert.



    Ein Beispiel für eine Gesichtsform mit 68 Punkten

    Um die Koordinaten aller Bilder auf ein einziges System zu bringen, wird das sogenannte verallgemeinerte Krustenanalyse, bei der alle Punkte auf den gleichen Maßstab reduziert und zentriert werden. Als nächstes werden für den gesamten Satz von Bildern die Durchschnittsform und die Kovarianzmatrix berechnet. Auf der Grundlage der Kovarianzmatrix werden Eigenvektoren berechnet, die dann in absteigender Reihenfolge der entsprechenden Eigenwerte sortiert werden. Das ASM-Modell wird durch die Matrix Φ und den Mittelformvektor s ̅ bestimmt.
    Dann kann jede Form mit Hilfe des Modells und der Parameter beschrieben werden: Die



    Lokalisierung des ASM-Modells auf einem neuen Bild, das nicht Teil des Trainingssatzes ist, wird durchgeführt, um das Optimierungsproblem zu lösen.


    a) b) c) d)
    Abbildung des Lokalisierungsprozesses des ASM-Modells in einem bestimmten Bild: a) Ausgangsposition b) nach 5 Iterationen c) nach 10 Iterationen d) das Modell konvergiert

    Das Hauptziel von AAM und ASM ist jedoch nicht die Gesichtserkennung, sondern die genaue Lokalisierung des Gesichts und der anthropometrischen Punkte im Bild für Weiterverarbeitung.

    In fast allen Algorithmen ist der der Klassifikation vorausgehende obligatorische Schritt die Ausrichtung, dh die Ausrichtung des Gesichtsbildes auf die Frontalposition relativ zur Kamera oder die Verkleinerung des Satzes von Gesichtern (zum Beispiel im Trainingssatz zum Trainieren des Klassifikators) auf ein einziges Koordinatensystem. Um dieses Stadium zu realisieren, ist eine Lokalisierung auf dem Bild von anthropometrischen Punkten erforderlich, die für alle Gesichter charakteristisch sind - meist sind dies die Zentren der Pupillen oder die Augenwinkel. Verschiedene Forscher unterscheiden verschiedene Gruppen solcher Punkte. Um die Rechenkosten für Echtzeitsysteme zu senken, weisen Entwickler nicht mehr als 10 solcher Punkte zu [1].

    Die AAM- und ASM-Modelle sind genau darauf ausgelegt, diese anthropometrischen Punkte auf dem Gesichtsbild genau zu lokalisieren.

    6. Die Hauptprobleme bei der Entwicklung von Gesichtserkennungssystemen


    Das Problem der Beleuchtung



    Das Problem der Position des Kopfes (das Gesicht ist dennoch ein 3D-Objekt).



    Um die Wirksamkeit der vorgeschlagenen Gesichtserkennungsalgorithmen zu bewerten, haben die DARPA-Agentur und das Forschungslabor der US-Armee das Programm FERET (Gesichtserkennungstechnologie) entwickelt.

    An umfangreichen Tests des FERET-Programms nahmen Algorithmen teil, die auf einem flexiblen Vergleich von Diagrammen und verschiedenen Modifikationen der Hauptkomponentenmethode (PCA) basierten. Die Effizienz aller Algorithmen war ungefähr gleich. In dieser Hinsicht ist es schwierig oder sogar unmöglich, eine klare Unterscheidung zwischen ihnen zu treffen (insbesondere wenn die Prüfungstermine vereinbart sind). Bei Bildern mit Vorderseite, die am selben Tag aufgenommen wurden, beträgt die akzeptable Erkennungsgenauigkeit normalerweise 95%. Bei Bildern, die mit verschiedenen Geräten und unter verschiedenen Lichtbedingungen aufgenommen wurden, sinkt die Genauigkeit normalerweise auf 80%. Bei Bildern, die mit einer Differenz von einem Jahr aufgenommen wurden, betrug die Erkennungsgenauigkeit ungefähr 50%. Es ist anzumerken, dass sogar 50 Prozent mehr als akzeptable Genauigkeit dieser Art von System sind.

    FERET veröffentlicht jährlich einen Bericht über einen Vergleichstest moderner Gesichtserkennungssysteme [55], der auf Gesichtern von mehr als einer Million basiert. Leider werden in jüngsten Berichten die Prinzipien des Aufbaus von Erkennungssystemen nicht offenbart, sondern nur die Ergebnisse kommerzieller Systeme veröffentlicht. Bisher führend ist das von NEC entwickelte NeoFace-System.

    Verweise (google auf den ersten Link)

    1.
    Bildbasierte Gesichtserkennung - Probleme und Methoden 2. Gesichtserkennung A Survey.pdf
    3. Gesichtserkennung A Literature Survey
    4. Überblick über Gesichtserkennungstechniken
    5. Überblick über Gesichtserkennung, -extraktion und -erkennung
    6. Überblick über Identifikationsmethoden Personen anhand von Gesichtsbildern
    7. Methoden zur Erkennung einer Person anhand von Gesichtsbildern
    8. Vergleichende Analyse von Gesichtserkennungsalgorithmen
    9. Gesichtserkennungstechniken
    10. Ein Ansatz zur Lokalisierung anthropometrischer Punkte.
    11. Gesichtserkennung in Gruppenfotos mit Segmentierungsalgorithmen
    12. Forschungsbericht 2. Stufe der Gesichtserkennung
    13. Gesichtserkennung durch Elastic Bunch Graph Matching
    14. Algorithmen zur Identifizierung einer Person anhand eines Fotoporträts auf der Grundlage geometrischer Transformationen. Die Dissertation.
    15. Verzerrungsinvariante Objekterkennung in der Dynamic Link-Architektur
    16. Gesichtserkennung mit aktiven Formmodellen, lokalen Patches und Support Vector Machines
    17. Gesichtserkennung mit aktiven Darstellungsmodellen
    18. Aktive Darstellungsmodelle für die Gesichtserkennung
    19. Gesichtsausrichtung mit aktivem Formmodell Und Support Vector Machine
    20. Aktive Formmodelle - ihre Ausbildung und Anwendung
    21. Fisher Vector Faces in the Wild
    22. Eigenfaces vs. Erkennung von Fischernetzen mit klassenspezifischer linearer Projektion
    23. Eigen- und Fischernetze
    24. Dimensionsreduktion
    25. ICCV 2011 Tutorial zur teilebasierten verformbaren Registrierung
    26. Eingeschränktes lokales Modell für die Gesichtsausrichtung, ein Tutorial
    27. Wer sind Sie - Lernen von personenspezifischen Klassifikatoren aus Video
    28. Erkennung einer Person durch Gesichtsbild durch neuronale Netzwerkmethoden
    29. Gesichtserkennung Ein konvolutionelles neuronales Netzwerk Ansatz
    30. Gesichtserkennung mit dem Convolutional Neural Network und dem Simple Logistic Classifier
    31. Gesichtsbildanalyse mit Convolutional Neural Networks
    32. Gesichtserkennungsmethoden basierend auf Hidden-Markov-Prozessen. Zusammenfassung
    33. Die Verwendung von Hidden-Markov-Modellen zur Gesichtserkennung
    34. Gesichtserkennung und -erkennung mit Hidden-Markovs-Modellen
    35. Gesichtserkennung mit GNU Octave-MATLAB
    36. Gesichtserkennung mit Python
    37. Anthropometrische 3D-Gesichtserkennung
    38. 3D-Gesichtserkennung
    39. Gesichtserkennung basierend auf der Anpassung eines 3D-Morphable-Modells
    40. Gesichtserkennung
    41. Robuste Gesichtserkennung über spärliche Darstellung
    42 Die FERET-Bewertungsmethode für Gesichtserkennungsalgorithmen
    43.
    Entwurf, Implementierung und Bewertung von Hardware- Bildverarbeitungssystemen für die Echtzeit-Gesichtserkennung
    45. Eine Einführung in das Gute, das Schlechte und das Hässliches Gesichtserkennungsproblem
    46. ​​Forschung und Entwicklung von Methoden zur Erkennung eines menschlichen Gesichts in digitalen Bildern. Diplom
    47. DeepFace Schließung der Lücke zur Leistung auf menschlicher Ebene bei der Gesichtsüberprüfung
    48. Die automatische Benennung von Charakteren in Fernsehvideos wird zum Kinderspiel
    49. Auf dem Weg zu einem praktischen Gesichtserkennungssystem Robuste Ausrichtung und Beleuchtung durch sparsame Darstellung
    50. Algorithmen zur Gesichtserkennung einer Person zur Lösung angewandter Probleme der Bildanalyse und -verarbeitung
    51. Erkennen und Lokalisieren eines Gesichts in einem Bild
    52. Modifizierte Viola-Jones-Methode
    53. Entwickeln und Analysieren von Algorithmen zum Erkennen und Klassifizieren von Objekten basierend auf maschinellen Lernmethoden
    54. Überblick über die Grand Challenge der Gesichtserkennung
    55. Vendor Test zur Gesichtserkennung (FRVT)
    56. Zur Wirksamkeit der Anwendung des SURF-Algorithmus bei der Problematik der Gesichtserkennung

    Jetzt auch beliebt: