Auf unseren Festplatten befinden sich mehr als 25.000 Digitalfotos – die meisten davon zeigen Menschen. Bislang lag der einzige Weg, in diesem Pixelwirrwarr ein gewünschtes Gesicht aufzufinden, in der manuellen Suche: Nach Datum, EXIM-Metainformationen, von Hand gesetzten Schlüsselbegriffen oder durch den schlichten Einsatz des eigenen Gedächtnisses. Das ändert sich nun: Kollege Computer hilft ab sofort bei der Suche. Smarte Gesichtserkennungsalgorithmen, die die IT-Riesen Apple und Google kürzlich vorgestellt und inzwischen in die jüngsten Versionen ihrer Foto-Management-Programme integriert haben, machen es möglich.
Fortschritte im Bereich der Gesichtserkennung wurden in den letzten Jahren besonders von Wissenschaftlern gemacht, die sich mit Anti-Terror-Technologien auseinandersetzten. Die Idee: Computer sollen automatisch Attentäter aussieben, wenn sie sich beispielsweise durch Sicherheitskontrollen auf dem Flughafen bewegen. So richtig scheint das allerdings noch nicht zu funktionieren. Bei einem Test im amerikanischen Tampa wurden Airport-Angestellte, die sich zuvor freiwillig registriert hatten, nur in 53 Prozent aller Fälle korrekt identifiziert. Bürgerrechtsgruppen brachten zudem die Gefahr von Fehltreffern in die Diskussion: Unschuldige Menschen, die plötzlich als Terroristen dastünden und vielleicht aufgrund ihres Aussehens sogar festgenommen werden könnten. Kein Wunder also, dass die Technik in der Öffentlichkeit kaum mehr debattiert wird.
Die Entwicklung ist trotzdem nicht beendet. Viele Länder, darunter auch die Vereinigten Staaten, arbeiten weiter an der Technik. So wurden dort etwa die Vorgaben für Passfotos überholt, um sie für Gesichtserkennungsprogramme leichter nutzbar zu machen. Das National Institute of Standards and Technology, wo man seit 1994 an Gesichtserkennungssoftware forscht, führte 2002 und 2006 große Tests durch. Oregon und andere US-Bundesstaaten begannen, die Gesichtserkennung zum Aussieben von Personen zu nutzen, die versuchen, unter falschem Namen einen Führerschein zu beantragen. All das führte dazu, dass die Technik in den letzten Jahren ständig besser wurde – viel besser.
Damit ein Gesichtserkennungssystem funktioniert, muss ein Rechner zunächst lernen, Gesichter und andere Objekte zu unterscheiden. Technisch ist das einfacher umzusetzen als die tatsächliche Identifizierung einzelner Personen. Perfektioniert wurde der Ansatz schon kurz nach den Anschlägen des 11. September 2001. Das Ergebnis: Systeme zur Ermittlung von Gesichtern werden inzwischen in handelsübliche Digitalkameras und Camcorder eingebaut. Diese Algorithmen suchen nach Augen, Nasen und runden Bereichen eines Bildes. Dann wird ein Kasten definiert, auf den sich das Autofokussystem konzentrieren kann. Ergebnis: Das Bild wird stets auf Gesichter scharf gestellt, Omas Augen sind nie mehr verschwommen.
Gesichtserkennung beginnt also damit, Gesichter überhaupt erst einmal aus dem Hintergrund heraus zu ermitteln. Dann wird das Gesicht so gedreht, dass die Augen auf einer Ebene sind und das Bild auf eine Standardgröße gebracht. Als nächstes übernimmt einer von drei technischen Ansätzen. Jeder von ihnen basiert auf seinen eigenen patentierten Ideen und steckt dementsprechend in verschiedenen Soft- und Hardware-Angeboten unterschiedlicher Hersteller. Bei einem Ansatz wird das Gesicht in ein mathematisches Muster zerlegt, das dann gespeichert und durchsucht werden kann, ein zweiter nutzt das gesamte Gesicht als Mustervorlage und sucht dann nach Übereinstimmungen. Variante Nummer drei versucht wiederum, aus dem Gesicht ein 3D-Modell zu machen, um dann nach geometrischen Übereinstimmungen zu suchen. Nach unseren Erfahrungen mit der Software scheint Apple auf bestimmte Merkmale im Gesicht zu setzen, während Google einen Bildabgleich vorzunehmen scheint. Klar ist das allerdings nicht, denn keine der Firmen legt offen, welche Algorithmen tatsächlich verwendet werden.
Quelle:


Keine Kommentare:
Kommentar veröffentlichen