Menü
Hannoversche Allgemeine | Ihre Zeitung aus Hannover
Anmelden
Digital Wie Algorithmen unsere Gesichter auslesen
Nachrichten Digital

Wie Algorithmen unsere Gesichter auslesen

Partner im Redaktionsnetzwerk Deutschland
12:08 14.06.2019
Das Gesicht weckt mehr und mehr Begehrlichkeiten. Quelle: Getty Images/iStockphoto
Hannover

Es gehört zu dem Persönlichsten, das wir besitzen, und ist zugleich doch ungeschützt im öffentlichen Raum für jedermann zugänglich: das Gesicht. Und ebendieses Gesicht weckt mehr und mehr Begehrlichkeiten. Algorithmen sollen über das Antlitz unsere Gefühle analysieren und Auskunft über unsere Einstellungen und Verhaltensweisen geben. Möglich macht das eine wahre Revolution der Gesichtserkennung durch tiefe künstliche neuronale Netzwerke, die die Funktionsweise der vernetzten Nervenzellen im Gehirn nachbilden. Doch kann künstliche Intelligenz tatsächlich so gut in unserem Gesicht lesen, wie gern behauptet wird?

Algorithmen erkennen Ethnien

Das amerikanische Unternehmen Kairos etwa interessiert sich für das menschliche Gesicht vor allem aus marketingtechnischen Gründen. Es hat eine Software entwickelt, die die ethnische Herkunft einer Person aus Porträtfotos ermitteln kann. Das Ergebnis, das die Software ausspuckt, lautet dann beispielsweise: „50 Prozent afroamerikanisch, 20 Prozent asiatisch, 30 Prozent hispanisch.“ Das Unternehmen wirbt damit, dass Make-up-Hersteller auf diesem Weg Produktempfehlungen auf den Hauttyp ihrer Kunden abstimmen könnten.

Unabhängige Forschungsarbeiten belegen, dass Algorithmen die Ethnie anhand des Gesichts teilweise schon jetzt besser erkennen können als Menschen. In einer Studie aus dem Jahr 2018 von Forschern um den Informatiker Jiebo Luo von der University of Rochester konnten Algorithmen Personen aus Russland, Italien, Deutschland, Spanien und Frankreich mit einer Genauigkeit von etwa 50 Prozent auseinanderhalten und waren damit rund doppelt so gut wie der Mensch.

Kaufverhalten in Echtzeit analysieren

Eine Software, die die Ethnie eines Menschen bestimmen soll, kratzt noch vergleichsweise an der Oberfläche. Tiefer ins Innenleben eines Menschen zielen Versuche, aus dem menschlichen Antlitz Emotionen auszulesen. Das Fraunhofer-Institut für Integrierte Schaltungen (IIS) hat ein System namens „Shore“ ausgetüftelt: „Es kann sowohl im Einzelhandel als auch für digitale Werbeflächen eingesetzt werden und analysiert in Echtzeit das Kaufverhalten Ihrer Kunden“, heißt es vollmundig in einer Broschüre.

Lesen Sie hier:
Deepfakes: Sind manipulierte Videos eine Gefahr?

Dazu wertet die Software von einer Kamera aufgenommene Bilder und Videos von Kunden nicht nur nach Geschlecht und Alter aus. Auch die Emotionen kann sie angeblich erfassen: Das Gesicht soll als Fenster zur Seele von Konsumenten dienen. In einem begleitenden Video zur Software sieht man das Gesicht einer jungen Frau, das mit einer Art Raster überzogen ist. Verzieht sie ihr Gesicht, steigt beispielsweise ein grafischer Balken mit einem Wert für Ärger.

Die automatisierte Emotionserkennung besteht darin, dass Algorithmen auf Bildern den Gesichtsausdruck identifizieren. „Im Vergleich zum Menschen klappt die Erkennung von Gesichtsausdrücken schon ziemlich gut“, sagt André Weinreich, Psychologe an der Business School Berlin. Aber er schätzt, dass der automatisierten visuellen Emotionserkennung etwa 80 Prozent der tatsächlich vorhandenen emotionalen Reaktionen verborgen bleiben. Denn eigentlich möchte man ja nicht Gesichtsausdrücke, sondern die zugrunde liegenden Emotionen erkennen. Und der Erfolg von visueller Emotionserkennung hängt dabei davon ab, wie sehr sich die Emotionen im Gesicht widerspiegeln. „Deuten sich die Emotionen im Gesicht nur leicht an oder drücken sie sich gar nicht aus, kann auch ein Algorithmus keine Emotionen erkennen.“ Bei voll ausprägten Emotionen klappe das hingegen schon ziemlich gut.

Bilder von Gesichtern sind trügerisch

Wer das Auslesen von Emotionen aus dem Gesicht eines Menschen zu Marketingzwecken schon unheimlich findet, dem sei gesagt: Es geht durchaus noch unheimlicher. Denn einige Forscher behaupten gar, sie könnten Charaktereigenschaften oder Neigungen aus dem Gesicht ableiten.

In einer Studie von 2018 ließ der Psychologe Michal Kosinski von der Stanford University einen Algorithmus entscheiden, wer auf jeweils einem von zwei Bildern heterosexuell und wer homosexuell war. Im Falle von Männern lag der Algorithmus in 81 Prozent der Fälle richtig, bei den Frauen in 71 Prozent. Tendenziell waren etwa schwule Männer vom Gesicht her femininer als heterosexuelle Männer.

Die Zahlen klingen durchaus überzeugend. Doch was bedeuten sie? Jedenfalls nicht, dass man in einer gegebenen Stichprobe in 81 Prozent der Fälle sagen kann, ob jemand schwul oder heterosexuell ist. Das gilt nur für den von Kosinski untersuchten Fall, bei dem einer der beiden Männer auf zwei Fotos homosexuell ist. Außerdem stammten die Bilder von einem Datingportal, sind also möglicherweise besonders „enthüllend“ bezüglich der sexuellen Orientierung.

Überwachungstest in Deutschland

Vom Sommer 2017 an testeten Behörden am Berliner Bahnhof Südkreuz ein Jahr lang, wie gut Software die Gesichter von Testpersonen in einer Menschenmenge erkennt.

Mit der automatischen Gesichtserkennung wollen die Sicherheitsbehörden künftig Terrorverdächtige und andere Gesuchte aufspüren. Die durchschnittliche Trefferrate lag bei dem besten getesteten System bei über 80 Prozent. Die Falsch-Alarm-Rate lag bei (unter) 0,1 Prozent, das heißt, von jeweils 1000 Passanten (die nicht als Testpersonen teilnahmen) wurden 999 als unverdächtig und einer zu Unrecht als gesuchte Person klassifiziert.

Allerdings erweist sich die Falschtrefferrate von 0,1 Prozent immer noch als viel zu hoch, um ein solches System großflächig, etwa an allen Bahnhöfen in Deutschland, einzusetzen. Denn bei zwölf Millionen Bahnpassagieren pro Tag kommt man auf zwölftausend Fehlalarme täglich.

Doch ist es überhaupt prinzipiell möglich, Charaktereigenschaften oder Neigungen aus Bildern eines Gesichtes abzuleiten? „Die kurze Antwort lautet: nein“, sagt der Psychologe Alexander Todorov von der Princeton University, der sich seit Jahren mit dieser Frage beschäftigt. Bilder von Gesichtern seien trügerisch. Die Forschung zeige: Unterschiedliche Bilder könnten einen ganz unterschiedlichen Eindruck vermitteln. Auf dem einen sehe eine Person etwa vertrauenswürdig aus, auf einem anderen gerade nicht. „Algorithmen können nicht Informationen aus Fotos herausziehen, die gar nicht da sind“, so Todorov. Dahinter stecke die falsche Idee, dass Menschen über einen unveränderlichen Kern verfügten, der vollständig die äußere Erscheinung und das Verhalten bestimme.

Trotz all der Fortschritte bei der automatisierten Gesichtserkennung: Die Technik ist derzeit in vielem noch nicht so weit, wie gern behauptet wird. Und in mancher Hinsicht – wie beim Auslesen von Charaktereigenschaften und Neigungen – gibt es gar prinzipielle Grenzen. Diese lassen sich zukünftig auch nicht durch bessere Technik überwinden.

Von Christian Wolf/RND

Kommentare 0 Nutzungsbedingungen
Die Debatte geht am Morgen weiter
Die Kommentarfunktion ist zwischen 23:00 und 06:00 Uhr nicht aktiv – denn wir wollen eine gute Moderation der Beiträge gewährleisten.
Die HAZ freut sich am Morgen über Ihre konstruktiven Beiträge zum Thema!

Mit einem Trick versuchen Betrüger an sensible Daten von Whatsapp-Nutzern zu gelangen. Die Phishing-Mails gaukeln dabei ein angebliches Abo Ende vor.

14.06.2019

Die Days of Play 2019 stehen kurz bevor und Sony hat jetzt auch die Preisliste für die diesjährigen Angebote veröffentlicht. Außerdem gibt es eine PS4 Limited Edition in besonderem Design zu gewinnen. Wann die Aktion läuft und welche Spiele reduziert sind, erfahren Sie hier.

14.06.2019

Smarte Lautsprecher und Sprachassistenten sind ein wahrer Datenschatz – der Begehrlichkeiten weckt. Doch die Jagd auf Daten in der Cloud wird immer schwieriger.

14.06.2019