Startseite HAZ
Volltextsuche über das Angebot:

Fehlalarm für Terrorfahnder

Gastbeitrag von Andrea Knaut Fehlalarm für Terrorfahnder

Seit August testen Berliner Behörden am Bahnhof Südkreuz die automatisierte Gesichtserkennung. Das System aber macht Fehler: Das könnte dafür sorgen, dass bei millionenfacher Überprüfung am Ende eines jeden Tages Tausende Menschen für Terroristen gehalten werden.

Voriger Artikel
Wer macht den Krieg?
Nächster Artikel
500 Euro sind doch (nicht) viel Geld

Eine Technik in den Kinderschuhen: Biometrische Gesichtserkennungssysteme sollen Kriminelle identifizieren – doch die Fehlerquote ist hoch, und die Folgen für fälschlich erkannte Personen dramatisch.

Quelle: stock.adobe.com

Berlin. Fingerabdrücke identifizieren jeden Menschen eindeutig ein ganzes Leben lang: Dieser Satz gilt längst als Allgemeinwissen. Genau genommen stimmt er so aber nicht. Denn es sind Maschinen oder Menschen, die die Fingerabdrücke aufnehmen und analysieren und später dann die Identifikation vornehmen.

Hierbei gibt es unzählige Tücken: Zum Beispiel haben nicht alle Menschen Fingerabdrücke in geeigneter Qualität. Oder die Umgebungsbedingungen sind schlecht für deren Aufnahme. Fingerkuppen ändern sich über die Zeit, etwa durch schwere Handarbeit, Verletzung oder absichtliche Verstümmelung. Auch zwischen Kindes- und Erwachsenenalter verändern sich Proportionen und Ausprägungen.

Fingerabdrücke sind nur eines von vielen sogenannten biometrischen Merkmalen. Auch Iris, Handvenen-Muster, Gesichtsbild und etliche weitere gehören dazu. Nicht zuletzt dank Krimis und Science-Fiction gelten sie als unbestechliche Repräsentanten individueller Identität. Der Glaube an eine lebenslang unveränderliche Essenz des Individuums ist eng damit verbunden. Längst geht es um die automatische Erkennung von Personen durch biometrische Verfahren. Biometrische Systeme bestehen aus Sensoren, Bilderkennungs-, Vergleichsalgorithmen und Datenbanken oft verschiedener Hersteller. In den letzten Jahren wurden zahlreiche Industrienormen für eine nahtlose Integration entwickelt. Außerdem sollen die Zuverlässigkeit und Leistungsfähigkeit der Systeme objektiv überprüfbar sein.

Keine Identität, sondern Ähnlichkeit

Doch die systematische, vergleichbare, statistisch wasserdichte Anwendung und allgemeinverständliche Nachvollziehbarkeit von Leistungs- oder gar Sicherheitstests stecken allenfalls in den Kinderschuhen. Selbstverständlich sind Biometriesysteme so anfällig für Manipulationen wie jedes andere IT-System. Das schließt Datenklau, unbemerkte Veränderung der Systemkonfiguration, Überlistung, gezielte Überlastung und Zweckentfremdung mit ein. Aus Marktsicht mag die stetig notwendige Verbesserung der nie perfekt funktionierenden Systeme wirtschaftliches Wachstum verheißen. Doch das ist kaum ihr viel beworbener eigentlicher Zweck, nämlich jeglichen Identitätsbetrug unmöglich zu machen.

Hierbei kann nicht oft genug klargestellt werden: Biometrische Verfahren messen keine Identität, sondern Ähnlichkeit. Völlig identische Bilder von Fingerabdrücken oder Gesichtern sind ein sicherer Hinweis auf eine Fälschung. Schon die Anthropometriker des späten 19. Jahrhunderts wie Alphonse Bertillon hielten dies für eine triviale Erkenntnis: Um wahre Identität im Sinne einer Gleichheit der Person mit sich selbst zu erkennen, dürfen die Bilder körperlicher Merkmale ein und derselben Person gerade nicht identisch, sondern müssen genügend ähnlich sein. Das führt jedoch auch zu Fehlern.

Hinzu kommt, dass eine Identifikation immer das Zuordnen einer Person zu einer konkreten Situation bedeutet. Wir sagen nicht nur: Das ist das Gesicht von Frau Meier. Sondern zum Beispiel: Das ist das Gesicht der Ladendiebin Frau Meier. Die Wahrscheinlichkeit, dass bei automatischer Erkennung Frau Meier mit jemand anderem verwechselt wird, steigt, umso geringer die Quote der Ladendiebe pro Einkaufszentrum ist.

Geringe Fehlerquoten wirken sich verheerend aus

Kriminalisten und Statistiker halten es darum mit dem englischen Juristen Sir William Blackstone. Der hatte formuliert, es sei besser, wenn zehn Schuldige entkämen, als dass ein Unschuldiger leide. Eine Software hingegen arbeitet einfach mit einem Schwellenwert. Wessen Ähnlichkeitswert darüber liegt, der gilt als identifiziert und damit als schuldig. Schon geringe Fehlerquoten an fälschlich identifizierten Menschen können sich verheerend auswirken. Gerade, wenn Bahnhöfe, Innenstädte und Flughäfen mit automatisierten biometrischen Erkennungssystemen ausgestattet werden, um Menschen zu identifizieren, die des Terrorismus verdächtigt werden.

Das Problem: Selbst eine geringe Fehlerquote fälschlicher Identifizierungen liegt mutmaßlich weit über der Quote an realen Terroristen vor Ort. Die Falschpositivrate – also vereinfacht gesagt der Anteil fälschlicherweise identifizierter Menschen – sorgt dafür, dass bei millionenfacher Überprüfung am Ende eines jeden Tages Tausende Menschen für Terroristen gehalten werden. Die Wahrscheinlichkeit dafür, dass sie alle zu Recht verdächtigt werden, liegt im prozentualen Nachkommabereich.

Und trotzdem wird dieser Gedanke meist großzügig übersehen: dass ein Treffer biometrischer Überwachungssysteme nur dann ein starkes Indiz wäre, wenn die reale Terroristenquote mindestens so hoch wäre wie die Falschpositivrate.

Das System entzieht sich der Verantwortung

Was das bedeutet? Sehen wir uns den Berliner Hauptbahnhof mit täglich 300 000 Besuchern an. Stellen wir uns ein vergleichsweise ausgereiftes System vor, das lediglich 0,1 Prozent falsche Treffer produziert. Selbst ein so treffsicheres System wäre erst dann brauchbar, wenn am Berliner Hauptbahnhof Tag für Tag mindestens 300 Terroristen umsteigen würden. Glaubt das im Ernst jemand? Und selbst dann wäre jeder Treffer lediglich ein Indiz.

Die Beamten des BKA schrieben im Jahr 2007 in ihrem Abschlussbericht zum Forschungsprojekt “Gesichtserkennung als Fahndungshilfsmittel“, dass “die letzte Entscheidung darüber, ob Personengleichheit besteht, immer von einem Menschen getroffen werden muss, der die angezeigte Erkennung bereits am Bildschirm beurteilt“. Weiter heißt es dort, dass am Hauptbahnhof Mainz mit einer täglichen Besucherzahl von rund 23 000 Menschen ansonsten jeden Tag etwa 23 Bürger aufgrund von Verwechslungen mit weiterführenden Maßnahmen belastet worden wären.

Ein Mensch muss auch deswegen die letzte Entscheidung treffen, weil nur dieser Verantwortung für eine Fehlentscheidung übernehmen kann. Denn das kontrollierende System entzieht sich der Verantwortung, während Bürger oder Papierlose immer erkannt werden, egal als wer und egal ob zu Recht.

Zur Person: Andrea Knaut ist Informatikerin. Sie hat über Fehler biometrischer Systeme an der Humboldt-Universität zu Berlin promoviert und ist Mitglied im Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung. Ihr Beitrag erschien zunächst im Deutschlandfunk.

Von Andrea Knaut

Voriger Artikel
Nächster Artikel
Mehr aus Gastkommentar