„Deepfakes“: Wenn das eigene Gesicht plötzlich im Porno auftaucht
:format(webp)/cloudfront-eu-central-1.images.arcpublishing.com/madsack/CSURQ5WKJZBCXHQZDGM3TLDLVU.jpeg)
Mit der Deepfake-Technologie können Videos täuschend echt manipuliert werden. Besonders Frauen werden häufig Opfer eines Identitätsdiebstahls.
© Quelle: Christin Klose/dpa-tmn
Frankfurt a.M. „Die meisten Deepfakes treffen Frauen“, sagt Agnieszka Maria Walorska. Vor allem prominente, weil von diesen viele Daten wie Fotos, Videos oder Stimmaufnahmen existierten. „Je mehr davon vorhanden ist, umso einfacher ist es, ein glaubwürdiges Erscheinungsbild ins Video zu integrieren“, erklärt Walorska, die für die FDP-nahe Friedrich-Naumann-Stiftung ein wissenschaftliches Paper zu Deepfakes verfasst hat.
Täuschend echte Video-Manipulationen
Deepfakes sind manipulierte Videos oder Audioaufnahmen, die täuschend echt wirken. Kein verruckeltes Bild, keine harten Schnitte – mittels künstlicher Intelligenz wird der Zuschauer oder Hörer hinters Licht geführt. Dank komplexer Algorithmen, riesiger Datenmengen und „deep learning“ können selbst Laien mit den richtigen Apps täuschend echt wirkende Video-, Audio- und Sprachsequenzen erstellen, sagt Walorska, Gründerin der Berliner Digitalagentur „Creative Construction“.
Insbesondere Bilder von Gesichtern werden verwendet, auf Bildmaterial anderer Personen gelegt – und damit beispielsweise künstlich in Videos eingesetzt. So lassen sich im Netz Tausende anscheinend echter Pornofilme finden, in denen die Gesichter der Darstellerinnen durch reinkopierte Porträts anderer Frauen ersetzt wurden. „Das kann sehr, sehr schnell jede Frau treffen“, sagt Walorska.
Häufig Frauen von sexualisierten Fake-Videos betroffen
Deepfakes seien eine Methode der bildbasierten sexualisierten digitalen Gewalt, sagt auch Jenny-Kerstin Bauer, Referentin für Pressearbeit beim Bundesverband Frauenberatungsstellen und Frauennotrufe (bff). Wer Opfer von Deepfakes sei, könne sich bei einer der vielen Beratungsstellen des bff Unterstützung holen. Ein nächster Schritt könne sein, Screenshots anzufertigen und zu dokumentieren, wer die Aufnahmen hochgeladen oder weiterverbreitet hat. Dann könnten Webseiten-Betreiber kontaktiert und zum Löschen der Bilder aufgefordert werden. Zudem könne eine Anwältin helfen, zivilrechtliche Unterlassungsansprüche zu klären, rät Bauer.
Deepfakes seien noch ein relativ neues Phänomen, sagt der Rechtsanwalt für Datenschutzrecht Tim Schneider von der Berliner Rechtsanwaltskanzlei Schürmann, Rosenthal, Dreyer. Zumindest in Deutschland gebe es keine expliziten Regelungen zum Umgang mit ihnen, doch oft stellten sie wegen der Verwendung von fremdem Bildmaterial Verstöße gegen das Urheberrecht dar. „Generell ist es hier immer möglich, Anzeige zu erstatten.“
Opfer sollten Deepfake-Betrug anzeigen
Sollte der Urheber des Deepfake ermittelt werden können, bestehe auch die Möglichkeit, Schadensersatz zu verlangen. Zudem seien Youtube, Facebook oder Twitter angehalten, Fälschungen auf ihren Plattformen zu unterbinden, indem automatisierte Erkennungstechniken für gefälschte Videos eingesetzt würden.
Zwar will Facebook auf Anfrage nicht preisgeben, wie viele Videos nach einer Prüfung auf seiner Plattform als Deepfakes ausgemacht werden konnten, stellt aber in Aussicht, Technologien zur besseren Erkennung von manipulierten Medien zu entwickeln. Was fehlt, um Manipulationen mittels Künstlicher Intelligenz systematisch zu unterbinden, seien präzise Regulierungen von staatlicher Seite für alle Netzwerke, sagt Walorska: „Im Moment macht jedes sein eigenes Ding.“
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unseren Datenschutzhinweisen.
Einsatz auch im politischen Kontext befürchtet
Wenn es um Deepfakes geht, fällt immer wieder auch das Schlagwort der „politischen Desinformation“. „Ist es denkbar, dass es mit einer entsprechenden Audiospur so wirkt, als hätte eine Person etwas gesagt, was sie nie gesagt hat?“, fragt das Kölner Science Media Center zum Thema Deepfakes. „Vor allem in Kombination mit Software zum Imitieren von Stimmen werde diese Technologie oft als gefährlich für die Demokratie angesehen, da solche Fälschungen im politischen Kontext enorme Wirkungen entfalten könnten“, heißt es weiter.
Walorska betont hingegen, dass sich der Anteil der Deepfakes, die der politischen Desinformation zuzurechnen seien und damit eine Gefahr für die Demokratie darstellten, maximal in einem sehr kleinen einstelligen Prozentbereich bewegten. Doch es reiche bloß ein gefälschtes Video, um großen Schaden anzurichten. Denn normalerweise schreibe man Videos, Bildern und Tonspuren eine besondere Authentizität zu.
Allerdings müsse nicht jeder Deepfake auch schädigend sein, sagt Anwalt Schneider. „Es kann sich dabei auch um Mittel der Meinungsäußerung oder um künstlerische Werke handeln. Beides ist von den Grundrechten besonders geschützt.“
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unseren Datenschutzhinweisen.
Experten sehen Verantwortung auch bei der Politik
Für Walorska sind Deepfakes vor allem ein Beispiel, wie Frauen – zumeist von Männern – gesellschaftlich objektiviert werden. So erklärt sie sich auch das aus ihrer Sicht bislang verhaltene Interesse, Deepfakes politisch oder juristisch stärker in den Blick zu nehmen.
Die Digitalexpertin fühlt sich in dieser Position bestätigt durch die Antwort der Bundesregierung auf eine Kleine Anfrage der FDP-Bundestagsfraktion vom Dezember 2019. Darin ist zu lesen, dass die Bundesregierung Deepfakes bisher nur mit „generell-abstrakten Regelungen“ begegnet. „Aus den Antworten der Bundesregierung lassen sich bislang weder eine konkrete Strategie noch eine Investitionsabsicht ableiten“, kritisiert Walorska. Sie ist sich sicher: Solange 97 Prozent der Betroffenen Frauen sind, würden Deepfakes als Problem nicht ernst genommen.
RND/epd