Menü
Hannoversche Allgemeine | Ihre Zeitung aus Hannover
Anmelden
Digital Suizid-Prävention: Forscher kritisieren Facebooks Programm
Nachrichten Digital Suizid-Prävention: Forscher kritisieren Facebooks Programm
Partner im Redaktionsnetzwerk Deutschland
13:38 12.02.2019
Ein Facebook-Algorithmus scannt Facebook-Posts nach besorgniserregenden Hinweisen. Quelle: Dominic Lipinski/PA Wire/dpa
Hannover

Es ist eigentlich ein lobenswertes Anliegen: Facebook will Selbstmorde verhindern. Das soziale Netzwerk musste handeln, nachdem sich Menschen vor laufender Kamera das Leben genommen und das per Facebook-Livestream in die Welt gesendet hatten. Seit 2017 nutzt Facebook deshalb einen Algorithmus, um Suizide zu verhindern.

Der scannt Posts und Kommentare auf verdächtige Formulierungen und Hinweise und leitet seine Ergebnisse an einen Facebook-Mitarbeiter weiter, der im Ernstfall zum Beispiel die Polizei alarmieren kann. Im vergangenen Jahr ist das laut Facebook-Chef Mark Zuckerberg weltweit rund 3500 Mal passiert. Das heißt, rund 3500 Menschen sind möglicherweise noch am Leben, weil Facebook seine Daten für einen guten Zweck eingesetzt hat.

Funktioniert das Programm? Wissenschaft ist skeptisch

Doch wie ethisch handelt Facebook dabei? Zwei Wissenschaftler kritisieren in einem jetzt in den „Annals of Internal Medicine“ erschienen Kommentar das Vorgehen von Facebook. Nicht, weil sie die Idee, Suizide mit der Hilfe von Algorithmen zu verhindern, falsch finden. Sondern weil sie sagen: Facebooks innovativer Ansatz ist eigentlich Forschung und als solche müsste sie auch deren ethischen Auflagen folgen. Die Wissenschaftler kritisieren unter anderem, dass Facebook seine Ergebnisse nicht mit Wissenschaftlern teilt. Ob das Programm so mehr helfe oder schade, sei deshalb unklar.

Ian Barnett von der University of Pennsylvania ist einer der beiden Autoren des Kommentars. Er sagt: Die Maßnahmen, die Facebook zur Suizidprävention getroffen habe, seien sicherlich bewundernswert. Aber es gebe bei dem sehr ehrgeizigen Programm noch viel Raum für Verbesserungen. Im Interview erklärt der Forscher, an welche Regeln sich Facebook halten sollte und ob Algorithmen tatsächlich das Suizidrisiko eines Menschen voraussagen können.

„Präventionsprogramme müssen geprüft werden“

Facebook hat 2017 sein Suizid-Präventionsprogramm gestartet – warum äußern Sie jetzt Bedenken?

Facebook hat schnell reagiert. Die Idee, Technologie auf diese Weise zur Suizidprävention einzusetzen, ist immer noch ein sehr aktiver Bereich neuer Forschung. Viele Wissenschaftler, darunter auch ich, entwickeln und erproben derzeit Ansätze, die darauf abzielen, Menschen mit einem hohen Suizidrisiko auf Grund ihrer Nutzung von Smartphones und sozialen Medien zu identifizieren.

Und Facebook sollte sich dabei an die gleichen Regeln halten wie Wissenschaftler?

Angesichts dessen, was auf dem Spiel steht, ist Suizidprävention ein Teil unseres Gesundheitssystem. Daher muss jedes Suizid-Präventionsprogramm durch Tests und Validierungen den gleichen Prüfungsstandards unterliegen, wie das auch andere Facetten eines funktionierenden Gesundheitssystems tun.

Wie würde Facebooks Präventionsprogramm denn aussehen, wenn es den gleichen Richtlinien wie wissenschaftliche Studien folgen würde?

Idealerweise würde Facebook sich die ausdrückliche Zustimmung aller Facebook-Nutzer einholen, bevor sie in das Programm aufgenommen werden – und nicht im Kleingedruckten der allgemeinen Geschäftsbedingungen vergraben. Außerdem sollte die Teilnahme am Programm eher „Opt-in“ als „Opt-out“ sein. (Anm. d. Red. Das bedeutet, dass man einer Teilnahme an diesem Programm aktiv zustimmen muss, anstatt ihr aktiv widersprechen zu müssen.)

„Persönliche Geräten liefern einen klaren Einblick in das Verhalten eines Menschen“

-In Deutschland und anderen EU-Ländern gibt es das Programm derzeit nicht, weil dort strengere Datenschutzregeln herrschen. Ist das ein Verlust für diese Länder?

Es ist schwierig, die Wirksamkeit von Facebooks Suizid-Präventionsprogramm zu bewerten. Das wäre aber notwendig, um zu wissen, wie groß der Verlust für die Länder ist, die das Programm nicht implementiert haben. Ich glaube, dass sich die Wirksamkeit erheblich verbessert, sobald diese Programme ausgebaut und in die Gesundheitssysteme integriert werden und mehr Daten als nur Facebook-Posts genutzt werden. Letztendlich werden sie für Gesundheitssysteme auf der ganzen Welt essenziell sein.

Können Algorithmen wirklich vorhersagen, wie wahrscheinlich es ist, dass jemand Selbstmord begeht?

Ja, obwohl die Wirksamkeit eines solchen datengesteuerten Ansatzes von Mensch zu Mensch variieren kann. Anders gesagt: Für Menschen, die vor einem Suizidversuch Verhaltensänderungen zeigen, gibt es die Hoffnung, dass man diese Veränderungen rechtzeitig genug erkennt, um einzugreifen. Dazu gibt es Forschung, die beispielsweise Verhalten wie Schlaf, Aktivität, Kontaktfreudigkeit, Mobilität auf der Basis von Smartphone- oder Social-Media-Nutzung misst.

Algorithmen, die Suizide verhindern, sind also die Zukunft?

Absolut. Daten von persönlichen digitalen Geräten liefern einen klaren Einblick in das Verhalten eines Menschen. Das geht weit über den bisherigen Standard hinaus, bei dem Patientendaten fast ausschließlich durch persönliche Gespräche etwa mit Therapeuten und Psychiatern erhoben werden. Selbstberichte über Symptome sind bekanntermaßen unzuverlässig. Doch bisher war das die einzige Möglichkeit, etwas über einen Patienten und sein Verhalten oder seine Symptome zu erfahren. Gerade bei Suizid muss man aber fragen: Wie sehr kann man diesen Berichten vertrauen? Nutzt man dagegen seine digitalen Spur, um das Verhalten eines Menschen zu verstehen und mit statistischen Methoden einen Suizid vorauszusagen, vermeidet man dieses Problem.

Haben Sie Suizidgedanken? Dann wenden Sie sich bitte an folgende Rufnummern:

(Telefon-Hotline (kostenfrei, 24 h), auch Auskunft über lokale Hilfsdienste:

0800/111 0 111 (ev.)

0800/111 0 222 (rk.)

0800/111 0 333 (für Kinder / Jugendliche)

E-Mail: unter www.telefonseelsorge.de

Von Anna Schughart/RND

Kommentare 0 Nutzungsbedingungen
Die Debatte geht am Morgen weiter
Die Kommentarfunktion ist zwischen 23:00 und 06:00 Uhr nicht aktiv – denn wir wollen eine gute Moderation der Beiträge gewährleisten.
Die HAZ freut sich am Morgen über Ihre konstruktiven Beiträge zum Thema!

In Deutschland erhalten immer mehr Kunden Amazon-Lieferungen, ohne etwas bestellt zu haben. Was oder wer dahinter steckt, ist unklar. Doch für die Empfänger gibt es eine gute Nachricht.

12.02.2019

Alexa hat Amazon in eine Schlüsselposition im vernetzten Zuhause gebracht. Jetzt will der Konzern mit einem Zukauf bei WLAN-Routern auch die Basis dafür kontrollieren. Der Anbieter Eero versucht nach der Übernahme-Ankündigung, Datenschutz-Sorgen zu zerstreuen.

12.02.2019

Social Bots können ein gefährliches Zünglein an der Waage sein. Denn wie eine Studie nun nahelegt, reichen schon wenige der automatisierte Meinungsmacher aus, um Diskussionen zu manipulieren.

11.02.2019