Soziale Medien in der Kritik: Wie Plattformen mit Hass umgehen

Wie gehen soziale Medien mit Hassrede um?

Wie gehen soziale Medien mit Hassrede um?

Die Verbreitung von Hassrede zählt nach wie vor zu den größten Herausforderungen sozialer Netzwerke. Im Zuge der weltweiten Proteste gegen Rassismus rückt die gewaltsame Sprache in Kommentarspalten und Newsfeeds wieder in die Öffentlichkeit. Regelmäßig aktualisieren Plattformen ihre Community-Standards, um dem Onlinehass Einhalt zu gewähren. Künstliche Intelligenzen und Tausende Moderatoren sollen helfen, dass diese auch eingehalten werden. Welche Schritte haben Facebook, Twitter und Co. jüngst im Kampf gegen Diskriminierung, Beleidigung und Bedrohung unternommen?

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Facebook

Vor allem Facebook ist in den vergangenen Tagen zunehmend unter Druck geraten, was den Umgang mit Hass betrifft. Im Rahmen der #StopProfitForHate-Kampagne haben mehr als 100 Unternehmen angekündigt, ihre Werbung auf der Plattform auszusetzen. Als Reaktion auf den Boykott hat Facebook-Gründer Mark Zuckerberg angekündigt, die Richtlinien seines Unternehmens zu verschärfen. Künftig sollen etwa auch Anzeigen gelöscht werden, die behaupten, dass Menschen einer gewissen Herkunft, Religion oder sexuellen Orientierung eine Gefahr für die Sicherheit oder Gesundheit anderer darstellten. Anders als Twitter weigerte sich Zuckerberg bisher, umstrittene Postings von US-Präsident Donald Trump zu moderieren und zu markieren, wofür der Konzernchef stark kritisiert wurde.

Das Netzwerk setzt bei der Moderation seiner Plattform auf die Mithilfe von weltweiten Content-Moderatoren. Insgesamt wird die Zahl derer, die meist bei Subunternehmern angestellt sind, auf 15.000 geschätzt. Ihre Aufgabe ist es, von Nutzern gemeldete Inhalte auf die Community-Richtlinien hin zu überprüfen und gegebenenfalls zu löschen. “Zudem helfen uns neue Technologien wie Maschinelles Lernen, Computer Vision und Künstliche Intelligenz, unangemessene Inhalte noch schneller und in einem weitaus größerem Umfang zu finden als es Menschen je könnten”, heißt es in Facebooks aktuellem Transparenzbericht. So würden laut Zuckerberg bereits 90 Prozent der Hasskommentare identifiziert, bevor diese von anderen Nutzern gemeldet werden.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Wie jüngst eine Recherche von NDR, WDR und BR zeigte, tut sich das Netzwerk allerdings nach wie vor schwer mit der Moderation von Hassinhalten. Beiträge, die eindeutig gegen die Community-Regeln verstoßen, bleiben etwa im geschützten Raum privater Gruppen, mitunter jahrelang unbeachtet zugänglich.

Twitter

Der Kurznachrichtendienst hat mit seinen Moderationspraktiken jüngst den US-Präsidenten erzürnt. Twitter markierte zwei Trump-Tweets zum Thema Briefwahl mit Fact-Checking-Hinweisen. Darüber hinaus wurde ein weiterer Beitrag Trumps zu den Protesten in Minneapolis als “gewaltverherrlichend” gekennzeichnet, weil er die Twitter-Regeln zur Glorifizierung von Gewalt verletzte. Unter Berücksichtigung des öffentlichen Interesses wurden die Tweets nicht entfernt. Trump kündigte daraufhin an, soziale Medien strenger regulieren zu wollen.

Bei Twitter sucht eine künstliche Intelligenz nach Begriffen, die auf einem Index stehen. Die Entscheidung, ob ein Tweet gelöscht wird, wird laut dem Unternehmen im letzten Schritt jedoch immer von einem Moderator getroffen. Wenn ein Kommentar gegen die Community-Richtlinien verstößt, so wird der Nutzer aufgefordert, diesen zu löschen. Tut er dies nicht, so wird sein Konto durch Twitter gesperrt. “Wir haben Missbrauch, der durch Hass, Vorurteile oder Intoleranz motiviert ist, den Kampf angesagt. Dazu zählt insbesondere Missbrauch, mit dem Stimmen zum Schweigen gebracht werden sollen, die historisch ausgegrenzt waren”, heißt es in den Richtlinien des Unternehmens.

Der Kurznachrichtendienst aktualisiert diese Regeln zudem regelmäßig. Mit einem Update verbannte Twitter 2019 bereits Hassrede gegen religiöse Gruppen, im März diesen Jahres wurde auch Hetze gegen Menschen mit gesundheitlichen Einschränkungen und Behinderungen verboten. Zudem appelliert das Unternehmen seit Kurzem an die Nutzer selbst. Seit Mai testet Twitter ein neues Tool, das bei der Verwendung beleidigender Sprache erneut abfragt, ob der Tweet in dieser Form tatsächlich veröffentlicht werden soll.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Youtube

Beim Aufspüren und Entfernen von Hass-Inhalten setzt Youtube neben Moderatoren zunehmend auf Algorithmen. “Die Community-Richtlinien geben vor, welche Inhalte auf Youtube nicht zulässig sind. Zum Beispiel erlauben wir keine Pornografie, Anstiftung zu Gewalt, Belästigung oder Hassrede. Dabei setzen wir auf eine Kombination aus Nutzern und Technologie, um unzulässige Inhalte zu melden und diese Richtlinien durchzusetzen”, heißt es im Google-Transparenzbericht von 2019.

Darüber hinaus führt Youtube ein sogenanntes “Trusted Flagger”-Programm. Behörden, Nichtregierungsorganisationen und einzelne Nutzer können als Mitglieder über ein Tool Inhalte melden, die gegen die Community-Richtlinien verstoßen. Dadurch werden als bedenklich markierte Videos, Kommentare und Nutzer seitens Youtube priorisiert überprüft. Im vergangenen Juni hat Youtube zudem seine Richtlinien erweitert und angekündigt, die Regeln zum Umgang mit Hassrede international zu verschärfen. Von da an seien Videos verboten, die Gruppen nach Eigenschaften wie Alter, Geschlecht, Rasse, Kaste, Religion oder sexueller Orientierung ausgrenzten, um die eigene Gruppe als überlegen darzustellen

Laut dem aktuellen Transparenzbericht wurden im ersten Quartal 2020 rund 100.000 Videos wegen hasserfüllter Rede und beleidigenden Inhalten gelöscht.

Reddit

Die Diskussionsplattform Reddit hat im Kampf gegen Hassrede im Netz das Forum von Trump-Anhänger “The_Donalds” gesperrt. Der Thread geriet wegen hasserfüllter und beleidigender Inhalte in der Vergangenheit bereits öfter in die Kritik. Der Schritt gilt als ungewöhnlich für die Plattform. Die Millionen Forenbeiträge auf Reddit waren in der Vergangenheit größtenteils ein kaum kontrollierter Raum des Internets. Die Moderation auf Reddit liegt fast ausschließlich in der Hand von Nutzern, die als freiwillige Moderatoren agieren. Im Zuge einer Recherche des Portals “Engadget” berichteten die Community-Moderatoren von massivem Hass und Beleidigungen, die ihnen bei ihrer freiwilligen Arbeit entgegenschlagen.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

2018 sorgte der CEO Steve Huffmann für negative Schlagzeilen, als er in einer E-mail-Unterhaltung das Verbot von Hassrede auf seiner Plattform als “unmöglich durchsetzbar” bezeichnete. Diese Ansicht hat der Mitbegründer mittlerweile offenbar verworfen. In einem öffentlichen Brief gab er an, die Proteste gegen Polizeigewalt und Rassismus zu unterstützen. Zudem wolle das Unternehmen künftig seine Regeln anpassen, um stärker gegen Hass vorzugehen. Kritik kam daraufhin von der ehemaligen Reddit-Chefin Ellen Pao. In einem Tweet warf sie dem Netzwerk vor, Gewalt, Hass und Rassismus zu verstärken. Pao selbst hatte das Unternehmen verlassen, nachdem sie vergeblich versuchte hatte, strengere Moderationsregeln für Reddit einzuführen.

Twitch

Auch die Streamingplattform Twitch schickte Donald Trump jüngst in eine Sendepause. Auf dem Kanal des US-Präsidenten wurden bisher hauptsächlich seine Reden und Auftritte gestreamt. Twitch gab als Grund den Verstoß gegen die Richtlinien durch hasserfülltes Verhalten an. “Hasserfülltes Verhalten ist bei Twitch nicht erlaubt. In Übereinstimmung mit unseren Richtlinien wurde der Kanal von Präsident Trump wegen Kommentaren im Stream vorübergehend gesperrt und beleidigende Inhalte wurden entfernt”, kommentierte die Plattform den Bann und bezog sich dabei auf eine Rede aus dem Jahr 2015, in der Trump gegen mexikanische Einwanderer hetzte und die nun erneut geteilt wurde.

In den vergangenen Wochen sorgte Twitch mit Sperren größerer Streamer regelmäßig für Schlagzeilen. Der Aktionismus der Plattform ist dabei auch auf die anhaltende Kritik von Nutzern zurückzuführen. Vor allem der lasche Umgang mit sexistischen und beleidigenden Inhalten stand dabei im Fokus. Daraufhin hat die Plattform angekündigt, massiver gegen Fehlverhalten vorgehen zu wollen. “Wir arbeiten derzeit daran, unsere Richtlinien zu hasserfülltem Verhalten und Bedrohung zu überarbeiten, anstößige Usernamen besser zu erkennen, die Automod-Funktion und unsere Verbotene-Wörter-Liste zu verbessern und an anderen Projekten mit dem Fokus darauf Bedrohung und hasserfüllten Inhalt zu reduzieren”, heißt es in einem Statement vom 24. Juni.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Bei Twitch besteht die Besonderheit, dass Streamer selbst für die Inhalte ihrer Community verantwortlich sind. Verstößt ein User in den Kommentaren zu einem Stream gegen die Community-Regeln, so kann der Urheber des Streams dafür gesperrt werden. Mithilfe der AutoMod (Automatische Moderation), einer Funktion, die auf maschinellem Lernen beruht, kann der Streamer seine Community moderieren. Kommentare, die gewisse Index-Wörter erhalten, müssen so zum Beispiel durch den Streamer erst freigeschaltet werden.

TikTok

Die chinesische Unterhaltungsplattform TikTok konnte sich in den vergangenen Jahren eine besonders junge Zielgruppe aufbauen. Im Fokus der Diskussionen steht daher immer wieder der Jugendschutz. So erntete das Netzwerk etwa Kritik dafür, nicht genug gegen Mobbing oder auch Challenges in Zusammenhang mit Magersucht zu unternehmen. Zu Beginn des Jahres hat TikTok seine Community-Richtlinien überarbeitet. Wie auch andere Plattformen setzt das Unternehmen auf Moderationsteams, die die Inhalte händisch überprüfen. “Unsere Teams entfernen Inhalte, die gegen unsere Community-Richtlinien verstoßen, und sperren oder verbieten Konten, die an schweren oder wiederholten Verstößen beteiligt sind”, heißt es in einer Mitteilung.

In den Richtlinien werden neun Kategorien gelistet, worunter Hassrede als eigenständiger Punkt aufgeführt wird. Dazu schreibt TikTok: “Inhalte mit Hassrede sind verboten und werden von unserer Plattform entfernt. Zudem sperren oder löschen wir Konten, die sich wiederholt an Hassrede beteiligen.” Recherchen von Netzpolitik.org werfen allerdings Fragen über die Moderationspraktiken von TikTok auf. Demnach wurden Moderatoren zumindest zeitweise angehalten, die Reichweite von Beiträgen von Menschen mit Behinderung, sowie queeren und dicken Menschen einzugrenzen, mit der Absicht diese vorbeugend vor Mobbing zu schützen.

Mehr aus Digital regional

 
 
 
 
 
Anzeige
Anzeige
Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt von Outbrain UK Ltd, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen.

 

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unseren Datenschutzhinweisen.

Letzte Meldungen

 
 
 
 
 
 
 
 
 

Spiele entdecken