Was tun Facebook, Youtube und Co. gegen Hass im Netz? – Top Meldungen

0

Hass und böse Worte gibt es wohl fast so lange wie die menschliche Sprache. Und doch hat Hate Speech heute eine andere Qualität: Weil sie nicht mehr in kleiner Runde, sondern vor unzähligen Netz-Usern geäußert wird. Was tun Facebook, Youtube und Co.?

Das Internet und die sozialen Medien galten lange als Symbol der Demokratisierung und Freiheit für die Menschheit. Auf einmal konnte jeder – auch ohne Druckerpresse oder eigenen Fernsehsender – unzählige Menschen erreichen, seine Meinung loswerden, Missstände anprangern, sich mit anderen organisieren.

Soweit, so schön der Gedanke. In der hoffnungsfrohen Frühphase des Internets dagegen weniger bedacht wurde die Kehrseite der Neue-Medien-Medaille. Früher verhallten auch Hass, Missgunst, Hetze, Drohungen und Beleidigungen am Stamm- oder Abendbrottisch in kleiner Runde. Heute reicht ein Smartphone, um all das an potentiell unzählig viele Menschen zu senden.

Tun Sie mir einen Gefallen: Bitte TEILEN Sie diesen Beitrag.

Besonders leicht geht das in Netzwerken wie Facebook oder Youtube. Milliarden Menschen nutzen sie, ein Kommentar ist schnell geschrieben. Dementsprechend sammeln sich gerade dort Hass und Hetze. Was tun die Plattformen, damit sich Hass in ihren Netzwerken nicht frei an Millionen Menschen ausbreiten darf?

Eine Sprecherin von Facebook Deutschland schreibt gegenüber BR24 von enormen Fortschritten bei der Bekämpfung von Hate Speech in den vergangenen Jahren. So suche man mittlerweile proaktiv nach Hasskommentaren. Daneben setzt Facebook darauf, dass User verdächtige Inhalte an das Netzwerk melden. Rund 70 Prozent der 160.000 im Jahr 2019 gelöschten Inhalte habe Facebook jedoch aufgespürt, bevor jemand sie gemeldet hatte.

Das Finden und Entfernen läuft zwar mittlerweile mit technologischer Hilfe. Oft sind jedoch laut dem sozialen Netzwerk noch Menschen im Kampf gegen Hate Speech die zentralen Akteure. Sprachliche Feinheiten und Kontext verstünden die immer noch besser als eine Maschine. Rund 2.000 Menschen arbeiten mittlerweile in Deutschland an der Überprüfung von Facebook-Inhalten.

Gelöscht werden laut Facebook beispielsweise Kommentare, in denen Personen aufgrund ihrer Herkunft, Religion oder sexuellen Orientierung direkt angegriffen werden. Dass das Hassproblem sozialer Netzwerke dank neuer Technologie und neuen Mitarbeiter nun gelöst sei, behauptet jedoch auch Facebook nicht.

Zudem solle die Entscheidung, was noch von der Meinungsfreiheit geschützt ist und was nicht, nicht allein in der Verantwortung von Firmen liegen. Das Netzwerk arbeitet daher an der Etablierung eines unabhängigen Gremiums, dass bei solchen Inhaltsfragen unterstützt.

Stolz auf die Fortschritte beim Thema Hass ist man auch bei Youtube-Mutter Google. Wie das Unternehmen gegenüber BR24 angibt, habe man erst 2019 seine Hate-Speech-Politik bei Themen wie Extremismus und Rassismus angepasst. Im Monat nach der Änderung der Richtlinien hätte sich die Zahl der wegen Verstößen gelöschten Kanäle und Videos verfünffacht, so ein Google-Sprecher.

Grundsätzlich kann jeder, der bei Youtube Videos hochlädt, die Kommentare unter seinen Videos selbst moderieren, löschen oder ganz abstellen. Doch auch Youtube selbst moderiert Kommentare und Videos: Beim Aufspüren solcher Hate-Speech-Inhalte setzt Youtube weiterhin stark auf die Community. Es gebe mehrere Möglichkeiten, verdächtige Inhalte zu melden. Spezialisten prüfen diese dann und löschen gegebenenfalls. Knapp 200.000 Videos wurden im vierten Quartal 2019 wegen Hass, Missbrauch, Extremismus, Gewaltverherrlichung oder Mobbing gelöscht.

Einen interessanten Weg geht Youtube bei Grenzfällen. Denn laut dem Unternehmenssprecher gibt es Grenzfälle, die gemeldet werden, aber noch knapp den Richtlinien dessen entsprechen, was bei Youtube erlaubt ist.

In diesen Fällen behält Youtube es sich vor, die Inhalte zwar auf der Plattform zu lassen, aber dafür zu sorgen, dass sie sich nicht weiterverbreiten. Beispielsweise werden diese nicht als “Vorschläge” ausgespielt, die Kommentar- und Like-Funktion wird gesperrt und auch eine Monetarisierung der Inhalte ausgeschlossen.

Die Online-Riesen Google und Facebook gehen dem Anschein nach – und laut eigener Aussage – also mit einigem Engagement gegen Hate Speech vor, auch wenn das Problem an der Grenze zwischen Meinungsfreiheit und Hassbotschaft in den Netzwerken vieles abverlangt.

Doch einmal ehrlich: Jeder, der auch nur ein wenig Zeit bei Facebook und Youtube verbringt, weiß, dass dort durchaus noch Hass und Hetze zu finden sind. Mal weniger und mal mehr offensichtlich, aber vorhanden ist er doch. Nicht zuletzt deswegen moderiert BR24 seine Kommentarspalten bei Facebook und Youtube selbst, löscht Inhalte und tritt bei Grenzfällen mit Fakten und Argumenten entgegen.

Dass Facebook und Youtube sich in den letzten Jahren keineswegs vom Hate-Speech-Saulus zum Hate-Speech-Paulus entwickelt haben, sagen auch Menschen, die sich tagtäglich damit auseinandersetzen:

Hate-Speech-Expertin Lüders hat durchaus einige Kritikpunkte, die sie am Beispiel von Facebook erläutert. So sei es dort immer noch schwierig, potentielle Hate-Speech-Kommentare zu melden und damit entfernen zu lassen.

Wer einen Hasskommentar gemäß dem deutschen Netzwerkdurchsetzungsgesetz melden will, muss laut Lüders ein kompliziertes Verfahren durchlaufen und Formulare ausfüllen. Dann ist Facebook jedoch immerhin rechtlich verpflichtet, zu prüfen. Der einfachere Weg ist die Meldung wegen eines Verstoßes gegen die facebookinternen Richtlinien (oben beschrieben). Dies bleibt jedoch häufig ohne Wirkung, wie Expertin Lüders angibt.

Hinzu kommen Probleme mit Fake-Profilen, denen Facebook aus Sicht von #ichbinhier nicht ausreichend Herr werde. Außerdem sind viele Hass-Inhalte für die Öffentlichkeit, die melden oder gegen-argumentieren könnte, gar nicht einsehbar:

Das Gruppen-Problem deutet ein weiteres Problem an: Wer Hass und Hetze nicht öffentlich, sondern unter seinesgleichen verbreiten möchte, dem stehen im Internet zu jeder Zeit Alternativen wie 4chan, private Discord-Chats oder auch die verschlüsselten Chats von WhatsApp zur Verfügung. Dort kann der Nutzer quasi unmoderiert Hass verbreiten. Helfen kann hier letztlich wohl nur die Gegenrede von Personen im Chat oder 4chan-Forum, die beim Hassen nicht mitmachen wollen.

Facebook-Technologie spürt Hass-Kommentare auf

Unterscheidung zwischen Hassbotschaft und Meinungsfreiheit manchmal schwer

Youtube setzt auf Menschen

Grenzfälle: Keine Löschung, doch auch keine Promo

Alles gut im Social-Media-Land?

Kritiker: Melden oft kompliziert oder wirkungslos

Was tun Facebook, Youtube und Co. gegen Hass im Netz?

Share.

Leave A Reply