Von diskriminierenden Beleidigungen bis hin zu Morddrohungen – Hassrede ist in sozialen Netzwerken omnipräsent. Obwohl in Luxemburg viel getan wird, um sie einzudämmen, scheint das nicht zu reichen.

Leider reicht eine einfache Aufforderung nicht: Hassrede wird vor allem durch Moderation eingedämmt. (Foto: Jon Tyson/Unsplash)
Rechte Gewaltfantasien, die nicht einmal mehr vor Mord zurückschrecken: „Es sollten mal Linke erstochen werden, damit diesen Nullenkackerten mal die Augen aufgehen.“ Mit diesen Worten begann ein Kommentar auf der Facebookseite von RTL Radio. Er war als Reaktion auf ein am 4. September ausgestrahltes Interview mit Carole Thoma zu verstehen. Sie finde Gilles Baums (DP) Forderung nach Abschiebungen in Richtung Afghanistan „inakzeptabel“, so damals die Sprecherin von Déi Lénk. Nachdem die deutsche Bundesregierung Ende August einen ersten Abschiebeflug nach Kabul organisiert hatte, meinte Baum, dies sei der „richtige Weg“. Eine Äußerung, die auch im Editorial der woxx kritisiert wurde (woxx 1802). Der Kommentar auf RTL stammte vom damaligen ADR-Mitglied Alain Hoffmann und löste eine kleine, aber wenig nachhaltige Diskussion über Hass in sozialen Netzwerken aus.
Am nächsten Tag zog Thoma Konsequenzen und zeigte Hoffmann an. „Es reicht. Die Hemmschwelle, rassistische, homophobe, diskriminierende oder gewaltverherrlichende Sachen öffentlich zu publizieren, ist viel zu niedrig“, ließ sie auf Facebook wissen.
„Was mich am meisten schockierte, ist dass dieser Kommentar unter vollem Namen und mit Foto publiziert wurde“, so die Politikerin im Gespräch mit der woxx. „Anfangs meldete ich den Kommentar lediglich bei ‚BeeSecure‘, weil ich davon ausging, dass es ein Fakeprofil sei.“ Als sie jedoch gemerkt habe, dass Hoffmann sich offen zu seiner Drohgebärde bekannte, war für sie eine weitere Grenze überschritten. „Ich erstattete Anzeige bei der Polizei und seitdem warte ich auf ein Resultat.“
Fälle wie jener der Linken-Sprecherin sind leider auch in Luxemburg längst keine Seltenheit mehr. „BeeSecure“ ist eine Regierungsinitiative, die hierauf zu reagieren versucht. Seit 2010 informiert der Dienst, der sich vor allem an Kinder und Jugendliche richtet, über Gefahren im Internet und die Möglichkeiten, dagegen vorzugehen. Er wird gemeinsam vom „Service national de la jeunesse“ und dem „Kanner- a Jugendtelefon“ betrieben. Neben Schulungen und Onlinepublikationen zum Thema betreibt „BeeSecure“ auch eine Hotline, an die man sich bei Mobbing, Drohungen und anderen Problemen, mit denen man online konfrontiert wird, wenden kann.
Anonym melden mit der Stopline
Der Service stellt auch die sogenannte „Stopline“ zur Verfügung: Das ist eine Website, auf der anonym illegale Inhalte oder Kommentare in sozialen Netzwerken gemeldet werden können, die als diskriminierend oder in anderer Weise bedrohlich wahrgenommen werden. Jede Meldung erhält eine Nummer, anhand derer man einige Zeit später überprüfen kann, ob sie an die Polizei weitergeleitet wurde. Neben diskriminierenden Inhalten kümmert sich Stopline auch um Terrorismus sowie Abbildungen sexuellen Missbrauchs an Kindern.
Im Jahr 2023 habe man insgesamt 319 Meldungen aus den Bereichen Rassismus, Diskriminierung, Hatespeech und Revisionismus erhalten, so Anne-Catherine Benoy von „BeeSecure“ gegenüber der woxx. Das sei eine Steigerung um 150 Meldungen im Vergleich zum Vorjahr, was einer Zunahme von 89 Prozent entspreche. „Dieser Anstieg an Meldungen wird insbesondere auf den in diesem Zeitraum entfachten Israel-Palästina-Konflikt, sowie Ereignisse wie Wahlen oder nationale Events in Luxemburg zurückgeführt“, so Benoy. „Allgemein kann man sagen, dass die Meldungen immer mit der nationalen oder internationalen Aktualität in Verbindung stehen, wie zum Beispiel Wahlen oder veröffentlichte Petitionen, Artikel und Interviews.“ Insgesamt 200 der 319 Meldungen habe man letztes Jahr an die Polizei weitergereicht.
Polizeisprecherin Pauline Maes hält „BeeSecure“ für eine wichtige Initiative, um die Arbeit der Ermittlungsbehörden im Bereich Hasskriminalität im Internet zu unterstützen. In den letzten drei Jahren seien jeweils zwischen 160 und 200 Fälle bei der Polizei eingegangen. Ob in den letzten Jahren zum Beispiel queerfeindliche Hasskommentare zugenommen hätten, lasse sich jedoch nicht feststellen, räumt Maes ein: „Aktuell wird nicht zwischen den Typen der ‚Aufstachlung zum Hass‘ unterschieden. Dementsprechend können wir keine Kommentare zu Tendenzen abgeben“, so die Polizeisprecherin gegenüber der woxx.
Keine Datenerfassung zu Hass

(Foto: Mika Baumeister/Unsplash)
Auf die Frage, ob es rund um den Frauenkampftag am 8. März mehr Sexismus und zum „Pride Month“ mehr Queerfeindlichkeit gebe, lautet die Antwort eher nebulös: „Wenn gewisse Ereignisse stattfinden und diese stärker mediatisiert werden, können mehr Kommentare in diesem Zusammenhang auftauchen.“ Warum in diesem Zusammenhang nicht mehr Daten gesammelt werden, leuchtet nicht ein. Immerhin könnte man so nicht nur möglicherweise extremistische Tendenzen früh erkennen und gegensteuern, sondern auch den Betroffenen gezielter helfen.
Maes weist darauf hin, dass manche der illegalen Äußerungen nicht unter „Aufstachelung zum Hass“ fallen, sondern als Drohungen eingestuft werden. Deren Anzahl ist in der Polizeistatistik in den vergangenen Jahren stetig gewachsen, von 1.811 im Jahr 2022 auf 2.310 im Folgejahr. Auch hier gibt es keinerlei Informationen darüber, wer von wem bedroht wurde. Eine Einschätzung, ob es Bevölkerungsgruppen gibt, die besonders oft Drohungen erhalten, ist somit unmöglich.
„Die Polizei klärt bei Hassrede immer mit der Staatsanwaltschaft ab, ob eine Untersuchung eingeleitet respektive ein Fall verfolgt wird“, präzisiert Maes. Die Kooperation mit den Betreibern der sozialen Netzwerke müsse zwar verbessert werden, doch in den meisten Fälle könne man die Identität der mutmaßlichen Täter*innen auch ohne die Hilfe der Unternehmen feststellen. Was Carole Thoma so schockiert hat – jemand verfasst unter vollem Namen und mit Profilbild Hasskommentare – ist laut der Polizei die Regel. Im Gegenzug bedeutet das jedoch auch, dass die Ermittlungen bei Verwendung von Profilen mit falschen Namen, wohl auch wegen der unzureichenden Unterstützung der Social-Media-Betreiber, meist ins Leere laufen. Der „Digital Services Act“ der EU (siehe Kasten) hat in dieser Hinsicht offenbar – noch – keine Verbesserung gebracht.
Obwohl relativ viele Fälle bei der Polizei und der Staatsanwaltschaft landen, kommt es recht selten zu Verurteilungen. Aus dem Jahresbericht 2023 des Justizministeriums geht hervor, dass in diesem Zeitraum 141 neue Ermittlungsverfahren eröffnet wurden, von denen jedoch nur 13 zur Anklage gebracht wurden, was etwa neun Prozent entspricht. „Bei der Staatsanwaltschaft Luxemburg kümmern sich drei Staatsanwälte – neben anderen Aufgaben – speziell um das Phänomen Hatespeech. Diese Problematik wird also sehr ernst genommen“, so Justizsprecher Henri Eippers gegenüber der woxx. Auf der Website der Justiz lassen sich Präzedenzfälle einsehen, anhand derer man einen ersten Eindruck bekommt, welche Äußerungen zu einer Verurteilung führen können. Ein Bild, auf dem eine antisemitische Karikatur Juden*Jüdinnen für – als Zombies dargestellte – linke Protestbewegungen verantwortlich machte, führte zum Beispiel zu einer Geldstrafe von 1.000 Euro. In diesem Fall, bei dem sowohl Juden*Jüdinnen als auch queere Menschen, Feminist*innen, Anarchist*innen und viele andere Ziel der Diskriminierung waren, lässt sich erahnen, weshalb es vielleicht nicht so leicht ist, Hassrede immer einer spezifischen Kategorie zuzuordnen. Dennoch wäre wohl auch eine Statistik, die nicht jedes Detail erfasst, nützlicher als überhaupt keine.
Doppelte Verantwortung der Medien
Ob sich Alain Hoffmann für seinen Kommentar auf der Facebookseite von RTL vor einem Gericht wird verantworten müssen, wird sich zeigen. Der Fall wirft aber eine Frage auf, die in der Diskussion um Hasskommentare im Netz selten zur Sprache kommt, nämlich jene der Verantwortung der Medien. Neben der Verantwortung zur Moderation der Kommentare auf ihren Websites und in den sozialen Netzwerken müssen sie sich auch die Frage gefallen lassen, inwiefern ihre Berichterstattung dazu beiträgt, solche Kommentare zu fördern. Für Medienmacher*innen ist die Rechnung eigentlich einfach: Posts, die eine Polemik und damit viele Kommentare hervorrufen, bringen viel Sichtbarkeit und viele Klicks, die sich letzten Endes in Werbeeinnahmen verwandeln.
Die Funktionsweise der Algorithmen sozialer Medien sorgt demnach dafür, dass das Interesse, Kommentare zu löschen, eher klein ist. 15 Likes hatte der Kommentar Hoffmanns, in dem er sich wünschte, Linke würden erstochen, ehe er verschwand. In Luxemburg haben sich die meisten Medien zur Einhaltung einer „Netiquette“ verpflichtet. Die wurde vom Presserat gemeinsam mit „BeeSecure“ ausgearbeitet. „Zwei bis drei Leute“ kümmern sich laut dem RTL-Informationsdirektor Luc Marteling in der dortigen Redaktion um die sozialen Netzwerke, neben Facebook auch noch Linkedin, Twitter, Tiktok und Instagram. Innerhalb des eigenen Internetauftritts rtl.lu, der ebenfalls über eine Kommentarfunktion verfügt, sei die Onlineredaktion für die Moderation verantwortlich. Dort habe man verhältnismäßig viel Kontrolle über die Nutzer*innen, weil bei der Anmeldung eine Telefonnummer oder aber ein externes Konto von LuxID, Facebook, Apple oder Google angegeben werden muss. Außerdem muss jeder Kommentar erst händisch freigeschaltet werden.
In den sozialen Netzwerken ist es andersherum: Die Möglichkeiten, Fake-Profile anzulegen, sind größer und die Kommentare werden sofort angezeigt. „Dort greifen wir ein, wenn uns etwas auffällt oder wenn wir auf etwas aufmerksam gemacht werden.“ Dass die Moderation in den sozialen Netzwerken nicht immer reibungslos funktioniert, ist auch daran zu erkennen, dass auf der Facebookseite von RTL oft Spamkommentare zu finden sind. Das sei „leider“ ein generelles Problem, so Marteling. Die Kriterien, nach denen moderiert werde, seien auf allen Plattformen „ähnlich“, so der RTL-Informationsdirektor. „Wir bewegen uns überall schnell im Spannungsfeld zwischen dem Recht auf Meinungsfreiheit und dem Risiko von Grenzüberschreitungen.“ Grundsätzlich liege es RTL am Herzen, die Diskussionskultur zu fördern, sowohl online als auch im Radio und Fernsehen, betont Marteling.
Laut dem Medienministerium ist RTL, genau wie Radio 100,7, durch seine Konvention mit dem Staat dazu verpflichtet, illegale Kommentare auf seinen Social-Media-Seiten so schnell wie möglich zu löschen. Alles andere sei noch ungeklärt, so eine Sprecherin des Ministeriums gegenüber der woxx: „Das Bekämpfen von sogenanntem ‚Hate Speech‘ im Rahmen von audiovisuellen Medien und besonders Aufrufe zur Gewalt sind Teil der Überlegungen zur Medienreform“, sagt sie. Ob und wie die Moderation von Kommentaren auch betreffend die Social-Media-Auftritte dieser Medien reguliert werde, sei im Moment noch in der Diskussion. Abgesehen davon gelten die bestehenden Gesetze, insbesondere der „Digital Services Act“.
Viele Menschen, die sich in Foren oder anderen Online-Communities ehrenamtlich als Moderator*innen betätigen, betonen, die eigene Erfahrung lege folgenden Grundsatz nahe: Der Finger auf dem „Block“-Button kann fast nicht locker genug sitzen. Wer gegen die Regeln verstoße, müsse sofort Konsequenzen spüren. Foren, die im Namen der Meinungsfreiheit eher lasch moderiert werden, entwickelten schnell eine toxische Diskussionskultur, in der sich kaum jemand mehr wohlfühle. Ein Grundsatz, der wohl auch einigen Medien in Luxemburg zugutekäme, wenn sie sich denn die nötigen Ressourcen für eine solche Moderation gäben.
Der „Digital Services Act“ und Hassrede Seit August 2023 gelten für die sogenannten „sehr großen Onlineplattformen“, wie etwa Facebook oder Instagram, innerhalb der EU besondere Regeln. Unter dem „Digital Services Act“ müssen sie gewährleisten, dass Nutzer*innen illegale Inhalte melden können und diese Meldungen zügig bearbeitet werden. Wer beispielsweise Hassrede meldet, sollte später auch informiert werden, was mit dem Hinweis passiert ist. In der Praxis hapert es bei der Umsetzung: Sowohl auf X (ehemals Twitter) als auch bei Facebook kann man Inhalte allgemein oder auch als spezifisch „illegal in der EU“ melden. Die Formulare für EU-Meldungen sind allerdings wesentlich komplizierter: Nicht nur, dass man seinen vollen Namen angeben muss, Facebook verlangt in Luxemburg auch nach einem Auszug aus den entsprechenden Gesetzen, auf die man sich bezieht. Außerdem wird man gebeten, Präzedenzfälle hochzuladen. Jedes Land muss einen „Digital Service Coordinator“ ernennen. In Luxemburg ist dies die „Autorité de la concurrence“, die sich – im Gegensatz zur Alia etwa – nicht mit Medieninhalten beschäftigt, sondern mit Konkurrenzrecht und Kartellbildungen. Bei Verstößen gegen den „Digital Services Act“ drohen den Digitalkonzernen saftige Strafen: bis zu sechs Prozent des weltweiten Jahresumsatzes.
Das könnte Sie auch interessieren:
- Kambodscha: Pressefreiheit im Sinkflug
- Zwischen Innovation und Halluzination: Wie künstliche Intelligenz Berichterstattung und Medienkonsum verändert
- Am Bistro mat der woxx #315 – Die Illusion von Gesellschaft
- Am Bistro mat der woxx #314 – Wisou de Computer domm bléift an kënschtlech Intelligenz virun allem Hype ass
- Militärausgaben: Das beste Stück vom Kuchen