Bundeskriminalamt (BKA)

Navigation durch den Inhalt des Kapitels / Modules

Inhalt des Kapitels / Moduls

Digitale Gewalt und Handlungsmöglichkeiten für Opfer

Rechtsextremismus online

Seit den ersten Tagen des Internets nutzen Rechtsextreme Online-Kommunikationsmöglichkeiten für ihre Zwecke. Anfangs ging es vor allem um Vernetzung und Ideologie-Verbreitung innerhalb der eigenen, rechtsextremen Szene. Neonazis feierten online den eigenen Lifestyle, offerierten verbotene Schriften zum Download vor allem über nicht in der EU befindliche Server, verdienten Geld mit Rechtsrock und Versandhandel oder verabredeten sich zu Gewalttaten. Mit dem Aufkommen von Foren und Blogs ab den 1990er-Jahren trat die Netzwerkbildung in den Vordergrund – zwischen verschiedenen Teilen der rechtsextremen und rechtspopulistischen Szene, aber auch europaweit und international. All dies waren demokratiefeindliche Entwicklungen, sie berührten aber die breite Öffentlichkeit wenig. Auf diese Angebote stieß im Internet nur, wer sie suchte.

Eine entscheidende Veränderung war die Erfindung sozialer Netzwerke wie Facebook, Twitter und YouTube. Ab Mitte des Jahres 2000 war deren Nutzung breitenwirksam populär, und die rechtsextreme Szene in Deutschland begann, neben der Vernetzung innerhalb der eigenen Szene verschiedene Strategien zu erproben und auf die digitale Öffentlichkeit Einfluss zu nehmen: zum einen die „bürgerliche Mimikry“, also Rechtsextreme etwa aus dem NPD-Umfeld, die versuchten, zunächst nicht als Nazis erkennbar zu sein, um Menschen rassistische, antisemitische oder sexistische Abwertungen als scheinbar legitime Meinungen zu präsentieren. Die Idee war, Jugendliche für die Bewegung zu ködern und den gesellschaftlichen Diskurs antidemokratisch zu beeinflussen. Zum anderen entdeckten Rechtsextreme – und andere Menschenfeinde – Hasskommentare als ein profundes Mittel, um Menschen, die sie als Feindbilder begriffen, online anzugreifen, einzuschüchtern und bestenfalls mundtot zu machen: Migrantinnen und Migranten, für Demokratie Engagierte, jüdische Menschen oder Musliminnen und Muslime, Frauen, Homo- und Transsexuelle. Sie trafen dabei auf eine anfangs komplett überforderte Online-Community: Internetbegeisterte Menschen – und Unternehmen – stellten sich den Online-Raum als Ort der Teilhabe und des Zusammenhalts, der Wissensvermehrung und des Empowerments vor. Der Missbrauch dieser Strukturen durch Demokratiefeinde war einfach nicht bedacht worden. Entsprechend langsam entwickelten sich Gegenmaßnahmen wie die Löschung zumindest strafrechtlich relevanter Inhalte durch die Betreiber der Sozialen Netzwerke, Gegenrede zu nicht strafrechtlich relevanten Hass-Inhalten aus der Zivilgesellschaft oder auch Strafverfolgung durch Polizei und Justiz.

Umgang mit Hate Speech und digitale Gewalt

In den 2010er-Jahren wurden verschiedene Konzepte des Umgangs mit Hate Speech1) erprobt und umgesetzt. Zivilgesellschaftliche Initiativen erprobten Gegenrede-Konzepte
(z. B. die Gegenrede-Gruppe #ichbinhier)2) und Beratungen für Social Media-Managerinnen und -Manager von Organisationen, Medien, Parteien und Verbänden (z. B. die Amadeu Antonio Stiftung,3) No Hate Speech Movement),4) dazu entstanden pädagogische Konzepte wie Digital Streetwork in der Radikalisierungsprävention von Jugendlichen
(z. B. „Debate//De:Hate“,5) streetwork@online).6)

Zugleich forderte die digitale Zivilgesellschaft in Deutschland Verbesserungen im Umgang mit Hate Speech durch die Betreiber Sozialer Netzwerke. Zu den Wünschen, die (zumindest teilweise) gehört wurden, gehörte der Wunsch nach differenzierten Meldesystemen, besser geschulten und nach Möglichkeit muttersprachlichen Community Managerinnen und Managern, mehr Unterstützung für demokratische Gegenrede.

Die Politik reagierte mit der Einführung des Netzwerkdurchsetzungsgesetzes (NetzDG),7) das sich allein auf strafrechtlich relevante Hate Speech fokussiert, also Volksverhetzung, Holocaustleugnung, Zeigen von verfassungsfeindlichen oder verbotenen Symbolen, öffentliche Aufforderungen zu Gewalt- und Straftaten sowie Beleidigung, üble Nachrede, Verleumdung, Verletzung des Rechtes am eigenen Bild, Nachstellen/Stalking. Diese sollen die Netzwerkbetreiber binnen 24 Stunden vom Netz nehmen, in komplizierten Fällen innerhalb von sieben Tagen. Außerdem gibt es eine Ansprechstelle innerhalb Deutschlands für Zivilklagen, eine Meldemöglichkeit nach NetzDG und halbjährliche Transparenzberichte, die bisher aber wenig aussagefähig, weil völlig uneinheitlich sind.

Der politische Druck hat, so zeigt die Online-Praxis, zur schnelleren Löschung strafrechtlich relevanter Inhalte geführt. Doch wie sich herausstellte, wurde dadurch die Strafverfolgung erschwert. Aktuell wird eine Novelle des Gesetzes diskutiert, dass die Netzwerke ihrer Meinung nach strafrechtlich relevante Inhalte direkt an die Strafverfolgungsbehörden melden sollen. Ob dies zu mehr Strafverfolgungserfolgen führen wird, wenn nicht zugleich die Polizei und Justiz mehr und speziell geschultes Personal für Hasskriminalität im Internet zur Verfügung stellt, bleibt abzuwarten. Immerhin gibt es inzwischen in einzelnen Bundesländern spezialisierte Projekte in Staatsanwaltschaften („Verfolgen statt löschen“),8) die gute Erfolge erzielen, und in einzelnen Bundesländern auch die Bildung entsprechend spezialisierter Polizeieinheiten. Die Grundidee, nämlich Internet-Nutzenden (endlich) klar zu machen, dass das Internet kein rechtsfreier Raum ist und Taten dort Konsequenzen haben, ist notwendig und erfolgversprechend.

Struktur und Informationen zum Kapitel / Modul

Fussnoten

Literatur

Quellen