Der digitale Raum und besonders soziale Netzwerke bringen Frauen in Gefahrensituationen. Wie und wo können Facebook, Twitter und Co hier gegenwirken? Welche Rolle spielen Behörden und Beratungsorganisationen? Reichen die aktuellen Gesetzesänderungen des Netzwerkdurchsetzungsgesetzes (NetzDG) aus?
Während viele die sozialen Medien für Wissensaustausch und Unterhaltung nutzen, nehmen die negativen Seiten der Nutzung von Hass bis Gewalt im Netz immer mehr zu.[1] Kommentarspalten, Direktnachrichten oder allein dafür bestimmte Posts werden gezielt zur Diffamierung, Abwertung oder zum Angriff gegen Einzelpersonen oder Personengruppen benutzt. Es scheint, dass im digitalen Raum als Konsequenz maximal die Löschung des eigenen Accounts erwartet wird und sich deshalb viele Nutzer*innen weniger gehemmt fühlen, Gewalt und Hass direkter und brutaler zu verbreiten
Die Frau als Zielscheibe
Gewalt gegen Frauen war schon vor der Digitalisierung ein gesellschaftliches Problem. Schon in den 1970er Jahren wurde die häusliche Gewalt gegen Frauen von der Frauenbewegung angeprangert und mündete schließlich in dem Gewaltschutzgesetz von 2002.[2] Auch bei sexualisierter Gewalt sind und waren erwachsene Frauen fast ausschließlich die Betroffenen.[3] Ebenso im digitalen Raum sind Frauen eine der am häufigsten angegriffenen Gruppen. Laut dem Welt-Mädchenbericht von 2020 gaben 58 % der Mädchen und Frauen weltweit an, schon digitale Bedrohungen, Beleidigungen und Diskriminierung erfahren zu haben, in Deutschland sogar 70 % aller Befragten.[4] Eine offizielle Definition von digitaler Gewalt gibt es bisher noch nicht. Die Bundesregierung fasst unter diesen Begriff mit Hilfe elektronischer Kommunikationsmittel umgesetzte Handlungsweisen wie Diffamierung, Herabsetzung, Belästigung, Bedrängung, Bedrohung, Nachstellung oder Nötigung.[5] In der Rechtswissenschaft wird sowohl mit dem Begriff des digitalen Hasses als auch der digitalen Gewalt gearbeitet, diese sind jedoch nicht immer klar voneinander abgrenzbar. Manche reden eher von digitalem Hass, wenn es um die Beleidigungen geht, also Ehrverletzungen vorliegen.[6] Der Akt der Gewalt fände dann eher in der analogen Welt statt, wobei der Übergang hier auch in manchen Fällen fließend sein kann. Andere beschreiben pauschaler und sehen digitale Gewalt als diverse Phänomene, die gemein haben, dass sie im digitalen Raum erfolgen, beispielsweise Hate Speech oder Cyber Harassment.[7]
Digitale Gewalt gegen Frauen kann verschiedene Gestalten annehmen. Häufige Formen sind etwa Hasskommentare, Drohungen oder auch Doxing. Doxing meint das konkrete Sammeln und Veröffentlichen von Informationen über eine Person, um diese dann intensiver und direkter mit der Kenntnis um den Wohnort oder anderen privaten Informationen zu bedrohen. Laut HateAid, einer Organisation die Betroffene rechtlich berät, berichtet ein Drittel der Frauen die sich an sie wenden, von geschlechtsspezifischer Gewalt, indem sie wegen ihres Geschlechtes angefeindet oder sexuell belästigt werden. HateAid zufolge erhalten 5 % ihrer Hilfesuchenden sogar Vergewaltigungsdrohungen[8] oder werden durch Drohungen und beharrliches Drängen zum Geschlechtsverkehr aufgefordert.
Oft werden gerade auch Frauen, die sich an politischen Debatten beteiligen, zum Opfer erwählt, um sie dezidiert für ihre politischen Standpunkte zu diffamieren und sie in der digitalen Debatte faktisch zum Schweigen zu bringen. Ein Beispiel dafür ist der Vorfall und Prozess um Luisa Neubauer und Akif Pirinçci. Pirinçci wurde wegen seines Kommentars im Januar 2021 auf Facebook vom Landgericht Frankfurt im Dezember 2021 wegen Beleidigung und Verletzung von Neubauers Persönlichkeitsrechten zur Entschädigungszahlung verurteilt. Das Gericht stellte zudem fest, dass Neubauer hier sexuell objektiviert wurde und der Kommentar sie in ihrem sexuellen Selbstbestimmungsrecht verletzte.[9]
Der Weg zu einer einheitlichen EU-Regulierung
Das Problem der digitalen Gewalt gegen Frauen wird auf den verschiedenen Rechtsebenen unterschiedlich angegangen. Die europäische Kommission führt in ihrer Definition von geschlechtsspezifischer Gewalt digitale Gewalt gegen Frauen beispielhaft an. Danach ist diese immer dann gegeben, wenn Frauen durch strafbares oder verletzendes Verhalten im digitalen Raum angegriffen werden.[10] Obgleich die EU in diesem Kontext durch die Resolution 2007/2897 zu Mindeststandards für die Rechte, die Unterstützung und den Schutz von Opfern von Straftaten Abhilfe schaffen wollte, fasst diese das Thema geschlechtsspezifischer Gewalt nur sehr allgemein auf, bringt wenig Anstöße zu konkreten Maßnahmen für den Opferschutz und thematisiert zudem auch nicht die besondere Komplexität der digitalen Gewalt. Im Dezember 2021 hat das Europäische Parlament jedoch mit großer Mehrheit eine Entschließung, also eine allgemeine Absichtserklärung, verabschiedet, mit welcher das Parlament die Kommission konkret dazu auffordert, eine Richtlinie zur Bekämpfung jeglicher geschlechtsspezifischer Gewalt vorzuschlagen. Neben dieser Richtlinie hat das Europäische Parlament die Kommission auch zur Vorlage einer umfassenden Strategie zu diesem Problem aufgefordert. Diese Strategie soll sich konkret auch mit digitaler Gewalt, aber etwa auch mit einer Sicherstellung von Hilfsangeboten für betroffene Frauen beschäftigen. Die Kommission plant, im März dieses Jahres erste Ansätze vorzustellen. Als weiteren rechtlichen Rahmen für große Internetplattformen plant die EU noch dieses Jahr, den Digital Services Act (DSA) zu verabschieden, der 2023 in Kraft treten soll. Der Entwurf sieht vor, mit dem DSA eine Art Grundverordnung für die Plattformen zu schaffen und diese zu mehr Transparenz und Grundrechtsschutz für Nutzer*innen zu verpflichten. Ob und in welcher Art diese Vorschriften konkret einen Schutz vor digitaler Gewalt oder eine Anlaufstelle für Betroffene schaffen wird, ist bisher noch nicht absehbar.
Im nationalen Recht ist zur Bekämpfung von Hass und Gewalt im Netz vor allem das NetzDG einschlägig. Dieses verpflichtet die sozialen Netzwerke Beschwerdesysteme einzurichten, an welche sich die Nutzer*innen wenden können, um möglicherweise rechtswidrige Inhalte zu melden . Im Kontext der geschlechtsspezifischen Gewalt sind die relevantesten Anwendungsfälle die Beleidigung gem. § 185 StGB und die Bedrohung gem. § 241 StGB. Sofern der Beitrag nach Prüfung des sozialen Netzwerks „offensichtlich rechtswidrig“ ist, hat es diesen innerhalb von 24 Stunden zu löschen bzw. den Zugang zu diesem zu sperren (vgl. § 3 Abs. 2 Nr. 2 NetzDG). Bei sonstigen rechtswidrigen Inhalten, bei denen die Rechtswidrigkeit nicht „offensichtlich“ ist, beträgt die Frist sieben Tage (vgl. § 3 Abs. 2 Nr. 3 NetzDG). Ab Februar dieses Jahres sind die sozialen Netzwerke zudem verpflichtet, strafbare Inhalte auf ihren Plattformen an das Bundeskriminalamt zu melden (vgl. § 3a NetzDG). In der Realität weist das Verfahren nach dem NetzDG jedoch noch Schwierigkeiten auf. So wird weiterhin kritisiert, dass dem Anwendungsbereich des § 1 Abs. 3 NetzDG noch wichtige Delikte im Kontext der geschlechtsspezifischen Gewalt fehlen, wie z.B. die Nachstellung gem. § 238 StGB, im geschlechtsspezifischen Kontext die Fälle des Stalking im digitalen Raum. Erfasst ist jedoch mit § 130 StGB der Tatbestand der Volksverhetzung, der in diesem Zusammenhang lange umstritten war.[11] In einem Urteil des Oberlandesgerichts Köln wurde jedoch bestätigt, dass dessen Tatbestand „Teil der Bevölkerung“ auch bei Hass gegen Frauen angewandt werden kann. Dies ist immer dann der Fall, sofern das weibliche Geschlecht als solches in besonderem Maße herabwürdigt wird.[12]
Die Meldung eines Inhalts – einfacher gedacht als gemacht
Ein weiteres Praxisproblem zeigt sich in der konkreten Ausgestaltung der Meldeformulare gem. § 3 Abs. 1 NetzDG. Diese müssen grundsätzlich „leicht erkennbar, unmittelbar erreichbar und ständig verfügbar“ sein. Manche soziale Netzwerke, wie z.B. Instagram, fordern bereits im Meldeformular ein genaues Subsumieren des Geschehens unter einen bestimmten Straftatbestand.
Instagram schlägt den Nutzer*innen 13 mögliche Meldegründe als Teil ihrer Gemeinschaftsstandards vor. Diese reichen von Gewalt oder einer gefährlichen Organisation über Betrug zu Verkauf illegaler Güter.
Die Meldung nach NetzDG wird zu diesem Zeitpunkt somit noch gar nicht weiter erläutert. Den Nutzer*innen wird das NetzDG einfach als weiterer gleichwertiger Meldegrund vorgeschlagen. Informationen zur Abgrenzung zwischen Gemeinschaftsstandards und NetzDG und dessen Konsequenzen fehlen völlig. Dabei ist jedoch für einen effektiven Opferschutz und eine funktionierende Rechtsdurchsetzung elementar, dass die eingesetzten Formulare ohne jegliche juristische Vorkenntnisse und mit ausreichender Niedrigschwelligkeit zu bedienen sind.[13]
Sobald das soziale Netzwerk 100 Beschwerden pro Jahr verzeichnet, greift gem. § 2 NetzDG eine Berichtspflicht zur transparenten Darstellung, wie und in welcher Weise mit den Beschwerden konkret umgegangen wird. Viele Netzwerke benutzen zur Erkennung und Entfernung von Inhalten automatisierte, selbstlernende Programme, die gemeldete Sachverhalte unter Straftatbestände subsumieren. Dies tun sie, indem sie die neuen Sachverhalte schon mit dem bestehenden Wissen abgleichen. Im Ergebnis wird dann die Wahrscheinlichkeit der Übereinstimmung, also ob der Tatbestand gegeben ist oder nicht, festgestellt. So kann das Programm in sehr kurzer Zeit eine viel größere Menge an Beschwerden bearbeiten als ein*e Sachbearbeiter*in. Dies ist grundsätzlich für eine zügige Bearbeitung zu begrüßen. Damit die Transparenz gewahrt bleibt, ist die Nutzung solcher Programme gem. § 2 Nr. 2 NetzDG auch explizit von der Berichtspflicht erfasst. Dabei ist in besonderer Weise zu kontrollieren, wie die selbstlernenden Programme agieren. So ist vor allem sicherzustellen, dass die für die Anwendung genutzten Datensätze keine Diskriminierungen gem. Art. 3 Abs. 3 GG hervorrufen. Obwohl Private und Unternehmen grundsätzlich nicht unmittelbar an Grundrechte gebunden sind, kann bei sozialen Netzwerken wie Facebook, Twitter und Co. wegen ihrer monopolartigen Stellung und struktureller Überlegenheit gegenüber dem*der einzelnen Nutzer*in eine mittelbare Drittwirkung angenommen werden.[14] Um eine unmittelbare oder mittelbare Diskriminierung zu verhindern, muss sichergestellt gestellt werden, dass bei den Algorithmen der Maßstab des Art. 3 Abs. 3 GG gewahrt bleibt.
Viel Handlungsbedarf aber auch viele Vorschläge
In Anbetracht der Komplexität des Problems fordern die verschiedenen Interessenvertretungen aus Politik und Rechtswissenschaften unterschiedliche Lösungen. Durch das Gesetz zur Bekämpfung von Rechtsextremismus und der Hasskriminalität trat am 1. Februar 2022 zunächst § 3a NetzDG in Kraft. § 3a NetzDG verpflichtet die sozialen Netzwerke, strafbare Inhalte an das Bundeskriminalamt (BKA) weiterzuleiten. Inwieweit z.B. praktische Umsetzungsschwierigkeiten beim BKA durch die Anzahl an Meldungen eine Rolle spielen werden, bleibt abzuwarten.
Teilweise werden auch konkrete strafprozessuale Änderungen gefordert. HateAid fordert hier, dass die Beleidigung im digitalen Raum vom einfachen zu einem relativen Antragsdelikt wird. Dies würde dazu führen, dass die Staatsanwaltschaft auch ohne konkreten Antrag der betroffenen Person bei einem ausreichenden öffentlichen Interesse, etwa bei einem Shitstorm von gewisser Größe, allein die Ermittlungen aufnehmen könnte. Dies könnte jedoch auch negative Folgen für die Betroffene haben, wenn diese etwa aus persönlichen Gründen gar nicht gegen das Delikt vorgehen möchte, die Entscheidungskompetenz dann aber nicht bei ihr liegt.
Um die Situation der Frauen direkt und unmittelbar zu verbessern, werden auch Lösungsansätze außerhalb des rechtlichen Rahmens gefordert. Verbreitet werden in diesem Kontext bessere Schulungen für zuständige Polizeibeamt*innen genannt, damit diese nicht nur den Opfern besser Hilfe leisten können, sondern das Geschehen auch besser einordnen können.[15] Damit einhergehend müssen aber auch Beratungsstellen und Sozialarbeiter*innen in Schulungsmaßnahmen eingebunden werden. Für eine zielführende Beratung und Hilfestellung müssen sie – zumeist als erste Anlaufstelle für ratsuchende Frauen – hinsichtlich der sich schnell wandelnden Technologien und bestehenden Regelungen (z.B. zur Zulassung als Beweismittel) auf dem neuesten Stand sein. Von zentraler Bedeutung ist es jedoch, ein umfassendes Verständnis für die Problematik und dessen Dimensionen zu entwickeln. Hate Speech und in diesem Kontext die geschlechtsspezifischen Straftaten müssen in der Polizeilichen Kriminalstatistik – obgleich diese nur eingeleitete Ermittlungsverfahren aufführt und somit eine große Dunkelziffer offen lässt – gesondert betrachtet werden. Gleichzeitig mangelt es noch immer an umfassenden wissenschaftlichen Statistiken. [16] Erst damit würde die Problematik deutlich sichtbar und der drastische Handlungsbedarf erkennbar werden. Auf dieser Grundlage könnten dann zielgenaue Handlungsvorschläge entwickelt werden, die konkret an den Opferzahlen ausgerichtet sind und eine wirkliche Hilfe für die Opfer darstellen.
Weiterführende Literatur:
Berit Völzmann, Freiheit und Grenzen digitaler Kommunikation, Multimedia und Recht (MMR) 2021, 619-624.
Marius Kühne, Bitte melden! Rechtliche und praktische Tücken der NetzDG-Meldepflicht, JuWissBlog v. 31.01.2022, https://www.juwiss.de/9-2022/.
Elisa Hoven / Alexandra Witting, Das Beleidigungsrecht im digitalen Zeitalter, Neue Juristische Wochenschrift (NJW) 2021, 2397-2401.
[1] Ulrike Lembke, Feministische Rechtswissenschaft, § 11 Rn. 6.
[2] Ebenda.
[3] Ebenda, Rn. 7.
[4] Plan International, Welt-Mädchenbericht: Free to be online – Erfahrungen von Mädchen und jungen Frauen mit digitaler Gewalt, 16, https://www.plan.de/presse/pressemitteilungen/detail/welt-maedchenbericht-2020-digitale-gewalt-vertreibt-maedchen-und-junge-frauen-aus-den-sozialen-medien.html.
[5] BTag, Drucksache 19/5743.
[6] Hoven / Wittig NJW 2021, 2397 (2398).
[7] Völzmann MMR 2021, 619.
[8] BT-Ausschussdrucksache 19 (23), 120.
[9] LG Frankfurt am Main, Urt. v. 2.12.2021 – 2-03 O 329/20.
[10] Europäische Kommission, What is gender-based violence?, https://ec.europa.eu/info/policies/justice-and-fundamental-rights/gender-equality/gender-based-violence/what-gender-based-violence_en (Stand aller Links: 30.01.2022).
[11] Lea Welsch, Forum Recht 2020, 108 (108).
[12] OLG Köln, Urt. v. 09.06.2020 – III-1 RVs 77/20.
[13] Deutscher Juristinnenbund – Stellungnahme zum Referentenentwurf des BMJV: Entwurf eines Gesetzes zur Änderung des Netzdurchsetzungsgesetzes.
[14] Uwe Kischel, in: Beck’scher Onlinekommentar zum Grundgesetz, Art. 3 Rn. 218b.
[15] BT-Ausschussdrucksache 19 (23) 120.
[16] European Agency for Fundamental Rights, Gewalt gegen Frauen: eine EU-weite Erhebung, Ergebnisse auf einen Blick, https://fra.europa.eu/de/publication/2014/gewalt-gegen-frauen-eine-eu-weite-erhebung-ergebnisse-auf-einen-blick.