Neuer Entwurf zum Netzwerkdurchsetzungsgesetz: "Hate Speech" und "Fake News" – Was Social Media-Plattformen nach dem neuen NetzDG zu beachten haben.
Die Debatte im Netz wird zunehmend von Aggression, Hass und sog. „Fake News″ bestimmt. Die Entscheidung des LG Würzburg vom 6. Februar 2017 im Fall Anas M., dessen Selfie mit der Bundeskanzlerin von unbekannten, mutmaßlich rechtsextremen Personen auf Facebook missbraucht wurde, hat dabei wieder einmal die Probleme im Umgang mit Hasskommentaren in sozialen Netzwerken gezeigt.
Hosting Provider wie Facebook haften nicht präventiv, sondern nur ab Kenntnis von der Rechtsverletzung (§ 10 TMG). Aber auch dann werden Inhalte nach Ansicht der Betroffenen nur zögerlich gelöscht. Das Bundesjustizministerium (BMJV) hat nun den Entwurf eines Gesetzes mit dem herrlich bürokratischen Namen „Netzwerkdurchsetzungsgesetz – NetzDG″ vorgelegt.
Damit sollen soziale Netzwerke zu einer zügigeren und umfassenderen Bearbeitung von Beschwerden, insbesondere über Hasskriminalität (Hate Speech), angehalten werden. Wir stellen den Entwurf vor.
NetzDG richtet sich an alle Telemediendiensteanbieter
Betroffen nach § 1 Abs. 1 des Entwurfs sind
Telemediendiensteanbieter, die mit Gewinnerzielungsabsicht Plattformen im Internet betreiben, die es Nutzern ermöglichen, beliebige Inhalte mit anderen Nutzern auszutauschen, zu teilen oder der Öffentlichkeit zugänglich zu machen.
Journalistisch-redaktionell gestaltete Plattformen sollen gleichwohl nicht hierunter fallen. Gleiches gilt für Anbieter mit weniger als zwei Millionen registrierten Nutzern im Inland. Das Gesetz gilt danach insbesondere für soziale Netzwerke wie Facebook, Twitter oder Instagram.
Neue Pflichten für die Plattformanbieter
Der Entwurf des NetzDG legt den sozialen Netzwerken bestimmte Pflichten auf, die als gesetzliche Compliance-Regeln verstanden werden können.
Pflicht zur Erstellung von Berichten
So verlangt § 2 des Entwurfs des NetzDG vom Anbieter die vierteljährliche Erstellung und Veröffentlichung eines deutschsprachigen Berichts über den Umgang mit Beschwerden von Nutzern über rechtswidrige Inhalte auf den Plattformen. Der Bericht ist im Bundesanzeiger sowie auf der eigenen Homepage des Unternehmens zu veröffentlichen.
Pflicht zur Einführung eines wirksamen Beschwerdemanagements
Ferner muss der Anbieter nach § 3 des neuen NetzDG ein wirksames und transparentes Verfahren für den Umgang mit Beschwerden der Nutzer vorhalten. Danach muss das Netzwerk zunächst unverzüglich von der Beschwerde Kenntnis nehmen und prüfen, ob der Inhalt rechtswidrig und zu entfernen ist.
Die Frage, innerhalb welchen Zeitraums die Plattform den Inhalt zu löschen hat, hängt von der Art des Inhalts ab: Offensichtlich rechtswidrige Inhalte muss die Plattform innerhalb von 24 Stunden nach Eingang der Beschwerde entfernen. Bei sonstigen Inhalten, die nicht offensichtlich rechtswidrig sind, hat eine Löschung innerhalb von sieben Tagen zu erfolgen. Ein Inhalt ist – gemäß dem Netzwerkdurchsetzungsgesetz – offensichtlich rechtswidrig, wenn zur Feststellung der Strafbarkeit keine vertiefte Prüfung erforderlich ist.
Dokumentations- und Begründungspflicht bei gelöschten Inhalten
Die entfernten Inhalte sind zu Beweiszwecken zu sichern und im Inland zu speichern. Zudem muss der Anbieter sowohl den Betroffenen als auch den Nutzer, dessen Inhalte gelöscht wurden, über die Entscheidung informieren und sie ihnen gegenüber begründen.
Proaktive Überwachungspflicht
Interessant sind die proaktiven Überwachungspflichten, die das soziale Netzwerk trifft: So müssen sämtliche auf den Plattformen befindliche Kopien des rechtswidrigen Inhalts ebenfalls unverzüglich entfernt oder gesperrt und wirksame Maßnahmen gegen die erneute Speicherung des rechtswidrigen Inhalts getroffen werden. Diese Pflicht steht allerdings im Konflikt mit § 7 Abs. 2 S. 1 TMG, der auf Art. 15 Abs. 1 der E-Commerce-Richtlinie beruht, wonach Überwachungspflichten allgemeiner Art für Hosting Provider nicht bestehen.
Rechtswidrige Inhalte verstoßen gegen strafrechtliche Vorschriften
Rechtswidrige Inhalte sind nach § 1 Abs. 3 des NetzDG nur solche, die den objektiven (!) Tatbestand der §§ 86, 86a, 90, 90a, 111, 126, 130, 140, 166, 185 bis 187, 241 oder 269 StGB erfüllen. Offenbar sind dies die Normen, die das BMJV sich unter dem Begriff „Hate Speech″ vorstellt. Dabei sind vor allem die §§ 185 bis 187 StGB (Beleidigung, Üble Nachrede, Verleumdung) sowie die §§ 111, 130 StGB (Öffentliche Aufforderung zu Straftaten und Volksverhetzung) von Relevanz.
Die abschließende Aufzählung der Strafnormen verdeutlicht, dass die Löschpflichten nicht bei jeglicher Rechtsverletzung, sondern nur bei solchen mit Strafcharakter bestehen. Nicht immer sind dies jedoch die problematischen Delikte. Diskriminierungen, falsche Tatsachenbehauptungen, Mobbing oder andere rassistische Ehrverletzungen können für den Betroffenen ebenso schwer wiegen, auch wenn sie möglicherweise keinen Straftatbestand verwirklichen. Diese wären von der Löschpflicht nicht umfasst. Andererseits fehlen in dem Katalog Strafnormen wie die Verletzung von Privatgeheimnissen (§ 203 StGB).
Bußgelder von bis zu 5 Millionen Euro für Plattformen
Die vorsätzliche oder fahrlässige Nichteinhaltung der Berichtspflicht und die Zuwiderhandlung gegen die Pflicht, ein wirksames Beschwerdemanagement vorzuhalten, stellen eine Ordnungswidrigkeit dar. Es drohen den sozialen Netzwerken erhebliche Bußgelder bis zu 5 Mio. € (§ 4 Abs. 2 NetzDG).
Im Streitfall und vor Erlass eines Bußgeldbescheids ist die Verwaltungsbehörde (Bundesamt für Justiz) verpflichtet, eine gerichtliche Vorab-Entscheidung einzuholen. Zuständig ist das Gericht, das gemäß § 68 OWiG über den Einspruch gegen den Bußgeldbescheid entscheidet – „nach Zweckmäßigkeitsgesichtspunkten″ auch ohne mündliche Verhandlung.
Erhebliche Auswirkungen für die Praxis
Für die Anbieter sozialer Netzwerke in Deutschland hat das NetzDG erhebliche praktische Auswirkungen. Die bisherigen Bemühungen im Rahmen der Selbstverpflichtung der Unternehmen genügen dem BMJV nicht. Ab Inkrafttreten des Gesetzes ist jedem Nutzer ein transparenter Weg der Beschwerdemeldung anzubieten.
Dies bedeutet einerseits einen erheblichen technischen Aufwand für die Plattformen. Andererseits müssen die Anbieter angesichts der recht kurzen Bearbeitungszeit zusätzliches Personal vorhalten, das zumindest juristische Grundkenntnisse aufweisen muss, um eine adäquate Prüfung der Beschwerden zu gewährleisten und um im Zweifel die sprachlichen Feinheiten der Inhalte prüfen zu können.
Der Entwurf des Netzwerkdurchsetzungsgesetzes wirkt in Teilen noch unausgegoren. Unklar ist vor allem, warum die rechtswidrigen Inhalte an Strafnormen anknüpfen, bei denen es dann doch nur darauf ankommt, dass diese als solche beleidigend oder volksverhetzend sind, nicht aber, ob der Äußernde sie vorsätzlich oder schuldhaft getätigt hat.
Vorsatz und Schuld des Äußernden lassen sich häufig bei einem einzelnen Tweet nicht innerhalb kurzer Zeit verifizieren. Dann aber muss sich das BMJV fragen lassen, ob die Anbindung an das Strafrecht tatsächlich der richtige Weg ist. Dennoch: Der Untergang der Meinungsfreiheit – wie von vielen befürchtet – ist der Entwurf nicht. Plattformen müssen rechtswidrige Inhalte schon nach geltendem Recht löschen (und werden auch nach dem neuen NetzDG mit den Behörden kooperieren), nur gibt der Gesetzgeber nun ein spezielles Verfahren dafür vor.
Update am 4. April 2017:
Inzwischen wurde der Entwurf des NetzDG offenbar vom BMJV nachgebessert. Soziale Netzwerke müssen nun doch keine proaktiven Maßnahmen gegen die erneute Speicherung des rechtswidrigen Inhalts treffen. Zudem wurden die rechtswidrigen Inhalte um einige Strafdelikte erweitert, u.a. um die Straftatbestände der Pornografie.
Update am 05. April 2017:
Der Gesetzentwurf wurde in leicht veränderter Form heute im Bundeskabinett beschlossen – der Regierungsentwurf findet sich hier; ein Vergleich zum zweiten Referentenentwurf hier. Auch der Regierungsentwurf ist bereits kritisiert worden.