20. September 2022
NetzDG DSA Social Media Plattform
TMC – Technology, Media & Communications

Vom NetzDG zum DSA – was ändert sich für Social-Media-Plattformen?

Auf Plattformen kommen weitreichende Änderungen zu. Welche Pflichten der DSA mit sich bringt, zeigen wir auf unserem Blog.

Nach mehr oder weniger erfolgreichen Alleingängen verschiedener Mitgliedsstaaten – darunter auch Deutschland – hat sich die EU zu dem Digital Services Act (DSA) durchgerungen. Mit dieser Verordnung will die EU Fake News und Hate-Speech wirkungsvoll den Kampf ansagen.

Welche Pflichten kommen nach dem Entwurf auf die sog. sehr großen Onlineplattformen, wie z.B. Facebook, TikTok und Instagram, zu? 

DSA gilt spätestens ab 1. Januar 2024 für alle

Am 5. Juli 2022 hat das Europäische Parlament dem DSA zugestimmt. Um das Gesetz zu verabschieden, fehlt nun nur noch die Zustimmung des Rates der Europäischen Union, die jedoch als Formsache gilt. 20 Tage nach Verkündung im EU-Amtsblatt tritt der DSA in Kraft, das Gesetz soll aber erst 15 Monate nach dem Inkrafttreten oder ab dem 1. Januar 2024 gelten, je nachdem, welcher Zeitpunkt später eintritt.

Eine Ausnahme besteht jedoch für die sog. sehr großen Onlineplattformen: Für diese gilt der DSA, schon vier Monate nachdem diese als sehr große Onlineplattform von der EU-Kommission benannt wurden.

Zahlreiche Pflichten als Maßnahmen gegen illegale Inhalte normiert

Wie auch das bisher in Deutschland gültige Netzwerkdurchsetzungsgesetz (NetzDG) sieht auch der DSA die private Rechtsdurchsetzung vor. Nicht Behörden und Gerichte sollen die Regulierung und die Einhaltung des geltenden Rechts überwachen, sondern die Plattformen selbst.

Um das zu erreichen, etabliert der DSA ein System aus Sorgfaltspflichten und Bußgeldandrohungen, welche die Plattformen zur Einhaltung des geltenden Rechts und zur Selbstregulierung bewegen sollen. Der DSA bürdet den Plattformen die normierten Pflichten stufenweise auf: Kleine Plattformen haben weniger Pflichten als große, Vermittlungsdienste haben weniger Pflichten als sehr große Onlineplattformen.

Dabei sind besonders die Änderungen für die sog. sehr großen Onlineplattformen gravierend. Sehr große Onlineplattformen sind Plattformen, die monatlich mehr als 45 Mio. Menschen erreichen. Wie schon aus dem NetzDG bekannt, müssen diese Plattformen eigene Melde- und Abhilfeverfahren für illegale Inhalte bereitstellen. Allerdings wird der Begriff der illegalen Inhalte im DSA weiter gefasst als im NetzDG. Es kommen damit mehr Äußerungen als bisher in Betracht, die von den Nutzer:innen der Plattform gemeldet werden können. Ergänzt wird dieses Verfahren durch einen verpflichtenden Beschwerde- und Rechtsbehelfsmechanismus.

Zusätzlich müssen Plattformen Meldungen sog. Trusted Flaggers priorisiert, ohne unangemessene Verzögerung bearbeiten. Trusted Flaggers sind Organisationen, die sich unabhängig von Onlineplattformen auf die Identifizierung illegaler Inhalte spezialisiert haben und von den Koordinator:innen für digitale Dienste der Mitgliedsstaaten als solche anerkannt werden.

Um Missbrauch vorzubeugen, müssen sich sehr große Onlineplattformen außerdem darauf einstellen, Nutzer:innen, die wiederholt illegale Inhalte posten oder wiederholt offensichtlich unbegründete Beschwerden einreichen, zeitweise von der Nutzung ihrer Services auszuschließen. Eine Fristsetzung zur Bearbeitung von Beschwerden ist allerdings, anders als im NetzDG, nicht vorgesehen.

Darüber hinaus sind die sehr großen Plattformen gezwungen, einen Verdacht auf Straftaten bei den Behörden zu melden, wenn diese eine Gefahr für das Leben oder die Sicherheit von Personen darstellen.

Im Falle einer Krise (d.h. z.B. bei Terroranschlägen, Umweltkatastrophen wie Erdbeben oder Hurricanes, aber auch bei Pandemien) kann die Kommission künftig evaluieren, ob und wie die Funktionsweise der Plattform zu dieser Krise beiträgt und gegenüber der Plattform geeignete und verhältnismäßige Maßnahmen anordnen, um den Beitrag der Plattform zur Krise zu beenden.

Mit Verhaltenskodizes, Moderation und AGB-Regelungen gegen Fake News

Desinformationen und sog. Fake News werden im Lichte der Meinungsfreiheit nicht als illegale Inhalte betrachtet. Um trotzdem die Verbreitung zu begrenzen, müssen Plattformen zukünftig jährlich ihre Algorithmen hinsichtlich ihrer systemischen Risiken in Bezug auf die Verbreitung von Fake News analysieren, bewerten und anschließend angemessene, verhältnismäßige und wirksame Maßnahmen treffen, um diese Risiken zu bekämpfen.

Zu solchen Maßnahmen zählen Content-Moderation, Änderungen in den AGB, um gegen Fake News und Desinformation vorgehen zu können, und die Erstellung von Verhaltenskodizes. Zudem müssen Plattformen in ihren AGB die wichtigsten Parameter offenlegen, die sie für ihre Beitragsempfehlungen nutzen, und Nutzer:innen eine Option zur Auswahl stellen, die Empfehlungen nicht auf Grundlage von Nutzer:innen-Profiling vornimmt. 

Werbung muss transparent erfolgen und archiviert werden

Auch im Bereich der Werbung stehen den Plattformen große Änderungen ins Haus. Werbung, die sich an Kinder richtet oder bestimmte persönliche Daten nutzt (z.B. die Sexualität, ethnische Zugehörigkeit oder politische Ausrichtung der Nutzer:innen), ist künftig verboten.

Anzeigen und Werbung müssen künftig nicht nur, wie es schon jetzt der Fall ist, als solche gekennzeichnet werden. Vielmehr müssen Informationen darüber bereitgestellt werden, wer Auftraggeber:in der Anzeige ist und wer diese bezahlt hat, sowie die Parameter, die dazu führen, dass Nutzer:innen diese Anzeige eingeblendet wird. Darüber hinaus müssen Anzeigen, die auf der Plattform veröffentlicht wurden, mind. ein Jahr in einem Archiv auf der Plattform vorgehalten werden, zusammen mit den oben stehenden Angaben sowie Angaben, die Nutzer:innen eine zeitliche Einordnung ermöglichen und zusätzlich darüber informieren, welchen Nutzergruppen die Anzeige angezeigt wurde. 

Künftig sind Plattformen auch verpflichtet, von denjenigen Unternehmen, die über die Plattform Waren verkaufen, alle notwendigen Angaben einzuholen, damit Kund:innen ihrer Rechte leichter wahrnehmen können, aber auch, um diese vor Missbrauch zu schützen. Dazu zählen insbesondere Angaben zu Name, Adresse, Mailadresse, Telefonnummer, Bankverbindung und Identitätsnachweis der Kund:innen sowie die Hinterlegung der Handelsregisternummer der Händler:innen und deren Versicherung, dass sie nur Produkte anbieten, die mit Europäischem Recht übereinstimmen. Onlineplattformen sind außerdem verpflichtet, über die Einhaltung der Maßnahmen des DSA einen umfangreichen jährlichen Transparenzbericht abzugeben, und werden zusätzlich auf eigene Kosten hinsichtlich der Einhaltung der Pflichten für Onlineplattformen unabhängig überprüft.

Onlineplattformen sollten sich frühzeitig auf den DSA vorbereiten

Zwar steht das genaue Datum des Inkrafttretens und des Geltungsbeginns des DSA noch nicht fest. Sicher ist aber, dass es keine lange Schonfrist für die sehr großen Onlineplattformen geben wird, da für sie die Verordnung bereits vier Monate nach ihrer Einordnung als sehr große Onlineplattform durch die EU gelten wird. 

Die betroffenen Plattformen sollten also bestenfalls bereits jetzt tätig werden, um nicht mit der Umsetzung dieser umfangreichen neuen Regelungen in Verzug zu geraten. Zumindest hinsichtlich der Melde- und Abhilfeverfahren können die großen Onlineplattformen aber auf die Instrumente zurückgreifen, die sie bereits durch die Einführung des NetzDG in Deutschland vorhalten mussten. Am Ende bleibt für die Plattformen ein signifikant höherer Verwaltungs- und Kostenaufwand und für die Nutzer:innen ergeben sich zusätzliche Rechte und Transparenz. 

Besuchen Sie zu dem Thema unsere Insight-Seite „Digital Regulation“.

Der Beitrag wurde in Zusammenarbeit mit Paul Benk erstellt.

Tags: DSA NetzDG Plattform Social Media TMC