Der Journalismus wird durch den Einsatz Künstlicher Intelligenz grundlegend verändert. Dieser Umbruch hat – für viele unbemerkt – bereits begonnen.
Durch Künstliche Intelligenz (KI) erstellte Texte zu den neuesten Fußballergebnissen, Börsendaten oder zum aktuellen Wetter prägen bereits heute unseren Alltag, doch auch KI-basierte Radiosendungen oder Videobeiträge sind auf dem Vormarsch. So wurde beispielsweise im Juni diesen Jahres ein vollständig von einer KI produzierter Kurzfilm vorgestellt, im August diesen Jahres startete der erste deutsche Radiosender, der ausschließlich von einer KI betrieben wird. Nach einem Bericht des Digital News Project der Oxford University und des Reuters Institute for the Study of Journalism sehen 69 Prozent der befragten Entscheidungsträger* in Medienunternehmen KI als den wichtigsten Wegbereiter für Innovation im Journalismus in den nächsten Jahren. Doch wie wird KI im Journalismus eingesetzt? Und welche rechtlichen Herausforderungen sind dabei zu beachten? Auf diese Fragen versucht dieser Blogbeitrag eine Antwort zu geben.
KI ist bereits heute ein unverzichtbares Werkzeug im Mediensektor
Schon heute kommt dem Einsatz von KI in der journalistischen Arbeit eine große praktische Bedeutung zu. So ist das Monitoring, d.h. das Aufspüren von relevanten Ereignissen und Entwicklungen, ein zentraler Anwendungsbereich von KI im Journalismus. Denn Algorithmen sind in der Lage, das gesamte Internet in Echtzeit zu durchforsten und zu erkennen, wenn es Auffälligkeiten in den Datensätzen gibt. Werden etwa an einem bestimmten Ort besonders viele Tweets auf einmal abgesetzt, ist dies häufig ein Hinweis darauf, dass dort ein besonderes Ereignis stattfindet oder ein Unglücksfall passiert sein könnte. Zudem kann KI durch Massenauswertung von sozialen Medien meist besser als menschliche Redakteure erkennen, welche Themen gerade die meisten Klicks bekommen.
Auch im Bereich des investigativen Journalismus wird KI immer gefragter. So kam etwa bei einer aufwendigen Recherche des NDR zu Steuerschlupflöchern ein Algorithmus zum Einsatz, der über elf Millionen Dokumente durchsuchte. Gleiches gilt für andere Enthüllungen wie den Panama Papers oder Open Lux, einer umfangreichen Recherchearbeit zu Steuervermeidung in Europa. Durch den Einsatz von KI können im Bereich des investigativen Journalismus enorme Datenmengen in einem Umfang gesichtet werden, den Journalisten ohne technische Hilfe niemals erfassen könnten.
Darüber hinaus wird KI auch für andere Hilfstätigkeiten wie etwa das Transkribieren von Audioaufnahmen oder die Überwachung von Kommentarbereichen eingesetzt und führt so zu erheblichen Zeitersparnissen für die Redakteure.
Auch eine Vielzahl der Börsen- und Sportnachrichten sowie Wetter- und Verkehrsberichte werden bereits heute nicht mehr von Journalisten, sondern von KI-Systemen verfasst. So ließ etwa die amerikanische Wirtschaftsnachrichtenagentur Bloomberg schon vor vier Jahren etwa ein Drittel ihrer Bilanzberichte von KI schreiben. Google testet derzeit ebenfalls ein KI-System, welches eigenständig Informationen sammelt und daraus Nachrichteninhalte generiert. Aber auch in Deutschland setzen beim Verfassen einfach gelagerter Artikel immer mehr Medienhäuser auf den Einsatz von KI. So kann quasi „per Knopfdruck“ mit geringem Aufwand sehr viel Content generiert und in verschiedenen Sprachen zur Verfügung gestellt werden. Allerdings dürften die Themenbereiche für sogenannten „Robojournalismus“, also Texte, die gänzlich ohne menschliche Hilfe von KI-Anwendungen verfasst werden, begrenzt sein. In der Regel erfolgt der Einsatz von KI ausschließlich in „zahlenbasierten“ Bereichen wie etwa bei Börsenmeldungen und Wahlergebnissen. Auf diese Weise können jedoch Redakteure entlastet werden, um sich verstärkt auf ihre kreative Arbeit wie etwa das Schreiben von Theater-Rezensionen oder Sozial-Reportagen zu konzentrieren und so die Qualität der Inhalte des jeweiligen Medienhauses erhöhen zu können.
Schließlich kann der Einsatz von KI künftig auch der Trennung von seriösen Informationen und sog. Fake-News dienen. So wird derzeit beispielsweise im Rahmen des Forschungsprojekts „noFake„von Wissenschaftlern der Ruhr-Universität Bochum und der Technischen Universität Dresden gemeinsam mit dem Recherchezentrum CORRECTIV ein KI-basiertes Assistenzsystem entwickelt, mit dessen Hilfe effektiv Falschinformationen identifiziert werden sollen.
Synthetische Medien als Zukunft des Journalismus?
Doch die Einsatzmöglichkeiten für KI im Journalismus gehen weit über einen bloßen Einsatz „im Maschinenraum“ hinaus und werden von Medienhäusern zunehmend getestet. Zuletzt hat der Innovation Hub des WDR in seinem Zukunftsreport mögliche Szenarien vorgestellt, wie synthetische Medien den Journalismus künftig prägen könnten. Unter dem Begriff der „synthetischen Medien“ sind sämtliche Medien wie etwa Video, Bild und Audio zu verstehen, die mit Technologien aus dem Bereich der KI verändert oder sogar vollständig erzeugt werden.
So könnten schon bald digitale Replikas von Nachrichtensprechern, Radiomoderatoren etc. erstellt werden. Zwar wird die KI „Text-to-Speech“ bereits seit längerem genutzt. Neu ist aber, dass mittlerweile auch bekannte Stimmen synthetisiert werden können. Der Stand der Technik ist hier aktuell schon so weit, dass bereits heute personalisierte Radioprogramme durch den Einsatz von KI möglich sind. So beispielsweise mit den Apps der Radiosender Hit Radio FHH, planet radio und harmony.fm, die Autofahrern personalisierte Verkehrsmeldungen bereitstellen, die von einer KI-Stimme vorgelesen werden. In China ist diese Technologie sogar schon seit geraumer Zeit Realität: Bereits im November 2018 stellte die chinesische Nachrichtenagentur Xinhua den weltweit ersten durch KI generierten Nachrichtensprecher vor. Auch die Online-Nachrichten des Medienunternehmens Kuwait News werden seit Mitte diesen Jahres vollständig von einer virtuellen Nachrichtensprecherin präsentiert. Darüber hinaus wird KI nun auch zur Kommentierung von Sportereignissen eingesetzt, wie etwa im Sommer diesen Jahres bei der Team-Europameisterschaft der Leichtathleten in Krakau.
Allerdings ist der Einsatz von digitalen Replikas nicht unumstritten. Denn eine Kehrseite der Möglichkeit, Menschen digitalisieren zu können ist, dass man dem, was man sieht, häufig nicht mehr trauen kann. Sogenannte Deepfakes, also realistisch wirkende Videos, Bilder und Tonaufnahmen, die durch Techniken der KI abgeändert oder verfälscht wurden, werden zunehmend zu einem Sicherheitsproblem. Das ist insbesondere dann der Fall, wenn reale Personen in falsche Kontexte gebracht werden. So tauchte zuletzt etwa ein Deepfake-Video eines Tagesschau-Sprechers auf, in welchem dieser vermeintlich für ein Finanzanlage-Produkt warb. Deepfakes haben daher bei vielen Menschen zu Skepsis im Hinblick auf den Einsatz von KI im Medienbereich geführt. Aus Angst vor Manipulation und Fake News besteht daher oftmals ein gewisses Misstrauen gegenüber sämtlichen synthetischen Inhalten. Insbesondere im Bereich des öffentlich-rechtlichen Journalismus wird daher überlegt, künftig Avatare einzusetzen, um eine klare Trennung zwischen normal gefilmten und synthetisierten Personen zu vollziehen. So könnten z.B. ausschließlich existierende, reale Personen die Live-Übertragung von Nachrichten übernehmen, während für andere, weniger sensible Inhalte „erfundene“, künstliche Avatare eingesetzt und entsprechend gekennzeichnet werden. Auch einige der derzeit größten und einflussreichsten Tech-Unternehmen, wie etwa Amazon, Google, Meta und Microsoft, haben sich nunmehr zur Kennzeichnung KI-generierter Inhalte verpflichtet.
Rechtliche Anforderungen beim Einsatz von KI im Journalismus
Die genannten Beispiele zeigen bereits, dass die Einsatzmöglichkeiten von KI für Medienhäuser zahlreich und vielfältig sind. Aus rechtlicher Perspektive ist der Einsatz von KI im Bereich des Journalismus allerdings nicht unbedenklich. So gibt es eine Vielzahl von Regelungsbereichen, die dabei zu beachten sind.
- Anforderungen der geplanten KI-Verordnung
- Der von der EU-Kommission vorgelegte Entwurf einer Verordnung zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (KI-VO) sieht in Art. 52 Abs. 1 und 3 KI-VO für synthetische Medieninhalte, die durch KI erzeugt oder verändert wurden (insbesondere Deepfakes), eine Transparenzpflicht vor. Wird danach ein KI-System eingesetzt, um Bild-, Audio- oder Video-Inhalte zu erzeugen oder zu manipulieren, so dass diese von authentischen Inhalten kaum zu unterscheiden sind, soll – abgesehen von legitimen Zwecken (wie Strafverfolgung, Meinungsfreiheit) – die Pflicht zur Offenlegung der Tatsache vorgeschrieben werden, dass der Inhalt durch automatisierte Mittel erzeugt wurde. Diese Transparenzpflicht wird durch den Parlamentsentwurf aus Juni diesen Jahres weiter verschärft. Danach soll, soweit möglich, der Name der natürlichen oder juristischen Person angegeben werden, der die Erstellung oder Manipulation vorgenommen hat. Unter einer Offenlegung ist hierbei eine deutlich sichtbare Kennzeichnung zu verstehen, die darüber informiert, dass Inhalte nicht echt sind. So soll sichergestellt werden, dass Nutzer bewusst entscheiden können, ob sie die Anwendung weiter nutzen wollen oder nicht. Bei Verstößen gegen diese Transparenzpflicht oder sonstige Regelungen der geplanten KI-VO könnten künftig erhebliche Bußgelder von bis zu EUR 10 Mio. bzw. 2 Prozent des gesamten weltweiten Jahresumsatzes verhängt werden. Neben der Verhängung von Bußgeldern sieht der aktuelle Parlamentsentwurf zudem alternativ oder zusätzlich nichtmonetäre Maßnahmen wie Anordnungen oder Verwarnungen vor.
- Urheberrechtliche Anforderungen
- Grundsätzlich ist nur menschliches Schaffen urheberrechtlich geschützt. Beim Einsatz von KI als Werkzeug findet das Urheberrecht mithin solange Anwendung, wie für die journalistisch tätige natürliche Person ein gewisser Gestaltungspielraum besteht und ein „persönlicher, geistiger Schaffensprozess“ zum Ausdruck kommt (vgl. § 2 Abs. 2 UrhG). Wird KI von Medienhäusern daher lediglich als technisches Hilfsmittel eingesetzt, ist der jeweilige Redakteur als Urheber der journalistischen Inhalte zu betrachten. Wenn allerdings die KI selbstständig und automatisiert arbeitet, entsteht kein urheberrechtlich geschütztes Werk.
- Auch das Europäische Parlament weist in seiner Entschließung zu Rechten des geistigen Eigentums für die Entwicklung von Technologien der KI aus Oktober 2020 auf den Unterschied zwischen KI-unterstützten menschlichen Schöpfungen und KI-generierten Schöpfungen hin und betont, dass letztere neue regulatorische Herausforderungen für das Urheberrecht mit sich bringen. In Fällen, in denen KI nur als Werkzeug zur Unterstützung eines Urhebers im Schöpfungsprozess eingesetzt wird, soll der derzeitige Rechtsrahmen für geistiges Eigentum danach weiterhin anwendbar sein. Werke, die von KI-Systemen autonom produziert werden, sollen dagegen aufgrund des Fehlens eines menschlichen Urhebers auch künftig grundsätzlich nicht urheberrechtlich geschützt werden. Gleichzeitig spricht sich das Europäische Parlament allerdings dafür aus, dass zumindest bestimmte KI-generierte Werke geschützt werden sollen, um Investitionen in KI zu fördern. Konkrete Vorschläge oder nähere Ausführungen zur Reichweite entsprechender Regelungen existieren bislang aber noch nicht. Die rechtspolitische Diskussion darüber, ob hier ein neues Leistungsschutzrecht geschaffen werden sollte, steht insofern noch am Anfang.
- Urheberrechtliche Fragestellungen ergeben sich darüber hinaus auch beim Training einer KI durch Sammeln und Abspeichern von im Internet frei verfügbaren Daten, da hierbei – ohne ausdrückliche Einwilligung der Betroffenen – eine Beeinträchtigung des Vervielfältigungsrechts des jeweiligen Rechteinhabers denkbar sein kann. Insoweit ist bisher jedoch nicht abschließend geklärt, inwieweit eine Nutzung dieser Daten für das Training einer KI nach Maßgabe des § 44b UrhG zu dulden wäre (mehr zu KI und Urheberrecht erfahren Sie in unserem Blog: Generative KI und Urheberrecht – Herausforderungen für Rechteinhaber und Nutzer – CMS Blog (cmshs-bloggt.de)).
- Medienrechtliche Anforderungen
- Im Hinblick auf das Medienrecht müssen zumindest solche Inhalte, die gemischt menschlich und automatisch generiert wurden, den medienrechtlichen Sorgfaltspflichten im Hinblick auf die Informationsverarbeitung genügen. Gemäß § 19 Abs. 1 MStV und den Landespressegesetzen müssen Telemedien mit journalistisch-redaktionell gestalteten Angeboten die Einhaltung der pressemäßigen Sorgfalt, also insbesondere die individuelle Überprüfung der Nachrichten vor ihrer Verbreitung mit der nach den Umständen gebotenen Sorgfalt auf Inhalt, Herkunft und Wahrheit gewährleisten. Werden diese Sorgfaltspflichten nicht eingehalten, drohen Unterlassungs-, Widerrufs- und Schadensersatzansprüche sowie Gegendarstellungsansprüche nach § 20 MStV. Sofern die Erstellung von Inhalten allerdings vollautomatisiert und gänzlich ohne menschliche Beteiligung erfolgt, passen die bestehenden medien-, presse- und selbst strafrechtlichen Vorschriften nicht ohne Weiteres und können deshalb keine uneingeschränkte Anwendung finden. Insbesondere können rein maschinenbasierte KI-Systeme die stets vorausgesetzte Interessenabwägung im konkreten Einzelfall schon aus technischen Gründen nicht leisten. Die zivilrechtliche Haftung für die Verbreitung von Inhalten kann indes durch den Einsatz vollautomatisierter Systeme nicht umgangen werden.
- Datenschutzrechtliche Anforderungen
- Der Einsatz von KI im Journalismus führt schließlich zu einem massenhaften Datensammeln. Die Datenaggregierung und -aufbereitung geht regelmäßig mit einer automatisierten Auslesung und Verarbeitung von personenbezogenen Daten i.S.d. europäischen Datenschutz-Grundverordnung (DSGVO) einher (sog. Web-Scraping). Für entsprechende Datenverarbeitungen bedarf es jedoch einer Rechtsgrundlage. Die Tatsache, dass personenbezogene Daten öffentlich zugänglich sind, bedeutet für sich genommen noch nicht, dass die betroffenen Personen auch konkludent in die Verarbeitung durch Web-Scraping einwilligen. Da die Einholung einer ausdrücklichen Einwilligung oder der Abschluss eines Vertrags in den meisten Fällen nicht praktikabel sein dürfte, kommen als Rechtsgrundlage vor allem Art. 6 Abs. 1 lit. f) DSGVO sowie das in Art. 85 Abs. 2 DSGVO i.V.m. § 23 MStV bzw. den jeweiligen Landespressegesetzen normierte Medienprivileg in Betracht.
- Soweit das Medienprivileg Anwendung findet, muss für Verarbeitungen „zu journalistischen Zwecken“ keine Einwilligung oder sonstige Rechtsgrundlage gemäß Art. 6 DSGVO vorhanden sein. Ob das Medienprivileg auch für den Einsatz von KI gilt, ist bislang nicht abschließend geklärt. Zumindest dann, wenn eine KI regelmäßig Beiträge zu Angelegenheiten von öffentlichem Interesse an einen unbestimmten Personenkreis verbreitet und dabei gewisse journalistische Mindeststandards beachtet, lässt sich wohl argumentieren, dass auch KI vom Medienprivileg erfasst sein könnte. Selbst wenn man dies anders sehen sollte, dürften die Medienhäuser jedenfalls auch ein berechtigtes Interesse gemäß Art. 6 Abs. 1 lit. f) DSGVO an der Ausübung ihrer Medien-, Presse- und Berufsfreiheit haben. Die Eingriffsintensität beim Web-Scraping ist zudem vergleichsweise gering, da die Daten lediglich kurzfristig gespeichert werden. Außerdem dürfte nach der vernünftigen Erwartungshaltung der betroffenen Personen mit einer Berichterstattung bzw. Weiterverarbeitung zu rechnen sein, wenn diese Informationen öffentlich im Internet publizieren. Die datenschutzrechtlichen Vorschriften stehen einer automatisierten Datenverarbeitung damit nicht per se entgegen. Allerdings muss zumindest dann, wenn das Medienprivileg nicht greifen sollte, für jeden Einzelfall eine umfassende Interessenabwägung vorgenommen werden, welche die Besonderheiten der konkreten Verarbeitung berücksichtigt.
Gesetzgeberische Impulse für mehr Rechtssicherheit beim Einsatz von KI im Journalismus
Es wird deutlich, dass die bestehenden Regelungen in den Bereichen des Urheber-, Medien- und Datenschutzrechts noch nicht auf den Einsatz von KI zugeschnitten sind und hinsichtlich der Anwendbarkeit der Vorschriften häufig noch erhebliche Unsicherheiten bestehen. Die nationale KI-Strategie der Bundesregierung sieht jedoch eine Anpassung des Wettbewerbs- und Urheberrechts vor, um die Menge an nutzbaren Daten zu erhöhen, ohne hierbei jedoch gleichzeitig personenbezogene Daten oder betriebliches Know-How preisgeben zu müssen. Ungeachtet dessen sind viele praktische Fragen bislang noch gänzlich ungeklärt. Wer soll etwa zur Verantwortung gezogen werden, wenn die KI irrt und Falschmeldungen in die Welt setzt? Wie weit darf der Einsatz von synthetischen Medien gehen? Was darf man Menschen in den Mund legen und was nicht? Und wie muss man nach dem Tod einer Person eigentlich mit deren digitaler Replika umgehen? Um für mehr Rechtssicherheit beim Einsatz von KI im Mediensektor zu sorgen und den Digitalisierungsprozess in diesem Bereich weiter zu unterstützen, ist der Gesetzgeber angesichts der rasanten Entwicklungen der letzten Jahre aufgefordert, rechtliche Anpassungen und Ergänzungen vorzunehmen.
Ein erster Schritt in diese Richtung könnte die Entschließung des Europäischen Parlaments vom 19. Mai 2021 zu KI in der Bildung, der Kultur und dem audiovisuellen Bereich sein. Erfreulich ist, dass auf EU-Ebene erkannt wurde, dass ergänzend zu den Regelungen der geplanten KI-VO weitere sektorspezifische Regelungen erforderlich sind. In einem nächsten Schritt müssten nun jedoch die recht pauschalen Forderungen des Europäischen Parlaments konkretisiert werden. Anhaltspunkte dafür, dass die Kommission an einem dem KI-VO vergleichbaren Regelwerk arbeitet, gibt es derzeit allerdings noch nicht.
Zudem hat die Europäische Kommission am 28. September 2022 eine Richtlinie zur Anpassung der Vorschriften über die außervertragliche zivilrechtliche Haftung an KI vorgeschlagen. Damit sollen die nationalen Haftungsvorschriften für Schäden, die durch KI-gestützte Projekte und Dienstleistungen verursacht werden, angepasst werden, um so die Einführung vertrauenswürdiger KI zu fördern. Der Entwurf sieht insbesondere vor, dass Geschädigte aufgrund der Kausalitätsvermutung von der Pflicht entbunden werden sollen, die Ursächlichkeit des Schadens darzulegen. Gleichzeitig soll der Zugang zu Beweismitteln erleichtert werden, die sich im Besitz vor Unternehmen oder Anbietern befinden. Derzeit befindet sich der Richtlinienentwurf jedoch noch im europäischen Gesetzgebungsverfahren und ein konkreter Zeitpunkt für die Verabschiedung der finalen Richtlinie ist noch nicht abzusehen. Nach Inkrafttreten der Richtlinie ist mit einer weiteren Umsetzungsfrist von mindestens zwei Jahren zu rechnen (mehr dazu erfahren Sie in unserem Blog: Richtlinie über KI-Haftung: Haftungsregulierung? (cmshs-bloggt.de)).
Auch vor der Rechtsberatung macht KI keinen Halt. Dies hat CMS bereits früh erkannt: Wie künstliche Intelligenz die Arbeit in Kanzleien verändert (cmshs-bloggt.de). Auf unserer Innovationen-Homepage und in unserem CMS To Go Podcast „Einfach.Innovativ“ erhalten Sie weitere Informationen.
In unserem CMS-Blog halten wir Sie in unserer Blog-Serie „Künstliche Intelligenz“ fortlaufend mit aktuellen Beiträgen zu diesen Themen auf dem Laufenden. Sie können diese Blog-Serie über den RSS-Feed abonnieren und werden von uns über neue Beiträge benachrichtigt. Im Rahmen dieser Blog-Serie sind bereits Beiträge erschienen zu Themen wie: Künstliche Intelligenz und der Journalismus der Zukunft; Endspurt für die Regulierung von KI; Verbotene Praktiken und Hochrisiko-KI-Systeme; Hochrisiko-KI-Systeme als regulatorischer Schwerpunkt; Pflichten entlang der Wertschöpfungskette und für Anbieter von Basismodellen; Transparenzpflichten, Rechte für Betroffene, AI Office und Sanktionen sowie Robo Advisor. Weitere Informationen finden Sie zudem auf unserer Insight-Seite: Implikationen für Künstliche Intelligenz und Recht | CMS Deutschland.
Haben Sie Anregungen zu weiteren Themen rund um KI, die in unserer Blog-Serie „Künstliche Intelligenz“ nicht fehlen sollten? Schreiben Sie uns gerne über blog@cms-hs.com.
*Gemeint sind Personen jeder Geschlechtsidentität. Um der leichteren Lesbarkeit willen wird im Beitrag die grammatikalisch männliche Form verwendet.