24. April 2025
KI Journalismus
Künstliche Intelligenz

KI im Journalismus: Chancen, Risiken, regulatorische Herausforderungen – Update 2

KI prägt den Journalismus zunehmend. Große Potenziale treffen auf regulatorische Pflichten – und erfordern aktives Risikomanagement.

Generative Künstliche Intelligenz (KI) ist längst integraler Bestandteil redaktioneller Abläufe. Automatisierte Börsenberichte, synthetische Stimmen oder vollständig KI-generierte Moderationsformate sind keine Ausnahme mehr, sondern etablierter Teil des Tagesgeschäfts. Medienhäuser profitieren von neuen Möglichkeiten zur Effizienzsteigerung, zur Individualisierung von Inhalten und zur Entwicklung innovativer Formate. Gleichzeitig steigen jedoch die Anforderungen an rechtliche Verlässlichkeit, redaktionelle Verantwortung und technische Transparenz. So verpflichtet die europäische KI-Verordnung zur eindeutigen Kennzeichnung synthetisch erzeugter Inhalte; Urheber– und Datenschutzrecht werfen grundlegende Abgrenzungsfragen auf und bestehende medienrechtliche Vorgaben müssen an neue technologische Realitäten angepasst und praktikabel umgesetzt werden.

Der vorliegende Beitrag analysiert zentrale Einsatzbereiche von KI im Journalismus und beleuchtet die rechtlichen und regulatorischen Rahmenbedingungen.

KI im redaktionellen Alltag

KI ist in Redaktionen längst kein Experiment mehr, sondern Bestandteil etablierter Arbeitsprozesse. Standardisierte Inhalte wie Wetter-, Börsen- oder Verkehrsmeldungen werden zunehmend automatisiert: KI-Systeme werten die zugrundeliegenden Daten aus und formulieren daraus binnen Sekunden eigenständig redaktionelle Texte.

Auch bei der Themenfindung kommt KI zum Einsatz: Algorithmen analysieren soziale Netzwerke, erkennen Muster, bewerten Interaktionen und identifizieren potenziell relevante Entwicklungen. Im investigativen Journalismus ermöglicht KI die Analyse umfangreicher Datensätze – zuletzt etwa im Rahmen der „Dubai Unlocked“-Recherchen. Dort unterstützte KI die Vorab-Filterung und Strukturierung von Millionen vertraulicher Dokumente.

Redaktionen nutzen darüber hinaus unterstützende Tools wie automatische Transkriptionsdienste, Übersetzungstools oder Moderationssoftware für Kommentarbereiche. Solche Systeme können redaktionelle Prozesse effizienter gestalten, stoßen jedoch an Grenzen, wenn es um inhaltliche Tiefe, Einordnung und verantwortungsvolle Abwägung geht. Gleichzeitig entstehen neue Anforderungen an Kontrollmechanismen und Qualitätsstandards.

Viele Medienhäuser entwickeln inzwischen interne Richtlinien zum Umgang mit KI – etwa zur Frage, wann Inhalte maschinell erstellt und wann diese als solche gekennzeichnet werden müssen. Die BBC hat hierzu öffentlich zugängliche Leitlinien zum Umgang mit generativer KI publiziert. Der WDR Innovation Hub dokumentiert redaktionelle KI-Experimente mit klaren Standards. Die New York Times wiederum setzt auf technische Schutzmaßnahmen und vertragliche Ausschlüsse, um eine unautorisierte Nutzung redaktioneller Inhalte für das Training von KI-Modellen zu verhindern. 

Synthetische Medien: Innovation mit Schattenseiten

Ein besonders dynamisches Feld stellt der Einsatz synthetischer Medien dar – also von Inhalten, die vollständig durch KI generiert oder verändert wurden. Neben Text betrifft dies zunehmend Bild-, Audio- und Videoinhalte. Erste Nachrichtenformate setzen auf virtuelle Sprecherfiguren, etwa das kuwaitische Medienhaus Kuwait News, das bereits im Jahr 2023 eine durch KI generierte virtuelle Nachrichtensprecherin mit dem Namen „Fedha“ eingeführt hat. In Deutschland experimentieren Radiosender mit personalisierten Programmen, in denen Verkehrshinweise oder Wetterberichte durch KI-Stimmen individuell generiert und eingesprochen werden – etwa bei HIT RADIO FFH, planet radio oder harmony.fm, die bereits seit 2023 mit entsprechenden KI-basierten Sprachdiensten experimentieren. Auch Podcasts werden mit synthetischen Stimmen real existierender Personen eingesprochen, z.B. das Handelsblatt KI-Briefing.

Die Grenze zwischen Realität und Künstlichkeit wird zunehmend durchlässig. KI kann Stimmen bekannter Persönlichkeiten imitieren, virtuelle Avatare animieren oder fiktionalisierte Szenarien täuschend echt visualisieren. Damit entstehen neue mediale Erzählräume – zugleich wächst jedoch das Missbrauchspotenzial: Deepfakes untergraben die Authentizität redaktioneller Inhalte und gefährden die Glaubwürdigkeit medialer Marken.

Auch Plattformen stehen in der Verantwortung. Der Digital Services Act (DSA) der EU verpflichtet große Plattformanbieter dazu, manipulative Inhalte zu erkenne und entsprechend zu kennzeichnen. Medienhäuser sind gut beraten, KI-generierte Inhalte bereits an der Quelle transparent zu markieren, um regulatorische Konflikte und Eingriffe durch Plattformbetreiber zu vermeiden.

Rechtliche Anforderungen beim Einsatz von KI im Journalismus

Die genannten Beispiele zeigen bereits, dass die Einsatzmöglichkeiten von KI für Medienhäuser zahlreich und vielfältig sind. Aus rechtlicher Perspektive ist der Einsatz von KI im Bereich des Journalismus allerdings nicht unbedenklich. So gibt es eine Vielzahl von Regelungsbereichen, die dabei zu beachten sind.

KI-VO: Transparenzpflicht für KI-Inhalte

Allen voran wurde 2024 die EU-Verordnung über Künstliche Intelligenz (KI-VO) verabschiedet. Sie schafft einen Rechtsrahmen für KI-Systeme und enthält spezifische Vorgaben für den Medienbereich. Besonders relevant ist hier Art. 50 KI-VO, der eine Transparenzpflicht für synthetische Medieninhalte statuiert. Werden Bild-, Audio- oder Video-Inhalte mithilfe von KI generiert oder manipuliert – insbesondere in Form von Deepfakes –, so muss grundsätzlich klar erkennbar sein, dass es sich nicht um authentisches Material handelt​. Ausnahmen sind lediglich für eng begrenzte legitime Zwecke vorgesehen (z. B. Strafverfolgung oder ausdrücklich geschützte Formen der Meinungsäußerung). Die KI-VO verlangt also von Medienanbietern, KI-erschaffene Inhalte deutlich zu kennzeichnen, damit das Publikum nicht getäuscht wird. Dieses Transparenzgebot wird flankiert von empfindlichen Sanktionen: Verstöße können mit Bußgeldern bis zu 10 Millionen Euro oder 2 % des weltweiten Jahresumsatzes geahndet werden. Medienunternehmen sind daher gut beraten, interne Prozesse zu etablieren, um KI-generierte Beiträge entsprechend zu markieren.

Über die Kennzeichnung hinaus wirft der Einsatz von KI im Journalismus weitere regulatorische Fragen auf, die durch die KI-VO nur zum Teil erfasst werden. So ist etwa unklar, ob redaktionelle KI-Systeme als Hochrisiko-KI einzustufen wären, was strengere Auflagen nach sich zöge – der aktuelle Rechtsrahmen enthält hierzu noch keine spezifischen Vorgaben. Fest steht jedoch, dass mit Inkrafttreten der KI-VO (voraussichtlich ab 2026) auch Medienhäuser ihre KI-Anwendungen im Blick haben müssen, um den neuen europäischen Transparenzanforderungen gerecht zu werden.

Urheberrecht: Mensch als Urheber und KI als Werkzeug

Ein weiteres zentrales Thema ist die urheberrechtliche Einordnung von KI-bezogenem Schaffen. Nach geltendem Recht genießt grundsätzlich nur menschliche Kreativität Urheberrechtsschutz. Das Werk muss das Ergebnis eines persönlichen, geistigen Schaffensprozesses sein (§ 2 Abs. 2 UrhG). Wird KI lediglich als Werkzeug von Journalisten* eingesetzt – etwa zur Datenrecherche, Übersetzung oder Unterstützung beim Texten –, so bleibt am Ende ein Mensch der Urheber des Werkes, sofern dieser noch eigene geistige Leistung in das Endergebnis einbringt. Solange also ein Redakteur die KI-Ausgabe kuratiert, anpasst oder kreativ ausgestaltet, greift der Urheberschutz für das Endprodukt wie gehabt.

Anders sieht es aus, wenn ein Beitrag vollautomatisch durch KI erstellt wird, ohne menschliches Zutun bei der inhaltlichen Gestaltung. In solchen Fällen entsteht nach derzeitiger Gesetzeslage kein urheberrechtlich geschütztes Werk, da es am menschlichen Schöpfungsakt fehlt​. Die Konsequenz ist brisant: Ein rein von KI generierter Artikel, etwa ein automatisch verfasster Wetterbericht, genießt keinen urheberrechtlichen Schutz – er darf theoretisch von jedermann übernommen werden, sofern nicht andere Schutzrechte (Datenbankrecht, Leistungsschutzrechte etc.) eingreifen. Das Europäische Parlament hat in einer Entschließung vom Oktober 2020 ausdrücklich auf diese Problematik hingewiesen: Es betont den Unterschied zwischen KI-unterstützten und KI-generierten Schöpfungen und spricht sich dafür aus, dass Letztere mangels menschlichen Urhebers grundsätzlich nicht unter den herkömmlichen Urheberrechtsschutz fallen​. Zwar wird erwogen, ob man bestimmte KI-Ergebnisse über ein neues Schutzrecht absichern sollte, um Investitionen zu fördern, doch existieren hierzu bislang weder konkrete Vorschläge noch ein Konsens. In der Praxis bleibt daher die Faustregel: Ohne menschlichen Autor kein Urheberrecht. Mehr zu dem Thema KI und Urheberrecht erfahren Sie hier in unserem Blog: Mithilfe Künstlicher Intelligenz plötzlich Urheber?.

Trainingsdaten und TDM-Schranke: Nutzung fremder Inhalte zur KI-Entwicklung

Nicht minder wichtig ist die Frage, woraus KI-Systeme lernen. Moderne KI-Modelle werden häufig mit gigantischen Mengen an Texten, Bildern oder Audiodaten aus dem Internet trainiert. Dazu zählen auch journalistische Inhalte – Nachrichtenartikel, Fotos, Beiträge von Verlagen. Das Training einer KI erfordert technisch gesehen die Vervielfältigung dieser Werke (das KI-System analysiert und speichert Inhalte, um Muster zu erkennen), was das Urheberrecht der Quellen berühren kann. Das deutsche Urheberrechtsgesetz kennt seit 2021 eine spezielle Text- und Data-Mining-Schranke (§ 44b UrhG), welche unter bestimmten Voraussetzungen das automatisierte Auswerten urheberrechtlich geschützter Inhalte erlaubt. Diese Ausnahmeregelung – umgesetzt aufgrund der EU-Urheberrechtsrichtlinie 2019/790 – gestattet Text- und Data-Mining auch für kommerzielle Zwecke, sofern die verwendeten Inhalte rechtmäßig zugänglich sind und die Rechteinhaber einer Verwendung nicht widersprochen haben (Opt-out)​. Allerdings sind die Grenzen dieser Schranke im Detail noch unklar. Insbesondere steht zur Debatte, ob das massenhafte Scraping journalistischer Websites zum KI-Training ohne Zustimmung der Verlage zulässig ist, solange kein ausdrücklicher Widerspruch (etwa per robots.txt oder AGB) erfolgt – oder ob hierin doch eine unzumutbare Beeinträchtigung der Rechte der Urheber zu sehen ist​.

Aktuell zeichnet sich ein Spannungsfeld ab: Große Medienhäuser beginnen, ihr digitales Material gegen unautorisierte KI-Nutzung abzuschirmen. So hat die New York Times im August 2023 ihre Nutzungsbedingungen geändert, um das automatisierte Auslesen und Verarbeiten ihrer Inhalte für KI-Trainingszwecke ausdrücklich zu untersagen​. Die Rechtslage hierzu ist derzeit noch offen. Zwar bietet § 44b UrhG einen gewissen Rahmen, doch ist nicht abschließend geklärt, inwieweit das massenhafte Training von KI mit Presseartikeln davon gedeckt ist​. Letztlich dürfte es auf die Auslegung der urheberrechtlichen Schranke durch die Gerichte ankommen. Das LG Hamburg hält die Vervielfältigung einer Fotografie im Rahmen der Anfertigung eines KI-Trainingsdatensatzes beispielsweise für zulässig und stützt sich hier aber maßgeblich auf  § 60d UrhG, der Text- und Data-Mining zum Zwecke der wissenschaftlichen Forschung erlaubt (LG Hamburg, Urteil v. 27. September 2024 – 310 O 227/23). Für die journalistische Branche steht indes viel auf dem Spiel: Es gilt, einerseits die Innovation durch KI nicht zu behindern, andererseits aber die geistigen Eigentumsrechte der Inhalte-Ersteller zu wahren.

Medienrechtliche Sorgfaltspflichten und Automatisierung

Neben dem Urheberrecht rücken auch medienrechtliche Vorgaben in den Fokus, sobald KI im redaktionellen Prozess mitwirkt. Klassische Mediengesetze knüpfen an die Tätigkeit menschlicher Redakteure an – insbesondere was die journalistische Sorgfaltspflicht betrifft. Nach § 19 Abs. 1 Medienstaatsvertrag (MStV) und den Landespressegesetzen müssen journalistisch-redaktionelle Inhalte mit der gebotenen Sorgfalt auf Wahrheit, Herkunft und Inhalt geprüft werden, bevor sie verbreitet werden. Diese Verpflichtung zur Quellenprüfung und inhaltlichen Kontrolle gilt unabhängig davon, welche Hilfsmittel eingesetzt werden. Kommt also KI bei der Nachrichtenerstellung zum Einsatz, darf dies nicht dazu führen, dass ungeprüfte KI-Generierungen eins zu eins veröffentlicht werden. Die verantwortlichen Redakteure müssen nach wie vor sicherstellen, dass die Enderzeugnisse den professionellen Standards genügen. Andernfalls drohen zivilrechtliche Konsequenzen – von Unterlassungs- und Widerrufsansprüchen bis hin zu Schadensersatz oder Gegendarstellung​.

Eine offene Frage ist, wie mit Inhalten umzugehen ist, die vollautomatisch ohne menschliche Endredaktion veröffentlicht werden. Streng genommen stoßen hier die traditionellen Normen an Grenzen, da ein KI-System keine „nach den Umständen gebotene“ Interessenabwägung vornehmen kann​. Dennoch kann sich ein Medienunternehmen nicht hinter der Maschine verstecken: Die publizistische Verantwortung und Haftung bleibt beim Betreiber. Rein maschinell erstellte Nachrichten entbinden nicht von der Pflicht, im Fall von Rechtsverletzungen (etwa Persönlichkeitsverletzungen durch falsche Tatsachenbehauptungen) zu reagieren. Gerade hier besteht ein Spannungsfeld zwischen technischer Möglichkeit und rechtlicher Zurechenbarkeit. De lege lata dürfte die Haftung beim Medienanbieter liegen, wenn dessen KI-System etwa eine Rufschädigung publiziert – analog zur Haftung für menschliche Redakteure. Umstritten ist allerdings, ob die bestehenden Normen im Straf- oder Ordnungswidrigkeitenrecht (z. B. bezüglich der Verantwortlichkeit für Presseveröffentlichungen) ausreichend sind, um Roboterjournalismus zu erfassen, oder ob der Gesetzgeber klarstellende Regeln schaffen sollte. Bis dahin empfiehlt sich in der Praxis ein konservativer Ansatz: KI-Outputs sollten immer von einer redaktionellen Instanz überprüft werden, bevor sie das Publikum erreichen, um den medienrechtlichen Sorgfaltspflichten gerecht zu werden.

Datenschutzrechtliche Anforderungen

Auch datenschutzrechtlich wirft der KI-Einsatz im Journalismus Fragen auf. KI-Anwendungen im Medienbereich – etwa Tools zum Web-Scraping für Recherche oder zur Trendanalyse in sozialen Netzwerken – verarbeiten häufig personenbezogene Daten in großem Umfang. Schon das automatisierte Durchforsten öffentlich zugänglicher Quellen kann dazu führen, dass Informationen über identifizierbare Personen gesammelt und analysiert werden. Nach der Datenschutz-Grundverordnung (DSGVO) bedarf jedoch jede Verarbeitung personenbezogener Daten einer Rechtsgrundlage. Der Umstand allein, dass Daten öffentlich einsehbar sind (etwa ein Tweet oder ein Facebook-Profil), bedeutet nicht, dass jedermann sie nach Belieben weiterverwenden darf​. Für Medien und Journalisten gibt es allerdings eine wichtige Ausnahme: das sogenannte Medienprivileg. Art. 85 Abs. 2 DSGVO erlaubt den EU-Mitgliedstaaten, für Verarbeitungen zu journalistischen Zwecken von vielen Datenschutzpflichten abzuweichen. Deutschland hat hiervon Gebrauch gemacht – insbesondere durch § 23 MStV und die Landespressegesetze, welche weite Teile der DSGVO für Journalisten unanwendbar machen, solange die Datenverarbeitung der Erfüllung publizistischer Aufgaben dient. Vereinfacht gesagt genießen Medien bei ihrer Recherche- und Veröffentlichungstätigkeit weitgehende datenschutzrechtliche Freiheiten, um die Presse- und Meinungsfreiheit nicht über Gebühr einzuschränken.

Doch greift dieses Medienprivileg auch, wenn KI-Systeme die Daten verarbeiten? Die Frage ist bislang nicht höchstrichterlich geklärt. Man kann vertreten, dass es auf den Zweck der Datenverarbeitung ankommt – wenn eine KI regelmäßig Beiträge von öffentlichem Interesse für ein breites Publikum erstellt und dabei journalistische Standards wahrt, spricht viel dafür, sie als Teil der journalistischen Tätigkeit anzusehen. In diesem Fall würden etwaige DSGVO-Anforderungen (z. B. Informationspflichten gegenüber den betroffenen Personen oder Löschpflichten) weitgehend entfallen. Sollte man hingegen argumentieren, eine vollautomatisierte KI falle nicht unter das Medienprivileg, müsste jede Datenverarbeitung durch KI im Einzelfall auf eine allgemeine Rechtsgrundlage gestützt werden, etwa auf das berechtigte Interesse des Medienhauses (Art. 6 Abs. 1 lit. f DSGVO) an der Berichterstattung. Dieses berechtigte Interesse der Presse an Information der Öffentlichkeit hat durchaus Gewicht – die Gerichte müssten im Kollisionsfall zwischen Datenschutz und Pressefreiheit sorgfältig abwägen. Praktisch relevant wird die Abgrenzung insbesondere beim Web-Scraping personenbezogener Daten für KI-Recherchezwecke: Solange die gewonnenen Informationen in journalistischen Kontext fließen, dürfte das Medienprivileg vieles abdecken. Sollte es im Grenzfall nicht greifen, ist eine Interessenabwägung erforderlich, die Faktoren wie die Sensibilität der Daten, die Erwartungen der Betroffenen und den Beitrag der Veröffentlichung zur Meinungsbildung berücksichtigt. Insgesamt ist festzuhalten, dass das Datenschutzrecht den automatisierten Datenhunger der KI nicht per se stoppt – die Pressefreiheit bleibt ein hohes Gut. Dennoch bleibt abzuwarten, ob der Gesetzgeber oder die Rechtsprechung hier künftig präzisere Leitplanken setzen werden, um allen Beteiligten mehr Rechtssicherheit zu geben.

Vertragliche Absicherung in der Praxis

Schließlich beziehen viele Redaktionen KI-Funktionalitäten von Drittanbietern – etwa für Sprachsynthese, Textgenerierung oder Bildproduktion. Entsprechende Dienstleistungsverträge sollten nicht nur technische Schnittstellen, sondern auch regulatorische Anforderungen verlässlich abbilden. Dies betrifft insbesondere Regelungen zu den folgenden Aspekten:

  • Haftungsklauseln für fehlerhafte oder rechtswidrige Inhalte,
  • Auditrechte zur Prüfung der Datenquellen und Modelle,
  • Verpflichtungen zur Einhaltung regulatorischer Vorgaben (z. B. KI-VO, DSGVO),
  • Vereinbarungen über Update- und Supportpflichten bei regulatorischen Änderungen,
  • Verbot der Nutzung von Kundendaten zu Trainingszwecken, sofern nicht ausdrücklich erlaubt.

Solche Regelungen sollten Bestandteil einer umfassenden Governance-Struktur für den KI-Einsatz im redaktionellen Umfeld sein.

Offene Regulierungsfragen

Trotz der bereits existierenden, umfassenden regulatorischen Vorgaben bleiben zentrale Weichenstellungen offen, die künftig über den vertrauenswürdigen Umgang mit KI-basierten Inhalten entscheiden werden:

  • Die Nutzung synthetischer Repliken realer Personen – insbesondere nach dem Tod – wirft komplexe Fragen zum Persönlichkeits- und postmortalen Schutz auf. Denkbar sind Anforderungen an eine zu Lebzeiten erteilte Einwilligung oder gesetzlich kodifizierte Schutzfristen. Derzeit fehlt jedoch ein konsistenter rechtlicher Rahmen auf nationaler wie europäischer Ebene.
  • Auch die Übertragung redaktioneller Standards auf vollständig automatisierte Inhalte stellt Medienhäuser vor neue Herausforderungen. Während journalistische Sorgfaltspflichten traditionell an menschliche Bewertung und Einzelfallprüfung anknüpfen, bedarf es bei KI-generierten Inhalten klarer interner Verfahren: von der systematischen Quellenprüfung über die Protokollierung algorithmischer Entscheidungen bis hin zur redaktionellen Endverantwortung.
  • Wie KI-basierte Formate, die klassische Medienkategorien sprengen, künftig regulatorisch eingeordnet werden sollen, bleibt offen. Hier besteht gesetzgeberischer Handlungsbedarf, um Zuständigkeiten zu klären und einen kohärenten Rahmen auch für hybride oder rein synthetische Angebote zu schaffen. Infrage kommen etwa Anpassungen im Medienstaatsvertrag oder ein eigenständiges Aufsichtsinstrument für algorithmengestützte Inhalte.

Medienunternehmen sollten diese Fragen bereits jetzt im Rahmen ihrer strategischen Planung und internen Compliance-Strukturen berücksichtigen – nicht zuletzt, um regulatorische Entwicklungen frühzeitig antizipieren zu können.

Praktische Umsetzung – empfohlene Maßnahmen

Für Medienhäuser empfiehlt sich eine abgestufte Vorgehensweise, die technische, rechtliche und redaktionelle Anforderungen gleichermaßen berücksichtigt. Dazu gehört zunächst die Festlegung interner Richtlinien, die den zulässigen Einsatz generativer KI und die redaktionelle Verantwortung eindeutig regeln. Inhalte, die mithilfe von KI erstellt oder verändert wurden, sollten klar und einheitlich gekennzeichnet werden – nicht nur zur Einhaltung regulatorischer Vorgaben, sondern auch zur Wahrung der Transparenz gegenüber dem Publikum.

Selbst bei teilautomatisierten Vorarbeiten bleibt eine redaktionelle Endkontrolle unverzichtbar. Diese sollte durch dokumentierte Prüfprozesse und nachvollziehbare Quellenangaben abgesichert werden. Zudem empfiehlt sich eine regelmäßige Überprüfung der eingesetzten KI-Tools, insbesondere im Hinblick auf deren vertragliche Ausgestaltung: Fragen der Haftung, Datenverwendung und Auditierbarkeit sollten vertraglich präzise geregelt sein. Schließlich bedarf es eines kontinuierlichen Monitorings regulatorischer Entwicklungen – auf nationaler wie europäischer Ebene –, um frühzeitig auf neue regulatorische Anforderungen, Publikationspflichten oder Marktstandards reagieren zu können.

In unserem CMS-Blog informieren wir Sie in unserer Blog-Serie Künstliche Intelligenz fortlaufend mit aktuellen Beiträgen zu diesem Thema. Sie können diese Blog-Serie über den RSS-Feed abonnieren und werden von uns über neue Beiträge informiert. Weitere Informationen finden Sie zudem auf unserer Insight-Seite: Implikationen für Künstliche Intelligenz und Recht | CMS Deutschland.

Haben Sie Anregungen zu weiteren Themen rund um KI, die in unserer Blog-Serie Künstliche Intelligenz nicht fehlen sollten? Schreiben Sie uns gerne über blog@cms-hs.com.

*Gemeint sind Personen jeder Geschlechtsidentität. Um der leichteren Lesbarkeit willen wird im Beitrag die grammatikalisch männliche Form verwendet.

Tags: Content Journalismus KI Synthetische Medien