17. November 2022
KI-Haftung Richtlinie
TMC – Technology, Media & Communications

Richtlinie über KI-Haftung: Haftungsregulierung durch regulierte Privilegierung?

Der Kommissionsvorschlag soll die Schadenskompensation für Opfer von KI vereinfachen und Anbieter zu einem schadensvermeidenden Verhalten anhalten.

Am 28. September hat die Europäische Kommission den Vorschlag für eine Richtlinie zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz – Richtlinie über KI-Haftung – (zusammen mit dem Vorschlag für eine Überarbeitung der Produkthaftungsrichtlinieangenommen. Die Richtlinie über KI-Haftung soll ausschließlich die Sachverhalte erfassen, die nicht in den Anwendungsbereich der Produkthaftungsrichtlinie fallen.

Eine Abgrenzung der Anwendungsbereiche kann allerdings nicht nach dem Anspruchsgegner erfolgen, da der Begriff des Anbieters nach der Richtlinie über KI-Haftung inhaltlich deckungsgleich mit dem Herstellerbegriff der Produkthaftungsrichtlinie ist. Vielmehr wird die Unterscheidung der Anwendungsbereiche in Zukunft danach erfolgen, ob der Schaden durch ein unsicheres KI-System verursacht worden ist (Fehler i.S.d. § 3 ProdHaftG) oder ob ein Schaden i.S.d. außervertraglichen Haftungsregelungen auf ein Fehlverhalten des Anbieters* beim Gebrauch von KI-Systemen zurückzuführen ist. Die Kommissionsvorschläge liegen nun dem Europäischen Parlament und dem Rat vor.

Die eingangs genannten Ziele der Kommission scheinen auf den ersten Blick so erstrebenswert wie ambitioniert. Doch wie groß ist der Reformbedarf im deutschen Haftungsrechts mit Blick auf die technologische Gegenwart wirklich und wie sollen zukünftig die Haftungsrisiken zwischen Anbietern und Geschädigten nach dem Entwurf der Kommission verteilt werden?

Bereits vielfältiger Einsatz von KI-Systemen trotz bestehender Rechtslage

Der Einsatz künstlicher Intelligenz bietet ein enormes wirtschaftliches Potenzial, welches längst u.a. im Banken- und Versicherungswesen, bei der Umsetzung autonomer Fahrsysteme, aber auch in Großkanzleien, etwa zur automatisierten Vertragsprüfung, umfassend genutzt wird. Dennoch konnte im Rahmen einer repräsentativen Umfrage aus dem Jahr 2020 festgestellt werden, dass die Haftung zu den drei größten Hindernissen für den Einsatz von KI durch europäische Unternehmen zählt: Diese wurde als das wichtigste externe Hindernis (43 %) für Unternehmen genannt, die den Einsatz von KI zwar planen, die tatsächliche Umsetzung jedoch bisher unterlassen haben. 

In Abgrenzung zu auf Algorithmen basierender Software zeichnen sich KI-Systeme dadurch aus, dass diese keine deterministische Struktur aufweisen, sondern, dem Prinzip neuronaler Netze folgend, ein inhärent probabilistisches „Verhalten“ abbilden. Die „Entscheidungsfindung“ von KI-Systemen wird daher zu Recht regelmäßig als „Black-Box“ bezeichnet.

Die Flexibilität der Systeme künstlicher Intelligenz ist dabei Fluch und Segen zugleich. Wird hierdurch erst der Einsatz in komplexen Entscheidungsfindungsprozessen ermöglicht, erschwert diese systemimmanente Intransparenz gleichzeitig die Nachvollziehbarkeit eines Endergebnisses für das Opfer einer Fehlentscheidung und damit auch die Geltendmachung von Schadensersatzansprüchen.

Die außervertragliche Haftung der Anbieter von KI-Systemen in Deutschland de lege lata

Der deutsche Gesetzgeber hat bisher die Rolle des stillen Beobachters eingenommen und seit der erstmaligen Verwendung des Begriffs der Künstlichen Intelligenz im Jahre 1956 durch McCarthy, einem US-amerikanischen Logiker, Informatiker und Autor, keine spezialgesetzlichen Regelungen zu KI-Systemen geschaffen. Zu nennen sind lediglich einzelne Anpassungen innerhalb bestehender Haftungsregelungen an die Existenz künstlicher Intelligenz, im Umfang jedoch beschränkt auf eine homöopathische Dosis (vgl. bspw. § 1a StVG).

Die (außervertragliche) Haftung der Anbieter von KI-Systemen bestimmt sich daher nach geltender Rechtslage maßgeblich nach dem Bürgerlichen Gesetzbuch, welches bereits 20 Jahre nach der Patentanmeldung für die elektrische Glühbirne in Kraft getreten ist. 

Bis dato ist danach grundsätzlich die Verletzung eines Rechtsguts, eine Verletzungshandlung (i.w.S., erfasst ist auch ein Unterlassen) und die Kausalität zwischen der Handlung und der Verletzung (haftungsbegründende Kausalität) vorausgesetzt. Zusätzlich bedarf es  neben der indizierten Rechtswidrigkeit – eines Verschuldens des Schädigers, sowie des Eintritts eines Schadens und des kausalen Zusammenhangs zwischen der Rechtsgutsverletzung und dem Schaden (haftungsausfüllende Kausalität). 

Bestimmten Teilbereichen des gesellschaftlichen Lebens wird von Gesetzes wegen eine besondere Wahrscheinlichkeit eines Schadenseintritts beigemessen (bspw. dem Betrieb eines Kraftfahrzeuges oder der Haltung von Tieren), was sich in einem Verzicht auf das Verschuldenserfordernis des Schädigers widerspiegelt und als Gefährdungshaftung bezeichnet wird. 

Nach allgemeinen Beweisgrundsätzen obliegt dem infolge des Einsatzes eines KI-Systems Geschädigten als Kläger – abgesehen von der indizierten Rechtswidrigkeit – die Beweislast hinsichtlich aller genannten Haftungsvoraussetzungen, um eine Kompensation des ihm entstandenen Schadens gerichtlich zu erreichen.

Doch auch an dieser Stelle gilt, kein Grundsatz ohne (weitreichende) Ausnahmen. Im Wege der Rechtsfortbildung hat die Rechtsprechung eine Vielzahl von Konstellationen herausgebildet, in denen dem Geschädigten ein Anscheinsbeweis oder gar die Umkehr der Beweislast zugutekommt, insbesondere hinsichtlich des Nachweises der Kausalität und des Verschuldens bei festgestellter objektiver Verletzung von Schutzpflichten (bspw. bei der Verletzung von Verkehrssicherungspflichten oder einer groben Verletzung von Berufspflichten durch Ärzte oder Hebammen). Der vorliegende Richtlinienentwurf würde sich in dieses Grundsatz-Ausnahme-Konzept einreihen und entsprechen die Fallgruppe des Einsatzes bestimmter KI-Systeme ergänzen.

Artikel 3 KI-Haftung-Richtlinienentwurf: Offenlegung von Beweismitteln und widerlegbare Vermutung des Verstoßes bei Hochrisiko-KI-Systemen

In Art. 3 Abs. 1 KI-Haftung-Richtlinienentwurf ist vorgesehen, dass ein Gericht die Offenlegung einschlägiger Beweismittel auf Antrag des Klägers für bestimmte Hochrisiko-KI-Systeme, die im Verdacht stehen einen Schaden verursacht zu haben, in dem erforderlichen und verhältnismäßigen Maße anordnen kann. Der potenzielle Kläger muss zuvor allerdings den Nachweis erbringen, dass er alle angemessenen Anstrengungen unternommen hat, um die einschlägigen Beweismittel vom Beklagten zu beschaffen (Art. 3 Abs. 2 KI-Haftung-Richtlinienentwurf).

Die Begriffsbestimmungen (insb. auch der Begriff der Hochrisiko-KI-Systeme) in Art. 2 KI-Haftung-Richtlinienentwurf folgen denen des Verordnungsentwurfs „zur Festlegung harmonisierter Vorschriften für KI – Gesetz über künstliche Intelligenz“, welchen die Kommission am 21. April 2021 dem Europäischen Parlament und dem Rat vorgelegt hat und über den ebenfalls noch nicht abschließend entschieden wurde.

Die in Art. 3 Abs. 4 KI-Haftung-Richtlinienentwurf enthaltene Beschränkung der Offenlegung von Beweismitteln auf das erforderliche und verhältnismäßige Maß ist Ausfluss des allgemeinen Verhältnismäßigkeitsgrundsatzes. Erwähnenswert sind in diesem Zusammenhang die ausdrücklich genannten Kriterien, welche die Kommission als im Rahmen einer solchen Abwägungsentscheidung durch ein Gericht als zwingend zu berücksichtigen einstuft. Namentlich werden an dieser Stelle – abgesehen von den allgemeinen (berechtigten) Interessen der Parteien – der Geschäftsgeheimnisschutzsowie der Schutz vertraulicher Informationen, insbesondere in Bezug auf die öffentliche oder nationale Sicherheit, genannt.

Flankiert wird die geplante Pflicht zur Offenlegung von Beweismitteln in Art. 3 Abs. 1 KI-Haftung-Richtlinienentwurf durch die in Art. 3 Abs. 5 KI-Haftung-Richtlinienentwurf enthaltene „Sanktion“. Kommt ein Anbieter eines Hochrisiko-KI-Systems als Beklagter im Rahmen der Geltendmachung eines Schadensersatzanspruchs einer Anordnung eines nationalen Gerichts zur Offenlegung oder Sicherung von Beweismitteln nicht nach, so wird (widerlegbar) vermutet, dass der Beklagte gegen seine einschlägige Sorgfaltspflicht verstoßen hat. Aus einem solchen Sorgfaltspflichtverstoß soll wiederum der notwendige Anknüpfungspunkt für die vorgesehene Vermutung des Kausalzusammenhangs in Art. 4 KI-Haftung-Richtlinienentwurf mit dem KI-Ergebnis abgeleitet werden können, was im Folgenden weiter erläutert wird.

Artikel 4 KI-Haftung-Richtlinienentwurf: (Widerlegbare) Vermutung der (haftungsbegründenden) Kausalität bei Hochrisiko und nicht Hochrisiko-KI-Systemen

Während durch Art. 3 KI-Haftung-Richtlinienentwurf die Rechtsdurchsetzung im Zusammenhang mit (ausschließlich) durch Hochrisiko-KI-Systemen verursachten Schäden in Gestalt einer Beweiserleichterung gestärkt werden soll, zielt Art. 4 KI-Haftung-Richtlinienentwurf unmittelbar auf die prozessuale Beweislastverteilung (auch) im Zusammenhang mit nicht-Hochrisiko-KI-Systemen ab.

Dies ist nur konsequent, da der Anspruch auf Offenlegung von Beweismitteln nur die eine Seite der Medaille der Stärkung des Verbraucherschutzes im digitalen Binnenmarkt darstellen kann.

Art. 4 Abs. 1 KI-Haftung-Richtlinienentwurf betrifft die prozessuale (Medaillen-)Seite, indem eine widerlegbare Vermutung für den Kausalzusammenhang – bei Vorliegen abschließend aufgezählter Voraussetzungen – vorgesehen ist:

Vorbehaltlich der in diesem Artikel festgelegten Anforderungen vermuten die nationalen Gerichte für die Zwecke der Anwendung der Haftungsvorschriften auf einen Schadensersatzanspruch einen ursächlichen Zusammenhang zwischen dem Verschulden des Beklagten und dem vom KI-System hervorgebrachten Ergebnis oder aber der Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat, wenn alle folgenden Bedingungen erfüllt sind:(…).

Art. 4 KI-Haftung-Richtlinienentwurf ist gegenüber Art. 3 KI-Haftung-Richtlinienentwurf deutlich komplexer, was jedenfalls auch auf den – vom deutschen dreistufigen Deliktsaufbau kommend – missverständlichen Wortlaut zurückzuführen ist. Anders als der verwendete Begriff „Verschulden“ zunächst suggeriert, soll die widerlegbare Vermutung nicht zwischen einem Verschulden (i.S. unserer Rechtsordnung) und dem KI-Ergebnis, sondern – wie im deutschen Recht – zwischen der Nichteinhaltung gesetzlicher Sorgfaltspflichten und dem KI-Ergebnis bestehen. 

Die Beweislast hinsichtlich des Schadens sowie der Tatsache, dass ein (haftungsausfüllender) kausaler Zusammenhang zwischen diesem KI-Ergebnis und dem Schaden besteht, soll auch nach dem ausdrücklichen Willen der Kommission (vgl. Ausführliche Erläuterung einzelner Bestimmungen des Vorschlags, S. 16) weiterhin dem Geschädigten obliegen.

Die (widerlegbare) Vermutung der haftungsbegründenden Kausalität wird an folgende Voraussetzungen geknüpft:

  • Art. 4 Abs. 1 lit. a): Der Nachweis eines Verstoßes gegen eine Sorgfaltspflicht, aus unionsrechtlichem oder nationalem Recht (wird bei Hochrisiko-KI-Systemen vermutet, wenn einer Anordnung zur Beweisoffenlegung nicht entsprochen wird, Art. 3 Abs. 5).
  • Art. 4 Abs. 1 lit. b): Es muss „(…) auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen (…)“ als wahrscheinlich angesehen werden können, dass die Nichteinhaltung der konkreten Sorgfaltspflicht das einschlägige KI-Ergebnis beeinflusst hat.
  • Art. 4 Abs. 1 lit. c): Der Nachweis eines kausalen Zusammenhangs zwischen dem KI-Ergebnis und dem konkreten Schaden.

Letztgenannte Voraussetzung steht grundsätzlich im Widerspruch zur deutschen Dogmatik, indem die widerlegbare Vermutung der haftungsbegründenden Kausalität von dem Nachweis einer im Tatbestandsaufbau nachfolgenden Voraussetzung (der haftungsausfüllenden Kausalität) abhängig sein soll. Im Ergebnis bliebe dem deutschen Gesetzgeber bei der Umsetzung der späteren Richtlinie in nationales Recht allerdings ausreichend Spielraum, um die europäischen Vorgaben mit der Dogmatik des deutschen Zivilrechts in Einklang zu bringen. Die Durchsetzung eines außervertraglichen Schadensersatzanspruchs setzt auch nach der bisherigen Gesetzeslage den Nachweis des kausalen Zusammenhangs zwischen dem KI-Ergebnis und dem Schaden durch den Kläger voraus. Der mit einer widerlegbaren Vermutung verfolgte Zweck würde ohnehin mittelbar einen solchen Nachweis durch den Kläger voraussetzen, weshalb die Umsetzung in nationales Recht nicht zwingend auch die Normierung dieser Voraussetzung erfordern würde.

In Abs. 2 und 3 sieht der Entwurf eine umfassende Privilegierung für Anbieter und Nutzer eines Hochrisiko-KI-Systems vor, indem der mögliche Sorgfaltspflichtverstoß in Abweichung zu Abs. 1 lit. a) auf einen abschließenden Pflichtenkatalog beschränkt wird. Bei Einhaltung dieser „Kardinalspflichten″ wird die Vermutung der haftungsbegründenden Kausalität nicht (erst) widerlegt, sondern entsteht schon nicht.

Eine weitere Möglichkeit für Anbieter eines Hochrisiko-KI-Systems, die Vermutung nicht entstehen zu lassen, sieht Abs. 4 vor, wonach der Beklagte/Anbieter nachweisen kann, dass der Kläger bereits über ausreichende Beweismittel und Fachkenntnis verfügt, um den Kausalverlauf zu belegen. 

Auch in Abs. 5 ist eine Ausnahme von der Kausalitätsvermutung vorgesehen, wonach die (widerlegbare) Vermutung für nicht Hochrisiko-KI-Systeme nur unter der Bedingung greift, dass es 

nach Auffassung des nationalen Gerichts für den Kläger übermäßig schwierig ist, den ursächlichen Zusammenhang nach Absatz 1 nachzuweisen.

Diese Schwierigkeiten sind ausweislich der „Ausführlichen Erläuterung einzelner Bestimmungen des Vorschlags“ vor dem Hintergrund der Merkmale bestimmter KI-Systeme wie Autonomie und Undurchdringlichkeit zu bewerten.

Abs. 6 schränkt die Vermutung nach Abs. 1 (auch) bei nicht Hochrisiko-KI-Systemen ein, wenn diese im Rahmen einer persönlichen, nicht beruflichen Tätigkeit verwendet werden. 

Stärkung des Opferschutzes und Etablierung von „Kardinalspflichten“ für Anbieter von Hochrisiko-KI-Systemen

Aus Sicht der VerbraucherInnen ist der Vorschlag der Kommission jedenfalls im Ergebnis zu begrüßen. Die Verabschiedung dieser Richtlinie könnte den Schutzstandard des digitalen Binnenmarktes deutlich erhöhen und eine effektive Rechtsdurchsetzung für durch KI-Systeme Geschädigte erstmalig ermöglichen, indem das bestehende Informationsgefälle auf Haftungsebene Berücksichtigung findet.

Wirksame und klare Haftungsvorschriften wären allerdings nicht nur dazu geeignet den Opferschutz zu stärken, sondern könnten auch als wichtiger wirtschaftlicher Nährboden für die Einführung von KI-Systemen dienen und damit den Anbietern und Nutzern zugutekommen, indem Vertrauen aufgebaut und Akzeptanz gefördert wird.

Den Anbietern und Nutzern derartiger Systeme würde nach dem vorgelegten Entwurf ein abschließender „Pflichtenkatalog“ an die Hand gegeben, dessen Beachtung die Wahrscheinlichkeit eines Schadens durch KI-Systeme reduzieren könnte, was wiederum mit einer faktischen Enthaftung der Anbieter und Nutzer belohnt werden würde.

Auch der transparente Einsatz von KI-Systemen wird mit einer Ausnahme der widerlegbaren Vermutung belohnt.

Ob der getroffene Kompromiss zwischen dem Opferschutz auf der einen und den möglichen Haftungsrisiken für Anbieter und Nutzer von KI-Systemen auf der anderen Seite insgesamt als angemessen zu bewerten ist, steht und fällt mit der endgültigen Bestimmung der wesentlichen Begriffe (insb. „KI-Systeme“, „Hochrisiko-KI-Systeme“, „Anbieter“, „Nutzer“) und damit der Entscheidung über den Verordnungsentwurf „zur Festlegung harmonisierter Vorschriften für KI – Gesetz über künstliche Intelligenz“, auf den der in Rede stehende Richtlinienvorschlag umfassend Bezug nimmt.

Erst wenn die genannten Begriffe abschließend mit Leben gefüllt wurden, kann die Reichweite der vorgesehenen Privilegierungen der Anbieter und Nutzer abschließend bewertet werden. Das gewählte Konzept eines „Pflichtenkatalogs“ und der Belohnung eines transparenten Einsatzes von KI-Systemen lässt jedoch hoffen, dass dem Opferschutz hinreichend Rechnung getragen werden soll, ohne die Haftung für Unternehmen zu überregulieren.

*Gemeint sind Personen jeder Geschlechtsidentität. Um der leichteren Lesbarkeit willen wird im Beitrag die grammatikalisch männliche Form verwendet.

Tags: KI-Haftung Richtlinie