Teil 2 zur KI-Verordnung befasst sich mit der KI-Haftungsrichtlinie und legt dar, was sie für Arbeitgeber bedeuten wird.
Der zunehmende unternehmerische Wille, KI zur Verschlankung und Optimierung von Arbeitsprozessen betrieblich einzusetzen, wird häufig durch die Sorge vor einer unkalkulierbaren Haftung konterkariert. Um diese Rechtsunsicherheit in Haftungsfragen gerade in Bezug auf grenzüberschreitende Tätigkeiten zu reduzieren, hat die Kommission in ihrem Entwurf für eine KI-Haftungsrichtlinie vom 28. September 2022 (KI-Haftungs-RL-E) einheitliche Anforderungen für bestimmte Aspekte der außervertraglichen zivilrechtlichen Haftung für solche Schäden festgelegt, die beim Einsatz von KI-Systemen verursacht werden.
Gleichzeitig soll mit der Richtlinie dem sog. „Blackbox“-Effekt begegnet werden: Dieser ergibt sich daraus, dass der mittels KI Geschädigte wegen der technischen und algorithmischen Komplexität, Autonomie und Undurchsichtigkeit von KI-gestützten Abläufen in der Regel weder in der Lage ist, den richtigen Anspruchsgegner zu ermitteln, noch eine kausale unrechtmäßige Handlung oder Unterlassung für die erfolgreiche Durchsetzung eines Schadensersatzanspruchs zu beweisen.
Um ihrer Zwecksetzung gerecht zu werden, dreht sich die Richtlinie in materiell-rechtlicher Hinsicht im Wesentlichen um zwei Kernaspekte: Zum einen befasst sich Art. 3 KI-Haftungs-RL-E mit der Offenlegung von Beweismitteln, zum anderen stellt Art. 4 KI-Haftungs-RL-E eine widerlegbare Kausalitätsvermutung auf.
Die KI-Haftungsrichtlinie soll insbesondere die Geltendmachung deliktischer Ansprüche erleichtern
Die KI-Haftungsrichtlinie soll unmittelbar nur auf außervertragliche verschuldensabhängige zivilrechtliche Schadensersatzansprüche für durch KI-Systeme verursachte Schäden Anwendung finden. Damit ist insbesondere das deliktische Haftungsregime der §§ 823 ff. BGB umfasst. Beispielhaft ist der Fall genannt, dass etwa der Betreiber von Drohnen, die Pakete liefern, die Gebrauchsanweisung nicht einhält und daraus ein Personenschaden entsteht. § 823 Abs. 1 BGB ist dabei die zentrale Haftungsvorschrift.
Da der EuGH den Begriff des Schutzgesetzes im europarechtlichen Kontext weit verstanden wissen will, ist davon auszugehen, dass daneben auch § 823 Abs. 2 BGB i. V. m. der Verordnung zur Festlegung harmonisierter Vorschriften für KI (KI-VO) zu den einschlägigen Normen zählen wird. Zu einem solchen Haftungsfall kann es etwa kommen, wenn ein Anbieter* die Anforderungen bei der Nutzung KI-gestützter Arbeitsvermittlungsdienste nicht einhält.
Keine Anwendung findet die Richtlinie indes im Rahmen der vertraglichen Haftung sowie in strafrechtlichen Fragen. Für die Arbeitswelt durch die umfassende Möglichkeit des Einsatzes von KI im Personalbereich praktisch besonders bedeutsam, aber von der Richtlinie nicht umfasst, ist damit der Schadensersatzanspruch aus § 15 Abs. 1 AGG, den das BAG als vertraglichen Anspruch einstuft. Allerdings besteht zugunsten des Anspruchstellers nach der gegenwärtigen Ausgestaltung der Richtlinie das Potenzial, die deliktisch gewonnenen Beweismittel für vertragliche Ansprüche mittelbar zu nutzen.
Begrifflich nimmt die Richtlinie Bezug auf die KI-Verordnung (s. dazu Teil 1), deren Gesetzgebungsprozess bereits weiter vorangeschritten ist. Die beiden Ausprägungen eines gedanklich zusammenhängenden Regelungskomplexes stellen „zwei Seiten einer Medaille“ dar: Während die KI-Verordnung zur präventiven Risikoverringerung Pflichten der Anbieter und Betreiber aufstellt, betrifft die KI-Haftungsrichtlinie die Ausgestaltung zeitlich nachgelagerter Haftungsfragen.
Offenlegung von Beweismitteln
Der in Art. 3 KI-Haftungs-RL-E beschriebene Auskunftsanspruch dient dazu, ermitteln zu können, wer der richtige Anspruchsgegner des Geschädigten ist. Dazu muss dieser zunächst alle angemessenen Anstrengungen unternehmen, die einschlägigen Beweismittel zu dem System vom Beklagten zu beschaffen. Scheitert die Herausgabe, etwa weil der Beklagte keinen Zugriff auf die Beweismittel hat, kann das Gericht auf Antrag des Klägers beim Anbieter oder Betreiber die Offenlegung der einschlägigen Beweismittel für bestimmte Hochrisiko-KI-Systeme, die vermutlich einen Schaden verursacht haben, anordnen. Der Geschädigte muss seinen Antrag also insoweit plausibel untermauern, als ein Verdacht dafür besteht, dass die Entstehung des Schadens auf ein Hochrisiko-KI-System zurückgeht.
Da Arbeitgeber beim Einsatz von Hochrisiko-KI-Systemen regelmäßig wohl bloß als Betreiber einzustufen sind, dürfte sich ihre Offenlegungspflicht auch nur auf die Pflichten aus der KI-VO (Art. 29 KI-VO-E) beziehen, zu denen insbesondere die ordnungsgemäße Nutzung nach der Gebrauchsanweisung und die zweckmäßige Eingabe von Daten zählen. Als Beweismittel kommen hier vor allem die anzufertigenden Aufzeichnungen bei dem Einsatz von Hochrisiko-KI-Systemen in Betracht.
Um einen Schutz davor zu gewährleisten, dass mit der Offenlegung der Beweismittel keine sensiblen Daten und Geschäftsinformationen an die Öffentlichkeit gelangen, beschränkt Art. 3 KI-Haftungs-RL-E den Antrag inhaltlich auf das notwendige Mindestmaß, das im Rahmen einer Erforderlichkeits- und Angemessenheitsprüfung durch Abwägung der wechselseitigen Interessen konkret zu ermitteln ist. Pauschale Anträge sollen verhindert werden. Im Ergebnis stehen sich also Vertraulichkeit auf der einen Seite und eine effektive Anspruchsdurchsetzung auf der anderen Seite gegenüber. Wie diese Abwägung praktisch ausfallen wird und ob ein effektiver Schutz erhalten bleiben kann, wird Gegenstand der nationalen Umsetzung und des von den Gerichten angelegten Maßstabs sein.
Art. 3 Abs. 5 KI-Haftungs-RL-E stellt eine widerlegbare Vermutung für die Nichteinhaltung einer Sorgfaltspflicht für den Fall auf, dass der Beklagte die Aufforderung zur Offenlegung oder Sicherung von Beweismitteln nicht befolgt.
Widerlegbare Kausalitätsvermutung
Wegen des praktisch schwierigen Nachweises eines Kausalzusammenhangs zwischen der Nichteinhaltung der Sorgfaltspflichten (insbesondere aus der KI-Verordnung) und dem vom KI-System hervorgebrachten Ergebnis oder der Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat, sieht Art. 4 Abs. 1 KI-Haftungs-RL-E eine dahingehende Kausalitätsvermutung vor.
Während sich Art. 3 KI-Haftungs-RL-E nur auf Hochrisiko-KI-Systeme bezieht (regelmäßig also nicht auf generative KI-Systeme wie ChatGPT, Bard und Bing), soll Art. 4 Abs. 1 KI-Haftungs-RL-E in seinem Grundsatz alle KI-Systeme umfassen. Für KI-Systeme, bei denen es sich nicht um Hochrisiko-KI-Systeme handelt, gilt die Kausalitätsvermutung aber nur, wenn es für den Kläger übermäßig schwierig ist, den ursächlichen Zusammenhang nachzuweisen (Art. 4 Abs. 5 KI-Haftungs-RL-E).
Bezogen auf die deutsche Deliktshaftung wird weder die haftungsbegründende noch die haftungsausfüllende Kausalität als solche vermutet, sondern mit der Verbindung zwischen der Sorgfaltspflichtverletzung des Anbieters oder Betreibers und dem KI-Ergebnis eine weitere Ebene hinzugefügt. Von dieser Teilkausalitätsvermutung profitiert der Geschädigte, wenn er sowohl die Nichteinhaltung einer Sorgfaltspflicht als auch die Kausalität zwischen KI-Ergebnis und Schaden beweist. Ausnahmsweise kann die Sorgfaltspflichtverletzung gemäß Art. 4 Abs. 3 lit. a KI-Haftungs-RL-E vermutet werden, wenn der Beklagte der gerichtlichen Anordnung zur Offenlegung oder Sicherung von Beweismitteln aus Art. 3 KI-Haftungs-RL-E nicht nachkommt.
Nach Erwägungsgrund 22 muss der unmittelbare Zweck der Sorgfaltspflicht die Verhütung des eingetretenen Schadens sein. Arbeitgeber müssen also nicht bereits bei jeder Verletzung etwaiger Sorgfaltspflichten eine durch die Kausalitätsvermutung ausgelöste Haftung befürchten – beispielsweise, wenn vergessen wurde, die erforderlichen Unterlagen bei den zuständigen Behörden einzureichen.
Entwurf für eine KI-Haftungsrichtlinie: Welche Maßnahmen Arbeitgeber jetzt schon ergreifen sollten
Die sich aus der KI-Verordnung ergebenden Pflichten für Unternehmen und Arbeitgeber werden auch im Rahmen der KI-Haftungsrichtlinie relevant. So sind ggf. Aufzeichnungen und Dokumentationen nach der KI-Verordnung zu erstellen, die dann im Schadensfall offengelegt werden müssten. Ansonsten würde der fehlende Gegenbeweis den Kläger begünstigen.
Insbesondere Unternehmen, die mit Hochrisiko-KI-Systemen arbeiten, ist zu raten, bereits jetzt die notwendige Infrastruktur und die organisatorischen Rahmenbedingungen zu schaffen, um sich mit der Regulierung auf EU-Ebene vertraut zu machen.
Bis die KI-Haftungs-RL-E allerdings in Kraft tritt, wird es noch einige Zeit dauern. Auch wesentliche Änderungen sind vor dem Hintergrund der Schnelllebigkeit der technischen Entwicklungen im KI-Bereich und der anhaltenden Diskussion über das richtige Maß der Regulierung nicht ausgeschlossen.
* Gemeint sind Beschäftigte jeder Geschlechtsidentität. Lediglich der leichteren Lesbarkeit halber wird künftig bei allen Bezeichnungen nur noch die grammatikalisch männliche Form verwendet.