Haftungsrechtlich betrachtet gleicht künstliche Intelligenz (KI) heute in vielen Bereichen noch einer Blackbox. Die EU-Kommission will dies nun ändern und nimmt dabei vor allem Hochrisiko-KI-Systeme in den Blick.
Die Richtlinie über KI-Haftung
Die Richtlinie über KI-Haftung soll – nach derzeitigem Stand – ausdrücklich keine verschuldensunabhängige Haftung für den Betrieb von künstlicher Intelligenz und keine sonstige Gefährdungshaftung schaffen. Ihr Anwendungsbereich soll sich nur auf „außervertragliche verschuldensabhängige zivilrechtliche Schadensersatzansprüche“ erstrecken, d.h., sie soll nur im Bereich des Deliktsrechts und nicht für vertragliche Ansprüche gelten.
Ein Konfliktpotenzial besteht deshalb, weil Kläger voraussichtlich auf der Grundlage von Art. 3 der Richtlinie über KI-Haftung, der die Offenlegung von Beweismitteln vorsieht, versuchen werden, gewonnene Erkenntnisse nicht nur für deliktische Ansprüche, sondern auch für die Durchsetzung von vertraglichen Schadensersatzansprüchen zu verwenden. Die Vorteile der vertraglichen Haftung nach deutschem Recht – wie Ersatzfähigkeit von Vermögensschäden, die Vermutung des Verschuldens (§ 280 Abs. 1 Satz 2 BGB) und das Fehlen einer Exkulpationsmöglichkeit – könnten so nutzbar gemacht werden.[1]
Erleichterter Zugang zu Beweismitteln
Vorgesehen ist in der Richtlinie ein erleichterter Zugang zu Beweismitteln. So sollen die Mitgliedstaaten verpflichtet werden sicherzustellen, dass nationale Gerichte befugt sind, auf Antrag eines (potenziellen) Klägers die Offenlegung von Beweismitteln zu einem Hochrisiko-KI-System anzuordnen, wenn dieser die Plausibilität eines Schadensersatzanspruchs ausreichend belegen kann. Der Begriff „Hochrisiko-KI-System“ richtet sich dabei nach Art. 6 des Gesetzes über künstliche Intelligenz. Bei KI-Systemen, die in Fahrzeugen verwendet werden, handelt es sich um ein solches „Hochrisiko-KI-System“.
Die Möglichkeit zur Auskunft soll gem. dem aktuellen Entwurf auch Geschädigten zustehen, die noch keine Klage erhoben haben. Der Auskunftsanspruch beschränkt sich auf das, was erforderlich und verhältnismäßig ist, um einen Schadensersatzanspruch eines (potenziellen) Klägers zu stützen.
Vermutung Sorgfaltspflichtverstoß
Kommt ein Beklagter im Rahmen eines Schadensersatzanspruchs der Anordnung eines nationalen Gerichts Beweismittel vorzulegen nicht nach, wird nach der Richtlinie über KI-Haftung vermutet, dass der Beklagte gegen seine einschlägige Sorgfaltspflicht verstößt (Art. 3 Abs. 5 der Richtlinie über KI-Haftung). Der Beklagte hat die Möglichkeit, diese Vermutung zu widerlegen.
- Es ist ein Verschulden notwendig. Dieses kann sich entweder aus der Verletzung einer einschlägigen Sorgfaltspflicht ergeben oder es wird vermutet, wenn der Beklagte der Anordnung zur Offenlegung von Beweismitteln nicht nachgekommen ist.
- Es muss die Möglichkeit der Ursächlichkeit des Verschuldens für das KI-Ergebnis bestehen. I.S.d. Kausalitätsvermutung heißt das, dass nach vernünftigem Ermessen davon ausgegangen werden kann, dass das Verschulden des Beklagten das von dem KI-System hervorgebrachte Ergebnis beeinflusst hat. Damit die Vermutung des ursächlichen Zusammenhangs zwischen Sorgfaltspflichtverletzung des Beklagten und KI-Ergebnis überhaupt greift, muss der Anspruchsteller also die Möglichkeit dieses ursächlichen Zusammenhangs nachweisen. Nach deutscher Dogmatik handelt es sich bei Art. 4 Abs. 1 der Richtlinie über KI-Haftung daher eher um eine „Beweismaßabsenkung“ statt einer „gesetzlichen Vermutungsregelung“.[3]
- Es muss der Nachweis der Kausalität zwischen KI-Ergebnis und Schaden geführt werden. Der Kläger muss demnach nachweisen, dass das von der KI generierte Ergebnis den Schaden verursacht hat. Der zusätzliche Zwischenschritt zwischen Kausalität KI-Ergebnis und Schaden ist eine Voraussetzung, die das deutsche Deliktsrecht so nicht verlangt. Denn gem. § 823 Abs. 1 BGB ist die haftungsbegründende Kausalität zwischen Sorgfaltspflichtverstoß und Rechtsgutsverletzung sowie die haftungsausfüllende Kausalität zwischen Rechtsgutsverletzung und Schaden darzulegen.[4]
Fazit
Sowohl die beiden Richtlinienentwürfe als auch das Gesetz über künstliche Intelligenz durchlaufen aktuell noch das europäische Gesetzgebungsverfahren. Bis zur Verabschiedung und dem Inkrafttreten vergehen erfahrungsgemäß mehrere Jahre. Anschließend gibt es für Richtlinien im Regelfall eine mehrjährige Frist für die Umsetzung in nationales Recht. Mit der Umsetzung der beiden – für die Haftung für KI-basierte Systeme im Automobilsektor zentralen – Richtlinienentwürfe in deutsches Recht ist demnach frühestens 2025/2026 zu rechnen.
Dr. Boris Uphoff
ist Partner der McDermott Will & Emery Rechtsanwälte Steuerberater LLP in München. Schwerpunkte seiner Tätigkeit sind Streitigkeiten im gewerblichen Rechtsschutz, im Produkthaftungsrecht, im Versicherungsrecht und auf dem Gebiet der Managerhaftung.
Viola Walther
ist Rechtsanwältin bei McDermott Will & Emery. Sie berät deutsche und internationale Mandanten bei wirtschaftlichen Streitigkeiten in den Bereichen gewerblicher Rechtsschutz, Produkthaftung, Kartell- und Wettbewerbsrecht.
Container for the dynamic page
(Will be hidden in the published article)