Haftung bei KI-Anwendungen: Europa braucht ein Update

July 23, 2020

Künstliche Intelligenz und maschinelles Lernen spielen in unserem täglichen Leben und in der europäischen Wirtschaft eine immer größere Rolle. Um das volle Potenzial auszuschöpfen, das in der Entwicklung und Anwendung von KI liegt, müssen wir das EU-Recht dringend fit für das digitale Zeitalter machen.

Dies gilt besonders für die Frage der Haftung im Schadensfall. Für Verbraucher*innen und Unternehmen ist eine klare Regelung essentiell. Denn hier geht es um ganz pragmatische Aspekte unseres Alltags. Wer haftet, wenn ein selbstfahrendes Auto einen Unfall baut oder eine Drohne unabsichtlich einen Menschen verletzt? Kann ich als Verbraucher*in bei einem komplexen KI-System überhaupt noch den Nachweis erbringen, dass ein Defekt im Software-betriebenen Produkt einen Schaden verursacht hat? Mit diesen und weiteren Fragen hat sich der Ausschuss für Binnenmarkt und Verbraucherschutz (IMCO) des Europäischen Parlaments in den vergangen Monaten intensiv auseinandergesetzt. Als Hauptberichterstatterin für das Thema KI-Haftungsregime war ich dafür zuständig, eine gemeinsame Position des Ausschusses gegenüber dem federführenden Rechtsausschuss zu koordinieren. Hierbei haben wir uns insbesondere auf Haftungsfragen im Falle von durch Produktfehlern verursachten Schäden konzentriert. 

 

Unser europäischer Haftungsrahmen, allen voran die Produkthaftungsrichtlinie von 1985, funktioniert prinzipiell bisher gut und hat sich als wirksames Instrument erwiesen, wenn es um die Entschädigung von Verbraucher*innen bei einem erlittenen Schaden geht. Ich bin allerdings davon überzeugt, dass wir in diesem und anderen Bereichen ein Update des europäischen Rechts benötigen. 

 

Die klassische Produktdefinition etwa umfasst weder Software noch Dienstleistungen, die zusammen mit Produkten angeboten werden. Gegenüber den 1980er Jahren haben sich Produkte in der Realität aber erheblich weiterentwickelt. Ein Smartphone beispielsweise lebt insbesondere von der damit zusammenhängenden Software, von regelmäßigen Updates und Apps, die vom Hersteller selbst oder von anderen Entwicklern angeboten werden. 

 

Sobald Künstliche Intelligenz, etwa im Falle von selbstlernenden Algorithmen im Spiel ist, stellen sich noch viel weitergehende Fragen. KI-Charakteristika wie den Black-Box-Effekt[1] können es für Verbraucher*innen schwer bis unmöglich machen, zu beweisen, dass ein Schaden durch einen Fehler im Produkt verursacht wurde. Hier muss die EU-Kommission überprüfen, inwieweit die Regeln der Beweislast angepasst werden müssen, damit Verbraucher*innen zu ihrem Recht verholfen werden kann. 

 

Als sinnvoller achte ich außerdem, dass wir einen risikobasierten Ansatz für die Regulierung von KI verfolgen. Das bedeutet, dass Produkte in riskanten Anwendungsbereichen, etwa im Straßenverkehr, Testverfahren und Zertifizierungsprozesse durchlaufen müssen, während Anwendungen in niedrigeren Risikobereichen lediglich die gleichen oder nur geringfügig höhere Auflagen erfüllen müssen, als klassische Produkte. 

 

Beim Update der EU-Produkthaftungsregeln muss es darum gehen, dass Verbraucher*innen bei Verletzung ihrer Rechte durch KI-Systeme den gleichen Schutz und die gleichen Entschädigungsmöglichkeiten erhalten wie bei jedem durch ein klassisches Produkt verursachten Schaden. Zugleich müssen wir Überregulierung und unnötige Bürokratie für KI-Entwickler vermeiden und rechtlich klar regulieren, um Unternehmen nicht über die Maße zu belasten. Denn eines ist mir im Zusammenhang mit Künstlicher Intelligenz besonders wichtig: wir wollen Europa an die Weltspitze der KI-Innovation befördern - durch Forschung, Entwicklung und Anwendung. Das gelingt uns nur mit smarter, aber zurückhaltender Regulierung, die die Rechtslage im europäischen Binnenmarkt weiter harmonisiert. 

 

Mehr zum Thema

[1]  “Autonomhandelnde KI-Anwendungen führen eine Aufgabe aus, ohne dass jeder Schritt imVoraus festgelegt wird, und werden in geringerem Maße oder schließlich garnicht mehr unmittelbar durch den Menschen gesteuert oder beaufsichtigt.Algorithmen, die auf maschinellem Lernen beruhen, können schwer oder gar nichtzu verstehen sein (der sogenannte Blackboxeffekt)” - Bericht der EU-Kommissionzu Produktsicherheit und -Haftung: https://ec.europa.eu/info/sites/info/files/report-safety-liability-artificial-intelligence-feb2020_de.pdf