Haftungsprobleme bei KI

Debatte zur Haftung beim Einsatz künstlicher Intelligenz

Mit dem zunehmenden Einsatz künstlicher Intelligenz (KI), stellt sich zugleich die Frage nach dem rechtlichen Umgang mit technologischen Neuheiten. Am Beispiel jüngster Ereignisse im Zusammenhang mit Unfällen selbstfahrender Autos in den USA wird insbesondere darüber diskutiert, wer beim Einsatz von KI eigentlich haftet. Da die Entwicklung hierzulande noch in den Kinderschuhen steckt, werden sich aufgrund der zu erwartenden anfänglichen Fehleranfälligkeit solche Haftungsfälle und -fragen vermutlich häufen. Lassen sich die Fälle noch nach bestehenden Regeln lösen?

 
 
Worum geht es?
Im vergangenen Monat kam in Arizona eine Fußgängerin ums Leben, weil sie von einem selbstfahrenden Uber-Fahrzeug erfasst wurde. Nur wenige Tage später kam es auch in Kalifornien zu einem tödlichen Unfall eines Tesla-Fahrers, der mit eingeschaltetem Autopilot auf der Autobahn verunglückte. Unfälle wie diese werfen Fragen zur Zukunft der Technologie und der Haftung auf. Grundsätzlich darf auch in Deutschland die Technik das Lenkrad übernehmen - ein Fahrer muss allerdings immer mit an Bord sein, um in Notfallsituationen eingreifen zu können. Doch was ist, wenn es bei solchen Fahrten trotzdem zu einem Unfall kommt? An wen richtet sich dann die Haftungsklage? Zu nennen wären hier der Eigentümer des Fahrzeugs, der Hersteller, der Programmierer der KI, die Haftpflichtversicherung der jeweiligen Beteiligten oder derjenige, der es steuert - im Falle eines selbstfahrenden Autos also der Halter. Zunehmend werden Stimmen laut, dass unser BGB aus dem Jahr 1900 das alles nicht mehr geregelt bekomme. Haftet der Halter etwa für durch das Auto verursachte Verkehrsunfälle? Auch dann, wenn er alles richtig macht? Haftet der Fahrer hingegen nur dann, wenn er fahrlässig gehandelt hat? Und was ist mit dem Hersteller? Haftet er wiederum nur für fehlerhafte Produkte?
 
Eigentlich ganz einfach?
Die Haftungsfrage sei doch eigentlich ganz klar, sagt Martin Stadler, Justiziar bei der Allianz Versicherungs-AG: Hierzulande soll die Kfz-Haftpflichtversicherung des Fahrzeughalters das Opfer oder dessen Angehörige entschädigen - unabhängig davon, ob der Unfall durch einen Fahrfehler, einen technischen Defekt oder ein automatisiertes Fahrsystem verursacht wurde. So sollen sich Geschädigte immer an die Haftpflichtversicherung des Fahrzeughalters wenden, da diese dann gegebenenfalls den Fahrzeughersteller in Regress nehmen könne, wenn sich herausstellen sollte, dass ein Softwarefehler für den Unfall verantwortlich war. Dies wäre beispielsweise dann der Fall, wenn das Auto im selbstfahrenden Modus eine rote Ampel überfährt und dabei jemanden schädigt oder der Parkassistent beim Einparken ein Kind übersieht und es anfährt. Das dahinter steckende Haftungssystem soll nämlich unschuldige Verkehrsopfer schützen. Dieser Schutz soll unabhängig davon gelten, ob der Halter eine Schuld für den Unfall trägt oder nicht. So seien aber Ordnungswidrigkeiten in keinem Fall versichert - wenn der Fahrer beispielsweise einen Strafzettel kassiert, weil sich das Auto im Selbstfahrmodus nicht an die Geschwindigkeitsbeschränkungen hält.
 
Unter Umständen müsste eine etwaige Mitschuld des Opfers geprüft werden. Zumindest wäre dies im Falle der in Arizona verunglückten Frau zu diskutieren, da sie die Straße scheinbar außerhalb eines Fußgängerüberwegs bei Nacht überquert haben soll. Wenn dem Opfer eine Mitschuld nachgewiesen werden kann, so könnte der Versicherer seine Entschädigungszahlungen anteilig kürzen.
 
“Wahrnehmungsbereites (Nicht-) Fahren”
Die meisten Juristen rechnen aber mit künftigen Reformen. Bereits im vergangenen Jahr hat der Gesetzgeber zur Ermöglichung des autonomen Fahrens in Deutschland das Straßenverkehrsgesetz geändert. Danach dürfen Autohersteller und -zulieferer, die an der neuen Technologie des autonomen Fahrens arbeiten, diese auch in Serienfahrzeugen nutzen. Die technischen Systeme können dann zumindest teilweise die Steuerung des Autos übernehmen. Damit soll dem in Zukunft erwarteten Strom an auf dem Markt erscheinenden selbstfahrenden Fahrzeugen Rechtssicherheit gegeben werden. Zumindest sei es dann beispielsweise erlaubt, dass der Fahrer die Hände vom Lenkrad nimmt und während der Fahrt im Internet surft oder Emails liest - bei kritischen Situationen wird er dann von einem Sicherheitssystem aufgefordert, das Steuer zu übernehmen. Der Fahrer darf sich also von der Fahrt abwenden, muss aber noch wahrnehmungsbereit sein.
 
Die gesamte Fahrt soll dabei von einer in das Fahrzeug installierten Blackbox überwacht werden, damit später überprüft werden kann, wann der Fahrassistent aktiv war, wann der Fahrer selbst gefahren ist oder wann das System den Fahrer zur Übernahme der Steuerung aufgefordert hat. Die Auswertung solcher Daten werden dann auch für die Haftungsfrage relevant sein. So soll der in Kalifornien verunglückte Fahrer des Tesla-Elektroautos eben solche Warnungen des Kontrollsystems ignoriert haben, kam dann von der Fahrbahn ab und prallte in eine Betonbarriere. Bei dem Fahrzeug sei der sogenannte adaptive Tempomat eingeschaltet gewesen, der dafür sorgt, dass ein konstanter (Mindest-) Abstand zum vorderen Fahrzeug eingehalten wird. Mehrere visuelle und eine akustische Warnung soll er dabei ignoriert und etwa fünf Sekunden Zeit und 150 Meter Entfernung bis zum Aufprall gehabt haben. Auswertungen haben danach ergeben, dass seine Hände vor der Kollision sechs Sekunden lang nicht auf dem Lenkrad gewesen seien.
 
Dezentrale KI als Sonderproblem - Instrumentarium der “juristischen Person” als Lösung?
Schwieriger gestaltet sich die Haftungsfrage für solche Fälle, in denen das Fahrzeug aber keine Warnsignale abgegeben hat. In Betracht kämen hier sowohl Systemstörungen als auch etwaige Angriffe durch Hacker, die bei vernetzten Fahrzeugen beispielsweise eine Fehlfunktion und dadurch Unfälle provozieren. In solchen Fällen könnte der Hersteller zur Haftung herangezogen werden, da der Kunde regelmäßig einen effektiven Schutz vor Cyberangriffen erwarten dürfte. An dieser Stelle wird es aber noch zu diskutieren geben, wie viel Sicherheit vom Hersteller dabei abverlangt werden darf.
 
Spätestens hier könnten die aktuellen Normen an ihre Grenzen gelangen - insbesondere dann, wenn ein Fahrzeugsystem keiner bestimmten Person mehr zugeordnet werden kann: Hinter einer KI muss nämlich nicht zwangsläufig eine Person stehen. Das klingt auf den ersten Blick nach viel Science Fiction. Allerdings sind wir technologisch tatsächlich nicht weit von sich dezentral selbstverwaltender KI entfernt. So könnten sich Autos in Zukunft selbst verwalten und eigenständig zur Tankstelle oder der nächsten Ladestation fahren. Denkbar wäre auch das eigenständige Abholen von Passagieren im Rahmen des Carsharings. Die Technologie, auf dessen Basis all dies entstehen soll, nennt sich Blockchain - sie ermöglicht es, Transaktionen aller Art auf unterschiedlichen Computern zu sichern, zu verwalten und zu archivieren. Markus Häuser, Partner bei der Kanzlei CMS Hasche Sigle, findet das alles gar nicht so verstörend und vergleicht die technologische Entwicklung mit den uns heute bekannten “juristischen Personen”: Jede Aktiengesellschaft bestehe schließlich nur aus Geld - Menschen seien praktisch nur nützliche Passagiere. Auch eine GmbH wurde nur geschaffen, damit niemand Rückgriff auf die Gesellschafter nehmen könne, führt Häuser weiter aus - das notwendige Instrumentarium hätten wir also schon.
 
Betreiber und Halter als “Gefährder”
Aber geht die technologische Entiwcklung nicht über die im deutschen Recht bekannten Möglichkeiten hinaus? Prof. Dr. Renate Schaub von der Universität Bochum gibt zu bedenken, dass die Produkthaftung des Herstellers dort aufhöre, wo ein Fehler nach dem Stand von Wissenschaft und Technik nicht erkannt werden konnte, als das Produkt auf den Markt gebracht wurde. Eine sich selbst verwaltende KI könnte aber unvorhersehbare Entwicklungen vornehmen, sodass Betreiber und Halter als “Gefährder” für die eigenständige Weiterentwicklung einstehen müssten. 
 
Wie man sieht, ist die Haftungsfrage keine so einfache. Es muss auf allen Ebenen betrachtet und geprüft werden. Die Versicherungswirtschaft ist derzeit bemüht, dass nicht nur allein der Hersteller Zugriff auf die während der Fahrt gesammelten Daten erhält, sondern ein unabhängiger “Datentreuhänder” geschaffen werde, der diese verwalten soll. So können im Schadenfall Versicherer, Anwälte und Gutachter Zugang bekommen - insofern sie einen berechtigten Anspruch hierauf haben. Gleichzeitig hat der Gesetzgeber schon mal vorsorglich die maximalen Haftungssummen erhöht, die nach Unfällen durch selbstfahrende Fahrzeuge ausgezahlt werden sollen: Bei Personenschäden waren es vorher maximal 5 Millionen Euro, jetzt liegt die maximale Haftungssumme bei 10 Millionen.
 
- Bericht der Ethik-Kommission zum automatisierten und vernetzten Fahren - (pdf)