21 Schriftsätze von der KI erstellt: Ein Fall, der OpenAI vor Gericht bringt

21 Schriftsätze von der KI erstellt: Ein Fall, der OpenAI vor Gericht bringt

Wer heute als Anwalt praktiziert, kennt die Situation: Mandanten kommen mit ausgedruckten ChatGPT-Antworten in die Sprechstunde und sind fest davon überzeugt, bereits vollständig beraten worden zu sein. Exemplarisch hierfür steht der Fall Nippon Life Insurance vs. OpenAI aus den USA: Es beginnt mit einer einfachen Frage an einen Chatbot: Werde ich von meinem Anwalt hingehalten? Was folgt, ist eine der juristisch interessantesten Klagen des Jahres 2026. Am 4. März 2026 reichte Nippon Life Insurance Company of America beim zuständigen Bundesgericht in Chicago Klage gegen OpenAI Foundation und OpenAI Group PBC ein. Die zentrale Frage: Kann ein KI-System als Rechtsanwalt auftreten und kann sein Hersteller dafür haftbar gemacht werden? Der Fall ist nicht nur für das amerikanische Recht relevant.

Die KI als Anwalt: Nippon Life Insurance vs. OpenAI

Graciela Dela Torre hatte einen Rechtsstreit über Invaliditätsleistungen gegen Nippon im Januar 2024 durch Vergleich beendet. Sie unterzeichnete eine vollständige Freistellungserklärung, und das Verfahren wurde endgültig abgewiesen – eine Wiederaufnahme war damit rechtlich ausgeschlossen.

Ein Jahr später meldete sich Dela Torre erneut bei ihrem Anwalt und wollte den Vergleich rückgängig machen. Der Anwalt erklärte ihr, dass das nicht möglich sei. Daraufhin lud Dela Torre seine Antwort in ChatGPT hoch und fragte den Chatbot, ob sie „hingehalten” werde. ChatGPT analysierte die Antwort und bestätigte ihre Skepsis gegenüber dem Anwalt.

Dela Torre kündigte ihrem Anwalt und nutzte ChatGPT, um Schriftsätze zu erstellen, mit denen sie den Vergleich rückgängig machen wollte. Ein Richter lehnte den Antrag im Februar 2025 ab. Daraufhin reichte Dela Torre eine neue Klage ein und überschwemmte das Gericht mit zahlreichen weiteren Schriftsätzen. Insgesamt waren es 21 Anträge, eine Vorladung sowie acht Erklärungen und Mitteilungen, die allesamt mit Hilfe von ChatGPT verfasst wurden.

Nippon macht geltend, dass viele dieser Einreichungen keinem legitimen rechtlichen oder prozessualen Zweck dienten und dass die Erwiderung darauf rund 300.000 US-Dollar an Anwaltshonoraren kostete.

Diese Kosten macht Nippon nun gegen OpenAI als Hersteller von ChatGPT geltend.

Was Nippon vor Gericht verlangt – und was die drei Klagegründe bedeuten

Nippon stützt seine Klage auf drei Anspruchsgrundlagen:

  1. Der erste Klagegrund ist der Verstoß gegen das Verbot der unbefugten Rechtsausübung (unauthorized practice of law). Das US-amerikanische Recht regelt auf Ebene der Einzelstaaten, dass nur zugelassene Anwälte Rechtsberatung erbringen dürfen, ähnlich wie § 3 RDG in Deutschland die Erbringung von Rechtsdienstleistungen ohne Erlaubnis untersagt. Nippon wirft OpenAI vor, dass ChatGPT diese Grenze überschritten hat, indem es fallbezogene rechtliche Empfehlungen ausgesprochen hat.

  2. Der zweite Klagegrund ist tortious interference with contract – auf Deutsch etwa: vorsätzliche Einmischung in ein Vertragsverhältnis. Das lässt sich am ehesten mit § 826 BGB vergleichen, der eine Haftung für sittenwidrige vorsätzliche Schädigung begründet. Nippon argumentiert, OpenAI habe durch ChatGPTs Ausgaben wissentlich dazu beigetragen, dass Dela Torre den rechtskräftigen Vergleich zu brechen versuchte.

  3. Der dritte Klagegrund, abuse of process, bezeichnet den Missbrauch gerichtlicher Verfahren also die Nutzung von Klagen und Anträgen für Zwecke, für die das Gerichtsverfahren nicht gedacht ist. Das ist dem deutschen Konzept des Rechtsmissbrauchs nach § 242 BGB nicht unähnlich.

Nippon verlangt 300.000 US-Dollar Schadensersatz, 10 Millionen US-Dollar Strafschadensersatz sowie eine gerichtliche Anordnung, die OpenAI die Erbringung rechtlicher Unterstützung in Illinois untersagen würde. Strafschadensersatz (punitive damages) ist im deutschen Recht unbekannt – er soll im US-amerikanischen Recht nicht nur den konkreten Schaden ersetzen, sondern den Schädiger zusätzlich abschrecken.

Was die Klage aus juristischer Sicht besonders interessant macht: Gerichte haben sich bislang fast ausschließlich mit der Sanktionierung der menschlichen Anwälte oder Parteien befasst, die KI-generierte Rechtsinhalte eingereicht haben. Hier steht erstmals nicht der Nutzer, sondern der Hersteller des Systems vor Gericht.

Infobox: Unauthorized Practice of Law und § 2 RDG im Vergleich

In den USA verbieten die Einzelstaaten die Ausübung anwaltlicher Tätigkeit ohne Zulassung. Die entscheidende Abgrenzung lautet: allgemeine Rechtsinformation oder fallbezogene Rechtsberatung? Im deutschen Recht beantwortet § 2 I RDG diese Frage: Eine Rechtsdienstleistung liegt vor, wenn eine Tätigkeit in einer konkreten fremden Angelegenheit eine rechtliche Prüfung des Einzelfalls erfordert. Als Beispiel: Wer erklärt, was ein Mietvertrag grundsätzlich bedeutet, erbringt keine Rechtsdienstleistung. Wer aber empfiehlt, ob jemand in seiner konkreten Situation kündigen kann, tut es – und braucht dafür eine Erlaubnis nach § 3 RDG.

Das eigentliche Problem: ein Fehler im Design, nicht im Inhalt

Interessant ist, dass es hier nicht etwa um eine Halluzination der KI geht. Im Kern der Entscheidung steht vielmehr ein Designproblem: OpenAI hat ein System entwickelt, das keine technische Architektur zur Verweigerung fallbezogener Rechtsberatung kennt. Es geht nicht um Genauigkeit und nicht um Haftungsausschlüsse in den Nutzungsbedingungen, sondern darum, wozu ein System gebaut wurde und welche Schranken systematisch implementiert sind.

Hinzu kommt ein weiterer Aspekt: OpenAIs Marketing hatte darauf hingewiesen, dass ChatGPT die Anwaltszulassungsprüfung bestehen könne. Die Klageschrift von Nippon Life wertet dies als direkten Auslöser für Dela Torres Überzeugung, das System könne als ihr Anwalt fungieren. Diese Aussage sei eine Einladung zum Vertrauen gewesen, ohne dass die technische Architektur dieses Vertrauen hätte absichern können.

Und dann die entscheidende Pointe: OpenAI hatte seine Nutzungsbedingungen aktualisiert und die Nutzung für Rechtsberatung untersagt. In der Klageschrift erscheint diese Änderung aber nicht als Verteidigungsmittel, sondern als Beleg für das Problem: Sie zeige, dass OpenAI das Risiko erkannt und mit einem Patch in den Nutzungsbedingungen auf ein System reagiert habe, dessen grundlegende technische Architektur sich dabei nicht verändert habe.

Infobox: Konstruktionsfehler vs. Instruktionsfehler im Produkthaftungsrecht

Diese Situation lässt Parallelen zum Produkthaftungsrecht erkennen: Nach § 3 I ProdHaftG ist ein Produkt fehlerhaft, wenn es nicht die Sicherheit bietet, die unter Berücksichtigung aller Umstände berechtigterweise erwartet werden kann. Das ProdHaftG kennt im Wesentlichen drei Fehlertypen. Ein Konstruktionsfehler liegt vor, wenn das Design des Produkts selbst unsicher ist – nicht nur ein einzelnes Exemplar, sondern die gesamte Produktserie. Ein Instruktionsfehler liegt vor, wenn das Produkt an sich in Ordnung wäre, der Nutzer aber nicht ausreichend über Risiken informiert wurde, wie zum Beispiel durch fehlende Warnhinweise.

Im KI-Kontext lautet die Frage: Ist ein Sprachmodell, das keine technischen Sperren für fallbezogene Rechtsberatung hat, konstruktiv fehlerhaft – oder liegt ein unzureichender Warnhinweis vor? Diese Frage ist nicht nur theoretischer Natur. Denn künftig fällt KI als „Software“ eindeutig unter die Produkthaftung (Art. 4 Nr. 1 2. Halbsatz 2 RL), sodass deren Hersteller auch nach dem ProdHaftG-E haften müssen.

Was der EU AI Act dazu sagt und was er noch offen lässt

Die europäische KI-Verordnung (englisch: “AI Act”), der am 1. August 2024 in Kraft getreten ist, unterscheidet zwischen allgemeinen KI-Modellen (General Purpose AI, Art. 51 ff.) und Hochrisiko-KI-Systemen nach Art. 6 II i.V.m. Anhang III. Allgemeine Sprachmodelle wie ChatGPT fallen primär in die GPAI-Kategorie mit abgestuften Transparenzpflichten.

Die Hochrisiko-Einstufung nach Anhang III Nr. 8 – KI-Systeme im Bereich der Rechtspflege, die von oder im Namen von Justizbehörden eingesetzt werden – greift bei einem allgemeinen Verbraucherprodukt nicht ohne Weiteres. Ein Chatbot, der faktisch rechtsberatend genutzt wird, ohne dass der Anbieter diese Zweckbestimmung gesetzt hat, bleibt unter dem aktuellen Regelwerk eine Grauzone.

Wichtig für die Einordnung: Der AI Act gilt nicht auf einen Schlag in vollem Umfang. Die Verbote für unzulässige KI-Praktiken nach Art. 5 gelten seit Februar 2025, die GPAI-Vorschriften seit August 2025, die Hauptpflichten für Hochrisiko-KI erst ab August 2026. Das Regelungsregime befindet sich damit selbst noch im Aufbau.

Fazit

Wie das Gericht diese Fragen löst, wird voraussichtlich davon abhängen, ob ChatGPTs behauptetes Verhalten als allgemeine Rechtsinformation oder als auf einen konkreten Streitfall gerichtete Beratung eingeordnet wird und ob die bestehenden Verbote unbefugter Rechtsausübung sinnvollerweise auf nichtmenschliche Akteure übertragbar sind.

Offen bleibt zudem, welches Gewicht der Änderung der Nutzungsbedingungen zukommt. Dogmatisch bedeutsamer als der Ausgang des Einzelverfahrens ist die strukturelle Frage, die der Fall aufwirft: Wer haftet, wenn eine KI berät – der Nutzer oder der Hersteller? Und reicht ein Disclaimer aus, wenn das Produkt von Anfang an so vermarktet wurde, dass es Vertrauen in juristische Kompetenz weckt? Nippon Life v. OpenAI dürfte zum Testfall dafür werden, wo die Grenze zwischen technologischer Unterstützung und lizenzierter Berufsausübung verläuft.

Weitere interessante Beiträge:

BlogPlus

Du möchtest weiterlesen?

Dieser Beitrag steht exklusiv Kunden von Jura Online zur Verfügung.

Paket auswählen

Relevante Lerneinheiten