KI-Müll in der Rechtsbranche: Wenn Scheineffizienz zur Falle wird
Das neue Jahr beginnt mit einem Problem, das sich in der Legal-AI-Szene schon länger aufgebaut hat: dem Umgang mit KI-generierten Inhalten, die Juristen geradezu überfluten.
Auf LinkedIn häufen sich die frustrierten Aufschreie. Im Dezember 2025 berichtete ein deutscher Anwalt von einem Sorgerechtsstreit, in dem eine Partei ohne anwaltliche Vertretung ein KI-Modell nutzte, um ein gerichtlich eingeholtes Gutachten zu „zerlegen" – und dabei einen 38-seitigen Schriftsatz mit Zitaten und Rechtsprechungsverweisen produzierte.[1] Die Folge? Richter und Prozessgegner müssen nun alles lesen, verifizieren und darauf reagieren. Das Problem werde sich an Amtsgerichten ohne Anwaltszwang verschärfen, warnte er – vor allem nach der am 1. Januar 2026 erfolgten Erhöhung der Streitwertgrenze von 5.000 auf 10.000 Euro. Eine Änderung, die auch laut BRAK und DAV Schriftsätze minderer Qualität verursachen wird.[2]
Und die Belastung lässt sich nicht mit oberflächlicher Lektüre oder simpler Weiterleitung an die Gegenseite abschütteln: Wie das Oberlandesgericht Karlsruhe 2022 klarstellte, müssen Gerichte umfangreiche Eingaben „ungeachtet der Arbeitsbelastung" lesen, um das verfassungsrechtliche Recht auf rechtliches Gehör zu wahren.[3] Aber was passiert, wenn sich diese Eingaben exponentiell vervielfachen, in Minuten von ChatGPT erzeugt werden und voller Inhalte stecken, die die einreichende Partei selbst nicht vollständig versteht?
Willkommen im Zeitalter des KI-Mülls in der Rechtsbranche.
Was ist KI-Müll?
Der Begriff „AI slop" traf den Zeitgeist des Jahres 2025 so präzise, dass sowohl Merriam-Webster als auch das Macquarie Dictionary ihn zum Wort des Jahres kürten.[4] Laut dem Medienunternehmen Meltwater verneunfachten sich die Erwähnungen des Begriffs von 2024 auf 2025, wobei die negative Stimmung im Oktober 54 Prozent erreichte.[5] Der Grund? KI-generierte Inhalte machen mittlerweile mehr als die Hälfte aller englischsprachigen Webinhalte aus, so die SEO-Firma Graphite.[6]
Aber was genau qualifiziert sich als „Müll"? In deutschen Geschäftskontexten hat sich der Begriff zu „AI Workslop" weiterentwickelt: KI-generierte Inhalte, die so substanzlos sind, dass sie zusätzliche Arbeit verursachen, statt Zeit zu sparen. Das Handelsblatt brachte die Frustration auf den Punkt: Mitarbeiter „verschwenden Stunden mit KI-Schrott", der mehr Aufwand zur Korrektur erfordert, als die ordentliche Erstellung von Grund auf gekostet hätte.[7]
Die Rechtsbranche ist zu einem besonders akuten Schauplatz dieses Phänomens geworden. In den Vereinigten Staaten berichten Forschungsbibliothekare, dass sie bis zu 15 Prozent ihrer Arbeitszeit damit verschwenden, auf Anfragen nach nicht existierenden Dokumenten zu reagieren, die ChatGPT oder Google Gemini halluziniert haben.[8] Schlimmer noch: Falsche Zitate werden durch akademische Arbeiten “gewaschen”, die wiederum andere Texte mit KI-Halluzinationen zitieren – ein sich selbst verstärkender Kreislauf, der Rechtsdatenbanken und Fachliteratur verschmutzt. [8]
KI-Müll erobert die Gerichtssäle
Im Jahr 2025 begannen deutsche Gerichte, das Problem in veröffentlichten Entscheidungen zu dokumentieren. Immer wieder das gleiche Bild: Anwälte reichten Schriftsätze ein, die auf den ersten Blick professionell wirkten , jedoch zahreiche erfundene Zitate enthielten.
Amtsgericht Köln (2. Juli 2025): Eine Familienrichterin entdeckte, dass ein Anwaltsschriftsatz Literaturzitate und Rechtsprechungsverweise enthielt, die „offenbar mittels künstlicher Intelligenz generiert und frei erfunden" waren. Das Gericht stellte fest, dass weder die zitierten Bücher noch die juristischen Entscheidungen existierten. Die Richterin erteilte eine öffentliche Rüge und erklärte, solche Eingaben „erschweren die Rechtsfindung, führen den unkungigen Leser in die Irre und schädigen das Ansehen des Rechtsstaats und insbesondere der Anwaltschaft empfindlich."[9]
Oberlandesgericht Celle (29. April 2025): In einem Berufungsverfahren reichten beide Parteien Schriftsätze mit erfundenen Rechtsprechungsverweisen auf nicht existierende OLG-Entscheidungen ein. Dieser Fall, der in Sachen professioneller Nachlässigkeit kaum zu überbieten scheint, bewies immerhin: Auch bei KI-generierter Rechtsrecherche ohne Verifikation kann prozessuale Waffengleichheit herrschen.[10]
In seinem Beitrag im Anwaltsblatt merkte der Legal-Tech-Experte Markus Hartung an, dass ähnliche Fälle in ganz Deutschland und international aufgetaucht sind.[11] Das Ausmaß ist beachtlich: Weltweit gibt es mittlerweile über 773 Fälle mit KI-Halluzinationen in juristischen Eingaben, allein in den Vereinigten Staaten mehr als 250.[12]
Aber wer glaubt, nur Prozessparteien ohne Anwalt und schlampige Anwälte produzierten Müll, ist viel zu optimistisch. Eleanor Tyler von Bloomberg Law dokumentierte Fälle, in denen Richter selbst KI-generierte Erfindungen in ihre Entscheidungen einbauten.[13] Wenn sogar die Justiz, die eigentlich die Qualität der Eingaben bewerten soll, Müll produziert, drohen alle Qualitätskontrollmechanismen des Systems zu versagen.
Die Abschreckungslücke: Warum KI-Müll persistiert und wie man sich wehrt
Wer von solchen skandalösen Fällen erschüttert ist, freut sich vermutlich darauf zu lesen, welche Sanktionen gegen diese nachlässigen Anwälte und Richter verhängt wurden. Die Antwort in Deutschland? Kaum welche.[11]
In den Vereinigten Staaten reichten die Sanktionen von 2.000 bis 15.000 Dollar Geldstrafe – Beträge, die kaum abschreckend wirken dürften, besonders in Verfahren mit hohen Streitwerten. Die bisher schwerste Konsequenz: Ein Bundesrichter in Wyoming entzog einem Anwalt die Zulassung pro hac vice (das Recht für auswärtige Anwälte, in einem Einzelfall vor Gericht aufzutreten) wegen „unethischen Verhaltens", nachdem sich herausstellte, dass acht von neun zitierten Fällen KI-Halluzinationen waren.[14]
Großbritannien geht härter vor. Im Juni 2025 warnte Dame Victoria Sharp, Präsidentin der King's Bench Division, dass Anwälte, die KI missbrauchen, Sanktionen von öffentlicher Ermahnung bis zu Missachtungsverfahren riskieren – und in den schwerwiegendsten Fällen eine Strafverfolgung wegen Rechtsbeugung.[15] Als ein Anwalt 45 Rechtsprechungsverweise einreichte, von denen 18 nicht existierten, betonte Dame Sharp, dass ihr Verzicht auf ein Missachtungsverfahren „kein Präzedenzfall" sei.
Ohne ausreichende Abschreckung, warnt Eleanor Tyler von Bloomberg Law, wird das Überschwemmen der Gegenseite mit unverifizierten KI-Inhalten zur Prozessstrategie: Man produziere gefälschte Schriftsätze in 30 Minuten, zwinge den Gegner, Stunden mit der Verifikation jedes Zitats zu verbringen, und müsse bei Entdeckung mit minimalen Konsequenzen rechnen.[13]
Aber wie steht es mit Sanktionen für Prozessparteien ohne anwaltliche Vertretung, die KI-Halluzinationen einreichen? Was ist mit Richtern, die erfundene Zitate in ihre eigenen Entscheidungen einbauen? Die aktuellen Regelungsrahmen ignorieren diese Szenarien weitgehend. Im Prozessrecht und in der Gerichtsorganisation bleibt erhebliche Arbeit, um das volle Ausmaß des KI-Müll-Problems zu bewältigen.
Ihre eigene Verteidigungsstrategie beginnt jetzt
In der Zwischenzeit haben deutsche Rechtspraktiker*innen und Kommentator*innen begonnen, praktische Leitlinien für Anwält*innen in dieser neuen Realität zu entwickeln:[16][17]
Alles systematisch verifizieren. Eine Selbstverständlichkeit, die der Deutsche Anwaltverein fordert, Gerichte weltweit verlangen und die anwaltliche Sorgfaltspflicht ohnehin gebietet. Und das könnte weniger zeitaufwendig sein als gedacht:
Spezialisierte Legal-AI-Tools nutzen. Spezialisierte Legal-AI-Lösungen, die auf umfassenden Rechts- und Literaturdatenbanken aufbauen, zeigen Zitate während des Entwurfs wörtlich an, statt plausibel klingende Fälschungen zu generieren – das macht die Quellenprüfung unkompliziert und effizient. Sie ermöglichen es Anwält*innen auch, alle Zitate der Gegenseite in wenigen Minuten zu verifizieren, was die Kosten für die Aufdeckung professioneller Nachlässigkeit bemerkenswert niedrig macht. Die gleiche Verifikation gilt für Gerichtsentscheidungen, wobei deutsche Gerichte beim KI-Einsatz bisher umsichtiger erscheinen als ihre US amerikanischen Pendants und sich hoffentlich nur mit professionellen Tools ausstatten werden.
Interne Konsistenz prüfen. Neben halluzinierten Verweisen sind unlogische Absätze und widersprüchliche Fakten ein weiteres typisches Produkt KI-generierter Inhalte. Spezialisierte Lösungen bieten agentische Prozesse, um auf Inkonsistenzen zu prüfen – sowohl in den eigenen Argumenten als auch in denen der Gegenseite. Doch bei Logik und Kohärenz bleibt das Juristengehirn unersetzlich – und die sorgfältige kritische Durchsicht unentbehrlich.
Um das Vertrauen der Öffentlichkeit in das Justizsystem zu wahren, während Prozessrecht und Gerichtsverfassung aufholen, müssen die ethischen Standards, die die kontinentaleuropäische Rechtspraxis definiert haben, mit erneuter Wachsamkeit aufrechterhalten werden. Anwält*innen, Gerichte, Universitäten, Rechtsverlage und Technologieentwickler müssen zusammenarbeiten. Und dabei kommt es auf Ausbildung und offene Debatten an – über Tools, aber vor allem über die intellektuelle Disziplin und Ethik, die Jurist*innen von bloßen Prompt-Ingenieur*innen unterscheiden.
Fußnoten
[1] Dirk Trieglaff, "LLM-Flut am Amtsgericht," LinkedIn, Dezember 2025.
[2] Bundesrechtsanwaltskammer, Höhere Streitwertgrenzen für Amtsgerichte und für Rechtsmittel ab dem 1.1.2026 | Bundesrechtsanwaltskammer, 04.12.2025.
[3] OLG Karlsruhe, Beschluss v. 11.5.2022, 9 W 24/22, discussed in "Befangenheit: Richter muss Anwaltsschriftsätze vollständig lesen | Recht | Haufe," Haufe Recht, 10. August 2022.
[4] Merriam-Webster's 2025 Word of the Year is 'slop' | Euronews, Euronews, 15. Dezember 2025, und 'AI slop': Macquarie Dictionary's Word of the Year is a sad reflection of modern anxieties | Euronews, Euronews, 26. November 2025.
[5] What the Rise of AI Slop Means for Marketers, Meltwater, 27. November 2025, zitiert in 2025 was the year AI slop went mainstream. Is the internet ready to grow up now? | Euronews, Euronews, 28. Dezember 2025.
[6] Jose Luis Paredes et al., More Articles Are Now Created by AI Than Humans, Graphite, zitiert in 2025 was the year AI slop went mainstream. Is the internet ready to grow up now? | Euronews, Euronews, 28. Dezember 2025.
[7] Milena Merten, Mitarbeiter verschwenden Stunden mit 'KI-Schrott, Handelsblatt, 9. Januar 2026.
[8] Miles Klee, "AI Chatbots Are Poisoning Research Archives With Fake Citations," Rolling Stone, 17. Dezember 2025.
[9] AG Köln, Beschluss vom 02.07.2025 – 312 F 130/25, discussed in Blamage vor Gericht: Wenn die KI „halluziniert" – und der Anwalt den Schriftsatz nicht prüft - Kanzlei Update, 17. Juli 2025.
[10] OLG Celle, Beschluss vom 29.04.2025 – 5 U 1/25, discussed in "KI-generierte Schriftsätze, Fehlzitate und unsubstantiiertes Vorbringen," Dr. jur. Jens Usebach LL.M., 3. September 2025.
[11] Markus Hartung, "Halluzinationen in Schriftsätzen," Anwaltsblatt, 2025.
[12] "AI Hallucination Cases Database," Damien Charlotin, abgerufen Januar 2026.
[13] Eleanor Tyler, "ANALYSIS: AI Slop Will Spread Until Courts Address Incentives," Bloomberg Law, 29. Juli 2025.
[14] Wadsworth v. Walmart Inc., 348 F.R.D. 489 (D. Wyo. 2025).
[15] The King (on the application of Ayinde) v London Borough of Haringey and Al-Haroun v Qatar National Bank [2025] EWHC 1383 (Admin), Urteil vom 6. Juni 2025.
[16] Dr. jur. Jens Usebach, KI-generierte Schriftsätze, Fehlzitate und unsubstantiiertes Vorbringen, 3. September 2025.
[17] SN 32/25: Einsatz von KI in der Anwaltschaft," Deutscher Anwaltverein, 9. Juli 2025.
















