Ein Anwalt reicht einen Schriftsatz beim Oberlandesgericht Köln ein. Die Fundstellen sind präzise, die Zitate wirken autoritativ: „Meyer-Götz, in: Hauß/Gernhuber, Familienrecht, 6. Aufl. 2022, § 1671 Rn. 33". Die Auflage wird genannt, der Paragraf, die Randnummer. Alles professionell formatiert. Alles erfunden.
Das Gericht stellt fest: Das Werk existiert nicht – offenbar hat ein Chatbot einfach drei verschiedene Werke durcheinander gemischt. Autorennamen, Sammelwerkstitel und Auflagennummern wurden kombiniert, ohne jemals überprüft zu haben, ob sie zusammenpassen. Rechtsgrundsätze wurden behauptet, die weder in der Literatur noch in der Rechtsprechung jemals vertreten worden sind. Ein Chatbot hatte plausible, aber völlig haltlose Fundstellen generiert – und der Anwalt hatte sie ohne Überprüfung eingereicht.
Das ist kein Einzelfall. Im September 2025 verurteilte das Landgericht Frankfurt am Main einen ähnlichen Fall: Drei vermeintliche BGH-Entscheidungen, alle erfunden. Die Gerichte reagierten unmissverständlich und warfen den Anwälten vor, die Rechtspflege zu gefährden. Ein sehr klares Signal.
Diese Fälle machen deutlich, worum es bei der Nutzung von Rechts-KI wirklich geht: Nicht die Geschwindigkeit der Antworten oder die Eleganz der Benutzeroberfläche ist entscheidend, sondern die Verlässlichkeit der zugrunde liegenden Daten.
Wenn KI halluziniert: Zwei Fälle aus der Praxis
Die Fälle aus Frankfurt und Köln zeigen ein gemeinsames Muster: Anwälte verließen sich auf KI-generierte Fundstellen, ohne diese zu überprüfen. Das Ergebnis waren Schriftsätze voller präzise klingender, aber gänzlich erdachter Zitate. Was technisch als Halluzination bezeichnet wird – das Phänomen, dass Sprachmodelle plausibel wirkende, aber falsche Informationen erzeugen – hatte hier unmittelbare rechtliche Konsequenzen. Die Gerichte brandmarkten dieses Vorgehen in scharfen Worten als Missbrauch und Gefährdung der Rechtspflege.
Dabei liegt das Problem nicht nur bei den Anwält*innen, die ihre Sorgfaltspflichten verletzten, sondern grundlegend auch bei der Technologie, die sie einsetzten. Generische Sprachmodelle – also Systeme wie ChatGPT oder Claude, die mit Texten aus dem offenen Internet trainiert wurden – sind nicht darauf ausgelegt, juristische Fachinhalte verlässlich zu verarbeiten. Von der Fülle dieser Trainingsdaten sind nur ein minimaler Teil Rechtstexte, und davon wiederum nur ein noch geringerer Anteil deutsche Rechtsdokumente. Sie können Muster erkennen und Texte generieren, die überzeugend klingen – aber sie verstehen weder die dem Recht inhärente eigene Systematik, die feinteiligen, aber entscheidenden semantischen Differenzierungen in rechtlichen Formulierungen noch die Bedeutung von Präzision in der juristischen Arbeit.
Was Datenqualität in der Rechtspraxis wirklich bedeutet
Datenqualität im juristischen Bereich bedeutet weit mehr als technische Sauberkeit oder die schiere Menge verfügbarer Dokumente. Es geht um fünf zentrale Dimensionen, die zusammenwirken müssen, damit Legal AI verlässliche Ergebnisse liefert.
Relevanz. Nicht jedes Urteil ist für jede Fragestellung von Bedeutung. Eine hochwertige juristische Datenbank muss in der Lage sein, zwischen tragenden Entscheidungen und Randurteilen zu unterscheiden, zwischen aktueller und überholter Rechtsprechung, zwischen Instanzrechtsprechung und höchstrichterlichen Leitentscheidungen.
Vollständigkeit. Ein einzelnes Urteil mag korrekt wiedergegeben sein – doch was nützt das, wenn die Gegenmeinung fehlt, wenn spätere Entscheidungen nicht berücksichtigt werden, wenn die dogmatische Einordnung durch die Literatur ausgeblendet bleibt? Juristische Arbeit lebt vom Abwägen, vom Vergleichen, vom systematischen Durchdringen eines Rechtsproblems. Eine unvollständige Datenbasis verhindert genau das.
Präzision. Aktenzeichen, Fundstellen, Randnummern – juristische Zitate folgen strengen Konventionen, weil nur so Nachprüfbarkeit gewährleistet ist. Ein System, das diese Präzision nicht gewährleistet, ist für die juristische Praxis nicht zu gebrauchen, egal wie scheinbar eloquent die Antworten auf den ersten Blick auch scheinen mögen.
Kontextualisierung. Rechtsprechung entfaltet ihre Bedeutung erst im Zusammenspiel mit Literatur, Kommentaren, Gesetzesmaterialien und dem Hinweis darauf, ob sie durch neuere Entscheidungen überholt wurde. Wer Urteilstexte isoliert verarbeitet, schafft keine Rechtssicherheit, sondern eine brüchige Wissensbasis.
Aktualität. Das Recht entwickelt sich kontinuierlich weiter. Eine Entscheidung, die gestern noch galt, kann heute überholt sein. Rechts-KI muss nicht nur auf aktuelle Daten zugreifen können, sondern auch erkennen, wenn, wann und warum sich die Rechtslage geändert hat.

Warum Rechtsprechung allein nicht ausreicht
Viele Legal-AI-Anbieter konzentrieren sich darauf, möglichst viele Gerichtsentscheidungen zu sammeln und durchsuchbar zu machen. Das klingt nach einem sinnvollen Ansatz – ist aber nur die halbe Miete. Denn ein Urteil ist kein isoliertes Faktum, sondern Teil eines komplexen juristischen Diskurses.
Nehmen wir als Beispiel eine arbeitsrechtliche Kündigungsschutzklage. Das relevante BGH-Urteil allein gibt möglicherweise Aufschluss über die Rechtsprechung zu einem bestimmten Punkt. Doch wie ordnet die herrschende Meinung in der Literatur diese Entscheidung ein? Gibt es abweichende Stimmen? Welche Konsequenzen zieht die Kommentarliteratur daraus für die Vertragspraxis? Hat die Instanzrechtsprechung die Leitlinien des BGH umgesetzt oder weicht sie davon ab? Erst wenn all diese Fragen beantwortet werden können, entsteht ein vollständiges Bild der Rechtslage.
Genau hier liegt die Stärke etablierter juristischer Fachverlage. Plattformen wie beck-online stellen nicht nur Urteile bereit, sondern auch Kommentare, Gesetzesmaterialien, Aufsätze in Zeitschriftenaufsätze und Praxishandbücher. Entscheidend ist dabei die fortlaufende redaktionelle Pflege und Verknüpfung der Inhalte durch juristische Fachleuteredaktionen. Erst diese Struktur erlaubt es, Rechtsprechung in ihrem dogmatischen und praktischen Zusammenhang zu begreifen.
Der Weg zur verlässlichen Rechts-KI
Die Verlockung generischer Sprachmodelle ist verständlich. Sie sind leicht verfügbar, einfach zu bedienen und liefern auf nahezu jede Frage eine Antwort. Doch sie ignorieren die komplexen Eigenheiten juristischer Texte und unterliegen einem ständigen Aktualisierungszwang, dem sie ohne spezialisierte Pflege nicht gerecht werden können.
Moderne Technologien wie Retrieval-Augmented Generation (RAG) stellen einen wichtigen Fortschritt dar. Statt Antworten ausschließlich aus dem Trainingsmaterial eines Sprachmodells zu generieren, werden bei RAG-Systemen relevante Dokumente aus einer Datenbank abgerufen und in die Antwort eingebunden. Das reduziert Halluzinationen erheblich – aber nur dann, wenn die zugrunde liegende Datenbank hochwertig, aktuell und umfassend ist.
Ein RAG-System, das nur auf eine unvollständige oder schlecht gepflegte Rechtsprechungsdatenbank zugreift, mag technisch einwandfrei funktionieren und dennoch unbrauchbare Ergebnisse liefern. Die Qualität der Daten bestimmt die Qualität der Antworten. Kein noch so ausgefeilter KI-Algorithmus kann fehlende oder fehlerhafte Inhalte kompensieren.
Wie moderne Rechts-KI Verlässlichkeit schafft
Gute Rechts-KI knüpft genau an diesem Punkt an. Sie verbindet hochwertige, redaktionell gepflegte Fachinhalte mit moderner KI-Technologie und schafft dadurch Antworten, die nicht nur generiert, sondern überprüfbar sind. Jede Aussage wird mit einer konkreten Quelle belegt – einem Urteil, einem Kommentar, einem Aufsatz. Der Nutzer kann sofort nachvollziehen, woher die Information stammt, und selbst entscheiden, ob er der Quelle vertraut.
Diese Transparenz und Nachvollziehbarkeit ist kein technisches Feature, sondern eine Grundvoraussetzung für den Einsatz von Rechts-KI in der Praxis. Nur wenn Anwälte, Rechtsabteilungen und Gerichte nachvollziehen können, auf welcher Grundlage eine KI ihre Antworten gibt, kann Vertrauen entstehen. Und nur mit diesem Vertrauen wird Legal AI zum Werkzeug, das die juristische Arbeit nicht ersetzt, sondern fundiert unterstützt.
Die Lehre aus den Fällen in Frankfurt und Köln ist eindeutig: Von der Rechtsprechung zur Rechtssicherheit führt nur ein Weg – und zwar über hochwertige Datenqualität. Erst wenn juristische Fachinhalte kontinuierlich gepflegt, strukturiert und mit KI-Methoden wie RAG verknüpft werden, entsteht ein Instrument, das die Praxis verlässlich unterstützt. Alles andere bleibt Flickwerk und setzt nicht nur Mandant*innen, sondern das Vertrauen in den Rechtsstaat aufs Spiel.














