KI in der richterlichen Entscheidungsfindung

Künstliche Intelligenz (KI) hält Einzug in immer mehr Unternehmensbereiche, selbst in hochsensible Sektoren wie die Justiz. Eine gemeinsame, interdisziplinäre Forschung der Georg-August-Universität Göttingen und des Niedersächsischen Justizministeriums hat nun die rechtlichen, technischen und fachlich-organisatorischen Rahmenbedingungen für die Unterstützung der richterlichen Arbeit durch KI detailliert untersucht.

Forschungsauftrag und zentrale Ergebnisse

Ziel des Forschungsprojekts war die Analyse der Nutzung informationstechnischer Systeme in der richterlichen Entscheidungsfindung, getrieben durch die Notwendigkeit, die staatliche Justiz leistungsfähiger zu machen und Überlastung zu reduzieren. Der veröffentlichte Abschlussbericht des ersten Meilensteins identifiziert klare „rote Linien“ für den KI-Einsatz. Ein zentrales Ergebnis ist, dass der Einsatz informationstechnischer Systeme zur richterlichen Entscheidungsfindung eine gesetzliche Grundlage erfordert, insbesondere für den entscheidungsersetzenden Einsatz oder bei inhaltsbezogenen, entscheidungsunterstützenden Funktionen. Dieses ergebe sich gleich aus mehreren Regelungskomplexen, so beispielsweise aus dem Rechtsstaatsprinzip, dem Demokratieprinzip, hinsichtlich der Verarbeitung personenbezogener Daten auch aus dem Recht auf informationelle Selbstbestimmung und aus der DSGVO. 

Unabhängig vom Automatisierungsgrad sei die menschliche Überwachung und Kontrolle der Arbeitsergebnisse eine zwingende Anforderung. Gerade vor dem Hintergrund psychologischer Effekte wie des automation bias bzw. des default bias. Hinsichtlich der Transparenz- und Informationspflichten zählt auch die Aufklärung der Nutzer bzw. Prozessparteien. Diese müssten einerseits über Möglichkeiten und Grenzen der eingesetzten Systeme sowie andererseits das „Ob“ und das „Wie“ des Einsatzes informiert werden.

Einsatzgrenzen von KI in der Justiz

Die Einsatzgrenzen von KI werden an 3 Faktoren abhängig gemacht. „Dies sind erstens der funktionale Charakter der Tätigkeit (rein administrative oder inhaltliche Funktionalität), zweitens der Grad der Automatisierung sowie drittens die Komplexität des jeweiligen Anwendungsfeldes. Je höher der Grad der Automatisierung, je komplexer das Anwendungsfeld, in dem ein System inhaltliche Funktionen erfüllen soll, desto höher sind die Anforderungen zur Einhaltung der ethischen Einsatzgrenzen und der rechtlichen Rahmenbedingungen.“

Empfehlungen von BRAK und DAV für die Anwaltschaft

Die strikte Forderung nach menschlicher Kontrolle und Sorgfalt in der Justiz korrespondiert mit den berufsspezifischen Leitlinien der Anwaltschaft. Sowohl die Bundesrechtsanwaltskammer (BRAK) als auch der Deutsche Anwaltverein (DAV) betonen die Pflicht zur kritischen Überprüfung des KI-Outputs. Die BRAK, die bereits im Dezember 2024 einen Leitfaden zum berufsrechtskonformen KI-Einsatz publizierte, stellt klar, dass KI-Systeme lediglich unterstützend dienen und die anwaltliche Tätigkeit nicht ersetzen dürfen. Explizit wird die eigenverantwortliche Überprüfung und Endkontrolle der Ergebnisse als zwingend erforderlich hervorgehoben.

Um die anwaltliche Verschwiegenheitspflicht gemäß § 43a Abs. 2 BRAO zu wahren und Datenschutz- sowie Compliance-Verstöße zu vermeiden, raten beide Organisationen dringend dazu, nur abstrakte Anfragen zu stellen und Dokumente vor dem Hochladen in KI-Tools zu anonymisieren. Der DAV forderte in seiner Initiativ-Stellungnahme vom Juli 2025 zudem die sorgfältige Auswahl der Dienstleister und die Durchführung von Datenschutz-Folgenabschätzungen.

Konsequenzen von KI-Halluzinationen

Die Warnungen der Berufsorganisationen vor unzuverlässigem Output der KI wurden durch ein aktuelles Urteil des Amtsgerichts Köln eindrücklich bestätigt. Ein Anwalt wurde vom Gericht gerügt, weil er sogenannte KI-Halluzinationen – also falsche oder erfundene „Fakten“ – in seinen Vortrag zitierte. Eine solche Pflichtverletzung schädigt nicht nur das Ansehen, sondern kann nachgelagert zur berufsrechtlichen Verantwortung führen.

Fazit

Die interdisziplinäre Analyse des KI-Einsatzes in der Justiz und die Erfahrungen aus der Rechtspraxis zeichnen ein klares Bild für Behörden, Kanzleien und Unternehmen. Die Automatisierung juristischer oder administrativer Prozesse darf niemals die menschliche Letztverantwortung oder die Einhaltung gesetzlicher Pflichten wie den Datenschutz ersetzen. Unternehmen sollten auf Basis der Empfehlungen der BRAK und des DAV interne Richtlinien definieren. Die Gefahr von KI-Halluzinationen sowie das Risiko von Datenschutzverstößen erfordern eine robuste KI-Strategie, um Reputationsschäden und Bußgelder zu vermeiden.

Unsere KINAST Rechtsanwälte und KI-Beauftragten beraten Kanzleien und Rechtsabteilungen umfassend zum sicheren und datenschutzkonformen Einsatz von KI-Tools in der anwaltlichen Praxis.

KINAST: KI-Compliance aus einer Hand

  • individuelle KI-Beratung
  • externer KI-Beauftragter
  • modulare KI-Schulungskonzepte
Mehr erfahren