Vom Vertrauen

Zum Einsatz künstlicher Intelligenz und algorithmischer Systeme in der Rechtsprechung

Der Einsatz von künstlicher Intelligenz (KI) und algorithmischen Systemen in der Justiz ist derzeit in aller Munde. Wer heute fortschrittlich sein will, fordert deren Einsatz. Speerspitze dieser Bewegung waren übrigens bereits im Jahr 2022 – noch vor dem GPT-Boom – die Präsident*innen der Oberlandesgerichte, des Kammergerichts, des Bayerischen Obersten Landesgerichts und des Bundesgerichtshofs. Sie hielten schon im Grundlagenpapier zu ihrer 74. Jahrestagung fest, dass der Einsatz von KI und algorithmischen Systemen erhebliches Potenzial zur Optimierung der Arbeitsweise der Justiz biete. Das klingt vielversprechend, wirft aber zugleich die Frage auf: Soll KI dann menschliche Richter*innen ersetzen? Die Zukunft könnte dann so aussehen: Die Parteien prompten auf einer Justizplattform ihren Fall und erhalten innerhalb kürzester Zeit eine formale Entscheidung; Large Language Models machen es möglich. Das lästige Warten auf Termine, Richter*innen, die Auflagen erteilen, Termine verlegen und dann mühsam nach langen Jahren eine für die Parteien nicht zufriedenstellende Entscheidung aufpinseln – meistens gewinnen ja beide Seiten nicht vollständig – entfielen. Was für eine schöne neue Welt.

Dr. Martin Müller-Follert | Richter am Kammergericht | Leitung Dezernat X | Leitung Stabsbereich eJustice

Aber mit der schönen neuen Welt ist das so eine Sache. Das ruft nicht nur ein diffuses Störgefühl hervor, diesen Plänen stünde etwas Grundlegendes im Wege: das Grundgesetz. Die vielen Väter und wenigen Mütter des Grundgesetzes hatten Robo-Richter*innen mit Sicherheit nicht im Blick. Aber Art. 92 1. Halbsatz Grundgesetz (GG) gibt dennoch eine eindeutige Antwort: Danach ist die rechtsprechende Gewalt den Richter*innen „anvertraut“. Eine blumige Formulierung mit erheblichem Potenzial zu Gedankengängen und Folgerungen, deren Ergebnis ich Ihnen gern kurz skizzieren möchte: Nach dem Duden bedeutet „anvertrauen“ unter anderem die vertrauensvolle Überlassung eines Amtes, „Vertrauen“ wiederum das feste Überzeugtsein von der Verlässlichkeit und Zuverlässigkeit einer Person. Richter*innen haben das Vertrauen des Rechtsstaates, dass sie die ihnen anvertraute rechtsprechende Gewalt verlässlich und zuverlässig ausüben. Sie allein tragen – natürlich im System der verschiedenen Gerichtsbarkeiten und Instanzenzüge – die Entscheidungsverantwortung. Dabei müssen sie unabhängig, unparteilich und fachlich kompetent sein. Hieraus folgt dann zweierlei, was kein „Entweder-oder“, sondern ein „Sowohl-als-auch“ ist:

Richterliche Entscheidungen sind natürlichen Personen anvertraut, übertragen und vorbehalten. Sie können nicht „vertrauensvoll“ einer KI überlassen werden. Dabei mag man auch überlegen, ob ein Vertrauen in die Verlässlichkeit und Zuverlässigkeit solcher Systeme (derzeit) angebracht ist. So zeigt eine aktuelle Studie der Stanford Universität, dass LLMs wie ChatGPT zwar das Potenzial hätten, die Rechtspraxis zu verändern. Dieses Potenzial werde aber durch rechtlich falsche Antworten („juristische Halluzinationen“) eingeschränkt. Das erscheint wenig vertrauenerweckend und taugt, wenn überhaupt nur zu der Erkenntnis, dass die ganzen Mindermeinungen aus dem juristischen Studium ja auch irgendwo herkommen müssen.

„Im Zuge der fortschreitenden Digitalisierung darf nicht aus dem Blickfeld geraten, dass Art. 19 Abs. 4 GG dem Einzelnen einen substanziellen Anspruch auf effektiven Rechtsschutz einräumt“

Vertrauenerweckend ist es aber auch nicht, wenn die Rechtsprechung ihrer Aufgabe nicht mehr gerecht wird, weil beispielsweise Textprodukte in großen Mengen in Massenverfahren auf sie einprasseln. Das ist das „Alsauch“ im „Sowohl“: Im Zuge der fortschreitenden Digitalisierung darf nämlich nicht aus dem Blickfeld geraten, dass Art. 19 Abs. 4 GG dem Einzelnen einen substanziellen Anspruch auf effektiven Rechtsschutz einräumt, das heißt, auf eine tatsächlich wirksame und möglichst lückenlose, insgesamt wirkungsvolle gerichtliche Kontrolle. Es muss sichergestellt sein, dass Richter*innen diesen Kontrollauftrag erfüllen können. Hierauf wiederum dürfen die Rechtsschutzsuchenden vertrauen. Wenn aber die Parteien – hier ganz besonders die Anwaltschaft bereits heute in bestimmten Verfahren (Diesel, Fluggastrechte, Mietminderungen, Abmahnungen etc.) hunderte (KI-generierte?) Seiten an die Gerichte schickt, stellt sich die Frage, ob der Rechtsschutz in diesen Verfahren noch hinreichend effektiv gewährleistet werden kann. Welche Richter*innen sollen derartige Textprodukte in angemessener Zeit nicht nur lesen, sondern auch hinreichend durchdringen können? Hier können KI und algorithmische Systeme schon jetzt helfen. Dazu müssen aber auch Richter*innen Vertrauen haben: in die technische, softwaregesteuerte Unterstützung, nicht nur, aber vor allem zur effektiven Bewältigung der genannten Massenverfahren. Erste Gehversuche wurden bereits unternommen. Beispielhaft seien der am OLG Stuttgart eingesetzte „Oberlandesgerichtsassistent“ (OLGA, zur Bewältigung von Massenverfahren in Dieselsachen) oder der „Frank furter Urteils-Konfigurator elektronisch“ (FraUKe, zur Bearbeitung von Fluggastrechteverfahren) genannt. Mit solchen Tools können aus den entscheidungsrelevanten Dokumenten – nach den Vorgaben der zuständigen Entscheidenden – bestimmte Parameter und Informationen ausgelesen werden. Entscheidungen (im engeren Sinne oder gar eigene) treffen diese Tools grundsätzlich nicht, sie sind reine Unterstützungswerkzeuge.

Hier liegt also das Gemeinsame des „Anvertrautseins“. Richterinnen und Richter dürfen die Entscheidungen nicht einfach wegdelegieren. Schon gar nicht an Maschinen. Sie haben jedoch auch die Verpflichtung, dem Vertrauen der Bürgerinnen und Bürger in sie gerecht zu werden und die ihnen anvertraute Aufgabe – die Rechtsprechung – zu erfüllen. Deshalb ist der Einsatz von Unterstützungssystemen zwangsläufig nötig und geboten.

Heft 04 | 2024 | 73. Jahrgang