KI in der Kanzlei: Alles kann, nichts darf?
Die Leitfäden von BRAK & DAV schaffen Klarheit
Künstliche Intelligenz ist längst Teil des anwaltlichen Alltags. Kolleg:innen nutzen Sprachmodelle,1Englisch „Large Language Model“ (LLM). Ein Sprachmodell ist ein System der künstlichen Intelligenz, das durch das Erkennen von Mustern in riesigen Textmengen gelernt hat, Sprache zu verstehen und zu erzeugen, und bildet damit das „Sprachverständnis“ vieler moderner KI-Tools, die Fragen beantworten, Texte verfassen oder Gespräche führen können (z. B. ChatGPT). um Recherchen zu beschleunigen, Entwürfe zu strukturieren oder Routineaufgaben zu automatisieren. Die Vorteile sind offensichtlich: Effizienz, Zeitersparnis und häufig auch ein Qualitätsgewinn. Die Arbeit mit KI und der kompetente Umgang mit entsprechenden Tools ist auch für unsere Branche relevant und unterm Strich meist eine Bereicherung. Doch Risiken wie fehlerhafte Ergebnisse, Verzerrungen oder datenschutzrechtliche Fragen dürfen nicht unterschätzt werden. Wer ein KI-Ergebnis ungeprüft übernimmt, setzt nicht nur das Vertrauen von Mandant:innen aufs Spiel, sondern riskiert auch berufsrechtliche Konsequenzen.
Dr. Franka Becker | Partnerin gunnercooke | CEO PyleHound – KI für Anwält:innen | www.gunnercookede.com | www.pylehound.com
Gerade hier entfalten die jüngsten Veröffentlichungen von Bundesrechtsanwaltskammer (BRAK) und Deutschem Anwaltverein (DAV) ihre Wirkung. Sie bieten Orientierung, räumen Unsicherheiten aus und schaffen einen Rahmen, in dem sich die Chancen der Technologie sicher ausschöpfen lassen. Wer sie ernst nimmt, gewinnt Handlungssicherheit und kann KI mit gutem Gewissen produktiv einsetzen.
ZWEI LEITFÄDEN, EINE GEMEINSAME LINIE
Im Dezember 2024 erschien der BRAK-Leitfaden, im Juli 2025 folgte die Stellungnahme des DAV. Trotz unterschiedlicher Schwerpunkte eint beide Texte eine zentrale Botschaft: Künstliche Intelligenz soll in Kanzleien genutzt werden – auf der Grundlage klarer Regeln, transparenter Prozesse und eindeutiger Verantwortlichkeiten. Damit liegt erstmals ein konsistentes Fundament vor, das berufsrechtliche Anforderungen und praktische Erwägungen in Einklang bringt. Die Leitfäden sind weniger Mahnungen als vielmehr Wegweiser: Sie zeigen, wie der Einsatz von KI in Kanzleien nicht nur möglich, sondern auch vorteilhaft gestaltet werden kann.
BRAK-LEITFADEN: ETHOS UND ENDKONTROLLE
Die BRAK betont in besonderem Maße das Berufsethos. Anwaltliche Arbeit bleibt Eigenverantwortung: KI kann unterstützen, darf aber nicht die letzte Instanz sein. Die Endkontrolle durch Anwält:innen ist unverzichtbar und bildet den Standard. „Human-in-the-loop“2Damit bezeichnet man ein Vorgehen in der künstlichen Intelligenz, bei dem der Mensch gezielt in den Entscheidungs- oder Lernprozess eingebunden wird –, sei es, um Daten zu prüfen, Zwischenergebnisse zu bewerten oder kritische Entscheidungen zu bestätigen –, damit die KI nicht völlig autonom handelt, sondern von menschlichem Wissen, Kontrolle und Verantwortung begleitet wird. ist hier nicht Ausnahme, sondern die Regel. Diese Haltung knüpft unmittelbar an die Kernpflichten des Berufsstands an: Verschwiegenheit, Geheimnisschutz und persönliche Verantwortung gegenüber Mandant:innen. Die BRAK weist zudem ausdrücklich auf die Gefahr von Halluzinationen3Halluzinationen der KI. Dies sind scheinbar überzeugende, aber falsche Antworten, die entstehen, weil ein Sprachmodell nicht „Wissen“ im klassischen Sinn besitzt, sondern Wahrscheinlichkeiten für Wörter und Sätze berechnet: Wenn im Trainingsmaterial Lücken, Verzerrungen oder unklare Zusammenhänge bestehen, kann das Modell plausible, aber falsche Aussagen „konstruieren“. und systematischen Verzerrungen hin. Auch in Fällen, in denen Mandant:innen auf eine Prüfung verzichten möchten, hält die BRAK an der End kontrolle fest. Damit signalisiert sie, dass Berufspflichten nicht durch Vertragsfreiheit relativiert werden können.
Besondere Aufmerksamkeit widmet der BRAKLeitfaden dem Geheimnisschutz. Die Weitergabe von Daten an externe KI-Anbieter ist nur zulässig, wenn Zugriffsmöglichkeiten strikt begrenzt und die Nutzung klar zweckgebunden ist. Es reicht nicht, auf marktübliche Sicherheitsstandards zu vertrauen; vielmehr müssen Kanzleien aktiv prüfen, welche Daten verarbeitet werden und wie die Anbieter rechtlich und technisch abgesichert sind. Pseudonymisierung und Datenminimierung werden als Regelfälle bezeichnet, AV-Verträge sollen jederzeit verfügbar sein. Damit signalisiert die BRAK: Verschwiegenheit bleibt gewahrt, wenn Kanzleien die Leitlinien umsetzen. So entsteht ein Schutzniveau, das den Einsatz von KI nicht verhindert, sondern erst möglich macht.
DAV-LEITFADEN: PRAXISNÄHE UND RISIKOORIENTIERUNG
Der DAV setzt andere Akzente. Sein Leitfaden ist stärker auf die praktische Umsetzbarkeit ausgerichtet und verfolgt einen risikobasierten Ansatz. So wird etwa klargestellt, dass nicht in jedem Fall besonders aufwendige Verschlüsselungsverfahren verlangt werden können, wenn diese die Nutzung unverhältnismäßig erschweren würden. Entscheidend ist eine angemessene Bewertung im Einzelfall. Damit bricht der DAV mit einer Sichtweise, die häufig technische Überforderungen erzeugt, und plädiert für einen pragmatischen Mittelweg.
Auch beim Mandantenwunsch geht der DAV weiter. Verlangen Mandant:innen ausdrücklich ein KI-Ergebnis ohne weitere anwaltliche Prüfung, soll das zulässig sein, sofern dieser Wunsch dokumentiert und die Entscheidung nachvollziehbar festgehalten wird. Die Endkontrolle bleibt damit nicht zwingend, in begrenzten Konstellationen kann davon abgewichen werden. Diese Sichtweise hebt die Autonomie der Mandant:innen hervor und erkennt die Vertragsfreiheit an, ohne die anwaltliche Sorgfaltspflicht aufzugeben. Des Weiteren ist eine Information des Mandanten über den KI-Einsatz nur dann notwendig, wenn die KI entscheidungsrelevante juristische Bewertungen abgibt oder wesentliche Mandatsinhalte mitgestaltet. In der Praxis bedeutet dies, dass Kanzleien klare Verfahren zur Dokumentation entwickeln müssen, um später nachweisen zu können, dass die Verantwortung für die Abweichung nachvollziehbar geregelt war.
Auch beim Datenschutz denkt der DAV pragmatisch. Anforderungen sollen nicht überfordern, sondern handhabbar sein. Datenschutz wird als Rahmen verstanden, in dem sich Innovation sicher bewegen kann. Damit macht der DAV deutlich: Der Einsatz von KI muss nicht kompliziert sein. Wenn KI durchdacht integriert wird, kann sie Kanzleien spürbar entlasten.
GEMEINSAME ECKPFEILER UND GRÜNES LICHT FÜR KI-EINSATZ
Trotz unterschiedlicher Schwerpunkte bestehen klare Schnittmengen. Beide unterstreichen die Bedeutung von Geheimnisschutz und Datenschutz. Externe Anbieter können einbezogen werden, doch nur unter strengen Bedingungen: mit klarer Zweckbindung, begrenztem Zugriff und sorgfältiger Auswahl. Daten sollen so sparsam wie möglich genutzt und nach Möglichkeit pseudonymisiert werden. Die Datenschutzgrundverordnung wird nicht als Hindernis, sondern als Gestaltungsauftrag verstanden. Kanzleien sind aufgefordert, tragfähige Rechtsgrundlagen zu schaffen, transparente Prozesse einzuführen und technische wie organisatorische Maßnahmen nachvollziehbar zu dokumentieren.
„Wer prüft, kann die Potenziale der Technologie nutzen, ohne Risiken zu verharmlosen“
Ein weiterer gemeinsamer Nenner ist die Warnung vor einer unreflektierten Nutzung von KI. Beide Leitfäden machen deutlich, dass Sprachmodelle zwar mächtig sind, aber auch anfällig für Fehler, Verzerrungen oder fehlerhafte Quellenverweise. Aus diesem Grund ist eine Plausibilitätsprüfung durch Anwält:innen unverzichtbar. Doch gerade diese Klarstellung ist ermutigend: Wer prüft, kann die Potenziale der Technologie nutzen, ohne Risiken zu verharmlosen.
EUROPÄISCHE VORGABEN IM BLICK
Von großer Bedeutung sind die Bezüge zur europäischen KI-Verordnung. Beide Leitfäden weisen darauf hin, dass für Kanzleien zwei Zeitpunkte entscheidend sind. Seit Februar 2025 müssen Kanzleien nachweisen können, dass sie hinsichtlich der KI-Nutzung über geschulte Mitarbeitende verfügen, klare interne Regeln eingeführt und Prozesse definiert haben. Damit wird die Kompetenzfrage zum zentralen Organisationspunkt: KI darf nicht isoliert eingesetzt werden, sondern erfordert eine systematische Integration in die Kanzleistrukturen. Damit schafft der europäische Gesetzgeber nicht nur Pflichten, sondern auch Planbarkeit.
Ab August 2026 greifen Transparenzpflichten für KIgenerierte Inhalte, die zur Information der Öffentlichkeit verwendet werden. Wer also beispielsweise auf seiner Kanzleiwebsite automatisch erstellte Texte veröffentlicht oder KI-generierte Beiträge in sozialen Medien nutzt, muss dies kenntlich machen.
Beide Leitfäden weisen darauf hin, dass typische Kanzleianwendungen in der Regel nicht als Hochrisiko- KI gelten. Das erleichtert den Einstieg und senkt die Schwelle für den Einsatz erheblich. Dennoch mahnen sie zur Sorgfalt: Auch scheinbar einfache Workflows verdienen klare Verantwortlichkeiten und nachvollziehbare Kontrollen.
KONSEQUENZEN FÜR DIE PRAXIS
Für Kanzleien ergibt sich daraus ein klarer Auftrag. Kanzleien profitieren, wenn sie den Einsatz von KI syste matisch gestalten. Einzelne Tools nebenbei zu verwenden, genügt nicht. Beide Leitfäden empfehlen, eine Kanzleirichtlinie zu entwickeln, die für alle Mitarbeitenden verständlich ist, Rollen und Verantwortlichkeiten klar zuweist und Freigabe- sowie Dokumentationsprozesse vorsieht. Vertraulichkeit soll dabei Standard sein. Hosting innerhalb der EU oder des EWR, klare Verträge mit Auftragsverarbeitern und eine konsequente Datenminimierung bilden die Grundlage.
Der DAV empfiehlt hierzu ausdrücklich ein Stufenmodell: Je nach Risikoklasse des Einsatzes, etwa interne Recherche, Entwurf eines Vertrags oder Veröffentlichung gegenüber der Öffentlichkeit, sollen unterschiedliche Prüfungs- und Dokumentationstiefen vorgesehen werden. Die BRAK bleibt bei einer einheitlichen Linie, betont jedoch ebenfalls, dass Protokollierung und Nachvollziehbarkeit zwingend sind. Für Kanzleien bedeutet dies, dass ein verlässliches Protokollierungssystem, definierte Freigabeprozesse und klare Verantwortlichkeiten nicht nur organisatorische Hilfen, sondern auch rechtliche Notwendigkeiten sind. Beiden Ansätzen ist gemeinsam: Wer Strukturen schafft, macht den Weg frei für einen verlässlichen und sicheren Umgang mit KI.
RECHTLICHE BELASTBARKEIT DER LEITFÄDEN
Wie belastbar die Leitfäden für Anwält:innen tatsächlich sind, ist eine wichtige Frage. Der BRAK-Leitfaden besitzt den Charakter von „Soft Law“. Er ist kein Gesetz, doch da die BRAK als Körperschaft des öffentlichen Rechts die Aufsicht über die Anwaltschaft führt, können ihre Ausführungen in berufsrechtlichen Verfahren maßgeblich herangezogen werden. Wer sich an die dort formulierten Standards hält, kann also davon ausgehen, im Einklang mit der berufsrechtlichen Erwartungshaltung zu handeln. Absolute Rechtssicherheit gewährt der Leitfaden allerdings nicht, da am Ende immer die konkrete Auslegung der BRAO durch Gerichte und Kammern entscheidend ist.
Der DAV-Leitfaden ist dagegen rechtlich unverbindlich. Er formuliert praxisorientierte Empfehlungen, die in erster Linie den Kanzleialltag strukturieren sollen. Dennoch besitzen auch diese Hinweise Gewicht: Gerichte und Aufsichtsbehörden greifen bei der Bewertung anwaltlichen Verhaltens häufig auf anerkannte Standards zurück. Ein Kanzleiverhalten, das sich am DAV-Leitfaden orientiert, kann also durchaus als Indiz für sorgfältiges Handeln gewertet werden. Umgekehrt bedeutet die Befolgung der Empfehlungen nicht, dass eine Kanzlei von jeder Haftung befreit wäre. Beide Leitfäden schaffen damit keinen Freibrief, wohl aber ein Gerüst, das im Streitfall als Argumentationshilfe dienen kann.
FAZIT: DOPPELTE WEGWEISUNG FÜR DIE ZUKUNFT
In der Zusammenschau entsteht ein positives Bild. Der BRAK-Leitfaden schafft den stabilen Rahmen, indem er Berufsethos, Endkontrolle und Geheimnisschutz betont. Der DAV ergänzt ihn durch eine praxisnahe, risikobasierte Linie, die Hemmschwellen abbaut. Gemeinsam bieten beide eine konsistente Orientierung, die Kanzleien den Weg für den Einsatz von KI ebnet.
„Die Anwaltschaft soll nicht abwarten, sondern den Einsatz von KI gestalten“
Die Botschaft lautet nicht, vorsichtig Abstand zu halten, sondern mutig und tatkräftig zu sein: Wer die Leitfäden beachtet, kann KI-Tools guten Gewissens im Kanzleialltag nutzen – sicher, verantwortungsvoll und mit spürbarem Mehrwert. Das Signal von BRAK und DAV ist einstimmig: Die Anwaltschaft soll nicht abwarten, sondern den Einsatz von KI gestalten.
- 1Englisch „Large Language Model“ (LLM). Ein Sprachmodell ist ein System der künstlichen Intelligenz, das durch das Erkennen von Mustern in riesigen Textmengen gelernt hat, Sprache zu verstehen und zu erzeugen, und bildet damit das „Sprachverständnis“ vieler moderner KI-Tools, die Fragen beantworten, Texte verfassen oder Gespräche führen können (z. B. ChatGPT).
- 2Damit bezeichnet man ein Vorgehen in der künstlichen Intelligenz, bei dem der Mensch gezielt in den Entscheidungs- oder Lernprozess eingebunden wird –, sei es, um Daten zu prüfen, Zwischenergebnisse zu bewerten oder kritische Entscheidungen zu bestätigen –, damit die KI nicht völlig autonom handelt, sondern von menschlichem Wissen, Kontrolle und Verantwortung begleitet wird.
- 3Halluzinationen der KI. Dies sind scheinbar überzeugende, aber falsche Antworten, die entstehen, weil ein Sprachmodell nicht „Wissen“ im klassischen Sinn besitzt, sondern Wahrscheinlichkeiten für Wörter und Sätze berechnet: Wenn im Trainingsmaterial Lücken, Verzerrungen oder unklare Zusammenhänge bestehen, kann das Modell plausible, aber falsche Aussagen „konstruieren“.


