DSGVO: KI-Einsatz in Rechtsanwaltskanzleien
von Mag.iur. Julius Hoffmann (Kommentare: 0)
Der Einsatz der KI-Tools gehört in vielen Unternehmen zum Alltag. Auch die Rechtsanwaltskanzleien stellen in diesem Fall keine Ausnahme dar. Im Januar 2025 hat die Bundesrechtsanwaltskammer (weiter „BRAK“) einen Leitfaden zu diesem Thema veröffentlicht, welche in diesem Blogbeitrag näher analysiert wird.
- Einführung
Die Digitalisierungswelle hat auch die Rechtsbranche erfasst. Aus diesem Grund hat die Bundesrechtsanwaltskammer im Januar 2025 den Leitfaden „Hinweise zum Einsatz von künstlicher Intelligenz“ (weiter „KI-Leitfaden“) erlassen. In diesem Blogbeitrag wird dieses Dokument aus u.a. der datenschutzrechtlichen Perspektive näher analysiert.
- KI-Leitfaden
2.1. Gewissenhafte Berufsausübung und persönliche Leistungserbringung
2.1.1 Halluzinationsgefahr
Im KI-Leitfaden weist die BRAK darauf hin, dass KI-Systeme lediglich zur Unterstützung einer anwaltlichen Tätigkeit eingesetzt werden sollen und diese nicht ersetzen dürfen. Weiter wird auch die Erforderlichkeit „der eigenverantwortlichen Überprüfung und Endkontrolle der KI-Ergebnisse durch die Rechtsanwältin/den Rechtsanwalt“ betont.
Dazu gibt es bereits einen „Präzedenzfall“ – Beschluss des United States District Court Southern District Of New York vom 22 Juni 2023 in Causa Mata v. Avianca, Inc. (Mata v. Avianca, No. 22-CV-1461 (PKC), 2023 WL 4114965 (S.D.N.Y. June 22, 2023). Zum Sachverhalt: Ein Schriftsatz wurde mit Hilfe vom KI-System verfasst, welcher dann ohne jegliche Endkontrolle der Anwälte ans Gericht übermittelt worden ist. Es hat sich später herausgestellt, dass dort nicht existente Quellen (Entscheidungen usw.) zitiert worden sind. Das Gericht hat eine Geldstrafe verhängt. Im diesbezüglichen Beschluss wurde die Wichtigkeit der Endkontrolle (Gatekeeping-Funktion der Rechtsanwälte) betont: „Technological advances are commonplace and there is nothing inherently improper about using a reliable artificial intelligence tool for assistance. But existing rules impose a gatekeeping role on attorneys to ensure the accuracy of their filings (…) [Respondents] abandoned their responsibilities when they submitted non-existent judicial opinions with fake quotes and citations created by the artificial intelligence tool ChatGPT, then continued to stand by the fake opinions after judicial orders called their existence into question”. Nichtdestotrotz soll es kein Einzelfall gewesen sein.
Datenschutzrechtlich ist das Thema insoweit von Bedeutung, da die KI-Halluzinationen unter Umständen die Verletzung des Grundsatzes der Richtigkeit i.S.d. Art. 5 Abs. 1 lit. d DSGVO („Personenbezogene Daten müssen (…) sachlich richtig und erforderlichenfalls auf dem neuesten Stand sein; es sind alle angemessenen Maßnahmen zu treffen, damit personenbezogene Daten, die im Hinblick auf die Zwecke ihrer Verarbeitung unrichtig sind, unverzüglich gelöscht oder berichtigt werden“) darstellen können. In anderen Worten ist die Gefahr nicht auszuschließen, dass die KI-Halluzinationen zu Fehlern in Datensätzen führen können. Auf diese Gefahr hat auch das Gericht im Beschluss zur Causa Mata vs. Avianca hingewiesen: „There is potential harm to the reputation of judges and courts whose names are falsely invoked as authors of the bogus opinions and to the reputation of a party attributed with fictional conduct“.
2.1.2 Effizienz
Im KI-Leitfaden ist die Frage zur Pflicht zum KI-Einsatz durch Rechtsanwältinnen und Rechtsanwälte wie folgt beantwortet: „Aus der BRAO und der BORA ergeben sich nach aktuellem Stand im Grundsatz keine Verpflichtungen, KI-Tools einzusetzen (…). Es kann allerdings aufgrund der Kanzleipflicht nach § 5 BORA, die Rechtsanwältinnen und Rechtsanwälte verpflichtet, die für ihre jeweilige Berufsausübung erforderlichen sachlichen, personellen und organisatorischen Voraussetzungen vorzuhalten, im Einzelfall erforderlich sein, Legal-Tech- oder KI-Tools einzusetzen, bspw. zur Bearbeitung von Massenverfahren“. Es ist in diesem Zusammenhang noch auf § 11 Abs. 1 BORA hinzuweisen: „Der Rechtsanwalt ist verpflichtet, das Mandat in angemessener Zeit zu bearbeiten (…)“.
In anderen Worten kann das Effizienzgebot i.S.d §§ 5, 11 Abs.1 BORA dazu führen, dass KI-Systeme zwecks zügiger Mandatsbearbeitung eingesetzt werden müssen. Wie von der BRAK erwähnt, ist das insbesondere bei großen Causen vorstellbar, deren Akte oft Hunderte von Beilagen umfassen (bspw. „document production“ eines Schiedsverfahrens).
2.2. Wahrung der anwaltlichen Verschwiegenheitspflicht
2.2.1 KI-Einsatz vs. Verschwiegenheitspflicht
Im KI-Leitfaden wird darauf hingewiesen, dass der KI-Einsatz nicht die anwaltliche Verschwiegenheitspflicht verletzen darf („Die anwaltliche Verschwiegenheit nach § 43a Abs. 2 BRAO muss auch beim Einsatz von KI und LLMs gewahrt bleiben“). Somit muss die Verarbeitung von vertraulichen Mandanteninformationen von in der Regel cloudbasierten KI-Systemen ein ultima ratio darstellen („Als Sondernorm zur Wahrung der anwaltlichen Verschwiegenheit dient § 43e BRAO bei der Inanspruchnahme von Dienstleistungen. Danach dürfen Rechtsanwältinnen und Rechtsanwälte IT-Dienstleistern und damit auch Anbietern von KI-Lösungen nur dann Zugang zu vertraulichen Informationen gewähren, wenn dies für die Inanspruchnahme der Dienstleistung erforderlich ist“). Weiter wird die Anonymisierung der vertraulichen Mandanteninformationen vorgeschlagen („Aus dem Gebot nach § 43a Abs. 2 BRAO folgt, dass vertrauliche Mandanteninformationen auch beim Einsatz von KI-Tools geheim zu halten sind und nur unter den strengen Voraussetzungen nach § 43e BRAO an Anbieter von KI-Tools offenbart werden dürfen. Wenn möglich, sollten bei Sprachmodellen nur „abstrakte“ Anfragen (sog. „prompts“) gestellt werden, die auch im Kontext keinerlei Rückschlüsse auf ein bestimmtes Mandat zulassen. Soweit es erforderlich ist, Dokumente hochzuladen, sollten diese, wenn möglich, vorher vollständig anonymisiert sein“).
Die Sache aber ist, dass die seitens der BRAK vorgeschlagene Anonymisierung der Dokumente eher bei kleinen Causen machbar ist. Problematisch wird es bei großen Causen (bspw. internationales Schiedsverfahren), welche Hunderte von Beilagen umfassen.
2.2.2. Auswahl des KI-Dienstleisters
Im KI-Leitfaden wird auf die Anwendbarkeit des Datenschutzrechts hingewiesen: „Zu beachten ist, dass neben den Anforderungen nach § 43e BRAO auch die Vorschriften zum Schutz personenbezogener Daten, insbesondere nach der DSGVO und dem BDSG, eingehalten werden müssen (§ 43e Abs. 8 BRAO)“. Im Zusammenhang mit den KI-Dienstleistern ist auf folgende DSGVO-Bestimmungen hinzuweisen:
Gemäß Art. 5 Abs. 1 DSGVO sind bei der Verarbeitung von personenbezogenen Daten die Datenverarbeitungsgrundsätze (Bspw. Grundsatz der Zweckmäßigkeit, Grundsatz der Datenminimierung, Grundsatz der Speicherbegrenzung usw.) einzuhalten. Darauf wird seitens der BRAK im KI-Leitfaden hingewiesen: „Bei Cloud-Services muss sehr genau geprüft werden, ob der Anbieter unbedingt Zugang zu Mandanteninformationen benötigt („Need-to-know-Prinzip“). Falls möglich, müssen die Daten anonymisiert oder verschlüsselt werden. Dabei reicht es regelmäßig nicht, Namen und Anschriften von Mandanten zu entfernen, wenn sich Mandatsinformationen aus dem Kontext ergeben können. Bei Sprachmodellen wie ChatGPT ist die Übermittlung von Mandatsgeheimnissen nach aktuellem Stand der Technik nicht erforderlich, da eine Nutzung auch ohne die Übermittlung dieser Daten möglich ist und eine Weitergabe mit unkalkulierbaren Risiken für die Mandanten verbunden wäre. Zu beachten ist hierbei auch, dass es für das Tatbestandsmerkmal des Zugangs zu Mandatsgeheimnissen nicht darauf ankommt, ob die KI-Anbieter tatsächlich Kenntnis nehmen. Ausreichend ist wie bei der Offenbarung in § 203 StGB, dass sie die Möglichkeit dazu haben“.
Da die Anbieter von KI-Systemen unter Art. 28 DSGVO fallen, ist mit ihnen ein Auftragsverarbeitungsvertrag abzuschließen. Im Art. 28 Abs. 1 DSGVO ist wie folgt zu lesen: „Erfolgt eine Verarbeitung im Auftrag eines Verantwortlichen, so arbeitet dieser nur mit Auftragsverarbeitern, die hinreichend Garantien dafür bieten, dass geeignete technische und organisatorische Maßnahmen so durchgeführt werden, dass die Verarbeitung im Einklang mit den Anforderungen dieser Verordnung erfolgt und den Schutz der Rechte der betroffenen Person gewährleistet“. In anderen Worten dürfen die Rechtsanwaltskanzleien als Verantwortliche nur jene Dienstleister beauftragen, welche die personenbezogenen Daten DSGVO-konform verarbeiten. Insbesondere ist Vorsicht bei den Dienstleistern aus dem Nicht-EU-Ausland geboten: „Bei der Inanspruchnahme von KI-Lösungen aus dem Ausland muss der dort bestehende Geheimnisschutz nach § 43e Abs. 4 BRAO dem Schutz im Inland vergleichbar sein. Bei Cloud- und KI-Lösungen, insbesondere bei Sprachmodellen, sind die Anbieter häufig in den USA ansässig. Ob hierbei auf das Datenschutzniveau abgestellt werden kann, ist nicht abschließend geklärt, so dass – soweit möglich – zumindest KI-Anbieter mit Serverstandorten in Deutschland oder Europa bevorzugt werden sollten. In anderen Drittländern wie Indien oder China, wo auch kein vergleichbares Datenschutzniveau besteht, verpflichtet § 43e Abs. 4 BRAO zu besonderen Schutzmaßnahmen“.
Hier ist darauf hinzuweisen, dass es bereits KI-Dienstleister aus der EU gibt (siehe dacuros Blogbeitrag zum KI-Tool Mistral AI „Mistral - Der Wind weht von Westen“), welche im Laufe des Auswahlverfahrens berücksichtigt werden sollen.
- Transparenzpflichten nach der BRAO
Im KI-Leitfaden ist bezüglich der Transparenzpflichten wie folgt zu lesen: „Eine Rechtsanwältin bzw. ein Rechtsanwalt ist zwar gegenüber den Mandanten verpflichtet, über alle wesentlichen Aspekte der Mandatsbearbeitung zu informieren, hieraus ergibt sich aber nach aktuellem Stand im Grundsatz weder aus der BRAO noch aus der BORA eine berufsrechtliche Verpflichtung, Mandanten über die Nutzung von KI zu informieren. Zu Transparenzpflichten auch außerhalb des anwaltlichen Berufsrechts z. B. aus dem Vertragsrecht und/oder dem UWG ergeben können. Unabhängig davon ist ein transparenter Umgang mit KI-Tools und im Zweifel eine vertragliche Regelung mit den Mandanten empfehlenswert“.
Es ist überraschend, dass hier die datenschutzrechtlichen Informationspflichten gemäß Art. 12 ff. DSGVO nicht erwähnt worden sind. Diese werden nämlich durch Verarbeitung von personenbezogenen Daten von KI-Systemen ausgelöst (bspw. Einsatz eines KI-Systems zwecks Dokumentenanalyse). Die betroffenen Personen (natürliche Personen, deren personenbezogene Daten verarbeitet werden) sind u.a. über Folgendes zu informieren: Kontaktdaten des Verantwortlichen und des Datenschutzbeauftragten, Zweck/ Rechtsgrundlage der Verarbeitung, Datenempfänger (u.a. die externen KI-Dienstleister), Informationen zur Datenverarbeitung in einem Drittland (Nicht-EU-Land), Speicherdauer, Betroffenenrechte, Informationen im Falle automatisierter Entscheidungsfindungen (einschließlich Profiling) usw. Es ist in diesem Zusammenhang darauf hinzuweisen, dass die Informationspflichten einer Rechtsanwaltskanzlei wegen des Berufsgeheimnisses gegenüber Nichtmandanten gemäß Art. 14 Abs. 5 lit. d DSGVO eingeschränkt sind.
Leider muss der Autor u.a. beim Besuch der KI-Webinare oft feststellen, dass die datenschutzrechtlichen Informationspflichten im Zusammenhang mit dem KI-Einsatz oft sehr stiefmütterlich behandelt werden.
- Anforderungen nach der KI-Verordnung (KI-VO)
Im KI-Leitfaden ist wie folgt zu lesen: „Nach Art. 4 der KI-VO sind Anbieter und Betreiber von KI-Systemen verpflichtet, sicherzustellen, dass ihr Personal über ausreichende Kenntnisse und Kompetenzen im Umgang mit KI-Systemen verfügt“. Sollen seitens einer Anwaltskanzlei KI-Anwendungen eingesetzt werden, dann sind ihre Mitarbeiter diesbezüglich zu schulen (u.a. Übersicht der in der Kanzlei eingesetzten KI-Anwendungen sowie deren Einsatzgebiete, Art der verarbeiteten Daten, Chancen und Risiken von KI-Systemen, KI-bezogene Dos and Don’ts usw.). Empfehlenswert ist es auch eine interne KI-Richtlinie umzusetzen, in welcher der Umgang mit der KI näher geregelt wird (bspw. Verbot der Nutzung von den nicht genehmigten KI-Anwendungen usw.). Es ist darauf hinzuweisen, dass die Verletzung vom Art. 4 KI-VO einen Verstoß gegen Art. 32 DSGVO („Unter Berücksichtigung des Stands der Technik, der Implementierungskosten und der Art, des Umfangs, der Umstände und der Zwecke der Verarbeitung sowie der unterschiedlichen Eintrittswahrscheinlichkeit und Schwere des Risikos für die Rechte und Freiheiten natürlicher Personen treffen der Verantwortliche und der Auftragsverarbeiter geeignete technische und organisatorische Maßnahmen, um ein dem Risiko angemessenes Schutzniveau zu gewährleisten“) darstellt. Dazu könnten auch die zivilrechtlichen Schadenersatzansprüche (bspw. Verletzung der Geschäftsgeheimnisse) kommen.
- Weitere Risiken
Im KI-Leitfaden wird auf die Gefahr der Verletzung von Urheberrechten Dritter im Zusammenhang mit der Textproduktion durch LLMs hingewiesen. Was fehlt, ist ein Hinweis auf die Gefahr der KI-bezogenen Beweisfälschung (Deep-Fakes). Die Sache ist, dass durch den KI-Einsatz die Fälschungen nicht nur vom Urkundenbeweis, sondern auch vom Zeugenbeweis möglich sind. Davor hat u.a. Silicon Valley Arbitration and Mediation Center in seinen „guidelines on the use of artificial intelligence in arbitration“ gewarnt (siehe Guideline 5): „Advancements in AI, however, particularly in generative AI and deep fakes, can heighten the risks of manipulated or false evidence, making it significantly easier to create fake evidence that can appear strikingly convincing to the naked eye or that can sometimes be virtually indistinguishable from authentic versions. It can also make it more costly or difficult to detect any such manipulation through forensic and other means“ (siehe auch dacuros Blogbeiträge „DSGVO: Datenschutz im internationalen Schiedsverfahren“ sowie “DSGVO: Let’s Talk About AI”). Somit soll dieses Thema bei der kommenden Novellierung des KI-Leitfadens unbedingt berücksichtigt werden.
- Schlussfolgerungen
Laut dem Gutachten des Instituts der deutschen Wirtschaft „Wie wird KI die Produktivität in Deutschland verändern?“ steckt der KI-Einsatz in Deutschland noch in Kinderschuhen: „Deutschland bleibt in Bezug auf den Einsatz von Künstlicher Intelligenz (KI) noch deutlich hinter seinen Potenzialen zurück. Die empirische Studienlage zeigt, dass bundesweit im Jahr 2024 immer noch relativ wenige Unternehmen KI aktiv einsetzen: Nur jedes vierte bis fünfte Unternehmen wendet die Technologie an (…). Diese Werte belegen eindrucksvoll, dass die Technologie trotz ihrer inzwischen hohen Präsenz in den Medien und der Politik für viele Unternehmen nach wie vor kein Thema ist“. Die KI-Systeme könnten zum effizienten Case-Management seitens der Anwaltskanzleien beitragen. Nichtdestotrotz soll man die damit verbundenen Risiken sowie die Einhaltung zwingender Rechtsnormen im Auge behalten. Im KI-Leitfaden ist zu lesen, dass „diese Orientierungshilfe nur empfehlenden Charakter hat und keinen Anspruch auf Vollständigkeit erhebt“. Wie im Beitrag dargestellt, ist das Dokument in der Tat an manchen Stellen noch ergänzungsbedürftig (Insbesondere sollte sich die BRAK mit dem Thema „Deep-Fakes“ auseinandersetzen, da Gerichts- und Schiedsverfahren bereits auch in Form von Videokonferenzen stattfinden).
TAGS
Updates Anmeldung zum Newsletter
Wir informieren Sie kostenlos über aktuelle Meldungen zum Thema Datenschutz.
Dieser Inhalt wird aufgrund Ihrer fehlenden Zustimmung nicht angezeigt.
Einen Kommentar schreiben