KI und deren Herausforderungen

von Mag.iur. Julius Hoffmann (Kommentare: 0)

Wie jede menschliche Erfindung, zieht die künstliche Intelligenz (KI) Folgen nach sich, welche hier näher dargestellt werden.

In zahlreichen Publikationen wird über die langfristigen Auswirkungen des KI-Einsatzes spekuliert. Man fokussiert sich dabei hauptsächlich auf die Privatwirtschaft. Die Folgen werden aber auch in anderen Bereichen spürbar sein. In diesem Blogbeitrag möchten wir die KI-bezogenen Herausforderungen im weiteren Sinne näher analysieren.

1. Halluzinationsgefahr

Im Blogbeitrag DSGVO: KI-Einsatz in Rechtsanwaltskanzleien wurde im Zusammenhang mit dem zitierten Beschluss des United States District Court Southern District Of New York vom 22 Juni 2023 in Causa Mata v. Avianca, Inc. (Mata v. Avianca, No. 22-CV-1461 (PKC), 2023 WL 4114965 (S.D.N.Y. June 22, 2023) auf die sogenannte Halluzinationsgefahr (Erzeugung von fiktiven Inhalten seitens der KI-Tools) sowie auf die Notwendigkeit der Endkontrolle von KI-generierten Inhalten hingewiesen.

Es sieht aber so aus, als ob man trotz der medialen Bekanntheit des oben genannten Falles nichts gelernt hätte. Im Anhang zur Entscheidung des britischen High Court Of Justice im Fall Ayinde v The London Borough of Haringey vom 3. April 2025 ist es zu lesen, dass die fehlende Endkontrolle der KI-generierten Inhalte seitens der Rechtsvertreter keine Seltenheit ist.

Solches Fehlverhalten kann datenschutzrechtliche Folgen haben, da die Verarbeitung von den KI-generierten Daten unter Umständen einen Verstoß gegen den Grundsatz der Richtigkeit i.S.d. Art. 5 Abs. 1 lit. d DSGVO („Personenbezogene Daten müssen (…) sachlich richtig und erforderlichenfalls auf dem neuesten Stand sein; es sind alle angemessenen Maßnahmen zu treffen, damit personenbezogene Daten, die im Hinblick auf die Zwecke ihrer Verarbeitung unrichtig sind, unverzüglich gelöscht oder berichtigt werden“) darstellen kann.

Die fehlende Endkontrolle der KI-generierten Ergebnisse kann nicht nur Konsequenzen rechtlicher, sondern auch gesundheitlicher Natur nach sich ziehen. Laut dem ACP-Journals-Fachartikel erlitt ein 60-jähriger Mann infolge der KI-generierten Ernährungsempfehlungen eine Bromvergiftung. Die Autoren warnen, dass die Befolgung von KI-generierten Ratschlägen ohne fachliche Endkontrolle zu Gesundheitsschäden führen kann.

2. Umfang des zulässigen KI-Outsourcings

In verschiedenen KI-Richtlinien sowie KI-bezogenen Beiträgen ist oft zu lesen, dass KI-Systeme nur unterstützend herangezogen werden dürfen. Sie dürfen jedoch nicht die Expertise und Erfahrung einer natürlichen Person ersetzen. Somit ist eine vollumfängliche Übertragung von selbstständig zu erledigenden Aufgaben auf die KI nicht zulässig.

Es scheint aber bereits die erste Herausforderung am Horizont zu geben: Die Schiedsinstitution – American Arbitration Association - hat auf Ihrer Homepage den geplanten Einsatz vom AI Arbitrator (KI-Schiedsrichter) bekannt gemacht. Das KI-Tool soll mit fallbezogenen Informationen gefüttert werden, die Argumente abwägen und die Entwürfe der Schiedssprüche verfassen, welche dann von einem Juristen überprüft werden. Der Einsatz vom AI Arbitrator soll derzeit im Bereich der kleinen baurechtlichen Streitigkeiten eingesetzt werden. Im Jahr 2026 soll aber dessen Einsatzbereich erweitert werden.

Da der Einsatz solcher KI-Tools wie AI Arbitrator in Europa nur eine Frage der Zeit ist, muss klar festgelegt werden, ab wann die verbotene Übertragung der selbständig zu erledigenden Aufgaben auf die KI vorliegt.

3. KI und Haftung

Hier ist insbesondere auf die Novellierung des Produkthaftungsrechts auf Basis der EU-Richtlinie (EU) 2024/2853 hinzuweisen. Eine der wichtigen Änderungen ist, dass die Software unter dessen Anwendungsbereich fallen soll. Die Frage, ob die KI auch vom neuen Produkthaftungsgesetz umfasst ist, wurde seitens des deutschen Bundesministeriums für Justiz bejaht: „Ja, auch Künstliche Intelligenz wird künftig als Software von der Produkthaftung erfasst."

Das gilt zum Beispiel, wenn die KI, die ein autonomes Fahrzeug steuert, einen Fehler aufweist und dadurch einen Körper- oder Sachschaden verursacht. Das Produkthaftungsrecht sieht bewusst keine Definition von Software vor und ist damit offen für künftige technische Entwicklungen“. Das neue Produkthaftungsgesetz soll am 9. Dezember 2026 in Kraft treten.

 

4. KI-Bias

Kathleen Blake warnt in ihrem Blogbeitrag, dass die KI-Systeme aufgrund der fehlerhaften Datensätze fehlerhafte Ergebnisse liefern können. Diese können zu Fehlentscheidungen führen, welche bestimmte Gesellschaftsgruppen benachteiligen könnten. Das ist insoweit gefährlich, wenn man bedenkt, dass die KI-Systeme zunehmen im Finanzsektor sowie im Bewerbermanagementbereich eingesetzt werden.

Hingegen warnt der US-Autor James Rickards in seinem Buch „MoneyGPT: AI and the Threat to the Global Economy“, dass der Einsatz der KI-Systeme zur einer Art Herdenmentalität 2.0 auf den Finanzmärkten führen kann.

 

5. KI-bezogene Betrugsfälle

Eine der KI-Schattenseiten ist der Anstieg der Cyberkriminalität (insbesondere Deepfake-Betrugsversuche). Ein „Deepfake“ ist laut Art. 3 Nr. 60 der KI-Verordnung „ein durch KI erzeugter oder manipulierter Bild-, Ton- oder Videoinhalt, der wirklichen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen ähnelt und einer Person fälschlicherweise als echt oder wahrheitsgemäß erscheinen würde“.

Der Anstieg der Deepfake-Fälle wurde weltweit festgestellt (allein in Deutschland soll er 1100% betragen). Leider wird dieser gefährliche Trend derzeit kaum zur Sprache gebracht.

 

6. KI im Bildungs- und Erziehungsbereich

Ihr wisst doch, dass die Taschenrechner während des Unterrichts verboten sind“ – diesen Satz habe ich oft als 13-Jähriger im Laufe des Matheunterrichts gehört. Dann kam die „Urteilsbegründung“: „Erst, wenn ihr das Kopfrechnen beherrscht; dann könnt ihr die Taschenrechner nutzen“. Als Jugendlicher habe ich solche Aussagen als Anachronismus betrachtet. Als Erwachsener sehe ich, dass das Kopfrechnen als Fähigkeit sehr wohl vom Vorteil ist.

Es läuft gerade die Diskussion, inwieweit die KI im Bildungsbereich eingesetzt werden kann. Jedoch ist auf der anderen Seite oft von Grundkompetenzmängeln der Schüler (Lesen, Schreiben, Rechnen) zu hören. Ohne solide Grundkenntnisse kann man mit den KI-Tools nicht arbeiten. Somit sollte man sich im Schulbereich der Behebung der oben genannten Mängel primär widmen. Erst, wenn der Ist-Stand dem Soll-Stand entspricht, kann der Einsatz der KI-Tools überlegt werden.

Die weitere Herausforderung im Bildungsbereich wird das bereits oben beschriebene KI-Outsourcing sein. Es wird sich nämlich die Frage stellen, ab wann eine Aufgabe als vom Schüler/ Studenten bzw. von der KI erledigt gilt (Davor warnt u.a. die Uni Heidelberg im Punkt II Nr. 5 ihrer KI-Leitlinie: „Plagiarismus und Unklarheit bei der Autorschaft: Der Einsatz von KI bei der Erstellung von Texten kann die Grenzen zwischen eigenständiger Leistung und maschineller Unterstützung verschwimmen lassen (…)“). Die Vornahme dieser Abgrenzung wird in der Praxis nicht leicht sein.

Aber wieso soll man überhaupt noch lernen? Der amerikanische Wirtschaftswissenschaftler Arthur Laffer hat oft im Zusammenhang mit der Erläuterung der so genannten Laffer-Kurve den Kausalzusammenhang zwischen der Motivation der Menschen und der Höhe der Steuersätze betont (Je höher die Steuer, desto geringer die Arbeitsmotivation). Es stellt sich die Frage, inwieweit sich die Omnipräsenz der IT- und KI-Anwendungen auf die Bildungsmotivation auswirken wird. Wieso soll man die Fremdsprachen lernen, wenn es bereits die Übersetzungsprogramme gibt? Wieso soll man die Bücher lesen; wenn es Programme gibt, die die Inhalte zusammenfassen? Wieso soll man Hausaufgaben machen, wenn die KI diese schneller erledigen kann? Das sind einige der Fragen, die die Eltern der heutigen Kindergartenkinder in der Zukunft hören werden und auf welche sie sich jetzt vorbereiten sollen.

Es wird heutzutage im Zusammenhang mit der KI oft das Wort Innovation verwendet. Jedoch auf der anderen Seite besteht die Gefahr, dass die KI-Nutzung langfristig zur intellektuellen Stagnation führen kann.

7. KI vs. Klimapolitik

Der KI-Einsatz bedarf Rechenzentren, welche wiederum Strom bedürfen. Um dieser Nachfrage gerecht werden zu können, ist ein zuverlässiges und leistungsfähiges Stromnetzwerk eine Grundvoraussetzung und Energieträger aus Atom und Kohle gelten als eine zuverlässige Energiequelle.

Solche Projekte sind aber erfahrungsgemäß kapitalintensiv. Nun, woher soll das Geld kommen? Somit sind auch die Spannungen zwischen den KI-Projekten einerseits und der Klimapolitik anderseits vorprogrammiert. Es ist also nicht auszuschließen, dass nicht nur die Politik, sondern auch eine marode Infrastruktur den Siegeszug der KI bremsen wird.

 

8. KI vs. Datenschutz

Die Umsetzung der DSGVO wird oft als lästiger Bürokratieaufwand betrachtet. Doch nach sieben Jahren ab ihrem Inkrafttreten soll man auf deren positive Effekte hinweisen. Laut der Studie Cybersecurity: The Economic Benefits of GDPR von CNIL (die Datenschutzbehörde Frankreichs) konnten dank der DSGVO (insbesondere den Pflichten zur Umsetzung der technisch-organisatorischen Maßnahmen sowie zur Datenschutzvorfallmeldung) die Schäden von zirka € 1 Mrd. EU-weit (Frankreich: zirka € 300 Mio.) verhindert werden.Dank dem zunehmenden Einsatz der KI-Anwendungen wird der Datenschutz weiter an Bedeutung gewinnen. Im Zuge der Überprüfung der DSGVO-konformen KI-Umsetzung werden u.a. folgende Fragen auftauchen: Umsetzung des Grundsatzes der Datenminimierung im Zusammenhang mit dem Einsatz der KI-Tools, automatisierte Entscheidungsfindungen bei Kreditvergabe oder Bewerbern, Erstellung von (noch mehr) Persönlichkeitsprofilen und Analysen von Verhalten, potenzielle Arbeitnehmerüberwachung, Massendatenverarbeitung und -Nutzung, fehlende Löschbarkeit und Datenkontrolle usw. In anderen Worten hat die KI zur Renaissance des Datenschutzes beigetragen.

Schlussfolgerung

Die KI ist nicht die einzige Erfindung, die die Welt verändert hat (Früher waren es: das Internet, der PC, die Atomkraft, das Flugzeug, das Auto usw.). Auch in der Vergangenheit gab es die Tendenz, die Rolle der technischen Neuigkeiten zu überschätzen und jene der Menschen dahinter zu vergessen. Es gab auch damals diesbezügliche Warnungen (oft aus dem Militärbereich):

Schon in den 30er Jahren hat der US-General Gorge Patton darauf hingewiesen: „Kriege mögen mit Waffen geführt werden, aber sie werden von Männern gewonnen“. Im Laufe seiner West-Point-Rede im Jahr 1991 hat der US-General Norman Schwarzkopf (Befehlshaber der Koalitionstruppen im Zweiten Golfkrieg) vor dem technologiebezogenen Hurraoptimismus gewarnt: „Die Flugzeuge fliegen nicht, die Panzer fahren nicht, die Schiffe segeln nicht, die Raketen schießen nicht; es sei denn, die Söhne und Töchter Amerikas bringen sie zum Laufen“.

Das blinde Vertrauen auf neue Technologien kann bittere Konsequenzen nach sich ziehen. Nach den tragischen Ereignissen im September 2001 wurde im diesbezüglichen Bericht „The 9/11 Commission Report“ (Abschnitt 8, Fussnote 43, Seite 535) wie folgt festgestellt: "Bemerkenswert ist auch, dass praktisch alle Informationen über mögliche Bedrohungen im Inland aus menschlichen Quellen stammten. Die Informationen über Bedrohungen aus Übersee stammten hauptsächlich aus der Signalaufklärung. Die Beamten glaubten, dass die Signalaufklärung zuverlässiger als die menschliche Aufklärung sei. Interview mit Roger Cressey (23. Juni 2004)“.

Der US-Wirtschaftsanalyst Martin Armstrong pflegt zu sagen; dass sich die Geschichte deswegen wiederholt, weil die menschliche Natur sich nicht ändert. Somit ist es davon auszugehen, dass die früheren Fehler auch in Verbindung mit der KI wiederholt werden. Doch gibt es auch Positives zu berichten: Es wird heutzutage in zahlreichen Berichten die wichtige Rolle des kritischen Denkens im Zusammenhang mit dem KI-Einsatz betont. Somit kann man die Rehabilitation des kritischen Denkens als eine der bisher größten Errungenschaften der KI betrachten.

Wir helfen Ihnen.

Als Spezialist für Datenschutz, stehen wir Ihnen und Ihrem Unternehmen, als dacuro GmbH, unterstützend zur Seite.

Kontaktieren Sie uns gerne unter: +49 6227 78 93 930 oder: kontakt@dacuro.de.

Alternativ bieten wir auch für Sie und Ihre Mitarbeitenden eine E-Learning KI-Schulung an. Diese finden sie auf unserer Webseite unter: Online KI-Schulung - dacuro GmbH

Wir freuen uns auf Sie

dacuro GmbH

Datenschutz umfasst, neben den technisch-organisatorischen Maßnahmen, die grundlegender Bestandteil der IT-Sicherheit sind, weitere Themenschwerpunkte, bei denen die dacuro GmbH ihre Kunden unterstützt. Hierunter fallen, neben den klassischen Verzeichnissen der Verarbeitungstätigkeit, alle weiteren Themen wie Pflichtinformationen, die Prüfung von AV-Verträgen und die Sensibilisierung und Schulung der Mitarbeiter. Auch die Prüfung von Webseiten ist ein Schwerpunkt-Bereich von uns, der nicht nur den Datenschutz abdeckt, sondern auch das Vertrauen Ihrer Kunde und die damit verbundene Kundenzufriedenheit und Kundenbindung stärkt (z. B. bei Online-Shops oder Vergleichsportalen). Wir betreuen unterschiedliche Branchen vollumfänglich zum Datenschutz und stellen für diese den externen Datenschutzbeauftragten. Tatsächlich ist auch die dacuro GmbH gem. DIN EN ISO/IEC 17024 zertifiziert, wodurch wir unsere fortlaufende Weiterqualifizierung gewährleisten. Sollten Sie Fragen zum Thema haben, sprechen Sie uns an.

TAGS

Zurück

Einen Kommentar schreiben

Was ist die Summe aus 4 und 9?

Updates Anmeldung zum Newsletter

Wir informieren Sie kostenlos über aktuelle Meldungen zum Thema Datenschutz.