KI – Ein Meister der Täuschung

Deepfakes entmystifiziert: Wie sie funktionieren und was sie bedeuten.

Inmitten einer Welt, in der gefälschte Nachrichten einen besorgniserregenden Schatten auf unsere Gesellschaft werfen, zeichnet sich eine beunruhigende Entwicklung ab: Deepfakes. Die Technologie „Deepfake“ ist ein Kind der künstlichen Intelligenz und der Schnittpunkt der Begriffe „Deep Learning“ und „Fake“. In den Tiefen dieser technologischen Anomalie begegnen wir neuronalen Netzen. Sie lernen – wie das menschliche Gehirn – aus einer Fülle von Bildern, um die Darstellung einer Person unter variierenden Perspektiven und Emotionen vorherzusagen und zu erzeugen. Mit steigender Anzahl der simulierten Neuronenschichten steigt auch die Leistungsfähigkeit dieser Netze, was als „Tiefe“ des Netzwerks bezeichnet wird – sogenanntes „Deep Learning“.1Konrad Adenauer Stiftung: Analysen & Gesellschaft, Nr. 382, 2020.

Christin Nasgowitz | Examenskandidatin, Berlin | ESTEVE Pharmaceuticals – Legal Department | https://www.esteve.com/

GESICHTER: DER TAUSCH DES VERTRAUTEN

Einer der bekanntesten Anwendungsfälle von Deepfakes ist die Fälschung von Gesichtern in Videos oder Fotos. Technologien wie „Face Swapping“ und „Face Reenactment“ ermöglichen die Erstellung von täuschend echten Videos, in denen eine Person Aussagen trifft, die sie in der Realität nie getroffen hat. Es können auch neue (Pseudo-)Identitäten synthetisiert werden, die in der Realität gar nicht existieren.2Bundesamt für Sicherheit in der Informationstechnik: Deepfakes, Gefahren und Gegenmaßnahmen. Möglich ist dies beispielsweise mithilfe der KI „Midjourney“, das durch David Holz gegründet wurde und eine ganz neue Dimension der Bildgenerierung ermöglicht. Ursprünglich gab es eine kostenlose Testversion von Midjourney, diese wurde jedoch wegen Missbrauchs bereits vom Markt genommen. Das System hat seine Effizienz bereits unter Beweis gestellt, als ein Kunstwerk, das von Midjourney erstellt wurde, den ersten Preis bei einer Ausstellung gewann. Die Preisrichter wussten nicht, dass das prämierte Werk KI-generiert war. Trotz dieses Midjourney-Erfolgs wurden gleichermaßen dringliche Fragen des Urheberrechts aufgeworfen.3Siehe auch: Lampe in Handbuch Multimedia-Recht, Rn. 31–33.

DIE MAGIE DER NACHGEAHMTEN STIMMEN

Auch Stimmen können mit ihr manipuliert und gefälscht werden. Die Techniken der Sprachfälschung, „Text-to- Speech“ (TTS) und „Voice Conversion“ (VC) ermöglichen es, menschliche Stimmen zu replizieren und zu modifizieren. Ein Beispiel hierfür ist Microsofts KI-Modell Vall-E, das auf der EnCodec-Technologie von Meta basiert. Mit nur drei Sekunden der Originalstimme kann die KI jede menschliche Stimme nachahmen und den Klang und emotionalen Tonfall des Sprechers präzise replizieren.

PROBLEM: ERKENNBARKEIT VON DEEPFAKES

Obwohl wir uns angesichts der rasanten Entwicklung von KI immer sicherer fühlen, was ihre Leistungsfähigkeit betrifft, muss Bewusstsein dafür geschaffen werden, welche Gefahren und Risiken damit einhergehen. ChatGPT beispielsweise hat die Kraft, die Barrieren unserer Kognition durch Simulation von Denkprozessen zu sprengen. Täglich trainiert durch Millionen von Nutzeranfragen weltweit, sind die von ChatGPT generierten Antworten von menschlichen kaum zu unterscheiden. Aktuelle Überprüfungssoftware ist machtlos, da die KI nie identische Ergebnisse produziert. Und selbst wenn ein Programm in der Lage wäre, eine maschinell erzeugte Aussage zu erkennen, wäre der Nutzen zweifelhaft, da die Genauigkeit der Erkennung nicht verifiziert werden könnte.4Professor Dr. R. Schwartmann in MMR-Aktuell 2023, 455536.

CHATGPT IM KLASSENZIMMER: EIN HAMBURGER EXPERIMENT

Ein Beispiel für die Schwierigkeit, KI-generierte Inhalte zu erkennen, stammt aus Hamburg. Die Schulbehörde in Hamburg hat einen bemerkenswerten Schritt unternommen und den Einsatz von künstlicher Intelligenz (KI) wie ChatGPT bei den bevorstehenden mündlichen Abiturprüfungen zugelassen. Schüler dürfen nun KI zur Vorbereitung und Erstellung ihrer Präsentationen einsetzen, müssen jedoch deutlich auf ihre Nutzung hinweisen. Nach einer offiziellen Mitteilung der Schulbehörde sollen Schüler die genaue URL und Interaktionen mit der KI klar dokumentieren, damit Prüfer die Authentizität der Antworten überprüfen können. Falls Schüler die KI missbrauchen, liegt die Verantwortung zur Bewertung beim Prüfungsausschuss. Lehrer sollen sicherstellen, dass die Schüler während des nachfolgenden Fachgesprächs ein tieferes Verständnis ihres Themas demonstrieren. Das mündliche Abitur in Hamburg hat seit 2022 ein neues Format mit einer 10-minütigen Präsentation und einem 20-minütigen Fachgespräch. Einige Schulen können jedoch entscheiden, den Einsatz von KI nicht zuzulassen. In diesem Fall müssen sie ihre Entscheidung deutlich an die Prüflinge kommunizieren und sie in der Aufgabenstellung vermerken.5I. Gall in Hamburger Abendblatt.

EIN GERICHTSFALL DER BESONDEREN ART? FIKTIVE URTEILE UND EIN AHNUNGSLOSER ANWALT

Die Fähigkeit von ChatGPT, menschliche Denkprozesse zu simulieren, hat jedoch auch ihre Tücken. Dies zeigte sich kürzlich, als ein amerikanischer Anwalt sich auf Urteile berief, die von ChatGPT erfunden worden waren. Während einer Fallrecherche mittels ChatGPT stützte der Anwalt seinen Antrag auf imaginäre Fälle. Hintergrund ist die Klage eines Passagiers gegen eine Fluggesellschaft, der sich durch einen Servierwagen am Knie verletzt hatte. Als Antwort auf einen Antrag von der Fluggesellschaft, die Klage abzuweisen, reichte die Anwaltskanzlei des Klägers einen Gegenantrag ein, der auf einer Reihe früherer Entscheidungen beruhte. Ganze sechs Stück davon waren komplette Fiktion. Der Klägeranwalt behauptete, er habe nicht beabsichtigt, das Gericht zu täuschen, sondern habe sich auf die Informationen verlassen, die ihm von ChatGPT bereitgestellt wurden. Trotz vorhandener Datenbanken mit Gerichtsurteilen, die zur Verifizierung der von ChatGPT gelieferten Fälle genutzt werden können, wurden die falschen Fälle dem Gericht im April vorgelegt.6Becklink 2027226.

KI: PROBLEM UND LÖSUNG ZUGLEICH?

All diese Beispiele führen uns zu der Frage, ob KI selbst sowohl das Problem als auch die Lösung zur Erkennung von Deepfakes sein könnte. Denn Deepfake-Technologien besitzen auf der einen Seite großes Potenzial, auf der anderen Seite gewaltige Risiken. Positive Anwendungsfelder könnten Audioproduktionen, Mensch-Maschine- Interaktionen, Videokonferenzen, Satire, persönlicher künstlerischer Ausdruck und medizinische Anwendungen sein. Gleichzeitig bergen Deepfakes die Gefahr, auf individueller, organisatorischer und gesellschaftlicher Ebene betrügerisch und schädigend eingesetzt zu werden. Ein einzelnes Deepfake kann dabei einen „Dominoeffekt“ hervorrufen und auf verschiedensten Ebenen Schaden anrichten. Zu denken ist an: manipulierte pornografische Videos, gefälschte Audiodateien als Beweismittel oder gefälschte politische Aussagen.

„Ein einzelnes Deepfake kann einen ‚Dominoeffekt‘ hervorrufen und auf verschiedensten Ebenen Schaden anrichten“

Die Regulierung von Deepfakes ist ein komplexes Gebiet, das eine Vielzahl von verfassungsrechtlichen Normen und regulativen Maßnahmen auf EU- und nationaler Ebene umfasst. Trotz eines breiten Spektrums an politischen Richtlinien und rechtlichen Rahmenbedingungen bleibt der Rechtsweg für die Opfer von Deepfakes eine Herausforderung. Die Anonymität der Täter erschwert die Rechtsdurchsetzung. Daher könnten die Akteure der Technologieanbieter und Plattformen eine entscheidende Rolle bei der Bekämpfung der illegalen Nutzung spielen. Um negative Auswirkungen zu minimieren, muss der gesamte Lebenszyklus von Deepfakes in Betracht gezogen werden.7European Parliament: Tackling deepfakes in European policy, PE 690.039 – July 2021.

PROBLEME DER ETHIK UND EINE HERAUSFORDERUNG FÜR DIE RECHTSORDNUNG

Die Ethik der künstlichen Intelligenz ist deshalb ein Bereich, der sich zunehmend in den Vordergrund des öffentlichen Bewusstseins drängt. Sie wirft fundamentale Fragen zu unserer Beziehung zur Technologie und zur Gestaltung unserer Zukunft auf. Ein kritischer Punkt in diesem Diskurs ist die Frage der Verantwortlichkeit. Wer haftet, wenn eine KI etwas Unangemessenes oder Schädliches tut? Sollte es eine neue Kategorie „KI als Rechtsperson“ geben? Diese und ähnliche Fragen beschäftigen Ethiker und Juristen gleichermaßen.
Prof. Dr. Philipp Hacker kritisiert dabei die gegenwärtige EU-Regulierung von KI und warnt davor, dass sie den technologischen Fortschritt bremsen könnte. Er sieht das Problem in übermäßig strengen Hochrisikodefinitionen und mangelnder Berücksichtigung der großen generativen KI-Modelle wie ChatGPT. Zudem plädiert er für Offenlegungspflichten bei KI-generierten Inhalten und betont, dass die Zukunft der Forschung und Lehre auch von einer effektiven EU-KI-Regulierung abhängt.8Prof. Dr. P. Hacker in GRUR 2023, 289. Die Notwendigkeit, sowohl präventive als auch reaktive Maßnahmen gegen die wachsende Bedrohung durch Deepfakes einzusetzen, wird immer dringender. Eine sorgfältige Regulierung der benötigten Ressourcen und globale Standards zur Deepfake-Erkennung sind unabdingbar. Um Fehlinformationen zeitnah entgegentreten zu können, muss eine beispiellose Anpassungsfähigkeit und Reaktionsgeschwindigkeit staatlicher Institutionen erreicht werden.9A. Kleemann in SWP Aktuell, Nr. 43/Juni 2023. Doch trotz der enormen Herausforderungen durch Deepfakes bieten sie auch eine Chance, unsere Technologien und Regulierungen in der digitalen Kommunikation zu verbessern.

Exklusiv für Mitglieder | Heft 09/2023 | 72. Jahrgang
  • 1
    Konrad Adenauer Stiftung: Analysen & Gesellschaft, Nr. 382, 2020.
  • 2
    Bundesamt für Sicherheit in der Informationstechnik: Deepfakes, Gefahren und Gegenmaßnahmen.
  • 3
    Siehe auch: Lampe in Handbuch Multimedia-Recht, Rn. 31–33.
  • 4
    Professor Dr. R. Schwartmann in MMR-Aktuell 2023, 455536.
  • 5
    I. Gall in Hamburger Abendblatt.
  • 6
    Becklink 2027226.
  • 7
    European Parliament: Tackling deepfakes in European policy, PE 690.039 – July 2021.
  • 8
    Prof. Dr. P. Hacker in GRUR 2023, 289.
  • 9
    A. Kleemann in SWP Aktuell, Nr. 43/Juni 2023.