EINORDNUNG & PERSPEKTIVE
Virtuelle Grenzverletzung: Der Fall Fernandes und warum Deepfakes nicht nur die Privatsphäre, sondern die menschliche Integrität bedrohen
Ein aktuell in den Medien berichteter Fall hat eine breite öffentliche Debatte über digitale Gewalt und Identitätsmissbrauch ausgelöst. Medienberichten zufolge wirft eine Frau ihrem ehemaligen Partner vor, über einen längeren Zeitraum hinweg falsche Identitäten sowie sexualisierte Inhalte erstellt und verbreitet zu haben. Die Ermittlungen dauern an, es gilt die Unschuldsvermutung.
Unabhängig vom Ausgang dieses konkreten Falls offenbart sich jedoch ein strukturelles Problem, das in der gegenwärtigen Diskussion um Künstliche Intelligenz bislang nur unzureichend adressiert wird: die Erosion menschlicher Identität durch synthetische Reproduktion.
Mehr als Datenschutz: Die Reproduktion von Identität
Im Kern geht es hier nicht lediglich um Beleidigung, Verleumdung oder Datenschutzverstöße.
Das eigentliche Problem liegt tiefer:
KI-Systeme sind zunehmend in der Lage, die Form eines Menschen – also Gesicht, Stimme oder Ausdruck – zu reproduzieren, während sie dessen Bedeutung verzerren oder vollständig entkoppeln.
Damit entsteht eine neue Kategorie von Rechtsverletzung.
Es geht nicht mehr darum, was eine Person tatsächlich gesagt oder getan hat.
Es geht darum, was ihr künstlich zugeschrieben werden kann.
Syntax vs. Semantik: Eine juristische Leerstelle
In meiner Forschung zur Schnittstelle von KI und Urheberrecht unterscheide ich zwischen:
- Syntax – der äußeren Form (Stimme, Bild, Stil)
- Semantik – der Bedeutung, Intention und menschlichen Urheberschaft
KI kann Syntax mittlerweile mit hoher Präzision reproduzieren.
Was sie jedoch nicht reproduziert, ist Semantik.
Stattdessen kann sie Identität simulieren und gleichzeitig von der menschlichen Intention entkoppeln.
Hier liegt eine zentrale juristische Leerstelle:
Das Recht schützt Werke – aber es schützt bislang nicht ausreichend den Menschen hinter der Form, wenn diese Form künstlich reproduziert wird.
Geschlechtsspezifische Dimension: Warum Frauen besonders betroffen sind
Fälle von synthetisch erzeugten, sexualisierten Inhalten betreffen überproportional häufig Frauen.
Das ist kein Zufall, sondern Ausdruck bestehender struktureller Ungleichgewichte, die durch Technologie verstärkt werden:
- drastisch gesunkene Erstellungshürden
- hohe Realitätsnähe der Inhalte
- globale, kaum kontrollierbare Verbreitung
Die Folge ist eine neue Form digitaler Gewalt – an der Schnittstelle von Technologie, Identität und Macht.
Von „Originalität“ zu „Integrität“
Die Debatte um KI und Urheberrecht fokussiert bislang stark auf den Schutz menschlicher Originalität.
Das ist weiterhin zentral.
Doch Fälle wie dieser zeigen:
Ohne den Schutz menschlicher Integrität kann es keinen wirksamen Schutz menschlicher Originalität geben.
Wenn die Identität eines Menschen beliebig reproduzierbar und manipulierbar wird, verliert auch das Konzept von Urheberschaft seine Grundlage.
Regulierungslücke in der KI-Governance
Aktuelle Regulierungsansätze – auch im Kontext des EU AI Act – konzentrieren sich vor allem auf:
- Risikokategorien
- Transparenzanforderungen
- Verantwortlichkeit von Anbietern
Das ist notwendig, aber nicht ausreichend.
Was fehlt, ist eine klare rechtliche Einordnung von identitätsbezogenem Schaden durch synthetische Medien.
Ein möglicher Ansatz: Authorization, Remuneration, Transparency
Ein möglicher Lösungsansatz besteht darin, bekannte urheberrechtliche Prinzipien weiterzuentwickeln:
- Authorization (Zustimmung) – keine Nutzung der Identität ohne Einwilligung
- Remuneration (Vergütung) – wirtschaftliche Beteiligung bei Nutzung
- Transparency (Transparenz) – klare Kennzeichnung synthetischer Inhalte
Diese Prinzipien müssen künftig nicht nur auf Werke, sondern auch auf menschliche Identität angewendet werden.
Fazit
Der aktuell diskutierte Fall ist kein Einzelfall, sondern ein frühes Signal.
KI stellt nicht nur Eigentumsfragen in Bezug auf Inhalte.
Sie stellt die grundlegende Frage nach den Grenzen menschlicher Identität im digitalen Raum.
Wenn Regulierung weiterhin primär auf Daten und Systeme fokussiert, übersieht sie das eigentliche Schutzgut:
die Integrität des Menschen hinter den Daten.

