Künstliche Intelligenz 9 Min. Lesezeit

Die Forensische Wissenschaft der Deepfake Erkennung: Warum Aktuelle Wasserzeichen-Standards Versagen

Dieser Artikel wurde automatisch aus dem Englischen von einer KI übersetzt. Originalversion auf Englisch lesen →
Digitale forensische Visualisierung zeigt Deepfake Erkennung Analyse
🎧 Anhören
Apr 14, 2026
Lesemodus

Die Deepfake Erkennung ist zu einer der dringendsten Herausforderungen in der digitalen Sicherheit geworden, und die Zahlen erzählen eine eindringliche Geschichte. Finanzielle Verluste durch Deepfake-Betrug haben 1,56 Milliarden Dollar erreicht, wobei über eine Milliarde davon allein im Jahr 2025 aufgetreten ist[s]. Die primäre Lösung der Technologiebranche, unsichtbare Wasserzeichen, die KI-generierten Inhalt kennzeichnen, hat einen fundamentalen Fehler: Forscher haben demonstriert, dass sie diese Wasserzeichen entfernen können, ohne überhaupt zu wissen, dass sie existieren.

Das Versprechen der Wasserzeichen

Die Grundidee hinter Wasserzeichen klingt vernünftig. KI-Unternehmen wie Google, Meta und OpenAI betten unsichtbare digitale Signaturen in Inhalte ein, die ihre Systeme generieren. Diese Signaturen sollen für Menschen nicht wahrnehmbar, aber von Erkennungstools lesbar sein. Die Coalition for Content Provenance and Authenticity (C2PA), ein Konsortium von über 6.000 Mitgliedern einschließlich Adobe, Microsoft und Intel, hat einen Standard zur Nachverfolgung der Herkunft digitaler Inhalte geschaffen[s].

Regierungen haben diesen Ansatz übernommen. Das EU-KI-Gesetz mit Transparenzbestimmungen, die verlangen, dass synthetische Medien maschinenlesbare Kennzeichnungen tragen, tritt im August 2026 in Kraft und repräsentiert den regulatorischen Vorstoß in diese Richtung[s]. In den USA bewegt sich Gesetzgebung, die Wasserzeichen für KI-generierten Inhalt verlangt, durch den Kongress. Die Annahme ist, dass wir gefälschten Inhalt stromabwärts identifizieren können, wenn wir ihn an der Quelle kennzeichnen können.

Warum Wasserzeichen Versagen

Im Juli 2025 veröffentlichten Forscher der Universität Waterloo ein Tool namens UnMarker, das die zentrale Schwäche dieses gesamten Ansatzes aufdeckt. Das Tool kann jedes KI-Bildwasserzeichen entfernen, ohne wissen zu müssen, wie das Wasserzeichen kodiert wurde, oder überhaupt, ob das Bild mit einem Wasserzeichen versehen ist[s].

UnMarker funktioniert, indem es analysiert, wo Pixelfrequenzen in einem Bild ungewöhnlich sind, die Signatur, die Wasserzeichensysteme hinterlassen. Es verzerrt dann diese Frequenzen leicht und macht das Bild für Wasserzeichendetektoren unerkennbar, während es für menschliche Augen identisch erscheint. In Tests gelang es mehr als 50 % der Zeit gegen große Systeme einschließlich Googles SynthID und Metas Stable Signature[s].

Der C2PA-Standard hat seine eigenen Probleme. Seine Herkunftsdaten werden als MetadatenDaten über Daten, die die Eigenschaften von Kommunikationen beschreiben, wie wer wen angerufen hat, wann und wie lange, ohne den tatsächlichen Gesprächsinhalt. gespeichert, die an Dateien angehängt sind, anstatt in den Inhalt selbst eingebettet zu werden. Bilder verlieren häufig ihre Metadaten, wenn sie plattformübergreifend geteilt werden[s]. Eine Datei von einem Format in ein anderes zu konvertieren oder einfach einen Screenshot zu machen, entfernt alle Herkunftsinformationen vollständig[s].

Ein Fragmentiertes System

Selbst wenn Wasserzeichen robust wären, funktioniert Deepfake Erkennung durch Wasserzeichen nur, wenn alle das gleiche System verwenden. Das tun sie nicht. Googles SynthID erkennt nur Inhalt, der mit Googles KI-Services erstellt wurde. Meta hat sein eigenes System. OpenAI hat ein anderes[s]. Jemand kann einen Deepfake mit einem Open-Source-Modell oder einem weniger bekannten Tool generieren, und keines dieser Erkennungssysteme wird ihn markieren.

Kommerzielle Dienste existieren bereits, die Wasserzeichen gegen Gebühr entfernen[s]. Die Universität Maryland fand heraus, dass Wasserzeichen nicht nur entfernt, sondern auch zu echten Bildern hinzugefügt werden können, um sie fälschlicherweise als KI-generiert zu kennzeichnen[s]. Das bedeutet, dass Wasserzeichen als Waffe eingesetzt werden könnten, um legitimen Inhalt zu diskreditieren.

Reale Konsequenzen

Diese technischen Fehler übersetzen sich direkt in realen Schaden. Im Februar 2024 erhielt ein Finanzangestellter bei Arup, der Ingenieurfirma hinter der Oper von Sydney und Pekings Vogelnest-Stadion, eine Videokonferenz-Einladung von jemandem, der behauptete, der Finanzvorstand des Unternehmens zu sein. Im Anruf erschienen und klangen alle Teilnehmer, der CFO und mehrere Kollegen, genau wie der Angestellte es erwartet hatte. Sie waren alle Deepfakes. Der Angestellte autorisierte 15 Überweisungen in Höhe von insgesamt 25 Millionen Dollar[s].

Die Kosten für die Erstellung solcher Deepfakes sind kollabiert. Stimmklonen kostet jetzt nur noch 0,01 Dollar pro Minute, und nur drei Sekunden aufgezeichneten Audios werden benötigt, um jemandes Stimme zu klonen[s].

Was Tatsächlich Funktioniert

Deepfake Erkennung Methoden, die den Inhalt selbst analysieren, anstatt nach Wasserzeichen zu suchen, zeigen mehr Versprechen. Intels FakeCatcher untersucht subtile Farbänderungen in Gesichtspixeln, die durch Blut verursacht werden, das durch Venen fließt, ein Signal namens Photoplethysmographie. Echte menschliche Gesichter zeigen mikroskopische Farbschwankungen, wenn das Herz Blut pumpt; Deepfakes replizieren dieses Muster nicht[s]. In Tests erreichte FakeCatcher 91 % Genauigkeit[s].

Ein wichtiger Vorteil dieses Ansatzes: er kann nicht leicht zurückentwickelt werden. Angreifer, die KI-Systeme trainieren, um der Deepfake Erkennung zu entgehen, müssen genau verstehen, wonach der Detektor sucht. FakeCanners Methode ist mathematisch nicht-differenzierbar, was bedeutet, dass Angreifer ihre Deepfake-Generatoren nicht einfach darauf trainieren können, sie zu besiegen[s].

Der Markt für Deepfake Erkennung soll von 5,5 Milliarden Dollar im Jahr 2023 auf 15,7 Milliarden Dollar im Jahr 2026 wachsen[s]. Dieses Wachstum spiegelt eine harte Wahrheit wider: Wasserzeichen war schon immer eine Compliance-Maßnahme, keine Sicherheitsmaßnahme. Der Schutz vor raffiniertem Betrug erfordert Erkennungssysteme, die funktionieren, unabhängig davon, ob der Angreifer kooperiert.

Die forensische Wissenschaft der Deepfake Erkennung steht vor einer grundlegenden Asymmetrie. Verteidiger verlassen sich hauptsächlich auf Wasserzeichenschemata, die Zusammenarbeit des Gegners voraussetzen, während Angreifer nur eine erfolgreiche Umgehungsmethode benötigen. Finanzielle Verluste durch Deepfake-fähigen Betrug haben 1,56 Milliarden Dollar erreicht, wobei über eine Milliarde allein 2025 auftrat[s], ein Verlauf, der die strukturelle Unzulänglichkeit aktueller Authentifizierungsstandards aufzeigt.

Die Wasserzeichen-Architektur

Die Coalition for Content Provenance and Authenticity (C2PA) Spezifikation verwendet X.509 digitale Zertifikate und kryptographisches Hashing, um HerkunftsmanifesteKryptographisch signierte Metadatenaufzeichnungen, die Erstellungstools, Urheberschaft und Bearbeitungshistorie digitaler Inhalte verfolgen. zu signieren. Diese Manifeste zeichnen Erstellungstools, erklärte Autoren und Bearbeitungshistorien auf. Die Architektur hat drei Komponenten: Behauptungen über Herkunft, kryptographische Signaturen, die diese Behauptungen an Identitäten binden, und Inhaltshashes, die Manifeste mit spezifischen Dateien verknüpfen[s].

Googles SynthID funktioniert je nach Inhaltstyp unterschiedlich. Für Text passt es TokenDie grundlegenden Texteinheiten, die KI-Sprachmodelle verarbeiten und zählen, typischerweise Wörter, Wortteile oder Satzzeichen repräsentierend.-Wahrscheinlichkeitsverteilungen während der Generierung an und schafft statistische Muster, die für Leser unsichtbar, aber algorithmisch erkennbar sind. Für Bilder und Videos bettet es unsichtbare Wasserzeichen ein, die Cropping, Filterung und verlustbehaftete Kompression überstehen sollen. Für Audio bettet es unhörbare Signaturen ein, die durch Rauschaddition und Formatkonvertierung bestehen[s].

Deepfake Erkennung via Wasserzeichen: Die AngriffsflächeDie Gesamtheit der Punkte in einem System, an denen ein Angreifer versuchen kann einzudringen, Daten zu extrahieren oder Schaden anzurichten.

UnMarker, veröffentlicht in den Proceedings des 46. IEEE Symposiums zu Sicherheit und Privatsphäre, demonstriert einen universellen Angriff auf defensives Wasserzeichen. Das Tool benötigt keine Kenntnis des Wasserzeichenalgorithmus, keinen Zugang zu internen Parametern und keine Interaktion mit Detektoren[s].

Der Angriff nutzt eine Einschränkung aus, die allen Wasserzeichenschemata inhärent ist. Um Bildqualität zu bewahren, müssen Wasserzeichen für Menschen unsichtbar sein. Um Manipulation zu widerstehen, müssen sie robust gegen gängige Transformationen sein. Diese Anforderungen zwingen Wasserzeichen, im Spektralbereich zu operieren und subtil zu manipulieren, wie Pixelintensitäten über das Bild variieren[s]. UnMarker identifiziert diese spektralen Anomalien statistisch und wendet dann gezielte Frequenzverzerrung an, die das Wasserzeichen zerstört, während es für menschliche Sicht imperceptible bleibt.

In empirischen Tests erreichte UnMarker Erfolgsraten von über 50 % gegen Googles SynthID und Metas Stable Signature ohne Vorwissen über Wasserzeichenmethoden oder Bildursprünge[s].

C2PA MetadatenDaten über Daten, die die Eigenschaften von Kommunikationen beschreiben, wie wer wen angerufen hat, wann und wie lange, ohne den tatsächlichen Gesprächsinhalt.-Schwachstellen

Der C2PA-Standard speichert Manifeste als Metadaten, die an Dateien in JUMBF-Format für JPEG oder dedizierte Boxen für PNG und MP4 angehängt werden. Dieser metadatenbasierte Ansatz hat mehrere Fehlermodi:

  • Plattform-Stripping: Bilder verlieren häufig C2PA-Metadaten beim Teilen über soziale Plattformen[s]
  • Formatkonvertierung: Das Konvertieren von WebP zu PNG oder jede ähnliche Transformation bricht die Herkunftskette vollständig[s]
  • Screenshot-Umgehung: Bildschirmaufnahme erstellt eine neue Datei ohne Verweis auf das ursprüngliche Manifest[s]
  • Vertrauensmodell-Schwäche: Die Spezifikation erlaubt selbstsignierte Zertifikate und Zertifikate von nicht-vertrauenswürdigen CAs, wodurch jeder Inhalt mit Manifesten signieren kann, die technisch gültig erscheinen[s]

Forschung an der Universität Maryland demonstrierte, dass Wasserzeichen zu menschlich-generierten Bildern hinzugefügt werden können, was falsche Positive auslöst, die als Waffe zur Diskreditierung authentischen Inhalts eingesetzt werden könnten[s].

Ökosystem-Fragmentierung

SynthID erkennt nur Inhalt, der von Googles KI-Services generiert wurde: Gemini für Text, Veo für Video, Imagen für Bilder, Lyria für Audio. Inhalt von ChatGPT, Open-Source-Modellen wie Stable Diffusion oder benutzerdefinierten Pipelines produziert kein SynthID-Signal[s]. Jeder große KI-Anbieter hat proprietäres Wasserzeichen entwickelt, wodurch eine fragmentierte Landschaft entsteht, wo Verifikation mehrere Tools erfordert, die widersprüchliche Ergebnisse produzieren können.

Fallstudie: Multi-Teilnehmer-Deepfake-Betrug

Im Februar 2024 erhielt ein Arup-Angestellter in Hongkong, was wie eine Videokonferenz mit dem CFO und Kollegen des Unternehmens erschien. Alle Teilnehmer waren Deepfake-Nachbildungen, die aus öffentlich verfügbaren Videos und Audio generiert wurden. Der Angestellte autorisierte 15 Überweisungen in Höhe von insgesamt 25 Millionen Dollar, bevor der Betrug entdeckt wurde[s].

Arups globaler CIO bemerkte, dass „die Anzahl und Raffinesse dieser Angriffe in den letzten Monaten stark gestiegen ist”[s]. Die Wirtschaftlichkeit begünstigt Angreifer: Stimmklonen kostet 0,01-0,20 Dollar pro Minute, und drei Sekunden aufgezeichneten Audios genügen, um eine Stimme zu klonen[s].

Inhaltsbasierte Deepfake Erkennung

Erkennungsmethoden, die Inhalt selbst analysieren, anstatt Metadaten oder Wasserzeichen, zeigen strukturelle Vorteile. Intels FakeCatcher verwendet Remote-Photoplethysmographie (PPG), um Blutflusssignale in Gesichtsvideo zu erkennen. PPG-Signale erscheinen über alle Hautregionen, nicht nur spezifische Gesichtsmerkmale, und können nicht durch Beleuchtungsänderung eliminiert werden[s].

Entscheidend ist, dass generative Operationen die räumlichen, spektralen und zeitlichen Korrelationen zerstören, die echte PPG-Signale charakterisieren. Jede synthetische Manipulation führt Rauschmuster ein, die diese Korrelationen stören. FakeCatcher erreichte 91 % Genauigkeit in Tests, fast neun ProzentpunkteEine Maßeinheit für arithmetische Unterschiede zwischen Prozentsätzen, verschieden von prozentualer Veränderung. über dem nächstbesten System[s].

Die Methode hat eine zusätzliche Sicherheitseigenschaft: sie ist nicht-differenzierbar, was bedeutet, dass adversariales Training nicht leicht angewendet werden kann. Angreifer, die gradientenbasierte Optimierung verwenden, um der Deepfake Erkennung zu entgehen, benötigen eine differenzierbare Erkennungsfunktion. FakeCanners PPG-Analysepipeline widersteht diesem Angriffsvektor[s].

Erkennungs-Wettrüsten

Aktuelle Deepfake Erkennung Tools behaupten Genauigkeitsraten über 90 %, aber diese Benchmarks stehen einem beweglichen Ziel gegenüber. Open-Source-generative Modelle erlauben es Angreifern, schnell zu iterieren, und automatisierte Inhaltsgenerierung kann Erkennungspipelines überlasten, die menschliche Überprüfung für Grenzfälle erfordern[s].

Der Markt für Deepfake Erkennung soll jährlich um 42 % wachsen, von 5,5 Milliarden Dollar 2023 auf 15,7 Milliarden Dollar 2026[s]. Dieses Wachstum spiegelt institutionelle Anerkennung wider, dass Wasserzeichen, während nützlich für Herkunftsverfolgung in kooperativen Szenarien, nicht als primäre Verteidigung gegen adversariale Deepfakes dienen kann. Robuste Erkennung erfordert die Analyse biologischer und physischer Signale, die aktuelle generative Modelle nicht getreu reproduzieren können.

Wie hat Ihnen dieser Artikel gefallen?
Artikel teilen

Fehler gefunden? Melden Sie ihn

Quellen