Zum Inhalt springen
Threat Intelligence

Deepfake-Erkennung leicht gemacht: Manipulationen erkennen

SecTepe Redaktion
|
|
7 Min. Lesezeit

Deepfakes sind längst keine Spielerei mehr: CEO-Fraud per Videoanruf, gefälschte Interviews und manipulierte Beweismittel haben es aus der Theorie in den Alltag geschafft. Die gute Nachricht: Viele Fälschungen haben charakteristische Schwächen. Dieser Artikel zeigt, woran Sie Deepfakes im Alltag erkennen – und was Unternehmen strukturell dagegen tun sollten.

Warum Deepfakes ein Unternehmensproblem sind

Deepfakes reichen längst über Promi-Content hinaus. Betroffen sind vor allem: Geschäftsführung und Finanzabteilung (CEO-Fraud, Überweisungsbetrug), HR (gefälschte Bewerbungs- und Verifizierungsvideos), Kommunikationsabteilungen (gefälschte Statements), und Kundenservice (Stimmklon bei Social-Engineering-Anrufen). Der Schaden geht vom Überweisungsverlust bis zur Reputationskrise.

Typische Angriffsmuster

  • Video-CEO-Fraud: Ein Deepfake-Video der Geschäftsführung fordert eine dringende Überweisung, oft über einen Messenger oder einen Videoanruf.
  • Stimmklon-Vishing: Eine vertraute Stimme ruft an – KI-generiert, Minuten aus Social-Media-Videos reichen meist aus.
  • Identitätsverifikation: Gefälschte Gesichter umgehen automatische KYC-Prozesse.
  • Desinformation: Manipulierte Statements zu Produkten oder Personen, gezielt zur Marktbeeinflussung.

Erkennungsmerkmale im Video

  • Augen und Blinzelmuster: Unnatürliche Frequenz, „glasiger" Blick, falsche Reflexionen.
  • Mund- und Zungenbewegung: Zungen- und Zahndetails sind für viele Modelle schwer. Ein einfacher Test: die Person bitten, die Zunge herauszustrecken oder in die Kamera zu lächeln.
  • Lichtverhältnisse und Schatten: Gesicht und Hintergrund wirken unterschiedlich ausgeleuchtet.
  • Mimik und Asymmetrie: Gesichtshälften bewegen sich nicht synchron; Emotionen wirken „aufgesetzt".
  • Haaransatz, Ohren, Schmuck: Ränder flimmern, Ohrringe verformen sich, Brillenbügel setzen falsch auf.
  • Lippen-Synchronisation: Wortende und Mundschluss passen nicht zusammen.

Erkennungsmerkmale im Audio

  • Unnatürliche Atemmuster oder gar keine Atempausen.
  • Roboterhafte Prosodie – alle Sätze klingen gleich lang und gleich betont.
  • Hintergrundgeräusche fehlen oder passen nicht zur behaupteten Umgebung.
  • Unpassende Reaktionen auf Zwischenfragen (KI reagiert oft mit leichter Verzögerung).

Organisatorische Gegenmaßnahmen

  1. Zweiter Kanal als Pflicht: Finanzielle Anweisungen werden niemals nur per Video oder Audio bestätigt. Ein Rückruf auf die hinterlegte Festnetznummer ist Minimum.
  2. Code-Wörter für Notfälle: Für Geschäftsführung, Finanzen und HR ein vereinbartes Losungswort, das in jeder dringenden Kommunikation abgefragt wird.
  3. Vier-Augen-Prinzip bei Zahlungen: Insbesondere bei Abweichungen von Standardprozessen. Limits strikt einhalten.
  4. Awareness-Training: Reale Beispiele in das Awareness-Programm aufnehmen; Führungskräfte einbinden.
  5. Technische Unterstützung: Deepfake-Erkennung in Video-Conferencing-Tools und bei Incoming-Calls, verifizierte digitale Signaturen für offizielle Statements.
  6. Klare Meldewege: Verdacht auf Manipulation wird wie ein Sicherheitsvorfall behandelt – inklusive Dokumentation und forensischer Sicherung.

Fazit

Deepfake-Erkennung ist keine Zauberei, sondern die Kombination aus geschultem Auge, strukturierten Prozessen und technischer Unterstützung. Der wichtigste Hebel bleibt organisatorisch: zweiter Kanal, Code-Wort, Vier-Augen-Prinzip. Technik erkennt immer mehr – aber ein gut geführter Rückruf auf eine verifizierte Nummer schlägt bisher jede KI-Stimme.