Deepfakes sind längst keine Spielerei mehr: CEO-Fraud per Videoanruf, gefälschte Interviews und manipulierte Beweismittel haben es aus der Theorie in den Alltag geschafft. Die gute Nachricht: Viele Fälschungen haben charakteristische Schwächen. Dieser Artikel zeigt, woran Sie Deepfakes im Alltag erkennen – und was Unternehmen strukturell dagegen tun sollten.
Warum Deepfakes ein Unternehmensproblem sind
Deepfakes reichen längst über Promi-Content hinaus. Betroffen sind vor allem: Geschäftsführung und Finanzabteilung (CEO-Fraud, Überweisungsbetrug), HR (gefälschte Bewerbungs- und Verifizierungsvideos), Kommunikationsabteilungen (gefälschte Statements), und Kundenservice (Stimmklon bei Social-Engineering-Anrufen). Der Schaden geht vom Überweisungsverlust bis zur Reputationskrise.
Typische Angriffsmuster
- Video-CEO-Fraud: Ein Deepfake-Video der Geschäftsführung fordert eine dringende Überweisung, oft über einen Messenger oder einen Videoanruf.
- Stimmklon-Vishing: Eine vertraute Stimme ruft an – KI-generiert, Minuten aus Social-Media-Videos reichen meist aus.
- Identitätsverifikation: Gefälschte Gesichter umgehen automatische KYC-Prozesse.
- Desinformation: Manipulierte Statements zu Produkten oder Personen, gezielt zur Marktbeeinflussung.
Erkennungsmerkmale im Video
- Augen und Blinzelmuster: Unnatürliche Frequenz, „glasiger" Blick, falsche Reflexionen.
- Mund- und Zungenbewegung: Zungen- und Zahndetails sind für viele Modelle schwer. Ein einfacher Test: die Person bitten, die Zunge herauszustrecken oder in die Kamera zu lächeln.
- Lichtverhältnisse und Schatten: Gesicht und Hintergrund wirken unterschiedlich ausgeleuchtet.
- Mimik und Asymmetrie: Gesichtshälften bewegen sich nicht synchron; Emotionen wirken „aufgesetzt".
- Haaransatz, Ohren, Schmuck: Ränder flimmern, Ohrringe verformen sich, Brillenbügel setzen falsch auf.
- Lippen-Synchronisation: Wortende und Mundschluss passen nicht zusammen.
Erkennungsmerkmale im Audio
- Unnatürliche Atemmuster oder gar keine Atempausen.
- Roboterhafte Prosodie – alle Sätze klingen gleich lang und gleich betont.
- Hintergrundgeräusche fehlen oder passen nicht zur behaupteten Umgebung.
- Unpassende Reaktionen auf Zwischenfragen (KI reagiert oft mit leichter Verzögerung).
Organisatorische Gegenmaßnahmen
- Zweiter Kanal als Pflicht: Finanzielle Anweisungen werden niemals nur per Video oder Audio bestätigt. Ein Rückruf auf die hinterlegte Festnetznummer ist Minimum.
- Code-Wörter für Notfälle: Für Geschäftsführung, Finanzen und HR ein vereinbartes Losungswort, das in jeder dringenden Kommunikation abgefragt wird.
- Vier-Augen-Prinzip bei Zahlungen: Insbesondere bei Abweichungen von Standardprozessen. Limits strikt einhalten.
- Awareness-Training: Reale Beispiele in das Awareness-Programm aufnehmen; Führungskräfte einbinden.
- Technische Unterstützung: Deepfake-Erkennung in Video-Conferencing-Tools und bei Incoming-Calls, verifizierte digitale Signaturen für offizielle Statements.
- Klare Meldewege: Verdacht auf Manipulation wird wie ein Sicherheitsvorfall behandelt – inklusive Dokumentation und forensischer Sicherung.
Fazit
Deepfake-Erkennung ist keine Zauberei, sondern die Kombination aus geschultem Auge, strukturierten Prozessen und technischer Unterstützung. Der wichtigste Hebel bleibt organisatorisch: zweiter Kanal, Code-Wort, Vier-Augen-Prinzip. Technik erkennt immer mehr – aber ein gut geführter Rückruf auf eine verifizierte Nummer schlägt bisher jede KI-Stimme.