Deepfake-Betrug am Telefon
Deepfake-Betrug am Telefon – Manipulation durch täuschend echte Stimmen
Deepfake-Betrug am Telefon nutzt Künstliche Intelligenz, um die Stimme einer bekannten Person zu imitieren und so das Vertrauen von Opfern zu erschleichen. Die Täter:innen erzeugen täuschend echte Stimmen, meist aus öffentlich zugänglichen Quellen oder vorher abgegriffenen Persönliche Daten. Ziel ist es, das Opfer zu manipulieren, Geldforderungen aus dem Ausland durchzusetzen oder sensible Informationen zu stehlen. Besonders perfide: Die Täuschung basiert auf vertrauten Stimmen von Personen, denen man normalerweise glaubt.
Merkmale / Typische Formen
- Telefonanrufe, bei denen sich Betrüger:innen als vertraute Personen ausgeben (z. B. Familienmitglieder, Freund:innen, Geschäftspartner)
- Einsatz von Deepfake-Technologie zur Stimmnachahmung
- Dringlichkeitsdruck durch angebliche Notfälle oder geschäftliche Probleme
- Emotionale Manipulation und Zeitdruck
- Aufforderung zu Überweisungen oder Preisgabe von Zugangsdaten
Beispiele aus der Praxis
- Ein:e Nutzer:in wird von einer täuschend echten Stimme eines „Familienmitglieds“ angerufen, das Geld für einen angeblichen Unfall benötigt.
- Ein:e Unternehmer:in erhält einen Anruf eines vermeintlichen „Kollegen“ mit der Bitte um dringende Überweisung – tatsächlich ein Fall von CEO-Fraud.
Folgen / Auswirkungen
- Finanzielle Schäden durch überwiesene Beträge
- Verlust von Persönliche Daten oder Geschäftsgeheimnissen
- Vertrauensverlust in Stimme und Kommunikationswege
- Reputationsschäden für Unternehmen, deren Strukturen missbraucht wurden
Schutz & Empfehlungen
- Bei ungewöhnlichen Anrufen: misstrauisch bleiben und Quellen prüfen
- Rückruf über eine bekannte, offizielle Nummer – niemals über angezeigte Nummern
- Keine sofortige Reaktion auf finanzielle Anfragen – kritisches Denken einsetzen
- Zwei-Faktor-Authentifizierung bei sensiblen Vorgängen aktivieren
- Nur offizielle Kanäle für geschäftliche Transaktionen nutzen
Häufige Irrtümer / Missverständnisse
- „Die Stimme war eindeutig echt“ – Deepfake kann extrem realistisch wirken
- „In einem Notfall hilft man doch“ – Betrüger:innen nutzen gezielt emotionale Trigger
- „Wenn es aus dem Unternehmen kommt, ist es sicher“ – genau dieses Vertrauen wird missbraucht