Deepfake
Aus Wikikama
Deepfake – Täuschend echte Fälschungen durch KI-Technologie
Einführung: Deepfakes sind mit Künstlicher Intelligenz (KI) erzeugte Medieninhalte, bei denen Gesichter oder Stimmen täuschend echt manipuliert werden. Besonders in Videos lassen sich Personen scheinbar beliebig Dinge sagen oder tun – auch wenn sie das in Wirklichkeit nie getan haben. Das Thema ist hochaktuell, da Deepfakes zunehmend für Desinformation, Betrug oder Rufschädigung missbraucht werden. Für Nutzer:innen im Netz bedeutet das: Augen (und Ohren) auf – nicht alles ist echt, was echt aussieht.
Merkmale / Typische Formen
- Realistisch wirkende Videos, bei denen Gesichter ausgetauscht wurden (z. B. Prominente in falschen Kontexten)
- Klonen von Stimmen durch Audio-Deepfakes, etwa für Telefonbetrug
- Manipulierte Inhalte mit politischer oder sexueller Absicht
- „Face Swapping“ in viralen Clips oder GIFs
Beispiele aus der Praxis
- Ein Deepfake-Video zeigt einen Politiker, der scheinbar eine schockierende Aussage macht – obwohl er das nie gesagt hat
- WhatsApp-Sprachnachrichten mit geklonter Stimme einer Familienangehörigen, die Geld „für einen Notfall“ verlangt
Folgen / Auswirkungen
- Verbreitung von Desinformation, etwa im Wahlkampf oder bei Konflikten
- Verlust von Vertrauen in visuelle Medien und Aussagen
- Gefährdung von Persönlichkeitsrechten und Privatsphäre
- Neue Betrugsformen durch „Voice Phishing“
Schutz & Empfehlungen
- Inhalte immer kritisch prüfen – besonders bei überraschenden oder emotionalen Aussagen
- Quellen checken: Woher kommt das Video? Wer hat es veröffentlicht?
- Technische Hinweise beachten (z. B. unnatürliche Mimik, Lippensynchronität, Bildfehler)
- Bei Verdacht auf Deepfake: Nicht teilen – sondern melden
Häufige Irrtümer / Missverständnisse
- „Deepfakes erkennt man immer sofort“ – das stimmt nicht: Die Technik wird ständig besser
- „Nur Promis sind betroffen“ – nein, auch Privatpersonen können Ziel sein
- „Deepfakes sind nur Spaßvideos“ – manche ja, aber viele haben ernste Folgen