Deepfake: Unterschied zwischen den Versionen
Aus Wikikama
Keine Bearbeitungszusammenfassung |
K Textersetzung - „Kategorie:Medienkompetenz & Algorithmen“ durch „Kategorie:Medienkompetenz und Algorithmen“ |
||
(3 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt) | |||
Zeile 1: | Zeile 1: | ||
= Deepfake – Täuschend echte Fälschungen durch KI = | = Deepfake – Täuschend echte Fälschungen durch KI-Technologie = | ||
'''Einführung:''' | '''Einführung:''' | ||
Deepfakes sind Medieninhalte | Deepfakes sind mit Künstlicher Intelligenz (KI) erzeugte Medieninhalte, bei denen Gesichter oder Stimmen täuschend echt manipuliert werden. Besonders in Videos lassen sich Personen scheinbar beliebig Dinge sagen oder tun – auch wenn sie das in Wirklichkeit nie getan haben. | ||
Das Thema ist hochaktuell, da Deepfakes zunehmend für Desinformation, Betrug oder Rufschädigung missbraucht werden. Für Nutzer:innen im Netz bedeutet das: Augen (und Ohren) auf – nicht alles ist echt, was echt aussieht. | |||
== Merkmale / Typische Formen == | == Merkmale / Typische Formen == | ||
<ul> <li>Realistisch wirkende Videos, bei denen Gesichter ausgetauscht wurden (z. B. Prominente in falschen Kontexten)</li> <li>Klonen von Stimmen durch Audio-Deepfakes, etwa für Telefonbetrug</li> <li>Manipulierte Inhalte mit politischer oder sexueller Absicht</li> <li>„Face Swapping“ in viralen Clips oder GIFs</li> </ul> | |||
== Beispiele aus der Praxis == | == Beispiele aus der Praxis == | ||
<ul> <li>Ein Deepfake-Video zeigt einen Politiker, der scheinbar eine schockierende Aussage macht – obwohl er das nie gesagt hat</li> <li>WhatsApp-Sprachnachrichten mit geklonter Stimme einer Familienangehörigen, die Geld „für einen Notfall“ verlangt</li> </ul> | |||
== Folgen / Auswirkungen == | == Folgen / Auswirkungen == | ||
<ul> <li>Verbreitung von Desinformation, etwa im Wahlkampf oder bei Konflikten</li> <li>Verlust von Vertrauen in visuelle Medien und Aussagen</li> <li>Gefährdung von Persönlichkeitsrechten und Privatsphäre</li> <li>Neue Betrugsformen durch „Voice Phishing“</li> </ul> | |||
== Schutz & Empfehlungen == | == Schutz & Empfehlungen == | ||
<ul> <li>Inhalte immer kritisch prüfen – besonders bei überraschenden oder emotionalen Aussagen</li> <li>Quellen checken: Woher kommt das Video? Wer hat es veröffentlicht?</li> <li>Technische Hinweise beachten (z. B. unnatürliche Mimik, Lippensynchronität, Bildfehler)</li> <li>Bei Verdacht auf Deepfake: Nicht teilen – sondern melden</li> </ul> | |||
== Häufige Irrtümer / Missverständnisse == | == Häufige Irrtümer / Missverständnisse == | ||
<ul> <li>„Deepfakes erkennt man immer sofort“ – das stimmt nicht: Die Technik wird ständig besser</li> <li>„Nur Promis sind betroffen“ – nein, auch Privatpersonen können Ziel sein</li> <li>„Deepfakes sind nur Spaßvideos“ – manche ja, aber viele haben ernste Folgen</li> </ul> | |||
== Weiterführende Links == | |||
[https://www.mimikama.org/?s=Deepfake Weitere Artikel bei Mimikama zu Deepfake] | |||
[[Kategorie:Fake News | [[Kategorie:Fake News und Desinformation]] | ||
[[Kategorie: | [[Kategorie:Medienkompetenz und Algorithmen]] |
Version vom 30. Mai 2025, 10:02 Uhr
Deepfake – Täuschend echte Fälschungen durch KI-Technologie
Einführung: Deepfakes sind mit Künstlicher Intelligenz (KI) erzeugte Medieninhalte, bei denen Gesichter oder Stimmen täuschend echt manipuliert werden. Besonders in Videos lassen sich Personen scheinbar beliebig Dinge sagen oder tun – auch wenn sie das in Wirklichkeit nie getan haben. Das Thema ist hochaktuell, da Deepfakes zunehmend für Desinformation, Betrug oder Rufschädigung missbraucht werden. Für Nutzer:innen im Netz bedeutet das: Augen (und Ohren) auf – nicht alles ist echt, was echt aussieht.
Merkmale / Typische Formen
- Realistisch wirkende Videos, bei denen Gesichter ausgetauscht wurden (z. B. Prominente in falschen Kontexten)
- Klonen von Stimmen durch Audio-Deepfakes, etwa für Telefonbetrug
- Manipulierte Inhalte mit politischer oder sexueller Absicht
- „Face Swapping“ in viralen Clips oder GIFs
Beispiele aus der Praxis
- Ein Deepfake-Video zeigt einen Politiker, der scheinbar eine schockierende Aussage macht – obwohl er das nie gesagt hat
- WhatsApp-Sprachnachrichten mit geklonter Stimme einer Familienangehörigen, die Geld „für einen Notfall“ verlangt
Folgen / Auswirkungen
- Verbreitung von Desinformation, etwa im Wahlkampf oder bei Konflikten
- Verlust von Vertrauen in visuelle Medien und Aussagen
- Gefährdung von Persönlichkeitsrechten und Privatsphäre
- Neue Betrugsformen durch „Voice Phishing“
Schutz & Empfehlungen
- Inhalte immer kritisch prüfen – besonders bei überraschenden oder emotionalen Aussagen
- Quellen checken: Woher kommt das Video? Wer hat es veröffentlicht?
- Technische Hinweise beachten (z. B. unnatürliche Mimik, Lippensynchronität, Bildfehler)
- Bei Verdacht auf Deepfake: Nicht teilen – sondern melden
Häufige Irrtümer / Missverständnisse
- „Deepfakes erkennt man immer sofort“ – das stimmt nicht: Die Technik wird ständig besser
- „Nur Promis sind betroffen“ – nein, auch Privatpersonen können Ziel sein
- „Deepfakes sind nur Spaßvideos“ – manche ja, aber viele haben ernste Folgen