Deepfake: Unterschied zwischen den Versionen
Aus Wikikama
Die Seite wurde neu angelegt: „= Deepfake – Täuschend echte Fälschungen durch KI = '''Einführung:''' Deepfakes sind Medieninhalte – meist Videos, Bilder oder Audiodateien –, die mithilfe künstlicher Intelligenz so manipuliert wurden, dass sie täuschend echt wirken. Dabei werden Gesichter, Stimmen oder Bewegungen realer Personen digital nachgebildet oder verändert. Ursprünglich für kreative Zwecke entwickelt, birgt die Technologie heute erhebliche Risiken für Desinformat…“ |
K Textersetzung - „Kategorie:Medienkompetenz & Algorithmen“ durch „Kategorie:Medienkompetenz und Algorithmen“ |
||
(5 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt) | |||
Zeile 1: | Zeile 1: | ||
= Deepfake – Täuschend echte Fälschungen durch KI = | = Deepfake – Täuschend echte Fälschungen durch KI-Technologie = | ||
'''Einführung:''' | '''Einführung:''' | ||
Deepfakes sind Medieninhalte | Deepfakes sind mit Künstlicher Intelligenz (KI) erzeugte Medieninhalte, bei denen Gesichter oder Stimmen täuschend echt manipuliert werden. Besonders in Videos lassen sich Personen scheinbar beliebig Dinge sagen oder tun – auch wenn sie das in Wirklichkeit nie getan haben. | ||
Das Thema ist hochaktuell, da Deepfakes zunehmend für Desinformation, Betrug oder Rufschädigung missbraucht werden. Für Nutzer:innen im Netz bedeutet das: Augen (und Ohren) auf – nicht alles ist echt, was echt aussieht. | |||
== Merkmale / Typische Formen == | == Merkmale / Typische Formen == | ||
<ul> <li>Realistisch wirkende Videos, bei denen Gesichter ausgetauscht wurden (z. B. Prominente in falschen Kontexten)</li> <li>Klonen von Stimmen durch Audio-Deepfakes, etwa für Telefonbetrug</li> <li>Manipulierte Inhalte mit politischer oder sexueller Absicht</li> <li>„Face Swapping“ in viralen Clips oder GIFs</li> </ul> | |||
== Beispiele aus der Praxis == | == Beispiele aus der Praxis == | ||
<ul> <li>Ein Deepfake-Video zeigt einen Politiker, der scheinbar eine schockierende Aussage macht – obwohl er das nie gesagt hat</li> <li>WhatsApp-Sprachnachrichten mit geklonter Stimme einer Familienangehörigen, die Geld „für einen Notfall“ verlangt</li> </ul> | |||
== Folgen / Auswirkungen == | == Folgen / Auswirkungen == | ||
<ul> <li>Verbreitung von Desinformation, etwa im Wahlkampf oder bei Konflikten</li> <li>Verlust von Vertrauen in visuelle Medien und Aussagen</li> <li>Gefährdung von Persönlichkeitsrechten und Privatsphäre</li> <li>Neue Betrugsformen durch „Voice Phishing“</li> </ul> | |||
== Schutz & Empfehlungen == | == Schutz & Empfehlungen == | ||
<ul> <li>Inhalte immer kritisch prüfen – besonders bei überraschenden oder emotionalen Aussagen</li> <li>Quellen checken: Woher kommt das Video? Wer hat es veröffentlicht?</li> <li>Technische Hinweise beachten (z. B. unnatürliche Mimik, Lippensynchronität, Bildfehler)</li> <li>Bei Verdacht auf Deepfake: Nicht teilen – sondern melden</li> </ul> | |||
== Häufige Irrtümer / Missverständnisse == | == Häufige Irrtümer / Missverständnisse == | ||
<ul> <li>„Deepfakes erkennt man immer sofort“ – das stimmt nicht: Die Technik wird ständig besser</li> <li>„Nur Promis sind betroffen“ – nein, auch Privatpersonen können Ziel sein</li> <li>„Deepfakes sind nur Spaßvideos“ – manche ja, aber viele haben ernste Folgen</li> </ul> | |||
== Weiterführende Links == | |||
[https://www.mimikama.org/?s=Deepfake Weitere Artikel bei Mimikama zu Deepfake] | |||
[[Kategorie: | [[Kategorie:Fake News und Desinformation]] | ||
[[Kategorie: | [[Kategorie:Medienkompetenz und Algorithmen]] |
Version vom 30. Mai 2025, 10:02 Uhr
Deepfake – Täuschend echte Fälschungen durch KI-Technologie
Einführung: Deepfakes sind mit Künstlicher Intelligenz (KI) erzeugte Medieninhalte, bei denen Gesichter oder Stimmen täuschend echt manipuliert werden. Besonders in Videos lassen sich Personen scheinbar beliebig Dinge sagen oder tun – auch wenn sie das in Wirklichkeit nie getan haben. Das Thema ist hochaktuell, da Deepfakes zunehmend für Desinformation, Betrug oder Rufschädigung missbraucht werden. Für Nutzer:innen im Netz bedeutet das: Augen (und Ohren) auf – nicht alles ist echt, was echt aussieht.
Merkmale / Typische Formen
- Realistisch wirkende Videos, bei denen Gesichter ausgetauscht wurden (z. B. Prominente in falschen Kontexten)
- Klonen von Stimmen durch Audio-Deepfakes, etwa für Telefonbetrug
- Manipulierte Inhalte mit politischer oder sexueller Absicht
- „Face Swapping“ in viralen Clips oder GIFs
Beispiele aus der Praxis
- Ein Deepfake-Video zeigt einen Politiker, der scheinbar eine schockierende Aussage macht – obwohl er das nie gesagt hat
- WhatsApp-Sprachnachrichten mit geklonter Stimme einer Familienangehörigen, die Geld „für einen Notfall“ verlangt
Folgen / Auswirkungen
- Verbreitung von Desinformation, etwa im Wahlkampf oder bei Konflikten
- Verlust von Vertrauen in visuelle Medien und Aussagen
- Gefährdung von Persönlichkeitsrechten und Privatsphäre
- Neue Betrugsformen durch „Voice Phishing“
Schutz & Empfehlungen
- Inhalte immer kritisch prüfen – besonders bei überraschenden oder emotionalen Aussagen
- Quellen checken: Woher kommt das Video? Wer hat es veröffentlicht?
- Technische Hinweise beachten (z. B. unnatürliche Mimik, Lippensynchronität, Bildfehler)
- Bei Verdacht auf Deepfake: Nicht teilen – sondern melden
Häufige Irrtümer / Missverständnisse
- „Deepfakes erkennt man immer sofort“ – das stimmt nicht: Die Technik wird ständig besser
- „Nur Promis sind betroffen“ – nein, auch Privatpersonen können Ziel sein
- „Deepfakes sind nur Spaßvideos“ – manche ja, aber viele haben ernste Folgen