Deepfake: Unterschied zwischen den Versionen

Aus Wikikama
Keine Bearbeitungszusammenfassung
(2 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt)
Zeile 1: Zeile 1:
= Deepfake – Täuschend echte Fälschungen per KI =
= Deepfake – Täuschend echte Fälschungen durch KI-Technologie =


'''Einführung:'''
'''Einführung:'''
Was sind Deepfakes? Der Begriff steht für Medieninhalte – meist Videos oder Audios –, die mithilfe künstlicher Intelligenz manipuliert wurden. Dabei werden z. B. Gesichter oder Stimmen so realistisch ausgetauscht, dass sie täuschend echt wirken. Deepfakes werden immer besser und sind deshalb zunehmend gefährlich – besonders im Kontext von Fake News, Cyberkriminalität oder Rufschädigung. Für Nutzer:innen heißt das: wachsam bleiben!
Deepfakes sind mit Künstlicher Intelligenz (KI) erzeugte Medieninhalte, bei denen Gesichter oder Stimmen täuschend echt manipuliert werden. Besonders in Videos lassen sich Personen scheinbar beliebig Dinge sagen oder tun – auch wenn sie das in Wirklichkeit nie getan haben.
Das Thema ist hochaktuell, da Deepfakes zunehmend für Desinformation, Betrug oder Rufschädigung missbraucht werden. Für Nutzer:innen im Netz bedeutet das: Augen (und Ohren) auf – nicht alles ist echt, was echt aussieht.


== Merkmale / Typische Formen ==
== Merkmale / Typische Formen ==


<ul> <li>Täuschend echt wirkende Videos mit manipulierten Gesichtern</li> <li>Stimmen-Imitation durch KI (Audio-Deepfakes)</li> <li>Politische Reden oder Interviews, die nie so stattgefunden haben</li> <li>Porno-Deepfakes: Gesichter von Prominenten in fremde Videos montiert</li> </ul>
<ul> <li>Realistisch wirkende Videos, bei denen Gesichter ausgetauscht wurden (z. B. Prominente in falschen Kontexten)</li> <li>Klonen von Stimmen durch Audio-Deepfakes, etwa für Telefonbetrug</li> <li>Manipulierte Inhalte mit politischer oder sexueller Absicht</li> <li>„Face Swapping“ in viralen Clips oder GIFs</li> </ul>
== Beispiele aus der Praxis ==
== Beispiele aus der Praxis ==


<ul> <li>Ein gefälschtes Video von Barack Obama, in dem er Aussagen trifft, die er nie gesagt hat</li> <li>WhatsApp-Sprachnachrichten angeblicher Promis oder Behörden, die Panik verbreiten</li> </ul>
<ul> <li>Ein Deepfake-Video zeigt einen Politiker, der scheinbar eine schockierende Aussage macht – obwohl er das nie gesagt hat</li> <li>WhatsApp-Sprachnachrichten mit geklonter Stimme einer Familienangehörigen, die Geld „für einen Notfall“ verlangt</li> </ul>
== Folgen / Auswirkungen ==
== Folgen / Auswirkungen ==


<ul> <li>Desinformation: Deepfakes können gezielt falsche Fakten verbreiten</li> <li>Vertrauensverlust in echte Medieninhalte</li> <li>Rufschädigung, z. B. durch manipulierte Nackt-Videos</li> <li>Gefahr von Betrug, z. B. durch gefälschte Chefstimmen („CEO-Fraud“)</li> </ul>
<ul> <li>Verbreitung von Desinformation, etwa im Wahlkampf oder bei Konflikten</li> <li>Verlust von Vertrauen in visuelle Medien und Aussagen</li> <li>Gefährdung von Persönlichkeitsrechten und Privatsphäre</li> <li>Neue Betrugsformen durch „Voice Phishing“</li> </ul>
== Schutz & Empfehlungen ==
== Schutz & Empfehlungen ==


<ul> <li>Medieninhalte immer kritisch prüfen: Wer ist die Quelle? Gibt es das Video auch in seriösen Medien?</li> <li>Technik nutzen: Es gibt Tools, die Deepfakes erkennen können (z. B. Deepware Scanner)</li> <li>Bei Verdacht: Nicht teilen, sondern melden (z. B. bei Mimikama)</li> <li>Bildungsangebote nutzen, um die eigene Medienkompetenz zu stärken</li> </ul>
<ul> <li>Inhalte immer kritisch prüfen – besonders bei überraschenden oder emotionalen Aussagen</li> <li>Quellen checken: Woher kommt das Video? Wer hat es veröffentlicht?</li> <li>Technische Hinweise beachten (z. B. unnatürliche Mimik, Lippensynchronität, Bildfehler)</li> <li>Bei Verdacht auf Deepfake: Nicht teilen sondern melden</li> </ul>
== Häufige Irrtümer / Missverständnisse ==
== Häufige Irrtümer / Missverständnisse ==


<ul> <li>„Deepfakes erkennt man immer sofort“ – Falsch! Viele Deepfakes sind extrem überzeugend</li> <li>„Nur Prominente sind betroffen“ – Auch Privatpersonen können zum Ziel werden</li> <li>„Deepfake = Fake News“ Nicht jeder Deepfake hat eine politische Absicht, manche sind auch Satire oder Kunst</li> </ul>
<ul> <li>„Deepfakes erkennt man immer sofort“ – das stimmt nicht: Die Technik wird ständig besser</li> <li>„Nur Promis sind betroffen“ – nein, auch Privatpersonen können Ziel sein</li> <li>„Deepfakes sind nur Spaßvideos“ manche ja, aber viele haben ernste Folgen</li> </ul>
== Weiterführende Links ==
== Weiterführende Links ==
[https://www.mimikama.org/?s=deepfake Weitere Artikel bei Mimikama zu Deepfake]
[https://www.mimikama.org/?s=Deepfake Weitere Artikel bei Mimikama zu Deepfake]


[[Kategorie:Fake News & Desinformation]]
[[Kategorie:Fake News und Desinformation]]
[[Kategorie:📖 Glossar: Begriffe einfach erklärt]]
[[Kategorie:Medienkompetenz und Algorithmen]]

Version vom 30. Mai 2025, 10:02 Uhr

Deepfake – Täuschend echte Fälschungen durch KI-Technologie

Einführung: Deepfakes sind mit Künstlicher Intelligenz (KI) erzeugte Medieninhalte, bei denen Gesichter oder Stimmen täuschend echt manipuliert werden. Besonders in Videos lassen sich Personen scheinbar beliebig Dinge sagen oder tun – auch wenn sie das in Wirklichkeit nie getan haben. Das Thema ist hochaktuell, da Deepfakes zunehmend für Desinformation, Betrug oder Rufschädigung missbraucht werden. Für Nutzer:innen im Netz bedeutet das: Augen (und Ohren) auf – nicht alles ist echt, was echt aussieht.

Merkmale / Typische Formen

  • Realistisch wirkende Videos, bei denen Gesichter ausgetauscht wurden (z. B. Prominente in falschen Kontexten)
  • Klonen von Stimmen durch Audio-Deepfakes, etwa für Telefonbetrug
  • Manipulierte Inhalte mit politischer oder sexueller Absicht
  • „Face Swapping“ in viralen Clips oder GIFs

Beispiele aus der Praxis

  • Ein Deepfake-Video zeigt einen Politiker, der scheinbar eine schockierende Aussage macht – obwohl er das nie gesagt hat
  • WhatsApp-Sprachnachrichten mit geklonter Stimme einer Familienangehörigen, die Geld „für einen Notfall“ verlangt

Folgen / Auswirkungen

  • Verbreitung von Desinformation, etwa im Wahlkampf oder bei Konflikten
  • Verlust von Vertrauen in visuelle Medien und Aussagen
  • Gefährdung von Persönlichkeitsrechten und Privatsphäre
  • Neue Betrugsformen durch „Voice Phishing“

Schutz & Empfehlungen

  • Inhalte immer kritisch prüfen – besonders bei überraschenden oder emotionalen Aussagen
  • Quellen checken: Woher kommt das Video? Wer hat es veröffentlicht?
  • Technische Hinweise beachten (z. B. unnatürliche Mimik, Lippensynchronität, Bildfehler)
  • Bei Verdacht auf Deepfake: Nicht teilen – sondern melden

Häufige Irrtümer / Missverständnisse

  • „Deepfakes erkennt man immer sofort“ – das stimmt nicht: Die Technik wird ständig besser
  • „Nur Promis sind betroffen“ – nein, auch Privatpersonen können Ziel sein
  • „Deepfakes sind nur Spaßvideos“ – manche ja, aber viele haben ernste Folgen

Weiterführende Links

Weitere Artikel bei Mimikama zu Deepfake