Deepfake: Unterschied zwischen den Versionen

Aus Wikikama
Keine Bearbeitungszusammenfassung
(3 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt)
Zeile 1: Zeile 1:
= Deepfake – Täuschend echte Fälschungen durch KI =
= Deepfake – Täuschend echte Fälschungen durch KI-Technologie =


'''Einführung:'''
'''Einführung:'''
Deepfakes sind Medieninhalte – meist Videos, Bilder oder Audiodateien –, die mithilfe künstlicher Intelligenz so manipuliert wurden, dass sie täuschend echt wirken. Dabei werden Gesichter, Stimmen oder Bewegungen realer Personen digital nachgebildet oder verändert. Ursprünglich für kreative Zwecke entwickelt, birgt die Technologie heute erhebliche Risiken für Desinformation, Betrug und Persönlichkeitsrechte. Ob in sozialen Netzwerken, in der Politik oder im Alltag Deepfakes betreffen uns alle.
Deepfakes sind mit Künstlicher Intelligenz (KI) erzeugte Medieninhalte, bei denen Gesichter oder Stimmen täuschend echt manipuliert werden. Besonders in Videos lassen sich Personen scheinbar beliebig Dinge sagen oder tun – auch wenn sie das in Wirklichkeit nie getan haben.
Bold Man
Das Thema ist hochaktuell, da Deepfakes zunehmend für Desinformation, Betrug oder Rufschädigung missbraucht werden. Für Nutzer:innen im Netz bedeutet das: Augen (und Ohren) auf nicht alles ist echt, was echt aussieht.


== Merkmale / Typische Formen ==
== Merkmale / Typische Formen ==


'''Gesichtstausch in Videos''': Das Gesicht einer Person wird durch das einer anderen ersetzt – oft in Filmclips oder Interviews.
<ul> <li>Realistisch wirkende Videos, bei denen Gesichter ausgetauscht wurden (z. B. Prominente in falschen Kontexten)</li> <li>Klonen von Stimmen durch Audio-Deepfakes, etwa für Telefonbetrug</li> <li>Manipulierte Inhalte mit politischer oder sexueller Absicht</li> <li>„Face Swapping“ in viralen Clips oder GIFs</li> </ul>
 
'''Stimmenimitation''': KI-generierte Audiodateien lassen Personen Dinge sagen, die sie nie gesagt haben.
 
'''Realistische Bilder''': Fotos zeigen Prominente oder Politiker:innen in Situationen, die nie stattgefunden haben.
 
'''Echtzeit-Manipulation''': Live-Videoanrufe oder Streams werden manipuliert, um Identitäten zu fälschen.
 
'''Pornografische Deepfakes''': Gesichter werden in explizite Inhalte montiert – meist ohne Zustimmung der Betroffenen.
Aktuelle Nachrichten | BILD.de
 
== Beispiele aus der Praxis ==
== Beispiele aus der Praxis ==


2025 kursierte ein KI-generiertes Foto von Katy Perry auf dem roten Teppich der Met Gala, obwohl sie gar nicht anwesend war. Das täuschend echte Bild ging viral und wurde von vielen für echt gehalten.
<ul> <li>Ein Deepfake-Video zeigt einen Politiker, der scheinbar eine schockierende Aussage macht – obwohl er das nie gesagt hat</li> <li>WhatsApp-Sprachnachrichten mit geklonter Stimme einer Familienangehörigen, die Geld „für einen Notfall“ verlangt</li> </ul>
The Daily Beast
 
Die Website „Mr. Deepfakes“ war eine der größten Plattformen für nicht-einvernehmliche Deepfake-Pornos und wurde 2025 nach Datenverlust und wachsendem Druck geschlossen.
New York Post
 
== Folgen / Auswirkungen ==
== Folgen / Auswirkungen ==


'''Verlust von Vertrauen''': Wenn alles fälschbar ist, wird es schwer, echten von manipulierten Inhalten zu unterscheiden.
<ul> <li>Verbreitung von Desinformation, etwa im Wahlkampf oder bei Konflikten</li> <li>Verlust von Vertrauen in visuelle Medien und Aussagen</li> <li>Gefährdung von Persönlichkeitsrechten und Privatsphäre</li> <li>Neue Betrugsformen durch „Voice Phishing“</li> </ul>
 
'''Rufschädigung''': Betroffene – oft Frauen – leiden unter der Verbreitung gefälschter Nacktbilder oder kompromittierender Videos.
 
'''Politische Manipulation''': Deepfakes können eingesetzt werden, um Wahlen zu beeinflussen oder Desinformation zu verbreiten.
 
'''Betrug und Erpressung''': Täuschend echte Videos oder Anrufe werden genutzt, um Geld zu erpressen oder Identitäten zu stehlen.
Bold Man
 
== Schutz & Empfehlungen ==
== Schutz & Empfehlungen ==


'''Kritisch bleiben''': Hinterfrage Inhalte, die extrem wirken oder emotional aufwühlen.
<ul> <li>Inhalte immer kritisch prüfen – besonders bei überraschenden oder emotionalen Aussagen</li> <li>Quellen checken: Woher kommt das Video? Wer hat es veröffentlicht?</li> <li>Technische Hinweise beachten (z. B. unnatürliche Mimik, Lippensynchronität, Bildfehler)</li> <li>Bei Verdacht auf Deepfake: Nicht teilen – sondern melden</li> </ul>
 
'''Auf Details achten''': Unnatürliche Augenbewegungen, fehlende Blinzler oder unscharfe Übergänge können Hinweise auf Deepfakes sein.
 
'''Privatsphäre schützen''': Teile persönliche Bilder und Videos nur mit Bedacht und auf sicheren Plattformen.
 
'''Technische Hilfsmittel nutzen''': Es gibt Tools und Browser-Erweiterungen, die helfen können, Deepfakes zu erkennen.
 
'''Meldung erstatten''': Bei Verdacht auf Deepfake-Inhalte sollten diese den Plattformbetreibern gemeldet werden.
aware.com
 
== Häufige Irrtümer / Missverständnisse ==
== Häufige Irrtümer / Missverständnisse ==


'''„Deepfakes erkennt man sofort.“'''
<ul> <li>„Deepfakes erkennt man immer sofort“ – das stimmt nicht: Die Technik wird ständig besser</li> <li>„Nur Promis sind betroffen“ – nein, auch Privatpersonen können Ziel sein</li> <li>„Deepfakes sind nur Spaßvideos“ – manche ja, aber viele haben ernste Folgen</li> </ul>
Falsch. Moderne Deepfakes sind oft so gut gemacht, dass selbst Expert:innen Schwierigkeiten haben, sie zu identifizieren.
== Weiterführende Links ==
 
[https://www.mimikama.org/?s=Deepfake Weitere Artikel bei Mimikama zu Deepfake]
'''„Nur Prominente sind betroffen.“'''
Nein. Auch Privatpersonen können Opfer von Deepfakes werden, etwa durch manipulierte Bilder in sozialen Netzwerken.
 
'''„Deepfakes sind nur ein Internetphänomen.“'''
Nicht ganz. Sie können reale Konsequenzen haben, etwa bei Betrugsfällen oder politischer Einflussnahme.
 
'''„Man kann sich nicht schützen.“'''
Doch. Durch Aufklärung, technische Hilfsmittel und einen bewussten Umgang mit digitalen Inhalten lässt sich das Risiko minimieren.


[[Kategorie:Fake News & Desinformation]]
[[Kategorie:Fake News und Desinformation]]
[[Kategorie:Glossar: Begriffe einfach erklärt]]
[[Kategorie:Medienkompetenz und Algorithmen]]

Version vom 30. Mai 2025, 10:02 Uhr

Deepfake – Täuschend echte Fälschungen durch KI-Technologie

Einführung: Deepfakes sind mit Künstlicher Intelligenz (KI) erzeugte Medieninhalte, bei denen Gesichter oder Stimmen täuschend echt manipuliert werden. Besonders in Videos lassen sich Personen scheinbar beliebig Dinge sagen oder tun – auch wenn sie das in Wirklichkeit nie getan haben. Das Thema ist hochaktuell, da Deepfakes zunehmend für Desinformation, Betrug oder Rufschädigung missbraucht werden. Für Nutzer:innen im Netz bedeutet das: Augen (und Ohren) auf – nicht alles ist echt, was echt aussieht.

Merkmale / Typische Formen

  • Realistisch wirkende Videos, bei denen Gesichter ausgetauscht wurden (z. B. Prominente in falschen Kontexten)
  • Klonen von Stimmen durch Audio-Deepfakes, etwa für Telefonbetrug
  • Manipulierte Inhalte mit politischer oder sexueller Absicht
  • „Face Swapping“ in viralen Clips oder GIFs

Beispiele aus der Praxis

  • Ein Deepfake-Video zeigt einen Politiker, der scheinbar eine schockierende Aussage macht – obwohl er das nie gesagt hat
  • WhatsApp-Sprachnachrichten mit geklonter Stimme einer Familienangehörigen, die Geld „für einen Notfall“ verlangt

Folgen / Auswirkungen

  • Verbreitung von Desinformation, etwa im Wahlkampf oder bei Konflikten
  • Verlust von Vertrauen in visuelle Medien und Aussagen
  • Gefährdung von Persönlichkeitsrechten und Privatsphäre
  • Neue Betrugsformen durch „Voice Phishing“

Schutz & Empfehlungen

  • Inhalte immer kritisch prüfen – besonders bei überraschenden oder emotionalen Aussagen
  • Quellen checken: Woher kommt das Video? Wer hat es veröffentlicht?
  • Technische Hinweise beachten (z. B. unnatürliche Mimik, Lippensynchronität, Bildfehler)
  • Bei Verdacht auf Deepfake: Nicht teilen – sondern melden

Häufige Irrtümer / Missverständnisse

  • „Deepfakes erkennt man immer sofort“ – das stimmt nicht: Die Technik wird ständig besser
  • „Nur Promis sind betroffen“ – nein, auch Privatpersonen können Ziel sein
  • „Deepfakes sind nur Spaßvideos“ – manche ja, aber viele haben ernste Folgen

Weiterführende Links

Weitere Artikel bei Mimikama zu Deepfake