Deepfake: Unterschied zwischen den Versionen

Aus Wikikama
Keine Bearbeitungszusammenfassung
Keine Bearbeitungszusammenfassung
Zeile 1: Zeile 1:
= Deepfake – Täuschend echte Fälschungen durch KI =
= Deepfake – Täuschend echte Fälschungen per KI =


'''Einführung:'''
'''Einführung:'''
Deepfakes sind Medieninhalte – meist Videos, Bilder oder Audiodateien –, die mithilfe künstlicher Intelligenz so manipuliert wurden, dass sie täuschend echt wirken. Dabei werden Gesichter, Stimmen oder Bewegungen realer Personen digital nachgebildet oder verändert. Ursprünglich für kreative Zwecke entwickelt, birgt die Technologie heute erhebliche Risiken für Desinformation, Betrug und Persönlichkeitsrechte. Ob in sozialen Netzwerken, in der Politik oder im Alltag – Deepfakes betreffen uns alle.
Was sind Deepfakes? Der Begriff steht für Medieninhalte – meist Videos oder Audios –, die mithilfe künstlicher Intelligenz manipuliert wurden. Dabei werden z. B. Gesichter oder Stimmen so realistisch ausgetauscht, dass sie täuschend echt wirken. Deepfakes werden immer besser und sind deshalb zunehmend gefährlich – besonders im Kontext von Fake News, Cyberkriminalität oder Rufschädigung. Für Nutzer:innen heißt das: wachsam bleiben!
Bold Man


== Merkmale / Typische Formen ==
== Merkmale / Typische Formen ==


'''Gesichtstausch in Videos''': Das Gesicht einer Person wird durch das einer anderen ersetzt – oft in Filmclips oder Interviews.
<ul> <li>Täuschend echt wirkende Videos mit manipulierten Gesichtern</li> <li>Stimmen-Imitation durch KI (Audio-Deepfakes)</li> <li>Politische Reden oder Interviews, die nie so stattgefunden haben</li> <li>Porno-Deepfakes: Gesichter von Prominenten in fremde Videos montiert</li> </ul>
 
'''Stimmenimitation''': KI-generierte Audiodateien lassen Personen Dinge sagen, die sie nie gesagt haben.
 
'''Realistische Bilder''': Fotos zeigen Prominente oder Politiker:innen in Situationen, die nie stattgefunden haben.
 
'''Echtzeit-Manipulation''': Live-Videoanrufe oder Streams werden manipuliert, um Identitäten zu fälschen.
 
'''Pornografische Deepfakes''': Gesichter werden in explizite Inhalte montiert – meist ohne Zustimmung der Betroffenen.
Aktuelle Nachrichten | BILD.de
 
== Beispiele aus der Praxis ==
== Beispiele aus der Praxis ==


2025 kursierte ein KI-generiertes Foto von Katy Perry auf dem roten Teppich der Met Gala, obwohl sie gar nicht anwesend war. Das täuschend echte Bild ging viral und wurde von vielen für echt gehalten.
<ul> <li>Ein gefälschtes Video von Barack Obama, in dem er Aussagen trifft, die er nie gesagt hat</li> <li>WhatsApp-Sprachnachrichten angeblicher Promis oder Behörden, die Panik verbreiten</li> </ul>
The Daily Beast
 
Die Website „Mr. Deepfakes“ war eine der größten Plattformen für nicht-einvernehmliche Deepfake-Pornos und wurde 2025 nach Datenverlust und wachsendem Druck geschlossen.
New York Post
 
== Folgen / Auswirkungen ==
== Folgen / Auswirkungen ==


'''Verlust von Vertrauen''': Wenn alles fälschbar ist, wird es schwer, echten von manipulierten Inhalten zu unterscheiden.
<ul> <li>Desinformation: Deepfakes können gezielt falsche Fakten verbreiten</li> <li>Vertrauensverlust in echte Medieninhalte</li> <li>Rufschädigung, z. B. durch manipulierte Nackt-Videos</li> <li>Gefahr von Betrug, z. B. durch gefälschte Chefstimmen („CEO-Fraud“)</li> </ul>
 
'''Rufschädigung''': Betroffene – oft Frauen – leiden unter der Verbreitung gefälschter Nacktbilder oder kompromittierender Videos.
 
'''Politische Manipulation''': Deepfakes können eingesetzt werden, um Wahlen zu beeinflussen oder Desinformation zu verbreiten.
 
'''Betrug und Erpressung''': Täuschend echte Videos oder Anrufe werden genutzt, um Geld zu erpressen oder Identitäten zu stehlen.
Bold Man
 
== Schutz & Empfehlungen ==
== Schutz & Empfehlungen ==


'''Kritisch bleiben''': Hinterfrage Inhalte, die extrem wirken oder emotional aufwühlen.
<ul> <li>Medieninhalte immer kritisch prüfen: Wer ist die Quelle? Gibt es das Video auch in seriösen Medien?</li> <li>Technik nutzen: Es gibt Tools, die Deepfakes erkennen können (z. B. Deepware Scanner)</li> <li>Bei Verdacht: Nicht teilen, sondern melden (z. B. bei Mimikama)</li> <li>Bildungsangebote nutzen, um die eigene Medienkompetenz zu stärken</li> </ul>
 
'''Auf Details achten''': Unnatürliche Augenbewegungen, fehlende Blinzler oder unscharfe Übergänge können Hinweise auf Deepfakes sein.
 
'''Privatsphäre schützen''': Teile persönliche Bilder und Videos nur mit Bedacht und auf sicheren Plattformen.
 
'''Technische Hilfsmittel nutzen''': Es gibt Tools und Browser-Erweiterungen, die helfen können, Deepfakes zu erkennen.
 
'''Meldung erstatten''': Bei Verdacht auf Deepfake-Inhalte sollten diese den Plattformbetreibern gemeldet werden.
aware.com
 
== Häufige Irrtümer / Missverständnisse ==
== Häufige Irrtümer / Missverständnisse ==


'''„Deepfakes erkennt man sofort.“'''
<ul> <li>„Deepfakes erkennt man immer sofort“ – Falsch! Viele Deepfakes sind extrem überzeugend</li> <li>„Nur Prominente sind betroffen“ – Auch Privatpersonen können zum Ziel werden</li> <li>„Deepfake = Fake News“ – Nicht jeder Deepfake hat eine politische Absicht, manche sind auch Satire oder Kunst</li> </ul>
Falsch. Moderne Deepfakes sind oft so gut gemacht, dass selbst Expert:innen Schwierigkeiten haben, sie zu identifizieren.
== Weiterführende Links ==
 
[https://www.mimikama.org/?s=deepfake Weitere Artikel bei Mimikama zu Deepfake]
'''„Nur Prominente sind betroffen.“'''
Nein. Auch Privatpersonen können Opfer von Deepfakes werden, etwa durch manipulierte Bilder in sozialen Netzwerken.
 
'''„Deepfakes sind nur ein Internetphänomen.“'''
Nicht ganz. Sie können reale Konsequenzen haben, etwa bei Betrugsfällen oder politischer Einflussnahme.
 
'''„Man kann sich nicht schützen.“'''
Doch. Durch Aufklärung, technische Hilfsmittel und einen bewussten Umgang mit digitalen Inhalten lässt sich das Risiko minimieren.


[[Kategorie:Fake News & Desinformation]]
[[Kategorie:Fake News & Desinformation]]
[[Kategorie:Glossar: Begriffe einfach erklärt]]
[[Kategorie:📖 Glossar: Begriffe einfach erklärt]]

Version vom 11. Mai 2025, 15:41 Uhr

Deepfake – Täuschend echte Fälschungen per KI

Einführung: Was sind Deepfakes? Der Begriff steht für Medieninhalte – meist Videos oder Audios –, die mithilfe künstlicher Intelligenz manipuliert wurden. Dabei werden z. B. Gesichter oder Stimmen so realistisch ausgetauscht, dass sie täuschend echt wirken. Deepfakes werden immer besser und sind deshalb zunehmend gefährlich – besonders im Kontext von Fake News, Cyberkriminalität oder Rufschädigung. Für Nutzer:innen heißt das: wachsam bleiben!

Merkmale / Typische Formen

  • Täuschend echt wirkende Videos mit manipulierten Gesichtern
  • Stimmen-Imitation durch KI (Audio-Deepfakes)
  • Politische Reden oder Interviews, die nie so stattgefunden haben
  • Porno-Deepfakes: Gesichter von Prominenten in fremde Videos montiert

Beispiele aus der Praxis

  • Ein gefälschtes Video von Barack Obama, in dem er Aussagen trifft, die er nie gesagt hat
  • WhatsApp-Sprachnachrichten angeblicher Promis oder Behörden, die Panik verbreiten

Folgen / Auswirkungen

  • Desinformation: Deepfakes können gezielt falsche Fakten verbreiten
  • Vertrauensverlust in echte Medieninhalte
  • Rufschädigung, z. B. durch manipulierte Nackt-Videos
  • Gefahr von Betrug, z. B. durch gefälschte Chefstimmen („CEO-Fraud“)

Schutz & Empfehlungen

  • Medieninhalte immer kritisch prüfen: Wer ist die Quelle? Gibt es das Video auch in seriösen Medien?
  • Technik nutzen: Es gibt Tools, die Deepfakes erkennen können (z. B. Deepware Scanner)
  • Bei Verdacht: Nicht teilen, sondern melden (z. B. bei Mimikama)
  • Bildungsangebote nutzen, um die eigene Medienkompetenz zu stärken

Häufige Irrtümer / Missverständnisse

  • „Deepfakes erkennt man immer sofort“ – Falsch! Viele Deepfakes sind extrem überzeugend
  • „Nur Prominente sind betroffen“ – Auch Privatpersonen können zum Ziel werden
  • „Deepfake = Fake News“ – Nicht jeder Deepfake hat eine politische Absicht, manche sind auch Satire oder Kunst

Weiterführende Links

Weitere Artikel bei Mimikama zu Deepfake