Large Language Model
Large Language Model
KI-Modelle zur Sprachverarbeitung, Desinformationserkennung und Manipulation
Was ist ein Large Language Model?
Ein Large Language Model (LLM) ist ein KI-basiertes Sprachmodell, das auf der Verarbeitung riesiger Mengen an Textdaten basiert. Diese Modelle können natürliche Sprache verstehen, erzeugen und analysieren. Sie werden für vielfältige Anwendungen genutzt – von Chatbots über Fake News-Erkennung bis hin zur automatisierten Texterstellung. Aufgrund ihrer Leistungsfähigkeit spielen sie eine zunehmende Rolle bei der Verbreitung von Desinformation, etwa durch automatisierte Fake Accounts oder gefälschte Profile in sozialen Netzwerken. Zugleich können LLMs auch helfen, Falschinformationen zu erkennen und Inhalte zu moderieren.
Merkmale / Typische Formen
- Verarbeiten große Datenmengen und komplexe Sprachstrukturen
- Können menschenähnlich antworten und Inhalte generieren
- Werden oft in Chatbots oder Sprachassistenten integriert
- Sind anfällig für Bias und ungewollte Reproduktionen von Vorurteilen
- Können gezielt zur Manipulation eingesetzt werden
Technische Merkmale
- Basieren häufig auf der Transformer-Architektur
- Nutzen Milliarden von Parametern zur Mustererkennung
- Werden durch maschinelles Lernen und KI-Training weiterentwickelt
Beispiele aus der Praxis
- Ein Chatbot auf Facebook verbreitet gefälschte Gesundheitsinformationen mit pseudowissenschaftlichen Behauptungen.
- Auf Telegram werden automatisierte LLM-Bots eingesetzt, um Verschwörungsnarrative zu verbreiten.
- In TikTok-Videos werden LLM-generierte Stimmen genutzt, um falsche politische Aussagen authentisch klingen zu lassen.
- Ein LLM erstellt automatisch reißerische Fake News-Schlagzeilen, die gezielt Empörung auslösen sollen.
- Gefälschte ChatGPT-Profile auf Instagram täuschen Nutzer:innen mit emotionalen Nachrichten.
Folgen / Auswirkungen
- Vertrauensverlust in digitale Informationen und Medien
- Gefahr von Radikalisierung durch automatisierte Desinformation
- Wirtschaftlicher Schaden durch missbräuchlich erstellte Inhalte
- Verstärkung von kognitiven Verzerrungen und Echokammern
- Verlust von Privatsphäre, wenn Nutzer unwissentlich mit KI-Bots interagieren
Schutz & Empfehlungen
- Inhalte stets kritisch hinterfragen und Quellen prüfen
- Keine persönlichen Informationen in Chats mit unbekannten Profilen teilen
- Auf Hinweise von Mimikama oder anderen Faktencheckern achten
- KI-generierte Inhalte anhand sprachlicher oder stilistischer Auffälligkeiten erkennen lernen
- Zwei-Faktor-Authentifizierung für eigene Accounts aktivieren
Häufige Irrtümer / Missverständnisse
- „KI weiß alles und liegt nie falsch.“ – LLMs erzeugen plausible, aber nicht immer korrekte Inhalte.
- „Wenn ein Text grammatikalisch korrekt ist, muss er stimmen.“ – Auch fehlerfreie Texte können Falschmeldungen sein.
- „Nur Menschen können gezielt manipulieren.“ – Auch LLMs können durch Trainingsdaten zur Desinformation beitragen.