Engagement-Based Ranking
Engagement-Based Ranking
Wie soziale Netzwerke Inhalte nach Interaktionen priorisieren – Risiken für Desinformation und Manipulation
Was ist Engagement-Based Ranking?
Engagement-Based Ranking bezeichnet ein Prinzip, bei dem Inhalte auf Plattformen wie Facebook, Instagram, YouTube oder TikTok bevorzugt angezeigt werden, wenn sie viele Interaktionen auslösen – etwa Likes, Kommentare oder Shares. Ziel ist es, Nutzer:innen möglichst lange auf der Plattform zu halten, indem besonders „engaging“ Inhalte prominent platziert werden. Problematisch wird dieses Ranking-System, wenn es gezielt emotionale, polarisierende oder sogar falsche Inhalte bevorzugt. Das System kann so zur Verstärkung von Desinformation, Manipulation durch Algorithmen und Radikalisierung beitragen.
Merkmale / Typische Formen
- Inhalte mit hoher emotionaler Wirkung (z. B. Wut, Angst, Empörung) werden bevorzugt gerankt
- Algorithmen priorisieren Inhalte basierend auf Interaktionswahrscheinlichkeit, nicht Wahrheitsgehalt
- Polarisierende Inhalte erhalten höhere Reichweiten
- Engagement-Signale können durch Bots oder koordinierte Gruppen manipuliert werden
Psychologische Mechanismen
- Der sogenannte Empörungsanreiz führt dazu, dass kontroverse oder aufwühlende Inhalte mehr Engagement erzeugen – und damit stärker verbreitet werden
- Das Phänomen der Echokammer wird durch algorithmisches Ranking weiter verstärkt
- Confirmation Bias (Bestätigungsfehler) wird durch personalisierte Inhalte begünstigt
Beispiele aus der Praxis
- Ein kontroverses Video auf TikTok, das eine medizinische Falschinformation enthält, erhält tausende Likes und wird daher millionenfach ausgespielt
- Auf Facebook verbreiten sich Verschwörungsnarrative besonders stark, weil sie hohe Engagement-Raten erzeugen
- Influencer:innen auf Instagram posten irreführende Informationen zu Impfungen – die Beiträge gehen viral wegen der emotionalen Ansprache
- YouTube-Algorithmen schlagen zunehmend radikalisierende Inhalte vor, weil sie die Nutzerbindung erhöhen
Folgen / Auswirkungen
- Vertrauensverlust in seriöse Informationsquellen
- Verstärkung von Radikalisierung und gesellschaftlicher Polarisierung durch Algorithmen
- Gefahr der massiven Verbreitung von Falschinformationen
- Wirtschaftlicher Schaden für Unternehmen durch Fake-Bewertungen mit hohem Engagement
Schutz & Empfehlungen
- Eigenes Verhalten reflektieren: Inhalte nicht nur wegen hoher Interaktionen glauben oder teilen
- Quellen prüfen und Inhalte durch Mimikama oder andere Faktenchecker verifizieren lassen
- Algorithmeneinstellungen (sofern verfügbar) anpassen und alternative Feed-Optionen nutzen
- Zwei-Faktor-Authentifizierung aktivieren und Fake-Interaktionen melden
Häufige Irrtümer / Missverständnisse
- „Was viele liken, muss stimmen“ – Falsch: Engagement sagt nichts über Wahrheitsgehalt aus
- „Der Algorithmus zeigt nur, was ich sehen will“ – Teilweise richtig: Er zeigt vor allem, was dich emotional bindet – nicht unbedingt das, was du brauchst