AI Act
AI Act
Europas erster Rechtsrahmen für Künstliche Intelligenz – Risiken, Transparenz und Regulierung
Was ist der AI Act?
Der AI Act (Verordnung (EU) 2024/1689) ist der erste umfassende Rechtsrahmen für Künstliche Intelligenz (KI) weltweit. Ziel ist es, vertrauenswürdige KI in Europa zu fördern und gleichzeitig Risiken für Grundrechte, Sicherheit und Demokratie zu minimieren. Die Verordnung verfolgt einen risikobasierten Ansatz und legt klare Regeln für Anbieter und Nutzer von KI-Systemen fest. Sie betrifft nahezu alle Sektoren und Anwendungen – von Chatbots über biometrische Systeme bis hin zu generativen KI-Modellen. Der AI Act ergänzt bestehende Maßnahmen wie den koordinierten Plan für KI und das AI-Innovationspaket.
Risikoklassen und typische Merkmale
Der AI Act unterscheidet vier Risikostufen für KI-Systeme:
Unzulässiges Risiko
KI-Anwendungen, die als klare Bedrohung für Sicherheit, Grundrechte oder Demokratie gelten, sind verboten. Dazu zählen:
- Soziales Scoring durch staatliche oder private Akteure
- Echtzeit-Gesichtserkennung im öffentlichen Raum durch Strafverfolgungsbehörden
- Emotionserkennung in Bildungseinrichtungen oder am Arbeitsplatz
- Ausnutzung von Schwächen besonders schutzbedürftiger Personen
- Untargetetes Scraping von Internet- oder Überwachungsdaten zur Erstellung biometrischer Datenbanken
Hochrisiko-KI
Systeme mit erheblichem Einfluss auf Gesundheit, Sicherheit oder Grundrechte, z. B.:
- KI in kritischer Infrastruktur (z. B. Verkehrssteuerung)
- Bewerberauswahl oder Mitarbeiterbewertung
- Kreditwürdigkeitsprüfungen
- Automatisierte Visa- oder Asylentscheidungen
- Unterstützung bei Gerichtsentscheidungen
Diese Systeme unterliegen strengen Anforderungen wie Risikobewertungen, Datenqualität, Transparenz, menschlicher Aufsicht und Robustheit.
Begrenztes Risiko
KI-Systeme mit moderatem Risiko, denen Transparenzpflichten unterliegen. Beispiele:
- Chatbots, die Nutzer:innen informieren müssen, dass sie mit einer Maschine kommunizieren
- Generative KI, deren Inhalte als KI-generiert gekennzeichnet sein müssen (z. B. Deepfakes)
Minimales oder kein Risiko
Die Mehrheit der KI-Anwendungen fällt in diese Kategorie, z. B.:
- KI-gestützte Videospiele
- Spamfilter
- Personalisierte Empfehlungen ohne tiefgreifende Auswirkungen
Beispiele aus der Praxis
- Ein virales Gewinnspiel auf Facebook verspricht hochwertige Preise, erfordert jedoch die Eingabe persönlicher Daten – dahintersteckt eine betrügerische KI-gesteuerte Phishing-Kampagne.
- Auf TikTok verbreitet sich ein Deepfake-Video eines Prominenten, das manipulierte Aussagen enthält – Nutzer:innen erkennen nicht, dass es sich um KI-generierten Inhalt handelt.
- In Telegram-Gruppen kursieren automatisierte Nachrichten, die Falschinformationen über politische Ereignisse verbreiten – gesteuert durch KI-Bots.
- Ein KI-gestützter Chatbot auf einer vermeintlichen Support-Seite imitiert den Kundendienst eines bekannten Unternehmens und sammelt Zugangsdaten von Nutzer:innen.
Folgen / Auswirkungen
- Identitätsdiebstahl durch missbräuchliche Verwendung persönlicher Daten
- Vertrauensverlust in digitale Dienste und Medien
- Radikalisierung durch gezielte Desinformation und Manipulation
- Wirtschaftlicher Schaden für Unternehmen und Verbraucher:innen durch betrügerische KI-Anwendungen
Schutz & Empfehlungen
- Quellen prüfen: Informationen aus sozialen Medien stets hinterfragen
- Links nicht unbedacht klicken: Vorsicht bei unbekannten oder verdächtigen URLs
- Zwei-Faktor-Authentifizierung aktivieren: zusätzlicher Schutz für Online-Konten
- Faktenchecks nutzen: Verlässliche Portale wie Mimikama oder andere Faktenchecker konsultieren
- KI-generierte Inhalte erkennen: Auf Kennzeichnungen achten und bei Zweifeln kritisch hinterfragen
Häufige Irrtümer / Missverständnisse
- „KI ist immer neutral und objektiv.“ – Falsch: KI-Systeme können Vorurteile und Diskriminierungen aus Trainingsdaten übernehmen.
- „Nur große Unternehmen nutzen KI.“ – Falsch: Auch kleine Akteure können KI einsetzen, z. B. für automatisierte Werbung oder Chatbots.
- „KI erkennt man sofort.“ – Falsch: Viele KI-Anwendungen arbeiten im Hintergrund und sind für Nutzer:innen nicht direkt erkennbar.