Stand: April 2026 - Die Verbote gelten bereits seit über einem Jahr.
Seit dem 2. Februar 2025 sind die Verbote für bestimmte KI-Praktiken aus der EU-KI-Verordnung (Verordnung (EU) 2024/1689) in Kraft. Diese sind nicht "bald kommend" oder "in Vorbereitung" - sie sind heute geltendes Recht mit drastischen Sanktionen von bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes.
Unternehmen, die KI-Systeme entwickeln oder einsetzen, müssen jetzt prüfen, ob ihre Systeme unter diese Verbote fallen. Dieser Artikel erklärt die acht verbotenen Praktiken aus Artikel 5, zeigt praktische Beispiele und Grauzonen auf und gibt konkrete Handlungsempfehlungen.
Die acht verbotenen KI-Praktiken nach Artikel 5 Absatz 1
Art. 5(1)(a): Unterschwellige, manipulative oder täuschende Techniken
Was ist verboten: KI-Systeme, die unterschwellige Komponenten oder gezielt manipulative oder täuschende Techniken einsetzen, um das Verhalten von Personen erheblich zu verzerren und dabei einen erheblichen Schaden zu verursachen.
Praktische Beispiele: - Dark Patterns in Apps, die durch KI personalisiert werden und Nutzer zu ungewollten Käufen drängen - Voice Assistants, die durch subtile Tonfall-Manipulation Kaufentscheidungen beeinflussen - KI-gesteuerte Werbung, die psychologische Schwächen ausnutzt, um Kaufzwang zu erzeugen
Der entscheidende Schwellenwert: "Erheblicher Schaden" ist die Hürde. Nicht jede Personalisierung oder Empfehlung ist verboten. Es muss eine erhebliche Verhaltensverzerrung mit nachweisbarem Schaden vorliegen (z.B. finanzielle Verluste, psychische Belastung, gesundheitliche Folgen).
Grauzone: Wo endet legitime Personalisierung und wo beginnt Manipulation? Ein Empfehlungsalgorithmus, der auf Basis Ihrer Interessen Produkte vorschlägt, ist erlaubt. Ein System, das gezielt Ihre Verlustangst triggert, um Sie zu einem Kauf zu drängen, ist es nicht.
Art. 5(1)(b): Ausnutzen von Schutzbedürftigkeit
Was ist verboten: KI-Systeme, die Schwachstellen bestimmter Personengruppen aufgrund von Alter, Behinderung oder sozioökonomischer Lage ausnutzen, um deren Verhalten erheblich zu verzerren und dabei erheblichen Schaden zu verursachen.
Praktische Beispiele: - Chatbots, die gezielt Senioren mit kognitiven Einschränkungen zu riskanten Finanzprodukten überreden - Spiele-Apps mit KI-gesteuerter Monetarisierung, die auf Kinder abzielen - Kreditplattformen, die wirtschaftlich vulnerable Personen durch manipulative Designs zu überteuerten Krediten drängen
Wichtig: Auch hier gilt der Schwellenwert "erheblicher Schaden". Ein vereinfachtes Interface für ältere Menschen ist nicht verboten. Das gezielte Ausnutzen von Orientierungslosigkeit schon.
Art. 5(1)(c): Social Scoring durch Behörden
Was ist verboten: Bewertung oder Klassifizierung von natürlichen Personen durch Behörden (oder in deren Auftrag), basierend auf Sozialverhalten oder persönlichen Merkmalen, mit nachteiligen Folgen.
Praktische Beispiele: - Ein Punktesystem, das Bürger nach "Wohlverhalten" einstuft und darauf basierend Zugang zu öffentlichen Leistungen vergibt - Algorithmen, die Arbeitslosengeld-Empfänger nach "Kooperationsbereitschaft" bewerten - Systeme, die Eltern nach Erziehungsverhalten scoren und darauf basierend Jugendamtsentscheidungen treffen
Klarstellung: Private Social-Scoring-Systeme (z.B. Bonität durch Banken) fallen nicht direkt unter dieses Verbot, können aber unter andere Regelungen fallen (z.B. als Hochrisiko-System). Das Verbot richtet sich speziell gegen staatliche oder quasi-staatliche Scoring-Praktiken.
Art. 5(1)(d): Predictive Policing basierend auf Profiling
Was ist verboten: Bewertung des Risikos, dass eine Person eine Straftat begehen wird, ausschließlich auf Basis von Profiling oder Persönlichkeitsmerkmalen.
Praktische Beispiele: - Ein Algorithmus, der allein aufgrund von Wohnort, Alter und sozioökonomischem Status eine "Kriminalitätswahrscheinlichkeit" berechnet - Systeme, die aus Facebook-Likes Rückschlüsse auf kriminelle Neigung ziehen - KI, die Menschen als "potenzielle Straftäter" flaggt, ohne konkretes Verhalten zu berücksichtigen
Wichtig - das Wort "ausschließlich": Systeme, die konkrete Verhaltensdaten einbeziehen (z.B. verdächtige Transaktionen, bekannte Aufenthaltsorte bei konkreten Ermittlungen), sind nicht per se verboten. Das Verbot trifft reine Profilbildung ohne Verhaltensbasis.
Grauzone: Fraud-Detection-Systeme, die Transaktionsmuster analysieren, sind erlaubt. Systeme, die aus demografischen Daten ohne konkreten Anlass "Risikopersonen" identifizieren, sind verboten.
Art. 5(1)(e): Ungezieltes Scraping für Gesichtsdatenbanken
Was ist verboten: Ungezielte Erfassung von Gesichtsbildern aus dem Internet oder CCTV-Aufnahmen zum Aufbau von Gesichtserkennungsdatenbanken.
Praktische Beispiele: - Scraping von Instagram, Facebook oder LinkedIn für Gesichtsdatenbanken - Auslesen öffentlicher Webcams oder Überwachungskameras zur Datensammlung - Massenhafte Erfassung von Gesichtern aus YouTube-Videos
Was bedeutet "ungezielt"? Das Verbot trifft die massenhafte, anlasslose Sammlung. Gezielte Erfassung im Rahmen konkreter Ermittlungen oder mit Einwilligung kann erlaubt sein.
Praxis-Hinweis: Viele bestehende Gesichtserkennungsdatenbanken wurden genau so aufgebaut. Unternehmen, die solche Datenbanken nutzen, sollten dringend prüfen, wie diese entstanden sind.
Art. 5(1)(f): Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen
Was ist verboten: Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen, außer aus medizinischen oder Sicherheitsgründen.
Praktische Beispiele (verboten): - HR-Software, die in Videointerviews Emotionen analysiert, um "Ehrlichkeit" oder "Motivation" zu bewerten - Prüfungssoftware, die Gesichtsausdrücke von Studierenden auswertet - Call-Center-Software, die Mitarbeiterstimmung überwacht, um "Engagement" zu messen
Erlaubte Ausnahmen: - Müdigkeitserkennung bei LKW-Fahrern (Sicherheit) - Stress-Monitoring bei Piloten während der Ausbildung (Sicherheit) - Emotionserkennung bei Patienten mit Kommunikationsstörungen (Medizin)
Häufige Fehleinschätzung: "Wir nutzen nur Sentiment-Analyse, keine Emotionserkennung." Wenn das System aus Gesichtsausdrücken, Stimme oder Körpersprache auf emotionale Zustände schließt, fällt es unter das Verbot. Sentiment-Analyse von reinem Text (z.B. E-Mails, Chat) ist nicht betroffen.
Art. 5(1)(g): Biometrische Kategorisierung nach sensiblen Merkmalen
Was ist verboten: Biometrische Kategorisierung, die sensitive Attribute (Rasse, politische Überzeugungen, religiöse Zugehörigkeit, sexuelle Orientierung) ableiten oder erschließen soll.
Praktische Beispiele: - KI, die aus Gesichtsbildern "politische Einstellung" ableiten will - Systeme, die sexuelle Orientierung aus Fotos vorhersagen - Algorithmen, die religiöse Zugehörigkeit aus biometrischen Merkmalen schließen
Wichtig: Es geht nicht um Systeme, die diese Attribute nutzen (wenn sie bekannt und rechtmäßig erhoben wurden), sondern um Systeme, die diese Attribute aus biometrischen Daten ableiten wollen.
Warum ist das verboten? Diese Systeme basieren auf pseudowissenschaftlichen Annahmen und führen zu Diskriminierung. Es gibt keine verlässliche biometrische Grundlage für solche Ableitungen.
Art. 5(1)(h): Echtzeit-Fernidentifizierung im öffentlichen Raum durch Strafverfolgung
Was ist verboten: Einsatz von Echtzeit-Biometrie (z.B. Live-Gesichtserkennung) im öffentlichen Raum durch oder für Strafverfolgungsbehörden, mit engen Ausnahmen.
Praktische Beispiele (grundsätzlich verboten): - Live-Gesichtserkennung auf Demonstrationen - Permanente Überwachung von Bahnhöfen mit automatischer Identifikation - "Predictive Policing" durch Echtzeiterfassung von Personen
Erlaubte Ausnahmen nach Art. 5(2) - nur unter strengen Bedingungen: - Gezielte Suche nach vermissten Kindern oder entführten Personen - Abwehr konkreter terroristischer Bedrohung - Suche nach Verdächtigen schwerer Straftaten (Mord, Terrorismus, schwere Gewaltkriminalität)
Voraussetzungen für Ausnahmen: - Vorherige gerichtliche oder behördliche Genehmigung (außer in Eilfällen) - Verhältnismäßigkeitsprüfung - Beschränkung auf notwendiges Maß - Nachträgliche Prüfung bei Eilfällen
Sanktionen: Bis zu 35 Millionen Euro oder 7% des Umsatzes
Die Verbote aus Artikel 5 sind die schwerste Pflichtverletzung im AI Act. Verstöße werden mit bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes geahndet, je nachdem, was höher ist.
Diese Sanktionen gelten seit dem 2. Februar 2025. Aufsichtsbehörden in den EU-Mitgliedstaaten sind bereits aktiv. Unternehmen können sich nicht darauf berufen, die Regeln noch nicht zu kennen.
Was Unternehmen jetzt tun müssen
1. Bestandsaufnahme: Welche KI-Systeme setzen Sie ein?
Erfassen Sie alle KI-Systeme, die Sie: - Selbst entwickelt haben - Von Dritten eingekauft haben (SaaS, Software-Lizenzen, APIs) - Im Rahmen von Pilotprojekten testen
Besonders kritisch: - HR-Tools (Recruiting, Performance-Bewertung, Mitarbeiter-Monitoring) - Kundenbewertungssysteme (Scoring, Risikobewertung) - Biometrische Systeme (Zutrittskontrolle, Zeiterfassung, Videoüberwachung) - Marketing-Automation (personalisierte Werbung, Preisgestaltung)
2. Prüfung: Fallen Systeme unter die Verbote?
Stellen Sie für jedes System die Fragen: - Analysiert es Emotionen am Arbeitsplatz oder in Bildungseinrichtungen? (Art. 5(1)(f)) - Nutzt es biometrische Daten, um sensitive Merkmale abzuleiten? (Art. 5(1)(g)) - Scraped es Gesichtsbilder aus öffentlichen Quellen? (Art. 5(1)(e)) - Manipuliert es Verhalten auf unterschwellige Weise? (Art. 5(1)(a)) - Nutzt es Schwächen von Schutzbedürftigen aus? (Art. 5(1)(b))
3. Handeln: Systeme anpassen oder abschalten
Wenn ein System unter ein Verbot fällt: - Sofort abschalten, wenn keine Ausnahme greift - Keine "Übergangsphase" oder "Auslaufzeit" - die Verbote gelten bereits - Prüfen, ob Funktionen entfernt werden können (z.B. Emotionserkennung aus Recruiting-Tool entfernen) - Alternative Systeme evaluieren, die ohne verbotene Funktionen auskommen
4. Dokumentation und Schulung
- Dokumentieren Sie Ihre Prüfung und Entscheidungen
- Schulen Sie Mitarbeitende, die KI-Systeme beschaffen oder entwickeln
- Etablieren Sie einen Prozess für die Bewertung neuer KI-Systeme vor der Einführung
Häufige Missverständnisse
"Wir nutzen die Emotionserkennung nur intern, nicht für Entscheidungen." → Irrelevant. Der Einsatz selbst ist verboten, unabhängig davon, wie die Ergebnisse verwendet werden.
"Unser Anbieter sagt, das System ist DSGVO-konform." → DSGVO-Konformität bedeutet nicht AI-Act-Konformität. Es sind zwei verschiedene Regelwerke.
"Wir anonymisieren die Daten." → Anonymisierung schützt nicht vor dem Verbot. Ein System, das anonymisierte Gesichtsbilder aus dem Web scraped, bleibt verboten.
"Das ist doch nur ein Pilotprojekt." → Die Verbote gelten auch für Tests und Pilotprojekte. Es gibt keine Sandbox-Ausnahme für Artikel 5.
"Unser System macht Sentiment-Analyse, keine Emotionserkennung." → Prüfen Sie genau: Analysiert das System nur Textinhalte (erlaubt) oder auch Stimme, Gesichtsausdrücke, Körpersprache (verboten am Arbeitsplatz/Bildung)?
Unterschied zu Hochrisiko-Systemen
Nicht jedes biometrische oder KI-gestützte Bewertungssystem ist verboten. Viele fallen in die Kategorie "Hochrisiko-System" (Annex III der Verordnung) und sind mit strengen Auflagen erlaubt:
- Biometrische Identifikation (außer Echtzeit im öffentlichen Raum)
- KI in kritischer Infrastruktur
- Bewertungssysteme im Personalwesen (z.B. CV-Screening ohne Emotionserkennung)
- Kreditwürdigkeitsprüfung
Hochrisiko-Systeme dürfen eingesetzt werden, müssen aber: - CE-gekennzeichnet sein - Risikomanagementsystem haben - Technische Dokumentation führen - Menschliche Aufsicht gewährleisten
Die Verbote aus Artikel 5 sind absolut - sie gelten unabhängig von Risikomanagement oder Zertifizierung.
Fazit: Jetzt handeln
Die Verbote aus Artikel 5 der EU-KI-Verordnung sind seit über einem Jahr geltendes Recht. Unternehmen, die verbotene KI-Systeme einsetzen, riskieren erhebliche Sanktionen und Reputationsschäden.
Unsere Empfehlung: 1. Bestandsaufnahme aller KI-Systeme durchführen (oder durchführen lassen) 2. Kritische Systeme (HR, Biometrie, Kundenbewertung) prioritär prüfen 3. Verbotene Systeme sofort abschalten oder anpassen 4. Beschaffungsprozesse für neue KI-Systeme etablieren, die AI-Act-Konformität prüfen
Die EU-KI-Verordnung ist komplex, aber die Verbote in Artikel 5 sind bewusst klar formuliert. Im Zweifel gilt: Lieber einmal zu viel prüfen als ein verbotenes System im Einsatz zu haben.
---
Lexbeam Software unterstützt Sie bei der AI-Act-Compliance: Von der Bestandsaufnahme über die rechtliche Bewertung bis zur Implementierung von Compliance-Prozessen. Kontaktieren Sie uns für eine Erstberatung.