Alle Artikel
KI-Verordnung2. April 202612 min

Wie klassifiziere ich KI-Systeme nach der KI-Verordnung?

Praktische Anleitung zur Risikoklassifizierung Ihrer KI-Systeme nach dem EU AI Act - mit Entscheidungsbaum, Annex-III-Kategorien und konkreten Beispielen.

Die EU-KI-Verordnung ist seit August 2024 in Kraft. Ab August 2026 greifen die Pflichten für Hochrisiko-KI-Systeme. Wer jetzt noch keine Klassifizierung seiner KI-Systeme vorgenommen hat, hat ein Problem. Dieser Artikel zeigt Schritt für Schritt, wie die Einstufung funktioniert und was Sie konkret tun müssen.

Warum Klassifizierung jetzt Priorität hat

Am 2. August 2026 werden die Pflichten für Hochrisiko-KI-Systeme nach Anhang III der KI-Verordnung (Verordnung (EU) 2024/1689) wirksam. Das sind noch vier Monate. Vier Monate, um zu wissen, welche Ihrer KI-Systeme betroffen sind, welche Pflichten daraus folgen und wie Sie diese umsetzen.

Wer das für ein fernes Zukunftsthema hält, sollte sich den Sanktionsrahmen ansehen: Bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes für verbotene Praktiken. Bis zu 15 Millionen Euro oder 3% für Verstöße bei Hochrisiko-Systemen. Bis zu 7,5 Millionen Euro oder 1% für falsche Angaben gegenüber Behörden (Art. 99 KI-VO).

Das ist kein theoretisches Risiko. Die verbotenen KI-Praktiken nach Art. 5 und die Pflicht zur KI-Kompetenz nach Art. 4 gelten bereits seit dem 2. Februar 2025. Das heißt: Ein Teil der Verordnung ist schon heute durchsetzbar.

Die Klassifizierung ist der erste Schritt. Ohne sie wissen Sie nicht, ob Sie betroffen sind, welche Pflichten greifen und wo Sie Ressourcen einsetzen müssen.

Die vier Risikostufen im Überblick

Die KI-Verordnung teilt KI-Systeme in vier Risikokategorien ein. Je höher das Risiko, desto strenger die Anforderungen.

Verbotene KI-Praktiken (Art. 5)

Bestimmte KI-Anwendungen sind schlicht untersagt. Dazu gehören unter anderem:

  • Social Scoring durch Behörden oder in deren Auftrag
  • Unterschwellige Manipulation, die Schaden verursacht
  • Ausnutzung von Schutzbedürftigkeit (Alter, Behinderung)
  • Biometrische Echtzeit-Fernidentifizierung im öffentlichen Raum durch Strafverfolgungsbehörden (mit eng definierten Ausnahmen)
  • Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen (mit Ausnahmen für Sicherheitszwecke)

Diese Verbote gelten seit dem 2. Februar 2025. Hier gibt es keine Übergangsfrist mehr.

Hochrisiko-KI-Systeme (Art. 6, Anhang I und III)

Die umfangreichste Kategorie. Hochrisiko-Systeme unterliegen detaillierten Anforderungen an Risikomanagement, Datenqualität, Dokumentation, Transparenz und menschliche Aufsicht. Dazu gleich mehr im Detail.

Systeme mit begrenztem Risiko (Art. 50)

Bestimmte KI-Systeme müssen Transparenzpflichten erfüllen, ohne als Hochrisiko zu gelten. Konkret betrifft das:

  • KI-Systeme, die direkt mit Menschen interagieren (Chatbots): Nutzer müssen wissen, dass sie mit einer KI kommunizieren
  • Systeme, die synthetische Inhalte erzeugen (Deepfakes, KI-generierte Texte, Bilder, Audio): Inhalte müssen als KI-generiert gekennzeichnet werden
  • Emotionserkennungssysteme und biometrische Kategorisierung: Betroffene müssen informiert werden

Minimales Risiko

Alle übrigen KI-Systeme. Keine spezifischen Pflichten aus der KI-Verordnung, aber die allgemeinen Anforderungen an KI-Kompetenz nach Art. 4 gelten auch hier. Das betrifft zum Beispiel Spam-Filter, KI-gestützte Produktempfehlungen oder automatische Übersetzungen.

Schritt für Schritt: Ist Ihr System hochriskant?

Die Einstufung als Hochrisiko-System folgt einem klaren Prüfschema nach Art. 6 der KI-Verordnung. Zwei Wege führen zur Hochrisiko-Einstufung.

Weg 1: KI als Sicherheitskomponente in regulierten Produkten (Art. 6 Abs. 1, Anhang I)

Wenn Ihr KI-System eine Sicherheitskomponente eines Produkts ist, das unter die in Anhang I aufgelistete EU-Harmonisierungsgesetzgebung fällt, und dieses Produkt einer Konformitätsbewertung durch Dritte bedarf, dann ist das KI-System hochriskant.

Beispiele: KI-Steuerung in Medizinprodukten, KI in Aufzügen, KI-Komponenten in Maschinen. Für diese Systeme gelten die Pflichten ab dem 2. August 2027.

Für die meisten Unternehmen im Compliance- und Legal-Ops-Umfeld ist Weg 2 relevanter.

Weg 2: Eigenständige Hochrisiko-Systeme nach Anhang III (Art. 6 Abs. 2)

Anhang III listet acht Bereiche auf, in denen KI-Systeme als hochriskant eingestuft werden. Die Pflichten hierfür greifen ab dem 2. August 2026. Hier die Kategorien mit Beispielen, die Ihnen in der Praxis begegnen werden:

1. Biometrie (Anhang III Nr. 1) Biometrische Fernidentifizierung (nicht in Echtzeit), biometrische Kategorisierung nach sensiblen Merkmalen, Emotionserkennung. *Beispiel: Ihr Zutrittskontrollsystem nutzt Gesichtserkennung zur Identifikation von Mitarbeitern.*

2. Kritische Infrastruktur (Anhang III Nr. 2) KI als Sicherheitskomponente in der Verwaltung und dem Betrieb kritischer digitaler Infrastruktur, Straßenverkehr, Wasser-, Gas-, Wärme- und Stromversorgung. *Beispiel: Ein KI-System, das den Stromnetzbetrieb optimiert und Lastverteilung steuert.*

3. Bildung und Berufsausbildung (Anhang III Nr. 3) KI-Systeme, die den Zugang zu Bildung bestimmen, Lernergebnisse bewerten oder das Bildungsniveau einschätzen. *Beispiel: Ein Prüfungssystem, das Klausuren automatisch bewertet und Noten vergibt.*

4. Beschäftigung und Personalmanagement (Anhang III Nr. 4) Hier wird es für viele Unternehmen konkret. Betroffen sind KI-Systeme für: - Recruiting und Vorauswahl von Bewerbern - Entscheidungen über Beförderung, Kündigung, Aufgabenverteilung - Leistungsüberwachung und -bewertung von Mitarbeitern

*Beispiel: Ihr Recruiting-Tool, das Bewerber vorfiltert und ein Ranking erstellt. Oder das Performance-Management-System, das Mitarbeiterbewertungen aggregiert und Empfehlungen für Beförderungen ausspricht.*

5. Zugang zu wesentlichen Dienstleistungen (Anhang III Nr. 5) KI-Systeme, die die Kreditwürdigkeit natürlicher Personen bewerten, Risikobewertungen bei Lebens- und Krankenversicherungen vornehmen oder bei der Vergabe öffentlicher Sozialleistungen eingesetzt werden. *Beispiel: Ihr Scoring-Modell, das Kreditanträge von Privatkunden automatisch bewertet.*

6. Strafverfolgung (Anhang III Nr. 6) Risikobewertung für Opfer, Lügendetektoren, Bewertung der Zuverlässigkeit von Beweismitteln, Rückfallprognosen.

7. Migration, Asyl und Grenzkontrolle (Anhang III Nr. 7) Risikobewertungen, Unterstützung bei Antragsbearbeitung, Identifizierung.

8. Rechtspflege und demokratische Prozesse (Anhang III Nr. 8) KI-Systeme, die bei der Auslegung von Sachverhalten und Rechtsanwendung unterstützen oder Wahlen beeinflussen könnten.

Die Ausnahme: Art. 6 Abs. 3 - Wenn Hochrisiko doch kein Hochrisiko ist

Dieser Punkt wird in der Praxis häufig übersehen. Art. 6 Abs. 3 sieht vor, dass ein KI-System trotz Zugehörigkeit zu einem Anhang-III-Bereich nicht als hochriskant gilt, wenn es kein erhebliches Risiko für die Gesundheit, Sicherheit oder Grundrechte natürlicher Personen darstellt.

Das ist der Fall, wenn das KI-System eine der folgenden Bedingungen erfüllt:

  • Es führt eine eng begrenzte Verfahrensaufgabe durch
  • Es verbessert das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit
  • Es erkennt Entscheidungsmuster oder Abweichungen, ohne menschliche Bewertung zu ersetzen
  • Es führt eine vorbereitende Aufgabe für eine Bewertung durch, die in die Anhang-III-Anwendungsfälle fällt

Wichtig: Der Anbieter muss dokumentieren, warum die Ausnahme greift, und diese Dokumentation den zuständigen Behörden auf Anfrage vorlegen (Art. 6 Abs. 4). Es reicht nicht, sich intern auf die Ausnahme zu berufen. Die Begründung muss belastbar sein.

*Beispiel: Ein KI-System, das in der Personalabteilung lediglich Bewerbungen nach formalen Kriterien sortiert (hat der Bewerber die geforderte Qualifikation ja/nein), ohne ein Ranking oder eine Bewertung vorzunehmen, könnte unter die Ausnahme fallen. Ein Tool, das Bewerber bewertet und in eine Rangfolge bringt, fällt nicht darunter.*

Anbieter oder Betreiber - Welche Rolle haben Sie?

Die KI-Verordnung unterscheidet zwischen Anbietern (Providern) und Betreibern (Deployern). Ihre Pflichten hängen davon ab, in welche Kategorie Sie fallen.

Anbieter (Art. 3 Nr. 3)

Sie sind Anbieter, wenn Sie ein KI-System entwickeln oder entwickeln lassen und es unter Ihrem Namen in Verkehr bringen. Die Pflichten sind umfangreich:

  • Konformitätsbewertung durchführen (Art. 43)
  • Risikomanagementsystem einrichten und pflegen (Art. 9)
  • Daten-Governance sicherstellen (Art. 10)
  • Technische Dokumentation erstellen (Art. 11)
  • Automatische Protokollierung implementieren (Art. 12)
  • Transparenzpflichten erfüllen (Art. 13)
  • Menschliche Aufsicht ermöglichen (Art. 14)
  • Genauigkeit, Robustheit und Cybersicherheit gewährleisten (Art. 15)

Betreiber (Art. 3 Nr. 4)

Sie sind Betreiber, wenn Sie ein KI-System in eigener Verantwortung einsetzen. Die Pflichten sind schlanker, aber keineswegs trivial:

  • Einsatz gemäß Gebrauchsanweisung des Anbieters (Art. 26 Abs. 1)
  • Menschliche Aufsicht durch kompetentes Personal sicherstellen (Art. 26 Abs. 2)
  • Eingabedaten müssen dem Verwendungszweck entsprechen (Art. 26 Abs. 4)
  • Überwachungspflicht: Funktionsweise beobachten, bei Risiken den Anbieter informieren (Art. 26 Abs. 5)
  • Datenschutz-Folgenabschätzung durchführen, soweit relevant (Art. 26 Abs. 9)
  • Aufbewahrung der automatisch erzeugten Protokolle für mindestens sechs Monate (Art. 26 Abs. 6)

Achtung: Wenn Sie ein KI-System wesentlich verändern oder unter eigenem Namen in Verkehr bringen, werden Sie selbst zum Anbieter - mit allen damit verbundenen Pflichten (Art. 25).

Dokumentation für Hochrisiko-Systeme

Wenn Ihr System als hochriskant eingestuft wird, müssen Sie als Anbieter eine technische Dokumentation nach Art. 11 und Anhang IV erstellen. Diese umfasst unter anderem:

  • Allgemeine Beschreibung des KI-Systems und seines Verwendungszwecks
  • Detaillierte Beschreibung der Elemente und des Entwicklungsprozesses
  • Informationen über die Überwachung, Funktionsweise und Kontrolle
  • Beschreibung des Risikomanagementsystems (Art. 9)
  • Beschreibung der Daten-Governance und der Trainings-, Validierungs- und Testdaten (Art. 10)
  • Gebrauchsanweisung für Betreiber (Art. 13)
  • Beschreibung der Maßnahmen für menschliche Aufsicht (Art. 14)
  • Informationen zu Genauigkeit, Robustheit und Cybersicherheit (Art. 15)
  • Beschreibung des Qualitätsmanagementsystems (Art. 17)

Als Betreiber müssen Sie mindestens die Protokolle aufbewahren, die Gebrauchsanweisung einhalten und eine eigene Grundrechte-Folgenabschätzung durchführen (Art. 27), wenn Sie ein Hochrisiko-System einsetzen.

Praktische erste Schritte

Genug Theorie. Was sollten Sie jetzt konkret tun?

1. KI-Inventar erstellen

Erfassen Sie alle KI-Systeme in Ihrem Unternehmen. Und zwar wirklich alle - nicht nur die offensichtlichen. Denken Sie an:

  • Recruiting-Tools und HR-Analytics
  • Chatbots im Kundenservice
  • Scoring-Modelle in der Kreditvergabe
  • KI-Features in bestehender Unternehmenssoftware (CRM, ERP)
  • Automatisierte Entscheidungssysteme in der Sachbearbeitung
  • KI-basierte Überwachungs- und Sicherheitssysteme

Für jedes System dokumentieren Sie: Was tut es? Wer ist der Anbieter? Wer nutzt es intern? Welche Daten verarbeitet es? Welche Entscheidungen beeinflusst es?

2. Klassifizierung vornehmen

Prüfen Sie jedes System gegen das Schema:

  1. Fällt es unter ein Verbot nach Art. 5? Falls ja: sofort abschalten.
  2. Fällt es unter Anhang III (oder Anhang I)? Falls ja: Hochrisiko-Prüfung.
  3. Greift die Ausnahme nach Art. 6 Abs. 3? Falls ja: dokumentieren warum.
  4. Fallen Transparenzpflichten nach Art. 50 an? Falls ja: Kennzeichnung umsetzen.
  5. Keines der oben genannten: minimales Risiko, nur KI-Kompetenz nach Art. 4 sicherstellen.

3. Priorisieren

Nicht alles auf einmal. Priorisieren Sie nach:

  • Regulatorischem Risiko: Verbotene Praktiken zuerst (gelten bereits), dann Hochrisiko-Systeme
  • Geschäftlichem Risiko: Systeme, die viele Menschen betreffen oder grundrechtsrelevante Entscheidungen treffen
  • Zeitlicher Dringlichkeit: Anhang-III-Systeme vor Anhang-I-Systemen (2026 vor 2027)

4. Zuständigkeiten klären

Benennen Sie intern Verantwortliche. Die KI-Verordnung ist kein reines Compliance-Thema. Sie brauchen IT, Legal, HR, Datenschutz und die Fachabteilungen am Tisch.

Was der Digital Omnibus ändern könnte

Im Dezember 2025 hat die EU-Kommission den Entwurf einer "Digital Omnibus"-Verordnung vorgelegt. Dieser Vorschlag - und das muss klar gesagt werden: es ist ein Vorschlag, kein geltendes Recht - sieht unter anderem vor, die Anforderungen für bestimmte Hochrisiko-Systeme zu vereinfachen und einzelne Fristen anzupassen.

Der Vorschlag durchläuft derzeit das Gesetzgebungsverfahren. Es ist unklar, ob und in welcher Form er verabschiedet wird und wann er in Kraft tritt.

Meine Empfehlung: Planen Sie auf Basis des geltenden Rechts. Wenn der Digital Omnibus kommt und Erleichterungen bringt - umso besser. Aber warten Sie nicht darauf. Wer heute mit der Klassifizierung und Umsetzung beginnt, ist in jedem Szenario besser aufgestellt als derjenige, der auf eine mögliche Erleichterung spekuliert.

Fazit

Die Klassifizierung Ihrer KI-Systeme nach der KI-Verordnung ist keine akademische Übung. Sie ist die Grundlage für alles, was danach kommt: Risikomanagement, Dokumentation, Konformität.

Die gute Nachricht: Das Prüfschema ist klar strukturiert. Art. 5 prüfen, Art. 6 anwenden, Anhang III durchgehen, Ausnahmen dokumentieren, Rolle bestimmen. Das ist machbar - auch ohne externes Beratungsheer.

Die weniger gute Nachricht: August 2026 ist in vier Monaten. Fangen Sie jetzt an.

WP

Autor

Werner Plutat

Legal Engineer x AI

The Legal Engineer's Daily Brief

KI, Legal Tech & Automatisierung - 3x pro Woche.

Abonnieren

Dieses Thema betrifft Ihr Unternehmen?

Lassen Sie uns in 30 Minuten klären, wie Sie die Anforderungen konkret umsetzen - mit funktionierender Technologie statt Foliensätzen.

Erstgespräch vereinbaren