Pillar ArticleLesezeit: 15 Minuten

KI Risikoklassifizierung nach EU AI Act

Der EU AI Act nutzt ein risikobasiertes Regulierungsmodell mit vier Stufen: Verboten, Hochrisiko, Begrenztes Risiko und Minimales Risiko. In diesem Guide erfahren Sie, wie Sie Ihr KI-System korrekt klassifizieren und welche Anforderungen für jede Stufe gelten.

1. Das risikobasierte Regulierungsmodell

Der EU AI Act (Verordnung 2024/1689) verfolgt einen innovativen Ansatz: Anstatt alle KI-Systeme gleich zu behandeln, werden die regulatorischen Anforderungen an das tatsächliche Risikopotenzial angepasst. Je höher das Risiko für Grundrechte und Sicherheit, desto strenger die Auflagen.

Die Risikopyramide

VERBOTEN
Inakzeptables Risiko - Nicht erlaubt
HOCHRISIKO
Strenge Anforderungen
BEGRENZTES RISIKO
Transparenzpflichten
MINIMALES RISIKO
Keine spezifischen Pflichten

Warum risikobasiert?

Der risikobasierte Ansatz bietet mehrere Vorteile:

  • Proportionalität: Kleine Unternehmen mit harmlosen KI-Anwendungen werden nicht übermäßig belastet
  • Innovation: 85% der KI-Systeme fallen in die Kategorie "minimales Risiko" und können weitgehend unreguliert operieren
  • Fokus: Ressourcen werden auf die kritischsten Anwendungen konzentriert
  • Flexibilität: Die Kategorien können an technologische Entwicklungen angepasst werden

2. Verbotene KI-Praktiken (Art. 5)

Diese KI-Anwendungen sind in der EU vollständig verboten. Verstöße können mit Bußgeldern bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes geahndet werden.

2.1 Social Scoring durch Behörden

Systeme zur Bewertung oder Klassifizierung von Personen anhand ihres Sozialverhaltens, die zu ungerechtfertigter oder unverhältnismäßiger Benachteiligung führen, sind verboten. Dies gilt insbesondere für staatliche Sozialpunktesysteme nach chinesischem Vorbild.

Hinweis: Private Kreditscoring-Systeme sind nicht automatisch verboten, können aber unter andere Regulierungen fallen.

2.2 Biometrische Echtzeit-Fernidentifizierung

Die Nutzung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken ist grundsätzlich verboten. Es gibt jedoch eng begrenzte Ausnahmen für:

  • Suche nach vermissten Personen oder Entführungsopfern
  • Abwehr unmittelbarer terroristischer Bedrohungen
  • Fahndung nach Verdächtigen schwerer Straftaten

Diese Ausnahmen erfordern eine richterliche Genehmigung und unterliegen strengen Verhältnismäßigkeitsprüfungen.

2.3 Manipulative KI-Systeme

Verboten sind KI-Systeme, die:

  • Unterschwellige Techniken einsetzen, die das Bewusstsein umgehen
  • Kognitive Schwächen aufgrund von Alter, Behinderung oder sozialer Situation ausnutzen
  • Täuschende oder manipulative Techniken verwenden, um Verhalten zu beeinflussen

2.4 Emotionserkennung in sensiblen Kontexten

Der Einsatz von Emotionserkennungs-KI ist verboten:

  • Am Arbeitsplatz (z.B. zur Überwachung der Mitarbeiterproduktivität)
  • In Bildungseinrichtungen (z.B. zur Aufmerksamkeitsüberwachung)

Ausnahmen gelten für medizinische oder sicherheitsrelevante Zwecke.

2.5 Prädiktive Polizeiarbeit

KI-Systeme, die das Risiko einer Person, eine Straftat zu begehen, ausschließlich auf Grundlage von Profiling oder Persönlichkeitsmerkmalen vorhersagen, sind verboten. Kriminalprävention darf nicht auf KI-basierter Risikobewertung einzelner Personen beruhen.

2.6 Biometrische Kategorisierung nach sensiblen Merkmalen

Systeme, die Personen anhand biometrischer Daten nach folgenden Kategorien einordnen, sind verboten:

  • Ethnische Zugehörigkeit
  • Politische Meinungen
  • Religiöse oder philosophische Überzeugungen
  • Sexuelle Orientierung

3. Hochrisiko-KI-Systeme (Annex III)

Hochrisiko-KI-Systeme unterliegen den strengsten Anforderungen des AI Acts. Es gibt zwei Wege, wie ein System als hochriskant eingestuft wird:

Weg 1: Sicherheitskomponente (Annex I)

Das KI-System ist eine Sicherheitskomponente eines Produkts, das bereits unter EU-Harmonisierungsvorschriften fällt (z.B. Medizinprodukte, Maschinen, Spielzeug).

Weg 2: Use Case (Annex III)

Das KI-System fällt unter eine der acht Hochrisiko-Kategorien in Annex III der Verordnung.

Die 8 Hochrisiko-Kategorien (Annex III)

1. Biometrie

Biometrische Identifizierung und Kategorisierung natürlicher Personen (außer im Rahmen verbotener Praktiken)

2. Kritische Infrastruktur

Sicherheitskomponenten für Verkehr, Wasser-, Gas-, Wärme- und Stromversorgung

3. Bildung und Berufsausbildung

Zugang zu Bildung, Leistungsbewertung, Prüfungsüberwachung, Betrugerkennung bei Prüfungen

4. Beschäftigung und Personalwesen

Recruiting, Bewerbungsfilterung, Beförderungen, Kündigungsentscheidungen, Leistungsüberwachung

5. Zugang zu wesentlichen Dienstleistungen

Kreditwürdigkeitsprüfung, Versicherungsrisikobewertung, Zugang zu Sozialleistungen, Notfalldienste

6. Strafverfolgung

Lügendetektoren, Risikobewertung, Profiling, Beweisbewertung, Rückfallprognosen

7. Migration, Asyl und Grenzkontrolle

Risikobewertung, Dokumentenprüfung, Asylantragsprüfung

8. Justiz und demokratische Prozesse

Rechtsrecherche, Auslegung von Rechtsnormen, Beeinflussung von Wahlen (wenn zugänglich für Öffentlichkeit)

Anforderungen an Hochrisiko-KI

Hochrisiko-Systeme müssen umfassende Anforderungen erfüllen:

  • Risikomanagementsystem (Art. 9): Kontinuierliche Risikoidentifikation und -minderung
  • Datenqualität (Art. 10): Relevante, repräsentative, fehlerfreie Trainingsdaten
  • Technische Dokumentation (Annex IV): Umfassende Systemdokumentation
  • Aufzeichnungspflichten (Art. 12): Automatische Protokollierung
  • Transparenz (Art. 13): Verständliche Gebrauchsanweisungen
  • Menschliche Aufsicht (Art. 14): Möglichkeit zur menschlichen Intervention
  • Genauigkeit und Robustheit (Art. 15): Zuverlässigkeit und Cybersicherheit

Ist Ihr System hochriskant?

Nutzen Sie unseren kostenlosen Risiko-Rechner für eine erste Einschätzung. In 3 Minuten wissen Sie, welche Risikoklasse für Ihr KI-System gilt.

Jetzt Risiko prüfen

4. Systeme mit begrenztem Risiko (Art. 50)

KI-Systeme mit begrenztem Risiko müssen keine umfassenden technischen Anforderungen erfüllen, unterliegen aber Transparenzpflichten. Die betroffenen Personen müssen wissen, dass sie mit KI interagieren.

4.1 KI-Interaktion offenlegen

Wenn Personen mit einem KI-System interagieren, müssen sie darüber informiert werden. Dies betrifft insbesondere:

  • Chatbots und virtuelle Assistenten: Nutzer müssen wissen, dass sie nicht mit einem Menschen sprechen
  • Automatisierte Entscheidungssysteme: Information über KI-Beteiligung an Entscheidungen
  • Sprachassistenten: Hinweis auf KI-basierte Verarbeitung

Beispiel: Ein Chatbot auf Ihrer Website muss mit einem Hinweis wie "Sie sprechen mit einem KI-Assistenten" gekennzeichnet werden.

4.2 Synthetische Inhalte kennzeichnen

Künstlich erzeugte oder manipulierte Inhalte müssen als solche gekennzeichnet werden:

  • Deepfakes: Manipulierte Audio-, Video- oder Bildinhalte
  • KI-generierte Bilder: Dall-E, Midjourney, Stable Diffusion
  • KI-generierte Texte: Bei Veröffentlichung in bestimmten Kontexten

Ausnahmen: Künstlerische, satirische oder fiktionale Werke, bei denen die KI-Nutzung offensichtlich ist oder der Kontext sie erklärt.

4.3 Emotionserkennung transparent machen

Wenn Emotionserkennungssysteme außerhalb verbotener Kontexte eingesetzt werden, müssen betroffene Personen informiert werden. Dies gilt beispielsweise für:

  • Kundenservice-Analysen
  • Marketing-Forschung (mit Einwilligung)
  • Medizinische Anwendungen

5. Minimales Risiko und GPAI

5.1 Minimales Risiko

Die große Mehrheit der KI-Systeme (geschätzt 85%) fällt in die Kategorie minimales Risiko. Diese Systeme unterliegen keinen spezifischen Verpflichtungen aus dem AI Act. Beispiele:

  • KI-gestützte Spamfilter
  • Empfehlungssysteme (Netflix, Spotify)
  • Übersetzungssoftware
  • Bildbearbeitung mit KI-Funktionen
  • Spiele mit KI-Gegnern

Dennoch können Unternehmen freiwillige Verhaltenskodizes befolgen, um Vertrauen bei Nutzern aufzubauen.

5.2 General Purpose AI Models (GPAI)

GPAI-Modelle wie GPT-4, Claude oder Gemini bilden eine eigene Kategorie. Sie sind keine vollständigen KI-Systeme, sondern Fundamente, auf denen andere aufbauen.

GPAI-Anforderungen (Art. 53)

  • Technische Dokumentation bereitstellen
  • Informationen für nachgelagerte Anbieter
  • Urheberrechtliche Compliance
  • Zusammenfassung der Trainingsdaten veröffentlichen

GPAI-Modelle mit systemischem Risiko (Trainingsrechenleistung >10²⁵ FLOPs) unterliegen zusätzlichen Anforderungen wie Modellbewertung und Cybersicherheitsmaßnahmen.

5.3 Open Source Ausnahmen

Für Open-Source-GPAI-Modelle gelten erleichterte Anforderungen, sofern sie nicht als systemisch riskant eingestuft werden. Die Transparenzpflichten bezüglich Trainingsdaten bleiben jedoch bestehen.

6. Praktische Klassifizierung: Entscheidungsbaum

Nutzen Sie diesen Entscheidungsbaum, um Ihr KI-System einzuordnen:

1

Fällt Ihr System unter Art. 5 (verbotene Praktiken)?

Social Scoring, manipulative KI, Emotionserkennung am Arbeitsplatz...

→ Ja: VERBOTEN - System darf nicht betrieben werden

2

Ist das System eine Sicherheitskomponente (Annex I)?

Medizinprodukt, Maschine, Fahrzeug, Spielzeug...

→ Ja: HOCHRISIKO - Konformitätsbewertung erforderlich

3

Fällt das System unter Annex III Kategorien?

Biometrie, Beschäftigung, Bildung, kritische Infrastruktur...

→ Ja: HOCHRISIKO - Alle Anforderungen Art. 9-15 erfüllen

4

Interagiert das System direkt mit Personen?

Chatbot, Deepfake-Generator, Emotionserkennung...

→ Ja: BEGRENZTES RISIKO - Transparenzpflichten (Art. 50)

5

Keines der obigen trifft zu?

Spamfilter, Empfehlungen, Übersetzungen...

→ MINIMALES RISIKO - Keine spezifischen Pflichten

Häufige Fehler bei der Klassifizierung

  • Unterschätzung: HR-Software mit KI-Bewerbungsfilter wird oft nicht als hochriskant erkannt
  • Überschätzung: Nicht jede KI mit Personenbezug ist automatisch hochriskant
  • Verwechslung: GPAI-Modelle selbst sind keine Hochrisiko-Systeme, aber ihre Anwendungen können es sein
  • Ignorieren des Kontexts: Der Use Case entscheidet, nicht die Technologie

Unsicher bei der Klassifizierung?

Unser Risiko-Rechner führt Sie durch alle relevanten Fragen und liefert eine fundierte Ersteinschätzung mit Handlungsempfehlungen.

Kostenlose Risikoanalyse starten

7. Häufige Fragen (FAQ)

Ist ChatGPT ein Hochrisiko-KI-System?

ChatGPT selbst ist kein Hochrisiko-System, sondern ein General Purpose AI Model (GPAI). Die Risikoklassifizierung hängt vom konkreten Einsatzzweck ab. Wird ChatGPT für Bewerbungsscreenings oder medizinische Diagnosen verwendet, kann die Anwendung hochriskant sein. Der Betreiber muss den Use Case klassifizieren.

Was passiert bei falscher Risikoklassifizierung?

Eine falsche Klassifizierung kann erhebliche Konsequenzen haben:

  • Verstöße gegen verbotene Praktiken: Bis zu 35 Mio. € oder 7% des weltweiten Jahresumsatzes
  • Verstöße gegen Hochrisiko-Anforderungen: Bis zu 15 Mio. € oder 3% des Umsatzes
  • Falsche Angaben gegenüber Behörden: Bis zu 7,5 Mio. € oder 1% des Umsatzes

Wie klassifiziere ich mein KI-System richtig?

Prüfen Sie systematisch:

  1. Fällt das System unter Art. 5 (verbotene Praktiken)?
  2. Ist es eine Sicherheitskomponente (Annex I)?
  3. Fällt es unter eine Annex III Kategorie?
  4. Gelten Art. 50 Transparenzpflichten?
  5. Wenn nein: minimales Risiko

Nutzen Sie unseren Risiko-Rechner für eine kostenlose Ersteinschätzung.

Welche KI-Anwendungen sind in der EU verboten?

Verboten sind unter anderem:

  • Social Scoring durch Behörden
  • Biometrische Echtzeit-Fernidentifizierung im öffentlichen Raum (mit Ausnahmen)
  • Manipulative KI, die kognitive Schwächen ausnutzt
  • Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen
  • Prädiktive Polizeiarbeit basierend auf Persönlichkeitsprofilen

Was ist der Unterschied zwischen Hochrisiko und begrenztem Risiko?

Hochrisiko-Systeme (z.B. für Beschäftigung, Bildung, kritische Infrastruktur) müssen umfassende technische und organisatorische Anforderungen erfüllen, einschließlich Risikomanagement, Dokumentation und Konformitätsbewertung.

Systeme mit begrenztem Risiko (z.B. Chatbots, Deepfake-Generatoren) müssen lediglich Transparenzpflichten erfüllen - Nutzer müssen wissen, dass sie mit KI interagieren.

Fazit: Klassifizierung als erster Schritt zur Compliance

Die korrekte Risikoklassifizierung ist der entscheidende erste Schritt auf dem Weg zur EU AI Act Compliance. Sie bestimmt, welche Anforderungen für Ihr KI-System gelten und welche Maßnahmen Sie ergreifen müssen.

Mit den in diesem Artikel vorgestellten Kriterien und dem Entscheidungsbaum können Sie eine fundierte Ersteinschätzung vornehmen. Für komplexe Fälle empfiehlt sich eine detaillierte Analyse unter Berücksichtigung aller Einsatzszenarien.

Weiterführende Artikel

Bereit für die KI-Klassifizierung?

Nutzen Sie unseren kostenlosen Risiko-Rechner und erhalten Sie in 3 Minuten eine fundierte Einschätzung zur Risikoklasse Ihres KI-Systems.