1. Das risikobasierte Regulierungsmodell
Der EU AI Act (Verordnung 2024/1689) verfolgt einen innovativen Ansatz: Anstatt alle KI-Systeme gleich zu behandeln, werden die regulatorischen Anforderungen an das tatsächliche Risikopotenzial angepasst. Je höher das Risiko für Grundrechte und Sicherheit, desto strenger die Auflagen.
Die Risikopyramide
Warum risikobasiert?
Der risikobasierte Ansatz bietet mehrere Vorteile:
- Proportionalität: Kleine Unternehmen mit harmlosen KI-Anwendungen werden nicht übermäßig belastet
- Innovation: 85% der KI-Systeme fallen in die Kategorie "minimales Risiko" und können weitgehend unreguliert operieren
- Fokus: Ressourcen werden auf die kritischsten Anwendungen konzentriert
- Flexibilität: Die Kategorien können an technologische Entwicklungen angepasst werden
2. Verbotene KI-Praktiken (Art. 5)
Diese KI-Anwendungen sind in der EU vollständig verboten. Verstöße können mit Bußgeldern bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes geahndet werden.
2.1 Social Scoring durch Behörden
Systeme zur Bewertung oder Klassifizierung von Personen anhand ihres Sozialverhaltens, die zu ungerechtfertigter oder unverhältnismäßiger Benachteiligung führen, sind verboten. Dies gilt insbesondere für staatliche Sozialpunktesysteme nach chinesischem Vorbild.
Hinweis: Private Kreditscoring-Systeme sind nicht automatisch verboten, können aber unter andere Regulierungen fallen.
2.2 Biometrische Echtzeit-Fernidentifizierung
Die Nutzung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken ist grundsätzlich verboten. Es gibt jedoch eng begrenzte Ausnahmen für:
- Suche nach vermissten Personen oder Entführungsopfern
- Abwehr unmittelbarer terroristischer Bedrohungen
- Fahndung nach Verdächtigen schwerer Straftaten
Diese Ausnahmen erfordern eine richterliche Genehmigung und unterliegen strengen Verhältnismäßigkeitsprüfungen.
2.3 Manipulative KI-Systeme
Verboten sind KI-Systeme, die:
- Unterschwellige Techniken einsetzen, die das Bewusstsein umgehen
- Kognitive Schwächen aufgrund von Alter, Behinderung oder sozialer Situation ausnutzen
- Täuschende oder manipulative Techniken verwenden, um Verhalten zu beeinflussen
2.4 Emotionserkennung in sensiblen Kontexten
Der Einsatz von Emotionserkennungs-KI ist verboten:
- Am Arbeitsplatz (z.B. zur Überwachung der Mitarbeiterproduktivität)
- In Bildungseinrichtungen (z.B. zur Aufmerksamkeitsüberwachung)
Ausnahmen gelten für medizinische oder sicherheitsrelevante Zwecke.
2.5 Prädiktive Polizeiarbeit
KI-Systeme, die das Risiko einer Person, eine Straftat zu begehen, ausschließlich auf Grundlage von Profiling oder Persönlichkeitsmerkmalen vorhersagen, sind verboten. Kriminalprävention darf nicht auf KI-basierter Risikobewertung einzelner Personen beruhen.
2.6 Biometrische Kategorisierung nach sensiblen Merkmalen
Systeme, die Personen anhand biometrischer Daten nach folgenden Kategorien einordnen, sind verboten:
- Ethnische Zugehörigkeit
- Politische Meinungen
- Religiöse oder philosophische Überzeugungen
- Sexuelle Orientierung
3. Hochrisiko-KI-Systeme (Annex III)
Hochrisiko-KI-Systeme unterliegen den strengsten Anforderungen des AI Acts. Es gibt zwei Wege, wie ein System als hochriskant eingestuft wird:
Weg 1: Sicherheitskomponente (Annex I)
Das KI-System ist eine Sicherheitskomponente eines Produkts, das bereits unter EU-Harmonisierungsvorschriften fällt (z.B. Medizinprodukte, Maschinen, Spielzeug).
Weg 2: Use Case (Annex III)
Das KI-System fällt unter eine der acht Hochrisiko-Kategorien in Annex III der Verordnung.
Die 8 Hochrisiko-Kategorien (Annex III)
1. Biometrie
Biometrische Identifizierung und Kategorisierung natürlicher Personen (außer im Rahmen verbotener Praktiken)
2. Kritische Infrastruktur
Sicherheitskomponenten für Verkehr, Wasser-, Gas-, Wärme- und Stromversorgung
3. Bildung und Berufsausbildung
Zugang zu Bildung, Leistungsbewertung, Prüfungsüberwachung, Betrugerkennung bei Prüfungen
4. Beschäftigung und Personalwesen
Recruiting, Bewerbungsfilterung, Beförderungen, Kündigungsentscheidungen, Leistungsüberwachung
5. Zugang zu wesentlichen Dienstleistungen
Kreditwürdigkeitsprüfung, Versicherungsrisikobewertung, Zugang zu Sozialleistungen, Notfalldienste
6. Strafverfolgung
Lügendetektoren, Risikobewertung, Profiling, Beweisbewertung, Rückfallprognosen
7. Migration, Asyl und Grenzkontrolle
Risikobewertung, Dokumentenprüfung, Asylantragsprüfung
8. Justiz und demokratische Prozesse
Rechtsrecherche, Auslegung von Rechtsnormen, Beeinflussung von Wahlen (wenn zugänglich für Öffentlichkeit)
Anforderungen an Hochrisiko-KI
Hochrisiko-Systeme müssen umfassende Anforderungen erfüllen:
- Risikomanagementsystem (Art. 9): Kontinuierliche Risikoidentifikation und -minderung
- Datenqualität (Art. 10): Relevante, repräsentative, fehlerfreie Trainingsdaten
- Technische Dokumentation (Annex IV): Umfassende Systemdokumentation
- Aufzeichnungspflichten (Art. 12): Automatische Protokollierung
- Transparenz (Art. 13): Verständliche Gebrauchsanweisungen
- Menschliche Aufsicht (Art. 14): Möglichkeit zur menschlichen Intervention
- Genauigkeit und Robustheit (Art. 15): Zuverlässigkeit und Cybersicherheit
Ist Ihr System hochriskant?
Nutzen Sie unseren kostenlosen Risiko-Rechner für eine erste Einschätzung. In 3 Minuten wissen Sie, welche Risikoklasse für Ihr KI-System gilt.
Jetzt Risiko prüfen4. Systeme mit begrenztem Risiko (Art. 50)
KI-Systeme mit begrenztem Risiko müssen keine umfassenden technischen Anforderungen erfüllen, unterliegen aber Transparenzpflichten. Die betroffenen Personen müssen wissen, dass sie mit KI interagieren.
4.1 KI-Interaktion offenlegen
Wenn Personen mit einem KI-System interagieren, müssen sie darüber informiert werden. Dies betrifft insbesondere:
- Chatbots und virtuelle Assistenten: Nutzer müssen wissen, dass sie nicht mit einem Menschen sprechen
- Automatisierte Entscheidungssysteme: Information über KI-Beteiligung an Entscheidungen
- Sprachassistenten: Hinweis auf KI-basierte Verarbeitung
Beispiel: Ein Chatbot auf Ihrer Website muss mit einem Hinweis wie "Sie sprechen mit einem KI-Assistenten" gekennzeichnet werden.
4.2 Synthetische Inhalte kennzeichnen
Künstlich erzeugte oder manipulierte Inhalte müssen als solche gekennzeichnet werden:
- Deepfakes: Manipulierte Audio-, Video- oder Bildinhalte
- KI-generierte Bilder: Dall-E, Midjourney, Stable Diffusion
- KI-generierte Texte: Bei Veröffentlichung in bestimmten Kontexten
Ausnahmen: Künstlerische, satirische oder fiktionale Werke, bei denen die KI-Nutzung offensichtlich ist oder der Kontext sie erklärt.
4.3 Emotionserkennung transparent machen
Wenn Emotionserkennungssysteme außerhalb verbotener Kontexte eingesetzt werden, müssen betroffene Personen informiert werden. Dies gilt beispielsweise für:
- Kundenservice-Analysen
- Marketing-Forschung (mit Einwilligung)
- Medizinische Anwendungen
5. Minimales Risiko und GPAI
5.1 Minimales Risiko
Die große Mehrheit der KI-Systeme (geschätzt 85%) fällt in die Kategorie minimales Risiko. Diese Systeme unterliegen keinen spezifischen Verpflichtungen aus dem AI Act. Beispiele:
- KI-gestützte Spamfilter
- Empfehlungssysteme (Netflix, Spotify)
- Übersetzungssoftware
- Bildbearbeitung mit KI-Funktionen
- Spiele mit KI-Gegnern
Dennoch können Unternehmen freiwillige Verhaltenskodizes befolgen, um Vertrauen bei Nutzern aufzubauen.
5.2 General Purpose AI Models (GPAI)
GPAI-Modelle wie GPT-4, Claude oder Gemini bilden eine eigene Kategorie. Sie sind keine vollständigen KI-Systeme, sondern Fundamente, auf denen andere aufbauen.
GPAI-Anforderungen (Art. 53)
- Technische Dokumentation bereitstellen
- Informationen für nachgelagerte Anbieter
- Urheberrechtliche Compliance
- Zusammenfassung der Trainingsdaten veröffentlichen
GPAI-Modelle mit systemischem Risiko (Trainingsrechenleistung >10²⁵ FLOPs) unterliegen zusätzlichen Anforderungen wie Modellbewertung und Cybersicherheitsmaßnahmen.
5.3 Open Source Ausnahmen
Für Open-Source-GPAI-Modelle gelten erleichterte Anforderungen, sofern sie nicht als systemisch riskant eingestuft werden. Die Transparenzpflichten bezüglich Trainingsdaten bleiben jedoch bestehen.
6. Praktische Klassifizierung: Entscheidungsbaum
Nutzen Sie diesen Entscheidungsbaum, um Ihr KI-System einzuordnen:
Fällt Ihr System unter Art. 5 (verbotene Praktiken)?
Social Scoring, manipulative KI, Emotionserkennung am Arbeitsplatz...
→ Ja: VERBOTEN - System darf nicht betrieben werden
Ist das System eine Sicherheitskomponente (Annex I)?
Medizinprodukt, Maschine, Fahrzeug, Spielzeug...
→ Ja: HOCHRISIKO - Konformitätsbewertung erforderlich
Fällt das System unter Annex III Kategorien?
Biometrie, Beschäftigung, Bildung, kritische Infrastruktur...
→ Ja: HOCHRISIKO - Alle Anforderungen Art. 9-15 erfüllen
Interagiert das System direkt mit Personen?
Chatbot, Deepfake-Generator, Emotionserkennung...
→ Ja: BEGRENZTES RISIKO - Transparenzpflichten (Art. 50)
Keines der obigen trifft zu?
Spamfilter, Empfehlungen, Übersetzungen...
→ MINIMALES RISIKO - Keine spezifischen Pflichten
Häufige Fehler bei der Klassifizierung
- Unterschätzung: HR-Software mit KI-Bewerbungsfilter wird oft nicht als hochriskant erkannt
- Überschätzung: Nicht jede KI mit Personenbezug ist automatisch hochriskant
- Verwechslung: GPAI-Modelle selbst sind keine Hochrisiko-Systeme, aber ihre Anwendungen können es sein
- Ignorieren des Kontexts: Der Use Case entscheidet, nicht die Technologie
Unsicher bei der Klassifizierung?
Unser Risiko-Rechner führt Sie durch alle relevanten Fragen und liefert eine fundierte Ersteinschätzung mit Handlungsempfehlungen.
Kostenlose Risikoanalyse starten7. Häufige Fragen (FAQ)
Ist ChatGPT ein Hochrisiko-KI-System?
ChatGPT selbst ist kein Hochrisiko-System, sondern ein General Purpose AI Model (GPAI). Die Risikoklassifizierung hängt vom konkreten Einsatzzweck ab. Wird ChatGPT für Bewerbungsscreenings oder medizinische Diagnosen verwendet, kann die Anwendung hochriskant sein. Der Betreiber muss den Use Case klassifizieren.
Was passiert bei falscher Risikoklassifizierung?
Eine falsche Klassifizierung kann erhebliche Konsequenzen haben:
- Verstöße gegen verbotene Praktiken: Bis zu 35 Mio. € oder 7% des weltweiten Jahresumsatzes
- Verstöße gegen Hochrisiko-Anforderungen: Bis zu 15 Mio. € oder 3% des Umsatzes
- Falsche Angaben gegenüber Behörden: Bis zu 7,5 Mio. € oder 1% des Umsatzes
Wie klassifiziere ich mein KI-System richtig?
Prüfen Sie systematisch:
- Fällt das System unter Art. 5 (verbotene Praktiken)?
- Ist es eine Sicherheitskomponente (Annex I)?
- Fällt es unter eine Annex III Kategorie?
- Gelten Art. 50 Transparenzpflichten?
- Wenn nein: minimales Risiko
Nutzen Sie unseren Risiko-Rechner für eine kostenlose Ersteinschätzung.
Welche KI-Anwendungen sind in der EU verboten?
Verboten sind unter anderem:
- Social Scoring durch Behörden
- Biometrische Echtzeit-Fernidentifizierung im öffentlichen Raum (mit Ausnahmen)
- Manipulative KI, die kognitive Schwächen ausnutzt
- Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen
- Prädiktive Polizeiarbeit basierend auf Persönlichkeitsprofilen
Was ist der Unterschied zwischen Hochrisiko und begrenztem Risiko?
Hochrisiko-Systeme (z.B. für Beschäftigung, Bildung, kritische Infrastruktur) müssen umfassende technische und organisatorische Anforderungen erfüllen, einschließlich Risikomanagement, Dokumentation und Konformitätsbewertung.
Systeme mit begrenztem Risiko (z.B. Chatbots, Deepfake-Generatoren) müssen lediglich Transparenzpflichten erfüllen - Nutzer müssen wissen, dass sie mit KI interagieren.
Fazit: Klassifizierung als erster Schritt zur Compliance
Die korrekte Risikoklassifizierung ist der entscheidende erste Schritt auf dem Weg zur EU AI Act Compliance. Sie bestimmt, welche Anforderungen für Ihr KI-System gelten und welche Maßnahmen Sie ergreifen müssen.
Mit den in diesem Artikel vorgestellten Kriterien und dem Entscheidungsbaum können Sie eine fundierte Ersteinschätzung vornehmen. Für komplexe Fälle empfiehlt sich eine detaillierte Analyse unter Berücksichtigung aller Einsatzszenarien.