Inhaltsverzeichnis
Das Wichtigste in Kürze
- Der EU AI Act (Verordnung (EU) 2024/1689) ist das weltweit erste umfassende Gesetz zur Regulierung künstlicher Intelligenz und tritt stufenweise in Kraft.
- Das Gesetz basiert auf einem risikobasierten Ansatz mit vier Risikostufen: verbotene Praktiken, Hochrisiko-KI, KI mit begrenztem Risiko und KI mit minimalem Risiko.
- Für Hochrisiko-KI-Systeme gelten die umfangreichsten Pflichten: Risikomanagement, Datenqualität, technische Dokumentation, Transparenz und menschliche Aufsicht.
- Verstöße gegen das Verbot bestimmter KI-Praktiken können mit Bußgeldern von bis zu 35 Millionen Euro oder 7 % des Jahresumsatzes geahndet werden.
- Unternehmen sollten jetzt ihre KI-Systeme klassifizieren und Compliance-Maßnahmen einleiten.
Der EU AI Act: Ein neues Regelwerk für künstliche Intelligenz
Am 1. August 2024 ist der EU AI Act (Verordnung (EU) 2024/1689) in Kraft getreten. Mit diesem Gesetz hat die Europäische Union das weltweit erste umfassende Regelwerk für künstliche Intelligenz geschaffen. Das Ziel: Innovation fördern und gleichzeitig Grundrechte, Sicherheit und ethische Grundsätze schützen.
Der AI Act verfolgt einen risikobasierten Regulierungsansatz. Je höher das Risiko eines KI-Systems für Gesundheit, Sicherheit oder Grundrechte, desto strenger die regulatorischen Anforderungen. Dieses Prinzip ist der Schlüssel zum Verständnis des gesamten Regelwerks – und der EU AI Act Risikostufen im Besonderen.
Die Verordnung gilt unmittelbar in allen EU-Mitgliedstaaten und betrifft Anbieter, Betreiber (Deployer), Importeure und Händler von KI-Systemen, die auf dem EU-Markt bereitgestellt oder in der EU eingesetzt werden – unabhängig davon, wo der Anbieter seinen Sitz hat.
Zeitplan: Wann gelten welche Vorschriften?
Der EU AI Act tritt stufenweise in Kraft, um Unternehmen ausreichend Vorbereitungszeit zu geben:
- Ab 2. Februar 2025: Verbote bestimmter KI-Praktiken (Kapitel II) und Vorschriften zur KI-Kompetenz (Artikel 4)
- Ab 2. August 2025: Pflichten für Anbieter von General-Purpose-AI-Modellen (GPAI) und Einrichtung von Governance-Strukturen
- Ab 2. August 2026: Vollständige Anwendung aller übrigen Vorschriften, einschließlich der Pflichten für Hochrisiko-KI-Systeme
- Ab 2. August 2027: Pflichten für bestimmte Hochrisiko-KI-Systeme, die unter bestehende EU-Produktsicherheitsvorschriften fallen (Anhang I)
Die vier EU AI Act Risikostufen im Überblick
Das Herzstück des AI Act ist die Klassifizierung von KI-Systemen in vier AI Act Risikoklassen. Jede Stufe bringt unterschiedliche regulatorische Konsequenzen mit sich.
Stufe 1: Verbotene KI-Praktiken (unannehmbares Risiko)
Die höchste Risikostufe umfasst KI-Systeme, die als unvereinbar mit den Grundwerten der EU gelten. Diese Systeme sind vollständig verboten. Seit dem 2. Februar 2025 dürfen sie weder entwickelt, auf dem Markt bereitgestellt noch eingesetzt werden.
Verbotene KI-Praktiken umfassen:
- Manipulative und täuschende KI: Systeme, die unterschwellige Techniken, manipulative oder täuschende Methoden einsetzen, um das Verhalten von Personen wesentlich zu beeinflussen und ihnen dadurch erheblichen Schaden zuzufügen.
- Ausnutzung von Vulnerabilitäten: KI-Systeme, die gezielt die Schutzbedürftigkeit bestimmter Personengruppen ausnutzen – etwa aufgrund von Alter, Behinderung oder sozialer Lage.
- Social Scoring durch Behörden: KI-gestützte Bewertung oder Klassifizierung natürlicher Personen anhand ihres Sozialverhaltens, die zu ungerechtfertigter Benachteiligung führt.
- Biometrische Echtzeit-Fernidentifizierung in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken (mit eng definierten Ausnahmen für schwere Straftaten).
- Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen (außer aus medizinischen oder sicherheitsrelevanten Gründen).
- Biometrische Kategorisierung zur Ableitung sensibler Merkmale wie Rasse, politische Überzeugung, Gewerkschaftszugehörigkeit, religiöse Überzeugung oder sexuelle Orientierung.
- Ungezielte Gesichtserkennung: Aufbau von Gesichtserkennungsdatenbanken durch ungezieltes Auslesen von Bildern aus dem Internet oder Überwachungskameras.
- Prädiktive Polizeiarbeit: KI-Systeme, die ausschließlich auf Profiling basierend das Risiko einer natürlichen Person für die Begehung von Straftaten bewerten.
Sanktionen: Verstöße gegen die Verbote können mit Bußgeldern von bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes geahndet werden – je nachdem, welcher Betrag höher ist.
Stufe 2: Hochrisiko-KI-Systeme (AI Act High Risk)
Die Kategorie der AI Act High Risk Systeme ist die regulatorisch am stärksten reglementierte Kategorie für zulässige KI-Systeme. Hochrisiko-KI-Systeme unterliegen umfassenden Pflichten vor und nach dem Inverkehrbringen.
Wann gilt ein KI-System als Hochrisiko?
Ein KI-System wird als Hochrisiko eingestuft, wenn es in einem der folgenden Bereiche eingesetzt wird:
A) Sicherheitskomponenten regulierter Produkte (Anhang I):
- Maschinen und Maschinenprodukte
- Spielzeug
- Sportboote und Wassermotorräder
- Aufzüge
- Geräte für explosionsgefährdete Bereiche
- Funkanlagen
- Druckgeräte
- Medizinprodukte und In-vitro-Diagnostika
- Zivile Luftfahrt
- Kraftfahrzeuge
B) Eigenständige KI-Anwendungen in kritischen Bereichen (Anhang III):
- Biometrie: Biometrische Fernidentifizierung (nicht in Echtzeit), Emotionserkennung und biometrische Kategorisierung
- Kritische Infrastrukturen: KI als Sicherheitskomponente im Management und Betrieb von Straßenverkehr, Wasser-, Gas-, Wärme- und Stromversorgung
- Bildung und Berufsausbildung: Systeme zur Bestimmung des Zugangs zu Bildungseinrichtungen, zur Leistungsbewertung oder zur Überwachung von Prüfungen
- Beschäftigung und Personalmanagement: KI für Bewerberauswahl, Stellenausschreibungen, Leistungsbewertung und Kündigungsentscheidungen
- Zugang zu wesentlichen Dienstleistungen: Kreditwürdigkeitsbewertung, Risikobewertung bei Lebens- und Krankenversicherungen, Bewertung der Anspruchsberechtigung für Sozialleistungen
- Strafverfolgung: Risikobewertungen als Opfer, Lügendetektoren, Bewertung der Zuverlässigkeit von Beweismitteln, Profiling
- Migration und Grenzschutz: Risikobewertung, Unterstützung bei der Prüfung von Visumanträgen und Asylanträgen
- Justiz und demokratische Prozesse: KI zur Unterstützung bei der Auslegung von Sachverhalten und Rechtsvorschriften, Beeinflussung von Wahlergebnissen
Wichtige Ausnahme: Auch wenn ein KI-System in einen der genannten Bereiche fällt, gilt es nicht als Hochrisiko, wenn es keine erhebliche Gefahr für Gesundheit, Sicherheit oder Grundrechte darstellt – etwa weil es lediglich eine enge Verfahrensaufgabe erfüllt, ein früheres menschliches Handeln verbessert oder nur Muster erkennt, ohne menschliche Bewertungen zu ersetzen. Diese Ausnahme muss jedoch dokumentiert werden.
Pflichten für Anbieter von Hochrisiko-KI-Systemen
Anbieter (also die Entwickler oder Hersteller) von Hochrisiko-KI-Systemen müssen ein umfassendes Compliance-Programm umsetzen:
- Risikomanagementsystem: Ein kontinuierliches, iteratives Risikomanagementsystem über den gesamten Lebenszyklus des KI-Systems, das Risiken identifiziert, bewertet und durch geeignete Maßnahmen minimiert.
- Daten-Governance: Trainings-, Validierungs- und Testdaten müssen relevanten Qualitätskriterien entsprechen. Datensätze müssen repräsentativ, fehlerfrei und vollständig sein, um Verzerrungen (Bias) zu minimieren.
- Technische Dokumentation: Umfassende Dokumentation des Systems vor dem Inverkehrbringen, die eine Bewertung der Konformität ermöglicht.
- Protokollierung (Logging): Automatische Aufzeichnung von Ereignissen während des Betriebs zur Nachvollziehbarkeit und Auditierbarkeit.
- Transparenz: Betreibern müssen Gebrauchsanweisungen mit klaren, verständlichen Informationen bereitgestellt werden.
- Menschliche Aufsicht: Das System muss so gestaltet sein, dass eine wirksame menschliche Kontrolle möglich ist – einschließlich der Möglichkeit, das System jederzeit zu übersteuern oder abzuschalten.
- Genauigkeit, Robustheit und Cybersicherheit: Das System muss ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit aufweisen.
- Qualitätsmanagementsystem: Implementierung eines umfassenden QMS, das alle genannten Anforderungen abdeckt.
- Konformitätsbewertung: Vor dem Inverkehrbringen muss eine Konformitätsbewertung durchgeführt werden – je nach Bereich als Selbstbewertung oder durch eine benannte Stelle (Notified Body).
- CE-Kennzeichnung und EU-Konformitätserklärung: Hochrisiko-KI-Systeme müssen die CE-Kennzeichnung tragen.
- Registrierung: Registrierung in der EU-Datenbank für Hochrisiko-KI-Systeme.
Sanktionen: Verstöße gegen die Pflichten für Hochrisiko-KI können mit Bußgeldern von bis zu 15 Millionen Euro oder 3 % des Jahresumsatzes geahndet werden.
Pflichten für Betreiber (Deployer) von Hochrisiko-KI
Auch Unternehmen, die Hochrisiko-KI-Systeme einsetzen (Betreiber/Deployer), haben spezifische Pflichten:
- Einsatz des Systems gemäß der Gebrauchsanweisung des Anbieters
- Sicherstellung der menschlichen Aufsicht durch ausreichend geschultes Personal
- Überwachung des Betriebs und Meldung von Fehlfunktionen an den Anbieter
- Durchführung einer Grundrechte-Folgenabschätzung vor dem Einsatz (für bestimmte Betreiber wie öffentliche Einrichtungen, Kreditinstitute, Versicherungen)
- Aufbewahrung der vom System automatisch generierten Protokolle
Stufe 3: KI-Systeme mit begrenztem Risiko (Transparenzpflichten)
Bestimmte KI-Systeme unterliegen spezifischen Transparenzpflichten, unabhängig von ihrer Risikoeinstufung. Diese Stufe betrifft vor allem KI-Anwendungen, bei denen Nutzer wissen müssen, dass sie mit einer KI interagieren oder dass Inhalte KI-generiert sind.
Betroffene Systeme und ihre Pflichten:
- Chatbots und KI-Interaktionssysteme: Nutzer müssen darüber informiert werden, dass sie mit einem KI-System interagieren – es sei denn, dies ist aus dem Kontext offensichtlich.
- Emotionserkennung und biometrische Kategorisierung: Betroffene Personen müssen über den Einsatz solcher Systeme informiert werden.
- Deepfakes und synthetische Inhalte: KI-generierte oder manipulierte Bild-, Audio- oder Videoinhalte müssen als solche gekennzeichnet werden (maschinenlesbares Format).
- KI-generierte Texte: Wenn Texte zu Themen von öffentlichem Interesse veröffentlicht werden und KI-generiert sind, muss dies offengelegt werden (mit Ausnahmen für redaktionell überprüfte Inhalte).
Die Transparenzpflichten sollen sicherstellen, dass Menschen informierte Entscheidungen treffen können und nicht unwissentlich von KI-Systemen beeinflusst werden.
Stufe 4: KI-Systeme mit minimalem Risiko
Die große Mehrheit der heute eingesetzten KI-Systeme fällt in die Kategorie minimales Risiko. Für diese Systeme sieht der EU AI Act keine spezifischen regulatorischen Pflichten vor. Beispiele sind:
- Spam-Filter
- KI-gestützte Empfehlungssysteme (in den meisten Anwendungsfällen)
- KI in Videospielen
- Automatische Textvervollständigung
- Bildoptimierung in Kameras
- Inventarmanagement-Systeme
Unternehmen, die KI-Systeme mit minimalem Risiko einsetzen oder anbieten, werden jedoch ermutigt, freiwillige Verhaltenskodizes zu entwickeln und anzuwenden – etwa in Bezug auf Transparenz, Fairness und Nachhaltigkeit.
General-Purpose AI (GPAI): Sonderregelungen für Basismodelle
Der EU AI Act enthält zusätzlich Regelungen für KI-Modelle mit allgemeinem Verwendungszweck (General-Purpose AI Models, GPAI) – etwa große Sprachmodelle wie GPT oder Claude. Diese Modelle lassen sich keiner einzelnen Risikostufe zuordnen, da sie für vielfältige Zwecke eingesetzt werden können.
Pflichten für alle GPAI-Anbieter:
- Erstellung und Aktualisierung technischer Dokumentation
- Bereitstellung von Informationen für nachgelagerte Anbieter
- Einrichtung einer Strategie zur Einhaltung des EU-Urheberrechts
- Veröffentlichung einer Zusammenfassung der Trainingsdaten
Zusätzliche Pflichten für GPAI mit systemischem Risiko:
- Durchführung von Modellbewertungen (einschließlich Adversarial Testing)
- Bewertung und Minderung systemischer Risiken
- Meldepflichten bei schwerwiegenden Vorfällen
- Gewährleistung eines angemessenen Cybersicherheitsniveaus
Ein GPAI-Modell gilt als systemisches Risiko, wenn es über hohe Wirkungsfähigkeit verfügt – derzeit definiert durch einen Schwellenwert von 10^25 FLOPs an Rechenleistung für das Training.
Praktische Schritte zur Klassifizierung und Compliance
Schritt 1: KI-Systeme inventarisieren
Erstellen Sie ein vollständiges Inventar aller KI-Systeme, die Ihr Unternehmen entwickelt, bereitstellt oder einsetzt. Dazu gehören auch eingebettete KI-Komponenten in Drittanbieter-Software und SaaS-Lösungen.
Schritt 2: Risikostufe bestimmen
Prüfen Sie für jedes System systematisch:
- Fällt es unter die verbotenen Praktiken (Artikel 5)?
- Ist es eine Sicherheitskomponente eines regulierten Produkts (Anhang I)?
- Wird es in einem der Hochrisiko-Bereiche eingesetzt (Anhang III)?
- Unterliegt es Transparenzpflichten (Artikel 50)?
Schritt 3: Rolle bestimmen
Klären Sie Ihre Rolle im Sinne des AI Act: Sind Sie Anbieter (Provider), Betreiber (Deployer), Importeur oder Händler? Die jeweilige Rolle bestimmt den Umfang Ihrer Pflichten.
Schritt 4: Compliance-Maßnahmen ableiten
Leiten Sie auf Basis der Risikostufe und Ihrer Rolle die erforderlichen Maßnahmen ab und priorisieren Sie deren Umsetzung entsprechend der DORA-Fristen.
Plattformen wie TrustSpace unterstützen Unternehmen bei der systematischen Erfassung, Klassifizierung und Dokumentation von KI-Systemen. Durch die Integration mit bestehenden Compliance-Rahmenwerken wie ISO 27001 oder der DSGVO lassen sich Synergien nutzen und Doppelarbeit vermeiden.
Zusammenspiel mit anderen Regulierungen
Der EU AI Act steht nicht isoliert, sondern ergänzt bestehende Regelwerke:
- DSGVO: KI-Systeme, die personenbezogene Daten verarbeiten, müssen weiterhin die DSGVO einhalten. Besonders relevant sind automatisierte Einzelentscheidungen (Art. 22 DSGVO), Datenschutz-Folgenabschätzungen und die Prinzipien Privacy by Design und by Default.
- EU-Produktsicherheitsrecht: Für Hochrisiko-KI-Systeme in regulierten Produkten gelten die Anforderungen des AI Act zusätzlich zu den jeweiligen sektoralen Vorschriften.
- EU Cyber Resilience Act: Für KI-Systeme in vernetzten Produkten sind auch die Cybersicherheitsanforderungen des CRA zu beachten.
- Haftungsrichtlinien: Die KI-Haftungsrichtlinie und die neue Produkthaftungsrichtlinie schaffen ergänzende zivilrechtliche Haftungsregeln für KI-Schäden.
Fazit: EU AI Act Risikostufen als Leitplanke für verantwortungsvolle KI
Die EU AI Act Risikostufen schaffen einen klaren, proportionalen Rahmen für den Einsatz künstlicher Intelligenz in Europa. Der risikobasierte Ansatz stellt sicher, dass innovative KI-Anwendungen weiterhin möglich sind, während Systeme mit hohem Schadenspotenzial streng reguliert werden.
Für Unternehmen im DACH-Raum bedeutet dies: Handeln Sie jetzt. Die Verbote gelten bereits seit Februar 2025, die vollständigen Pflichten für Hochrisiko-KI treten im August 2026 in Kraft. Eine frühzeitige Klassifizierung Ihrer KI-Systeme und die systematische Vorbereitung auf die Compliance-Anforderungen sind entscheidend, um Bußgelder zu vermeiden und das Vertrauen von Kunden und Geschäftspartnern zu stärken.
Wer die AI Act Risikoklassen versteht und die entsprechenden Pflichten strukturiert umsetzt, verwandelt regulatorische Anforderungen in einen Wettbewerbsvorteil – als Ausweis verantwortungsvoller und transparenter KI-Nutzung.




