AI Act Compliance: Was CIOs jetzt umsetzen müssen

Der EU AI Act (Verordnung (EU) 2024/1689) ist seit dem 1. August 2024 in Kraft — das weltweit erste umfassende KI-Gesetz. Erste Verbote gelten bereits seit Februar 2025. Ab August 2026 greifen die Pflichten für Hochrisiko-KI-Systeme, die den Mittelstand am stärksten betreffen. Wer jetzt noch keine Bestandsaufnahme seiner KI-Systeme gemacht hat, arbeitet gegen die Zeit. Dieser Guide liefert den Fahrplan: von der Risikoklassifizierung bis zur konkreten Maßnahmenliste.


AI Act im Zeitraffer — was seit August 2024 gilt

Die Verordnung (EU) 2024/1689 wurde am 13. Juni 2024 verabschiedet und trat am 1. August 2024 in Kraft. Die vollständige Anwendbarkeit erfolgt stufenweise bis August 2027. Im Gegensatz zu einer EU-Richtlinie muss der AI Act nicht in nationales Recht umgesetzt werden — er gilt unmittelbar in allen EU-Mitgliedstaaten.

Die Timeline im Überblick:

Datum Was gilt?
1. August 2024 AI Act tritt in Kraft
2. Februar 2025 Verbotene KI-Praktiken werden wirksam; KI-Kompetenzpflicht (Art. 4)
2. August 2025 Regeln für GPAI-Modelle (General Purpose AI) anwendbar; Governance-Strukturen
2. August 2026 Pflichten für Hochrisiko-KI-Systeme; Transparenzpflichten
2. August 2027 Erweiterte Übergangsfristen für Hochrisiko-KI in regulierten Produkten (z. B. Medizinprodukte)

(Quelle: Verordnung (EU) 2024/1689, Art. 113; EU-Kommission, AI Act Application Timeline)

Die vier Risikoklassen und ihre Bedeutung für Unternehmens-KI

Der AI Act verfolgt einen risikobasierten Ansatz. Nicht jede KI-Anwendung ist gleich reguliert. Die Verordnung definiert vier Stufen:

1. Verbotene Praktiken (Unacceptable Risk)

Acht Praktiken sind seit dem 2. Februar 2025 verboten, darunter:

  • KI-basierte Manipulation und Täuschung, die erheblichen Schaden verursacht
  • Ausnutzung von Schwachstellen vulnerabler Gruppen (Alter, Behinderung)
  • Social Scoring durch öffentliche oder private Akteure
  • Biometrische Echtzeit-Fernidentifizierung im öffentlichen Raum für Strafverfolgungszwecke (mit engen Ausnahmen)
  • Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen
  • Ungezieltes Scraping von Internet- oder CCTV-Material für Gesichtserkennung

(Quelle: Verordnung (EU) 2024/1689, Art. 5)

2. Hochrisiko-KI-Systeme (High Risk)

KI-Systeme, die ernsthafte Risiken für Gesundheit, Sicherheit oder Grundrechte darstellen. Dazu gehören unter anderem:

  • KI in der Personalauswahl (z. B. CV-Screening, Bewerberbewertung)
  • KI für Kreditscoring und Zugang zu wesentlichen Dienstleistungen
  • KI-Sicherheitskomponenten in kritischer Infrastruktur (Energie, Verkehr)
  • KI in Bildungseinrichtungen (z. B. Prüfungsbewertung)
  • KI in der Strafverfolgung und Migrationsverwaltung
  • Biometrische Identifizierung und Kategorisierung

Die Hochrisiko-Pflichten umfassen: Risikomanagement, Datenqualität, Dokumentation, Transparenz, menschliche Aufsicht und Cybersecurity.

(Quelle: Verordnung (EU) 2024/1689, Art. 6, Anhang III)

3. Transparenzpflichten (Limited Risk)

KI-Systeme wie Chatbots müssen offenlegen, dass Nutzer mit einer Maschine interagieren. Anbieter von generativer KI müssen sicherstellen, dass KI-generierte Inhalte als solche erkennbar sind. Deepfakes und KI-generierte Texte zu öffentlichen Themen müssen klar gekennzeichnet werden.

(Quelle: Verordnung (EU) 2024/1689, Art. 50)

4. Minimales oder kein Risiko

Die große Mehrheit der KI-Systeme — Spamfilter, KI in Videospielen, Empfehlungssysteme — fällt in diese Kategorie. Für sie gibt es keine spezifischen Pflichten unter dem AI Act.


Bestandsaufnahme: Welche KI-Systeme haben Sie im Einsatz?

Inventarisierung — von Chatbots bis Predictive Maintenance

Die erste und wichtigste Maßnahme: Erstellen Sie ein KI-Register. Viele Unternehmen wissen nicht, wie viele KI-Systeme sie tatsächlich im Einsatz haben. Das umfasst nicht nur die offensichtlichen Anwendungen (Chatbots, Textgenerierung), sondern auch eingebettete KI in bestehenden Softwareprodukten.

Checkliste für die Inventarisierung:

  • ERP-Systeme mit KI-Funktionen (Prognosen, Anomalieerkennung)
  • CRM mit KI-basiertem Lead Scoring oder Empfehlungen
  • HR-Software mit automatisierter Vorauswahl
  • Marketing-Tools mit KI-gestützter Personalisierung
  • Produktions-Software mit Predictive Maintenance
  • Chatbots und virtuelle Assistenten (intern und extern)
  • Generative KI-Tools (ChatGPT, Copilot, Gemini) im individuellen oder unternehmensweiten Einsatz

Einstufung nach Risikoklasse — Entscheidungsbaum

Für jedes inventarisierte System stellen Sie drei Fragen:

Frage 1: Fällt das System unter eine der acht verbotenen Praktiken (Art. 5)? → Ja: Sofort abschalten. → Nein: Weiter zu Frage 2.

Frage 2: Ist das System in einem der Hochrisiko-Bereiche aus Anhang III eingesetzt (HR, Kreditscoring, kritische Infrastruktur, Bildung, Strafverfolgung, Migration)? → Ja: Hochrisiko. Volle Pflichten ab August 2026. → Nein: Weiter zu Frage 3.

Frage 3: Interagiert das System direkt mit Nutzern (Chatbot, generierte Inhalte, Deepfake-Erkennung)? → Ja: Transparenzpflichten ab August 2026. → Nein: Minimales Risiko. Keine spezifischen AI-Act-Pflichten.

💡 Tipp: Dokumentieren Sie die Einstufung jedes Systems schriftlich. Bei einer Prüfung durch die Aufsichtsbehörde müssen Sie nachweisen können, warum ein System in welche Risikoklasse fällt.


Die fünf Pflichten, die den Mittelstand am härtesten treffen

Pflicht 1 — Dokumentationspflichten

Für Hochrisiko-KI-Systeme verlangt der AI Act eine umfassende technische Dokumentation (Art. 11). Diese muss vor dem Inverkehrbringen erstellt werden und umfasst:

  • Allgemeine Beschreibung des KI-Systems und seiner Zweckbestimmung
  • Detaillierte Beschreibung der Entwicklung, einschließlich Trainingsmethodik
  • Informationen zu den verwendeten Daten (Trainings-, Validierungs- und Testdaten)
  • Risikobewertung und ergriffene Risikominderungsmaßnahmen
  • Beschreibung der menschlichen Aufsichtsmechanismen
  • Angaben zur erwarteten Leistungsfähigkeit und bekannten Einschränkungen

Für Betreiber (Deployer) — also Unternehmen, die Hochrisiko-KI-Systeme einsetzen, ohne sie selbst zu entwickeln — gelten reduzierte, aber dennoch relevante Pflichten: Sie müssen die Nutzung dokumentieren, den bestimmungsgemäßen Gebrauch sicherstellen und die Ergebnisse überwachen (Art. 26).

In der Praxis bedeutet das: Wenn Sie ein KI-basiertes HR-Tool eines Drittanbieters einsetzen, sind Sie als Betreiber mitverantwortlich dafür, dass es korrekt verwendet wird. Sie müssen sicherstellen, dass die Eingabedaten relevant und ausreichend repräsentativ sind, dass die Ergebnisse von qualifiziertem Personal überwacht werden und dass betroffene Personen über die KI-gestützte Entscheidungsfindung informiert sind.

Pflicht 2 — Transparenzpflichten gegenüber Nutzern

Betreiber von Hochrisiko-KI-Systemen müssen betroffene Personen darüber informieren, dass sie einer KI-gestützten Entscheidungsfindung unterliegen (Art. 26 Abs. 11). Betreiber von KI-Systemen mit Transparenzpflichten (Chatbots, Generative KI) müssen offenlegen, dass eine Interaktion mit KI stattfindet (Art. 50).

Konkret: Wenn Ihr Unternehmen einen Chatbot im Kundenservice einsetzt, muss der Nutzer wissen, dass er mit einer Maschine kommuniziert. Wenn Sie KI-generierte Texte oder Bilder veröffentlichen, müssen diese gekennzeichnet sein. Deepfakes — also KI-generierte Bilder, Audio- oder Videoinhalte, die reale Personen oder Ereignisse darstellen — müssen klar und sichtbar als künstlich erzeugt markiert werden.

Für die Umsetzung empfiehlt sich ein gestaffelter Ansatz: Identifizieren Sie alle Touchpoints, an denen Kunden oder Mitarbeitende mit KI-Systemen interagieren. Implementieren Sie dann systematisch Kennzeichnungen — von einfachen Hinweisen bei Chatbots bis hin zu technischen Markierungen (Watermarking, Metadaten) bei generierten Inhalten. Die EU-Kommission arbeitet an einem Code of Practice zur Kennzeichnung KI-generierter Inhalte, der im zweiten Quartal 2026 veröffentlicht werden soll.

Pflicht 3 — Risikomanagement-System aufsetzen

Anbieter von Hochrisiko-KI-Systemen müssen ein Risikomanagement-System etablieren (Art. 9), das den gesamten Lebenszyklus des Systems abdeckt. Es umfasst:

  • Identifizierung und Analyse bekannter und vorhersehbarer Risiken
  • Schätzung und Bewertung der Risiken bei bestimmungsgemäßer und vorhersehbar missbräuchlicher Nutzung
  • Ergreifen geeigneter Risikomanagementmaßnahmen
  • Regelmäßige Aktualisierung der Risikobewertung

Für Betreiber bedeutet das: Sie müssen die vom Anbieter bereitgestellte Risikobewertung verstehen und durch eigene Maßnahmen ergänzen, die den spezifischen Einsatzkontext berücksichtigen.

Pflicht 4 — Datenqualitäts-Anforderungen

Artikel 10 der Verordnung definiert klare Anforderungen an die Datenqualität für Trainings-, Validierungs- und Testdaten von Hochrisiko-KI-Systemen:

  • Datensätze müssen relevant, hinreichend repräsentativ und möglichst fehlerfrei sein
  • Sie müssen geeignete statistische Eigenschaften aufweisen
  • Mögliche Verzerrungen (Bias) müssen identifiziert und adressiert werden

Diese Anforderung betrifft nicht nur KI-Anbieter, sondern auch Betreiber, die Modelle mit eigenen Daten feinabstimmen. Mehr dazu in unserem Guide zur Datenqualität als KI-Fundament.

Pflicht 5 — Meldepflichten bei schwerwiegenden Vorfällen

Anbieter und unter bestimmten Umständen Betreiber von Hochrisiko-KI-Systemen müssen schwerwiegende Vorfälle melden (Art. 73). Ein schwerwiegender Vorfall liegt vor, wenn das KI-System den Tod oder eine schwere Gesundheitsschädigung einer Person verursacht hat oder dazu beigetragen hat, oder wenn eine schwerwiegende Verletzung von Grundrechten vorliegt.

Die Meldung muss unverzüglich an die zuständige Marktüberwachungsbehörde erfolgen — spätestens innerhalb von 15 Tagen nach Kenntnisnahme.

General Purpose AI (GPAI) — was Nutzer von Basismodellen wissen müssen

Seit dem 2. August 2025 gelten spezifische Regeln für Anbieter von GPAI-Modellen wie GPT, Claude oder Gemini. Für Unternehmen, die diese Modelle nutzen (nicht entwickeln), sind folgende Punkte relevant:

  • Transparenz-Dokumentation: GPAI-Anbieter müssen eine öffentliche Zusammenfassung der Trainingsdaten bereitstellen. Prüfen Sie, ob Ihre Anbieter diese Pflicht erfüllen.
  • Copyright-Compliance: GPAI-Modelle müssen eine Opt-out-Möglichkeit für Rechteinhaber bieten. Wenn Sie GPAI-Modelle für kommerzielle Inhalteerstellung nutzen, klären Sie die urheberrechtliche Situation.
  • Systemisches Risiko: GPAI-Modelle mit besonders hoher Leistungsfähigkeit oder weiter Verbreitung unterliegen zusätzlichen Sicherheitspflichten. Als Nutzer sollten Sie sich über den Compliance-Status Ihrer Modell-Anbieter informieren.

Im Juli 2025 hat die EU-Kommission drei Instrumente zur Unterstützung der GPAI-Compliance veröffentlicht: Guidelines zum Anwendungsbereich, einen GPAI Code of Practice und ein Template für die Zusammenfassung der Trainingsdaten. Diese Dokumente geben Ihnen als Betreiber Orientierung, welche Informationen Sie von Ihren Anbietern einfordern sollten.


AI Act und bestehende Compliance verbinden — DSGVO, NIS2, AI Act

Der AI Act steht nicht isoliert. Er ergänzt bestehende Regulierung und schafft Überschneidungen, die Sie systematisch managen müssen.

DSGVO und AI Act:

  • Die DSGVO regelt die Verarbeitung personenbezogener Daten — auch durch KI-Systeme. Der AI Act ersetzt die DSGVO nicht, sondern ergänzt sie.
  • Automatisierte Einzelentscheidungen (Art. 22 DSGVO) und die Pflichten des AI Act für Hochrisiko-Systeme laufen in vielen Fällen parallel.
  • Datenschutz-Folgenabschätzungen (DSFA) und AI-Act-Risikobewertungen können — und sollten — integriert durchgeführt werden.

NIS2 und AI Act:

  • Die NIS2-Richtlinie fordert Risikomanagement für Netz- und Informationssysteme. KI-Systeme sind Teil dieser Infrastruktur.
  • Cybersecurity-Anforderungen an Hochrisiko-KI-Systeme (Art. 15 AI Act) überschneiden sich mit NIS2-Pflichten.
  • Ein integriertes Risikomanagement, das AI Act, NIS2 und DSGVO gemeinsam abdeckt, reduziert den Aufwand deutlich.

Empfehlung: Etablieren Sie ein gemeinsames Compliance-Framework, das alle drei Regulierungen abdeckt. Das spart nicht nur Aufwand — es verhindert auch widersprüchliche Maßnahmen. In der Praxis bedeutet das: Ein einziges Risikomanagement-System, das KI-Risiken (AI Act), Datenverarbeitungsrisiken (DSGVO) und Cybersicherheitsrisiken (NIS2) integriert behandelt. Drei separate Compliance-Silos wären nicht nur ineffizient — sie erhöhen auch das Risiko, dass Schnittstellen übersehen werden.

Regulierung Fokus Hauptpflicht Zuständige Behörde
AI Act KI-Systeme Risikobewertung, Dokumentation, Transparenz Nationale Marktüberwachungsbehörde
DSGVO Personenbezogene Daten Datenschutz-Folgenabschätzung, Betroffenenrechte Datenschutzaufsichtsbehörde
NIS2 Netz- und Informationssicherheit Risikomanagement, Incident Response BSI (in Deutschland)

Bußgelder und Sanktionen — was droht bei Verstößen

Der AI Act sieht abgestufte Bußgelder vor, die sich am Jahresumsatz orientieren (Art. 99):

Verstoß Maximales Bußgeld
Verstoß gegen verbotene KI-Praktiken (Art. 5) Bis zu 35 Mio. Euro oder 7 % des weltweiten Jahresumsatzes (je nachdem, welcher Betrag höher ist)
Verstoß gegen Hochrisiko-Pflichten und andere Bestimmungen Bis zu 15 Mio. Euro oder 3 % des weltweiten Jahresumsatzes
Bereitstellung unrichtiger Informationen an Behörden Bis zu 7,5 Mio. Euro oder 1 % des weltweiten Jahresumsatzes

Für KMU und Startups gelten reduzierte Schwellen: Die Verordnung sieht vor, dass die Sanktionen verhältnismäßig sein müssen. Die konkreten Bußgeldregeln werden durch die nationalen Marktüberwachungsbehörden umgesetzt.

(Quelle: Verordnung (EU) 2024/1689, Art. 99)

⚠️ Achtung: Die Bußgeldstufen orientieren sich bewusst an der DSGVO-Systematik. Die Obergrenzen sind Maximalwerte — aber sie signalisieren, dass die EU KI-Compliance ernst nimmt.


Ihr 6-Monats-Fahrplan zur AI Act Compliance (bis August 2026)

Monat 1–2: Inventarisierung und Klassifizierung

  • KI-Register erstellen (alle Systeme, auch eingebettete KI in Standardsoftware)
  • Jedes System nach Risikoklasse einstufen
  • Quick Check: Verstoßen Systeme gegen verbotene Praktiken?

Monat 2–3: Risikobewertung und Gap-Analyse

  • Für Hochrisiko-Systeme: Risikomanagement-Anforderungen mit aktuellem Stand abgleichen
  • Dokumentationslücken identifizieren
  • Verantwortlichkeiten zuweisen (wer betreut welches System?)

Monat 3–5: Maßnahmen umsetzen

  • Dokumentation vervollständigen (technische Dokumentation, Gebrauchsanweisungen)
  • Transparenzpflichten implementieren (Kennzeichnung von Chatbots und KI-Inhalten)
  • Meldeprozess für schwerwiegende Vorfälle etablieren
  • Schulungen durchführen (Art. 4: KI-Kompetenz)

Monat 5–6: Governance und Monitoring

  • Regelmäßige Review-Zyklen definieren (vierteljährlich empfohlen)
  • Integration in bestehendes Compliance-Framework (DSGVO, NIS2)
  • Audit-Readiness herstellen

Was das für Ihre IT-Strategie bedeutet

📋 Handlungsempfehlungen

  1. Erstellen Sie sofort ein KI-Register. Inventarisieren Sie alle KI-Systeme im Unternehmen — inkl. eingebetteter KI in Standardsoftware. Ohne diese Übersicht können Sie weder Risiken bewerten noch Compliance sicherstellen.

  2. Prüfen Sie Hochrisiko-Relevanz vor allen anderen Maßnahmen. Nutzen Sie den Entscheidungsbaum aus diesem Artikel. Wenn keines Ihrer Systeme in die Hochrisiko-Kategorie fällt, sind Ihre Pflichten überschaubar — aber die Transparenzpflichten gelten trotzdem.

  3. Integrieren Sie AI-Act-Compliance in bestehende Frameworks. Nicht als Insel-Projekt, sondern als Erweiterung Ihres DSGVO- und NIS2-Compliance-Programms. Ein gemeinsames Risikomanagement spart Ressourcen.

  4. Fordern Sie Compliance-Nachweise von Ihren KI-Anbietern. Als Betreiber sind Sie mitverantwortlich. Verlangen Sie technische Dokumentation, Konformitätserklärungen und Informationen zur Risikoklassifizierung von jedem Anbieter.

  5. Schulen Sie Ihre Belegschaft — jetzt, nicht erst im August. Art. 4 verlangt KI-Kompetenz für alle Personen, die KI-Systeme betreiben oder nutzen. Das ist seit Februar 2025 Pflicht. Beginnen Sie mit der Geschäftsführung und den Fachbereichsleitern.


Quellen und weiterführende Informationen

  • Verordnung (EU) 2024/1689 — EU AI Act: Volltext auf EUR-Lex
  • EU-Kommission: AI Act Application Timeline und Guidelines zu verbotenen Praktiken: digital-strategy.ec.europa.eu
  • EU-Kommission: Guidelines on Prohibited AI Practices (Februar 2025)
  • EU-Kommission: Guidelines on the AI System Definition (Februar 2025)
  • GPAI Code of Practice (Juli 2025)