AI-Act-Compliance-Checker: sinnvoller Einstieg oder gefährliche Scheinsicherheit?
Die Zahl der „AI Act Compliance Checker“ ist in kurzer Zeit explodiert. Viele dieser Tools versprechen eine schnelle Einordnung („hochrisiko ja/nein“) und eine Art To-do-Liste. Für Unternehmer klingt das attraktiv: wenig Aufwand, klare Ampel, vermeintliche Rechtssicherheit.
Genau hier liegt das Risiko. Der EU AI Act ist kein Regelwerk, das sich zuverlässig auf ein paar Multiple-Choice-Fragen reduzieren lässt. Die entscheidenden Pflichten hängen nicht nur von der Technologie ab, sondern von Rolle, Zweck, Einsatzkontext, Nutzerkreis, Datenflüssen und der konkreten Einbettung in Prozesse. Ein Tool kann helfen, die richtigen Fragen zu stellen. Es kann die juristische Bewertung und die saubere Dokumentation aber nicht ersetzen.
Warum der AI Act sich so schlecht „wegklicken“ lässt
Der AI Act arbeitet risikobasiert. Die Einstufung entscheidet darüber, ob nur wenige Transparenzpflichten greifen oder ob ein umfangreiches Compliance-Regime einzuhalten ist.
Besonders relevant ist die Hochrisiko-Logik: Hochrisiko kann sich ergeben, weil ein KI-System als Sicherheitskomponente eines Produkts fungiert bzw. selbst Produkt ist (Anknüpfung an Annex I), oder weil es in bestimmte, besonders sensible Einsatzbereiche fällt (Annex III). Maßgeblich ist dabei der beabsichtigte Verwendungszweck und der tatsächliche Einsatz im Unternehmen.
Standardisierte Checker tun sich mit genau diesen Punkten schwer, weil sie typischerweise:
- den realen Prozesskontext nicht kennen (wer nutzt das System, wofür, mit welchen Folgen?),
- die Rollenverteilung entlang der Wertschöpfungskette nur grob abfragen,
- und rechtliche Abgrenzungen in Ja/Nein-Logik pressen, obwohl der Gesetzesmechanismus kontextsensitiv ist.
Wo Compliance Checker in der Praxis typischerweise scheitern
-
Unklare Rollen: Provider oder Deployer?
Die Pflichten unterscheiden sich erheblich je nachdem, ob Sie Anbieter (provider), Betreiber/Verwender (deployer) oder etwas dazwischen sind (Importeur, Distributor, „wesentliche Änderung“). Viele Tools behandeln Unternehmen faktisch immer als „User“ – und blenden damit provider-nahe Pflichten aus, die in Projekten sehr schnell entstehen können (z. B. bei Anpassungen, Re-Branding, Integration, Zweckänderung).
-
Hochrisiko hängt am Einsatzkontext, nicht an der Modellart
Ein „gewöhnliches“ Modell kann in einem unkritischen Einsatz minimalen Pflichten unterliegen, im HR‑, Kredit‑, Bildung- oder Zugangskontext aber sehr schnell in Annex-III-Nähe rücken. Ein Checker, der nur nach „biometrisch ja/nein“ oder „automatisierte Entscheidungen ja/nein“ fragt, trifft häufig nicht den Kern: Welche Entscheidung wird vorbereitet oder beeinflusst, und welche Auswirkungen hat das?
-
Governance und Dokumentation werden unterschätzt
Viele Tools liefern ein Ergebnis, aber keine belastbare Umsetzungsarchitektur: Verantwortlichkeiten, Überwachungsprozesse, Change-Management bei Updates, Logging-Strategie, Lieferantennachweise, Eskalationswege bei Vorfällen. Gerade diese Punkte sind später entscheidend, wenn Aufsicht, Kunden oder interne Revision nachfragen.
-
Haftungs- und Vertragsrisiken werden selten mitgedacht
Der AI Act ist öffentlich-rechtlich geprägt. Unternehmerisch gefährlich wird es, wenn AI-Act-Compliance und zivilrechtliche Haftungsrisiken (z. B. Produkt- und Organisationspflichten, vertragliche Gewährleistung, Audit-Klauseln, Haftungsbegrenzungen, Indemnities) getrennt betrachtet werden. Viele Checker blenden diese zweite Ebene komplett aus.
Bußgelder und Timing: warum „später kümmern“ keine gute Strategie ist
Der Bußgeldrahmen ist erheblich. Für Verstöße gegen verbotene KI-Praktiken (Art. 5) sind bis zu 35 Mio. EUR oder 7 Prozent des weltweiten Jahresumsatzes möglich; für andere Verstöße bis zu 15 Mio. EUR oder 3 Prozent; für falsche/irreführende Angaben bis zu 7,5 Mio. EUR oder 1 Prozent (jeweils abhängig vom konkreten Tatbestand).
Zudem läuft die Umsetzung gestaffelt an. Bestimmte Regelungen gelten bereits seit dem 2. Februar 2025 (u. a. Verbote aus Art. 5). Die allgemeine Anwendung setzt später ein, und einzelne Pflichten greifen wiederum noch später, je nach Kategorie.
Für Unternehmer heißt das: Es gibt keinen einzigen „Stichtag“, an dem man einmalig abhakt. Compliance ist ein Prozess, der spätestens ab dem ersten ernsthaften KI-Einsatz strukturiert werden sollte.
Was ein Checker sinnvoll leisten kann
Ein Compliance Checker kann in der Praxis nützlich sein, wenn er richtig eingeordnet wird:
- als Scoping-Tool zu Beginn (Inventarisierung von Use-Cases und Datenflüssen),
- als Sensibilisierung für „rote Flaggen“ (Annex-III-nahe Anwendungsfälle, verbotene Praktiken),
- als Anstoß für die Dokumentation (welche Informationen fehlen für eine belastbare Einordnung?).
Das Ergebnis sollte aber als Arbeitshypothese behandelt werden, nicht als Finalentscheidung.
Typische Unternehmer-Use-Cases: wo besondere Vorsicht geboten ist
In der Beratung sehen wir regelmäßig erhöhte Risiken bei:
- HR/People Analytics, Recruiting, Leistungsbewertung und interne Disziplinarentscheidungen,
- Kredit- und Versicherungsprozessen (Scoring, Pricing, Betrugsverdacht),
- Bildung/Prüfungssystemen,
- Zugangskontrollen und Identitäts-/Biometrieanwendungen,
- Kundenservice-Systemen, die Entscheidungen „vorstrukturieren“ (z. B. Ablehnungs- oder Eskalationslogik),
- KI-Integration in Produkte, die sicherheitsrelevant sind (Maschinen, MedTech, Automotive-Zulieferung).
Hier genügt eine „Low Risk“-Ampel aus einem Tool erfahrungsgemäß nicht.
Ein praxistauglicher Fahrplan für Unternehmer
-
Use-Case-Katalog erstellen
Welche KI-Systeme sind im Einsatz oder geplant? Welche Daten werden verarbeitet? Wer trifft am Ende die Entscheidung?
-
Rollen und Lieferkette klären
Welche Anbieter sind beteiligt, welche Vertragslage besteht, welche Zusicherungen/Auditrechte brauchen Sie?
-
Vorprüfung: Verbote und Hochrisiko-Indikatoren
Art. 5 (verbotene Praktiken) als Stoppschild, Annex-III-Nähe als Frühwarnsystem.
-
Governance aufsetzen
Verantwortliche benennen, Freigabeprozesse definieren, Monitoring, Incident-Prozess, Dokumentationsstandard, Update-/Change-Prozess.
-
Umsetzung in Verträge und Prozesse übersetzen
Anforderungen an Anbieter (Nachweise, Logs, Dokumentation), interne Richtlinien, Schulung/Awareness, Prüfpfade.
-
Regelmäßige Re-Evaluierung
Systeme ändern sich durch Updates, neue Daten, neue Einsatzszenarien. Das muss organisatorisch abgebildet sein.
Kurz-Check: Wann Sie nicht mehr „tool-basiert“ entscheiden sollten
Eine juristische Bewertung ist regelmäßig angezeigt, wenn mindestens eines zutrifft:
- Einsatz in HR, Kredit/Versicherung, Bildung, Zugangskontrolle, kritischer Infrastruktur oder behördlichem Kontext,
- automatisierte oder faktisch vorgeprägte Entscheidungen mit spürbaren Auswirkungen auf Personen,
- biometrische Komponenten oder Profiling,
- KI wird in ein Produkt integriert oder als sicherheitsrelevante Komponente genutzt,
- Sie verändern ein fremdes System so, dass Zweck, Leistung oder Risikoprofil wesentlich anders sind,
- Sie müssen Kunden vertraglich Zusicherungen geben oder Audits bestehen.
Wie wir unterstützen
Unsere Beratung zielt nicht darauf, nur eine Risikoklasse „zu etikettieren“, sondern auf eine belastbare, auditfeste und unternehmerisch sinnvolle Lösung:
- rechtssichere Rollen- und Use-Case-Einordnung entlang des AI Acts,
- Hochrisiko- und Verbotsprüfung mit dokumentierter Begründung,
- Aufbau einer pragmatischen Governance (inkl. Verantwortlichkeiten, Monitoring, Change-Management),
- Vertrags- und Lieferkettenabsicherung (Anbieterpflichten, Nachweise, Haftungs- und Auditklauseln),
- Umsetzungshilfe bis zur „prüfbaren“ Dokumentation, die auch intern tragfähig ist.
Fazit
Compliance Checker sind als Startpunkt nützlich, als Endpunkt gefährlich. Wer sich auf ein Tool-Ergebnis verlässt, riskiert falsche Einordnung, fehlende Dokumentation und ein Governance-Vakuum – und damit unnötige rechtliche und wirtschaftliche Angriffsflächen.
Wenn Sie möchten, können wir auf Basis Ihrer konkreten Use-Cases in einem kurzen Erstgespräch klären, ob verbotene Praktiken oder Hochrisiko-Themen betroffen sind, welche Rolle Ihr Unternehmen einnimmt und wie viel Governance tatsächlich erforderlich ist. Danach erhalten Sie eine klare, priorisierte Roadmap, die sich im Unternehmen umsetzen lässt.

