KI-Recht & Haftung ab 2025: Was Unternehmen jetzt wissen und umsetzen müssen
Der neue EU-Rechtsrahmen für Künstliche Intelligenz – verständlich erklärt und praxisnah aufbereitet
Künstliche Intelligenz (KI) hat sich in den letzten Jahren als zentrale Zukunftstechnologie etabliert. Sie verändert Geschäftsprozesse, ermöglicht völlig neue Produkte und hilft dabei, Entscheidungen datenbasiert und effizient zu treffen. Doch mit zunehmender Verbreitung wächst auch die rechtliche Komplexität. Viele Unternehmen fragen sich: Wer haftet, wenn eine KI versagt? Wie lassen sich rechtliche Risiken frühzeitig beherrschen?
Die Europäische Union hat auf diese Herausforderungen mit einem weitreichenden Gesetzespaket reagiert, das aus zwei zentralen Komponenten besteht: der KI-Verordnung (AI Act) und einer umfassenden Reform des europäischen Haftungsrechts. Für Unternehmen bedeutet dies: Die rechtlichen Spielregeln für den Einsatz von KI ändern sich grundlegend. Es ist daher entscheidend, die neuen Anforderungen zu verstehen und rechtzeitig umzusetzen.
Zwei Säulen – ein Rechtsrahmen
Der neue europäische Rechtsrahmen für Künstliche Intelligenz beruht auf zwei gesetzgeberischen Säulen, die eng miteinander verknüpft sind und sich gegenseitig ergänzen.
Die erste Säule bildet die KI-Verordnung (AI Act). Sie regelt präventiv den Einsatz, die Entwicklung und das Inverkehrbringen von KI-Systemen in der Europäischen Union. Ziel ist es, Risiken frühzeitig zu erkennen und durch geeignete Maßnahmen zu begrenzen.
Die zweite Säule besteht aus der Reform der Haftungsrichtlinien, insbesondere der neuen Produkthaftungsrichtlinie und einer spezifischen KI-Haftungsrichtlinie. Diese Vorschriften regeln, wer bei Schäden durch KI-Systeme verantwortlich ist und welche Beweisanforderungen gelten.
Beide Regelungskomplexe – also präventive Regulierung und nachgelagerte Haftungsverantwortung – greifen ineinander. Unternehmen müssen künftig nicht nur ihre technischen Prozesse anpassen, sondern auch ihre vertragliche und haftungsrechtliche Absicherung neu bewerten.
Teil 1: Die KI-Verordnung – Ihre neue Compliance-Grundlage
Risikobasierte Einstufung von KI-Systemen
Kernstück der KI-Verordnung ist ein risikobasierter Regulierungsansatz. Dabei werden KI-Systeme in vier Risikoklassen eingeteilt. Je nach Einstufung ergeben sich unterschiedliche rechtliche Verpflichtungen für Anbieter, Betreiber und Nutzer.
KI-Systeme mit einem unannehmbaren Risiko – etwa solche, die auf Social Scoring oder bewusster Manipulation beruhen – sind künftig grundsätzlich verboten. Bei sogenannten Hochrisiko-KI-Systemen, die in sensiblen Bereichen wie der medizinischen Diagnostik, dem Personalwesen oder der Kreditvergabe eingesetzt werden, gelten besonders strenge Vorgaben. Diese betreffen unter anderem das Risikomanagement, die Datenqualität, die menschliche Aufsicht, die Cybersicherheit sowie die technische und rechtliche Dokumentation. Verstöße können mit Geldbußen von bis zu 35 Millionen Euro oder bis zu 7 % des weltweiten Jahresumsatzes geahndet werden.
KI-Systeme mit begrenztem Risiko – etwa Chatbots oder Deepfakes – unterliegen in erster Linie Transparenzpflichten. Nutzer müssen erkennen können, dass sie es mit einer KI zu tun haben. Anwendungen mit minimalem Risiko, beispielsweise Spamfilter oder Empfehlungssysteme, sind von regulatorischen Pflichten weitgehend ausgenommen.
Neuer Meilenstein: GPAI-Regeln ab August 2025
Ein besonders bedeutsamer Abschnitt der Verordnung tritt am 2. August 2025 in Kraft. Ab diesem Zeitpunkt gelten spezielle Regelungen für sogenannte General Purpose AI-Modelle (GPAI) – also für große, leistungsfähige Basismodelle wie GPT‑4, Google Gemini oder Claude. Diese Modelle sind nicht auf einen bestimmten Zweck zugeschnitten, sondern können für eine Vielzahl von Anwendungen weiterentwickelt und genutzt werden.
Ab dem genannten Datum unterliegen die Anbieter dieser GPAI-Modelle umfangreichen Transparenzpflichten. Sie müssen offenlegen, wie das Modell funktioniert, auf welchen Datensätzen es trainiert wurde und welche Schutzmaßnahmen gegen Diskriminierung und Urheberrechtsverletzungen bestehen. Die technische Dokumentation, eine Zusammenfassung der Trainingsdaten sowie eine urheberrechtskonforme Beschaffungsrichtlinie werden verbindlich vorgeschrieben.
Auch wenn Ihr Unternehmen kein eigenes Basismodell entwickelt, sondern lediglich fertige KI-Dienste nutzt, sind diese Offenlegungspflichten für Sie von großem Nutzen. Sie ermöglichen eine fundierte Bewertung der eingesetzten Technologien und helfen dabei, Ihre eigenen Compliance-Pflichten zu erfüllen. So gewinnen Sie Sicherheit hinsichtlich der Zuverlässigkeit und Rechtmäßigkeit der KI-Systeme, die Sie in Ihre Geschäftsprozesse integrieren.
Wichtig ist, die Übergangsfristen zu beachten: Die neuen Pflichten gelten für neu entwickelte GPAI-Modelle ab August 2026 und für bereits bestehende Modelle ab August 2027.
Teil 2: Die neue Haftungsarchitektur – Wer haftet bei KI-Schäden?
Produkthaftung wird auf KI ausgeweitet
Mit der Reform der Produkthaftungsrichtlinie wird erstmals ausdrücklich klargestellt, dass auch Software und KI-Systeme als „Produkte“ im haftungsrechtlichen Sinne gelten. Unternehmen, die solche Systeme entwickeln oder vertreiben, werden dadurch als Hersteller im Sinne des Produkthaftungsrechts eingestuft.
Besonders hervorzuheben ist die Einführung einer Beweislastumkehr bei komplexen KI-Systemen. Künftig muss im Schadensfall nicht mehr der Geschädigte nachweisen, dass das KI-System fehlerhaft war. Vielmehr trifft den Anbieter oder Hersteller die Pflicht, die Fehlerfreiheit seines Systems nachzuweisen. Dies stellt eine erhebliche Verschärfung des Haftungsregimes dar.
Die spezielle KI-Haftungsrichtlinie
Ergänzend zur Produkthaftung führt die KI-spezifische Haftungsrichtlinie eine widerlegbare Vermutung der Kausalität ein. Dies bedeutet, dass Gerichte im Einzelfall davon ausgehen können, dass ein Schaden durch das KI-System verursacht wurde, wenn der Anbieter gerichtliche Anordnungen zur Offenlegung der relevanten technischen Informationen nicht befolgt.
Ein solches Verhalten kann nicht nur haftungsrechtliche Konsequenzen nach sich ziehen, sondern auch regulatorisch geahndet werden. Mangelnde Dokumentation oder die Weigerung zur Offenlegung können somit zu einer Art „umgekehrtem Schuldeingeständnis“ werden.
Was Unternehmen jetzt tun müssen – Praxisempfehlungen
Die Zeit des Abwartens ist vorbei. Unternehmen sollten frühzeitig aktiv werden und ihre KI-Anwendungen systematisch prüfen und steuern. Ein strukturiertes Vorgehen empfiehlt sich dabei in vier Schritten:
- Zunächst sollten sämtliche im Unternehmen eingesetzten KI-Systeme erfasst werden. Im Anschluss ist für jede Anwendung zu prüfen, in welche Risikokategorie sie gemäß der KI-Verordnung fällt. Besondere Aufmerksamkeit gilt Systemen, die potenziell als Hochrisiko-KI eingestuft werden könnten.
- Auf Grundlage der Klassifizierung sollte eine detaillierte Analyse der bestehenden Prozesse, technischen Dokumentationen und Vertragsstrukturen erfolgen. Ziel ist es, bestehende Defizite gegenüber den Anforderungen der KI-Verordnung zu identifizieren und einen konkreten Maßnahmenplan zur Behebung dieser Lücken zu erarbeiten.
- In einem nächsten Schritt sollten Unternehmen klare Verantwortlichkeiten definieren – etwa durch die Bestellung eines KI-Compliance-Officers. Interne Prozesse zur Risikoüberwachung, Datenvalidierung, technischen Dokumentation und Cybersicherheit sind einzuführen oder anzupassen. Ebenso sollten bestehende Verträge mit Geschäftspartnern überprüft und – falls erforderlich – an die neuen Haftungsrisiken angepasst werden.
- Nicht zuletzt sollte der bestehende Versicherungsschutz im Hinblick auf KI-spezifische Risiken überprüft und gegebenenfalls erweitert werden. Darüber hinaus ist es unerlässlich, die Mitarbeiter im Umgang mit KI und den rechtlichen Vorgaben zu schulen. Nur so lassen sich organisatorische Risiken wirksam kontrollieren.
Kritik und rechtspolitische Kontroverse
Die neue KI-Gesetzgebung ist nicht unumstritten. Dabei lassen sich die kritischen Stimmen grob in zwei Lager einteilen: einerseits die wirtschaftsnahe Perspektive, die vor Überregulierung warnt, und andererseits zivilgesellschaftliche Gruppen, die den Schutz von Grundrechten für unzureichend halten.
Kritik aus Sicht der Wirtschaft und Industrie
Viele Unternehmen – insbesondere Start-ups und mittelständische Anbieter – befürchten, dass die neuen Vorgaben ein innovationshemmendes Klima erzeugen könnten. Die Umsetzung der umfangreichen Compliance-Vorgaben für Hochrisiko-Systeme ist für viele KMU kaum finanzier- oder organisierbar. Die Kosten für Risikomanagement, Dokumentation, Zertifizierung und externe Prüfung könnten dazu führen, dass innovative Entwicklungen frühzeitig aufgegeben oder ins Ausland verlagert werden.
Ein weiterer zentraler Kritikpunkt betrifft die unklare Begrifflichkeit. Wirtschaftsverbände monieren, dass zentrale Definitionen wie „KI-System“, „erheblicher Schaden“ oder „Verwendungszweck“ zu weit und zu unbestimmt gefasst sind. Dadurch entsteht Rechtsunsicherheit – Unternehmen wissen oft nicht, ob sie regulatorisch betroffen sind oder nicht. Investitionsentscheidungen werden damit erschwert.
Die neue Regulierung wird zudem als bürokratisch und schwerfällig empfunden. Der Aufwand für Protokollierung, Transparenz und Auditierbarkeit bindet Ressourcen, die aus Sicht der Industrie effektiver in Forschung und Entwicklung investiert wären.
Besonders umstritten ist die Haftung für General Purpose AI-Modelle. Kritiker warnen, dass Anbieter dieser Basismodelle für potenziell unzählige Weiterverwendungen durch Dritte verantwortlich gemacht werden könnten. Dies wäre nicht nur haftungsrechtlich problematisch, sondern könnte auch zur Zurückhaltung bei der Entwicklung solcher Modelle führen.
Auch die neuen Haftungsregeln selbst werden kritisch gesehen. Die Beweislastumkehr und die Kausalitätsvermutung gelten als zu klägerfreundlich. Unternehmen fürchten eine Welle von Klagen mit schwer kalkulierbarem Prozessrisiko – insbesondere bei hochkomplexen Systemen. Die Folge könnten steigende Versicherungsprämien oder eine Zurückhaltung bei risikobehafteten Anwendungen sein.
Kritik von Bürgerrechtsorganisationen und Verbraucherschutz
Demgegenüber kritisieren zivilgesellschaftliche Akteure, dass die Verordnung an entscheidenden Stellen zu viele Ausnahmen zugunsten von Behörden und Unternehmen vorsieht – und dadurch Grundrechte nicht ausreichend schützt.
Ein besonders sensibler Punkt ist die biometrische Überwachung im öffentlichen Raum. Zwar verbietet die KI-Verordnung viele Überwachungsformen, lässt jedoch Ausnahmen für Strafverfolgungs- und Sicherheitsbehörden zu. Die Möglichkeit, etwa Gesichts- oder Emotionserkennung unter bestimmten Voraussetzungen einzusetzen, wird von vielen als Schritt in Richtung eines Überwachungsstaates gesehen.
Auch der Diskriminierungsschutz wird als unzureichend angesehen. Zwar erkennt die Verordnung das Risiko diskriminierender KI-Entscheidungen – etwa bei der Kreditvergabe oder im Personalbereich – grundsätzlich an, es fehlen jedoch zwingende Mechanismen zur Kontrolle. Besonders problematisch: Betroffene erfahren in vielen Fällen nicht einmal, dass eine KI über sie entschieden hat.
Ein weiterer Kritikpunkt betrifft die Herstellerverantwortung: Die Erstbewertung und Einstufung von Hochrisiko-KI erfolgt in vielen Fällen durch die Anbieter selbst – ohne unabhängige externe Prüfung. Dies öffnet der Gefahr von Gefälligkeitsbewertungen Tür und Tor.
Schließlich gibt es Bedenken im Bereich der Migrationskontrolle. Die Verordnung erlaubt den Einsatz von Hochrisiko-KI an den EU-Außengrenzen – etwa zur Lügenerkennung oder Risikobewertung von Geflüchteten. Menschenrechtsorganisationen sehen darin eine massive Gefahr für die Rechte schutzbedürftiger Personen.
Auch die Haftungsregeln werden aus dieser Perspektive kritisiert – jedoch aus einem anderen Grund. Zwar wird begrüßt, dass es nun eine Kausalitätsvermutung gibt, allerdings ist diese an hohe Voraussetzungen geknüpft: Erst wenn der Anbieter gerichtlichen Offenlegungsanordnungen nicht nachkommt, greift sie. Kritiker argumentieren, dass viele Geschädigte in der Praxis gar nicht die Mittel oder den Zugang zu solchen Beweisanordnungen haben.
Fazit der Kritik
Zusammenfassend lässt sich sagen, dass das EU-Regelwerk einen politischen Kompromiss darstellt, der extrem unterschiedliche Interessen auszubalancieren versucht.
Aus Sicht der Wirtschaft entsteht ein Regelwerk, das potenziell innovationsfeindlich, bürokratisch und durch unklare Rechtsbegriffe schwer handhabbar ist. Aus Sicht der Zivilgesellschaft wiederum bietet es zu viele Schlupflöcher für staatliche Überwachung und Unternehmensinteressen – und schützt die Grundrechte nicht ausreichend.
Einigkeit herrscht in einem zentralen Punkt: Die mangelnde Präzision der Begriffe und die daraus resultierende Rechtsunsicherheit gelten als eines der größten praktischen Probleme der kommenden Umsetzungsphase.
Fazit: Pflicht, Risiko – und Chance zugleich
Die neue europäische KI-Regulierung markiert einen Paradigmenwechsel. Sie schafft dringend benötigte Rechtssicherheit, erhöht jedoch gleichzeitig die Anforderungen an Unternehmen erheblich. Insbesondere die Dokumentations- und Rechenschaftspflichten stellen eine neue Dimension der Compliance dar.
Wer frühzeitig handelt und seine Systeme transparent, verantwortungsvoll und strukturiert aufsetzt, kann von der Regulierung profitieren. Die Einhaltung der neuen Vorgaben ist nicht nur eine rechtliche Pflicht, sondern wird zunehmend zu einem Wettbewerbsvorteil.
Gerne unterstützen wir Sie bei der rechtssicheren Umsetzung, bei der vertraglichen Gestaltung oder beim Aufbau Ihrer internen KI-Governance. Schreiben Sie uns an schiller@b2.legal.

