Teil 3: Anfor­de­rungen an Hochrisiko-KI-Systeme

Für KI-Systeme, die als “hochri­si­ko­reich” einge­stuft werden, gelten strenge Auflagen. Die EU hat sich zum Ziel gesetzt, die Sicherheit, Ethik und Vertrau­ens­wür­digkeit dieser Systeme zu gewährleisten.

Die wichtigsten Anforderungen

  • Daten­si­cherheit und Qualität: Bei Hochrisiko-KI-Systemen ist eine verläss­liche und hochwertige Daten­basis unerlässlich. Verzer­rungen in den Daten können zu diskri­mi­nie­renden Entschei­dungen führen, was unbedingt vermieden werden muss. Unter­nehmen sind dazu verpflichtet, die Daten­quellen in regel­mä­ßigen Abständen zu überprüfen und zu validieren.
  • Trans­parenz und Erklär­barkeit: Es ist von entschei­dender Bedeutung, dass Anwender und Betroffene darüber infor­miert werden, dass sie mit einer KI inter­agieren, und dass sie die Grund­lagen der Entschei­dungs­findung des Systems verstehen. Dies ist insbe­sondere in Bereichen wie der Straf­ver­folgung oder dem Gesund­heits­wesen von entschei­dender Bedeutung, da Fehlent­schei­dungen gravie­rende Konse­quenzen haben können.
  • Mensch­liche Aufsicht: Auch bei hochent­wi­ckelten KI-Systemen muss stets sicher­ge­stellt sein, dass ein Mensch in den Entschei­dungs­prozess eingreifen kann, sofern dies erfor­derlich ist. Insbe­sondere bei hochkri­ti­schen Entschei­dungen, wie der Bewil­ligung eines Kredits oder einer medizi­ni­schen Diagnose, ist eine vollau­to­ma­tische Entschei­dungs­findung ohne mensch­liche Kontrolle nicht zulässig.
  • Zerti­fi­zierung und Audits: Hochrisiko-KI-Systeme müssen einer regel­mä­ßigen Überprüfung und Zerti­fi­zierung durch unabhängige Stellen unter­zogen werden. Die Audits dienen der Gewähr­leistung der Konfor­mität mit den geltenden Vorschriften sowie der Vermeidung von Risiken für die Gesellschaft.

Wann kommt die KI-Verordnung nicht zur Anwendung?

Die EU-KI-Verordnung schafft einen umfas­senden Rechts­rahmen für den Einsatz von Künst­licher Intel­ligenz. Aller­dings gibt es bestimmte Bereiche und Anwen­dungen, in denen sie nicht gilt. Es ist von entschei­dender Bedeutung, die Ausnahmen zu verstehen, um zu wissen, wann die regula­to­ri­schen Anfor­de­rungen gelten und wann nicht.

Ausnahmen für militä­rische Anwendungen

Die vorlie­gende Verordnung findet keine Anwendung auf KI-Systeme, die ausschließlich für militä­rische Zwecke entwi­ckelt oder einge­setzt werden. Militä­rische Anwen­dungen, wie beispiels­weise KI-Systeme zur Steuerung von militä­ri­schen Drohnen oder zur Analyse strate­gi­scher Militär­daten, unter­liegen eigenen Regulie­rungen und sind von der EU-KI-Verordnung ausgenommen.

Private und persön­liche Nutzung

Gemäß der Verordnung sind KI-Systeme, die ausschließlich für private oder persön­liche Zwecke genutzt werden, von den Anfor­de­rungen ausge­nommen. Die Verordnung findet keine Anwendung, sofern eine Privat­person zu Hause eine selbst­ent­wi­ckelte KI-Anwendung nutzt, beispiels­weise zur Sortierung persön­licher Fotos oder zur Optimierung des Energie­ver­brauchs im eigenen Haushalt.

Tätig­keiten außerhalb der EU

Die KI-Verordnung findet keine Anwendung auf KI-Systeme, die außerhalb der EU entwi­ckelt oder einge­setzt werden und keine Auswir­kungen auf den EU-Markt oder EU-Bürger haben. Ein in Japan ansäs­siges Unter­nehmen, das ein KI-System für den lokalen Markt entwi­ckelt und dieses weder in der EU anbietet noch verwendet, unter­liegt somit nicht der EU-KI-Verordnung.

Bestimmte öffent­liche Stellen und Aktivitäten

Tätig­keiten der EU-Organe oder der Mitglied­staaten im Rahmen der öffent­lichen Sicherheit, der Landes­ver­tei­digung oder der natio­nalen Sicherheit sind von der Verordnung ausge­nommen. Nationale Geheim­dienste, die beispiels­weise KI zur Terro­ris­mus­be­kämpfung einsetzen, unter­liegen nicht den Bestim­mungen der EU-KI-Verordnung.

Forschung und Entwicklung

Aktivi­täten im Bereich der reinen Forschung und Entwicklung, die nicht zur Markt­ein­führung eines KI-Systems führen, können von bestimmten Anfor­de­rungen der Verordnung ausge­nommen werden. Ein Forschungs­projekt an einer Univer­sität, das neue KI-Algorithmen entwi­ckelt und testet, ohne diese kommer­ziell anzubieten, unter­liegt demnach nicht den strengen Vorgaben der Verordnung.

Temporäre Nutzung zur Prüfung

Die vorüber­ge­hende Nutzung von KI-Systemen in kontrol­lierten Umgebungen zur Bewertung, Validierung oder Demons­tration ist ebenfalls nicht Gegen­stand der Verordnung, sofern keine realen Nutzer­daten betroffen sind. Bei einem internen Test eines KI-Systems mit simulierten Daten durch ein Unter­nehmen, um dessen Funktio­na­lität zu überprüfen, bevor es auf den Markt gebracht wird, finden die Anfor­de­rungen der Verordnung keine Anwendung.