Der AI-Act der Europäischen Union (EU) legt fest, dass Künstliche Intelligenz (KI)-Systeme, die in der EU verwendet werden, bestimmte Anforderungen erfüllen müssen, um sicherzustellen, dass sie sicher und vertrauenswürdig sind. Eine zentrale Komponente dieser Anforderungen ist die CE-Konformitätsprüfung.
CE-Konformitätsprüfung
CE-Konformitätsprüfungen sind Verfahren, die sicherstellen, dass Produkte, einschließlich KI-Systeme, den geltenden EU-Richtlinien und -Normen entsprechen. Diese Prüfungen sind notwendig, um das CE-Kennzeichen zu erhalten, welches signalisiert, dass das Produkt den EU-Sicherheits-, Gesundheits- und Umweltanforderungen entspricht.
Hauptpunkte des AI-Acts zur CE-Konformitätsprüfung
1. Risikoeinstufung
Der AI-Act kategorisiert KI-Systeme in verschiedene Risikostufen, z.B. niedrig, mittel und hoch. Für hochriskante KI-Systeme sind umfassendere CE-Konformitätsprüfungen erforderlich. Diese Risikoeinstufung basiert auf dem potenziellen Schaden, den das System verursachen könnte, und der Wahrscheinlichkeit, dass dieser Schaden eintritt (Artikel 6).
2. Sicherheits- und Compliance-Anforderungen
Hersteller von KI-Systemen müssen nachweisen, dass ihre Systeme sicher sind und den rechtlichen Vorgaben entsprechen. Dazu gehören Anforderungen an Transparenz, Genauigkeit, Robustheit und Datenschutz. Diese Anforderungen sind besonders streng für hochriskante KI-Systeme, um sicherzustellen, dass sie keine unzulässigen Risiken für die Gesundheit, Sicherheit oder Grundrechte der Menschen darstellen (Artikel 9).
3. Selbstprüfung und externe Überprüfung
- Selbstprüfung: Für KI-Systeme, die als niedriges oder mittleres Risiko eingestuft sind, kann der Hersteller die CE-Konformitätsprüfung selbst durchführen. Das bedeutet, dass der Hersteller selbst überprüft, ob alle relevanten Anforderungen erfüllt sind, und die entsprechende Dokumentation erstellt (Artikel 19).
- Externe Überprüfung: Hochriskante KI-Systeme müssen von unabhängigen, externen Stellen (benannte Stellen) geprüft werden. Diese externen Prüfungen stellen sicher, dass die Systeme die erforderlichen Standards erfüllen. Eine externe Überprüfung ist notwendig, um ein höheres Maß an Sicherheit und Vertrauen zu gewährleisten (Artikel 43).
4. Dokumentation und technische Unterlagen
Hersteller müssen umfangreiche technische Unterlagen erstellen, die alle Aspekte der Konformitätsprüfung dokumentieren. Dies umfasst Design, Entwicklung, Testprotokolle und Risikobewertungen des KI-Systems. Diese Dokumentation muss jederzeit verfügbar sein, um im Falle einer Überprüfung durch die zuständigen Behörden vorgelegt zu werden (Artikel 18).
5. Überwachung und Marktaufsicht
Nach der Markteinführung müssen Hersteller kontinuierlich die Leistung und Sicherheit ihrer KI-Systeme überwachen und sicherstellen, dass sie weiterhin den Anforderungen entsprechen. Nationale Aufsichtsbehörden überwachen den Markt und können bei Bedarf eingreifen. Dies stellt sicher, dass einmal zertifizierte Systeme auch langfristig sicher und konform bleiben (Artikel 61).
Zusammenfassung
Der AI-Act stellt sicher, dass KI-Systeme in der EU sicher und vertrauenswürdig sind, indem er strenge CE-Konformitätsprüfungen vorschreibt. Während für niedrig und mittleres Risiko KI-Systeme eine Selbstprüfung ausreichend ist, müssen hochriskante Systeme von externen, unabhängigen Stellen geprüft werden. Dies schützt die Benutzer und fördert das Vertrauen in KI-Technologien. Die CE-Kennzeichnung signalisiert dabei, dass das KI-System den hohen Sicherheits-, Gesundheits- und Umweltstandards der EU entspricht.
- Entwicklung der Robotik weltweit - November 22, 2024
- Zukunft der Robotik: Einfluss des Data Act auf Innovation und rechtliche Rahmenbedingungen - Oktober 4, 2024
- Allgemeine Überlegungen zu Robotern: Definitionen, Bewusstsein und Asimovs Gesetze - August 18, 2024