3e283aa3 1b65 4086 8e70 15ea94a8d815

CE-Kennzeichen für KI-Systeme?

Der AI-Act der Europäischen Union (EU) legt fest, dass Künstliche Intelligenz (KI)-Systeme, die in der EU verwendet werden, bestimmte Anforderungen erfüllen müssen, um sicherzustellen, dass sie sicher und vertrauenswürdig sind. Eine zentrale Komponente dieser Anforderungen ist die CE-Konformitätsprüfung.

CE-Konformitätsprüfung

CE-Konformitätsprüfungen sind Verfahren, die sicherstellen, dass Produkte, einschließlich KI-Systeme, den geltenden EU-Richtlinien und -Normen entsprechen. Diese Prüfungen sind notwendig, um das CE-Kennzeichen zu erhalten, welches signalisiert, dass das Produkt den EU-Sicherheits-, Gesundheits- und Umweltanforderungen entspricht.

Hauptpunkte des AI-Acts zur CE-Konformitätsprüfung

1. Risikoeinstufung

Der AI-Act kategorisiert KI-Systeme in verschiedene Risikostufen, z.B. niedrig, mittel und hoch. Für hochriskante KI-Systeme sind umfassendere CE-Konformitätsprüfungen erforderlich. Diese Risikoeinstufung basiert auf dem potenziellen Schaden, den das System verursachen könnte, und der Wahrscheinlichkeit, dass dieser Schaden eintritt (Artikel 6).

2. Sicherheits- und Compliance-Anforderungen

Hersteller von KI-Systemen müssen nachweisen, dass ihre Systeme sicher sind und den rechtlichen Vorgaben entsprechen. Dazu gehören Anforderungen an Transparenz, Genauigkeit, Robustheit und Datenschutz. Diese Anforderungen sind besonders streng für hochriskante KI-Systeme, um sicherzustellen, dass sie keine unzulässigen Risiken für die Gesundheit, Sicherheit oder Grundrechte der Menschen darstellen (Artikel 9).

3. Selbstprüfung und externe Überprüfung

  • Selbstprüfung: Für KI-Systeme, die als niedriges oder mittleres Risiko eingestuft sind, kann der Hersteller die CE-Konformitätsprüfung selbst durchführen. Das bedeutet, dass der Hersteller selbst überprüft, ob alle relevanten Anforderungen erfüllt sind, und die entsprechende Dokumentation erstellt (Artikel 19).
  • Externe Überprüfung: Hochriskante KI-Systeme müssen von unabhängigen, externen Stellen (benannte Stellen) geprüft werden. Diese externen Prüfungen stellen sicher, dass die Systeme die erforderlichen Standards erfüllen. Eine externe Überprüfung ist notwendig, um ein höheres Maß an Sicherheit und Vertrauen zu gewährleisten (Artikel 43).

4. Dokumentation und technische Unterlagen

Hersteller müssen umfangreiche technische Unterlagen erstellen, die alle Aspekte der Konformitätsprüfung dokumentieren. Dies umfasst Design, Entwicklung, Testprotokolle und Risikobewertungen des KI-Systems. Diese Dokumentation muss jederzeit verfügbar sein, um im Falle einer Überprüfung durch die zuständigen Behörden vorgelegt zu werden (Artikel 18).

5. Überwachung und Marktaufsicht

Nach der Markteinführung müssen Hersteller kontinuierlich die Leistung und Sicherheit ihrer KI-Systeme überwachen und sicherstellen, dass sie weiterhin den Anforderungen entsprechen. Nationale Aufsichtsbehörden überwachen den Markt und können bei Bedarf eingreifen. Dies stellt sicher, dass einmal zertifizierte Systeme auch langfristig sicher und konform bleiben (Artikel 61).

Zusammenfassung

Der AI-Act stellt sicher, dass KI-Systeme in der EU sicher und vertrauenswürdig sind, indem er strenge CE-Konformitätsprüfungen vorschreibt. Während für niedrig und mittleres Risiko KI-Systeme eine Selbstprüfung ausreichend ist, müssen hochriskante Systeme von externen, unabhängigen Stellen geprüft werden. Dies schützt die Benutzer und fördert das Vertrauen in KI-Technologien. Die CE-Kennzeichnung signalisiert dabei, dass das KI-System den hohen Sicherheits-, Gesundheits- und Umweltstandards der EU entspricht.

Rechtsanwalt Jens Ferner ist erfahrener und hochspezialisierter Fachanwalt für Strafrecht sowie Fachanwalt für IT-Recht mit über einem Jahrzehnt Berufspraxis und widmet sich ganz der Tätigkeit als Strafverteidiger und dem IT-Recht - spezialisiert auf Cybercrime, Cybersecurity, Softwarerecht und Managerhaftung. Er ist Lehrbeauftragter für IT-Compliance (FH Aachen), zertifizierter Experte für Krisenkommunikation & Cybersecurity; zudem Autor sowohl in Fachzeitschriften als auch in einem renommierten StPO-Kommentar zum IT-Strafprozessrecht sowie zur EU-Staatsanwaltschaft. Als Softwareentwickler ist er in Python zertifiziert und hat IT-Handbücher geschrieben.

Er beschäftigt sich intensiv im technologischen Bereich mit Fragen der Softwareentwicklung, KI und Robotik - nicht nur als Jurist, sondern eben auch selbst als Entwickler. In diesem Blog werden Inhalte vor allem rund um Robotik bzw. Roboterrecht und ergänzend zum Thema K geteiltI. Es werden Unternehmen im gesamten IT-Recht beraten und vertreten, dies vor allem strategisch und nicht juristisch nach "Schema F".
Rechtsanwalt Jens Ferner (Fachanwalt für IT-Recht & Strafrecht)
Letzte Artikel von Rechtsanwalt Jens Ferner (Fachanwalt für IT-Recht & Strafrecht) (Alle anzeigen)

Veröffentlicht von

noreply

Rechtsanwalt Jens Ferner (Fachanwalt für IT-Recht & Strafrecht)

Rechtsanwalt Jens Ferner ist erfahrener und hochspezialisierter Fachanwalt für Strafrecht sowie Fachanwalt für IT-Recht mit über einem Jahrzehnt Berufspraxis und widmet sich ganz der Tätigkeit als Strafverteidiger und dem IT-Recht - spezialisiert auf Cybercrime, Cybersecurity, Softwarerecht und Managerhaftung. Er ist Lehrbeauftragter für IT-Compliance (FH Aachen), zertifizierter Experte für Krisenkommunikation & Cybersecurity; zudem Autor sowohl in Fachzeitschriften als auch in einem renommierten StPO-Kommentar zum IT-Strafprozessrecht sowie zur EU-Staatsanwaltschaft. Als Softwareentwickler ist er in Python zertifiziert und hat IT-Handbücher geschrieben. Er beschäftigt sich intensiv im technologischen Bereich mit Fragen der Softwareentwicklung, KI und Robotik - nicht nur als Jurist, sondern eben auch selbst als Entwickler. In diesem Blog werden Inhalte vor allem rund um Robotik bzw. Roboterrecht und ergänzend zum Thema K geteiltI. Es werden Unternehmen im gesamten IT-Recht beraten und vertreten, dies vor allem strategisch und nicht juristisch nach "Schema F".