EU-Maschinenverordnung (Verordnung über sichere Maschinenprodukte 2027)

Im Juni 2022 einigten sich die EU-Mitgliedstaaten auf ein Mandat für Verhandlungen mit dem Europäischen Parlament über den Vorschlag für eine Verordnung über Maschinenprodukte. Mit diesem Vorschlag wurde die Maschinenrichtlinie aus dem Jahr 2006 schließlich in eine Verordnung umgewandelt und diese neue EU-Maschinenverordnung verschiebt die Verantwortung für die Maschinensicherheit bei Produkten mit integrierter KI noch stärker ins Management.

Wer Maschinen entwickelt, beschafft oder betreibt, muss seine Produktstrategie, Compliance und Governance bis 2027 an das deutlich komplexere Zusammenspiel von Maschinenverordnung, KI-Verordnung, Cyber-Resilience-Act und allgemeinem Produktsicherheitsrecht anpassen. Zugleich eröffnet der Rechtsrahmen die Chance, Safety, Cybersecurity und datengetriebene Geschäftsmodelle konsistent zu verzahnen. Wer früh strukturiert vorgeht, kann Rechtssicherheit und Wettbewerbsvorteile verbinden.

Hinweis, Update Januar 2026: Dieser Beitrag wurde ursprünglich im Jahr 2022 verfasst und wird seitdem laufend aktualisiert, um alle Entwicklungen möglichst zu beachten. Beachten Sie auch, dass dieser Beitrag bei Wikipedia referenziert wird.

EU-Maschinenverordnung (Verordnung über sichere Maschinenprodukte 2027) weiterlesen

Dark Factories

Die Idee der „Dark Factory“ – einer nahezu menschenleeren, vollständig automatisierten Produktionsstätte, die mangels Menschen im Dunkeln arbeiten kann – gewinnt möglicherweise derzeit in der globalen Industrie zunehmend an Bedeutung. Getrieben durch Fachkräftemangel, technologische Fortschritte und wirtschaftliche Zwänge, stellt dieses Konzept traditionelle Fertigungsmodelle infrage. Doch während einige darin eine unvermeidliche Zukunft sehen, warnen andere vor ökonomischen Risiken und sozialen Folgen.

Dark Factories weiterlesen

Haftung für Chatbot?

Haften Unternehmen für Auskünfte, die ein Ihnen installierter Chatbot gibt? Nachdem in Kanada eine Airline zum Schadensersatz auf Grund einer falschen Chatbot-Auskunft verurteilt wurde, stellt sich die Frage, ob so etwas in Deutschland denkbar ist. Und tatsächlich ist schon zu lesen, dass „vermutlich auch deutsche Gerichte nicht anders entscheiden würden“ (so in BC 2024, 95). Doch bei genauem Blick fragt sich: Auf welcher Rechtsgrundlage soll das geschehen? Dazu im Folgenden ein paar lose Gedanken.

Update: Die Entscheidung des LG Hamburg (324 O 461/25) wurde mit berücksichtigt.

Haftung für Chatbot? weiterlesen

Der Data Act ist da: Was er regelt – und was Unternehmen jetzt tun müssen

Der Data Act (VO (EU) 2023/2854) ist seit dem 12. September 2025 in weiten Teilen anwendbar – mit dem erklärten Ziel, Datennutzung in Europa einfacher, fairer und interoperabler zu machen. Er richtet sich vor allem an Hersteller vernetzter Produkte, Dateninhaber und Nutzer, außerdem an Anbieter von Datenverarbeitungsdiensten (Cloud, PaaS, SaaS, IaaS). Die Verordnung ergänzt die DSGVO, sie ersetzt sie nicht: Wo personenbezogene Daten betroffen sind, gelten weiterhin die DSGVO-Spielregeln; der Data Act zielt primär auf nicht-personenbezogene Nutzungsdaten und damit verbundene Metadaten ab.

Wer in diesen Kategorien fällt? Praktisch jedes Unternehmen, das smarte, datenproduzierende Güter herstellt oder betreibt – vom Industriegerät über Fahrzeuge bis zum Haushaltssystem – und alle, die entsprechende Cloud-Leistungen anbieten oder beziehen. Für Start-ups und Kleinstunternehmen gibt es punktuelle Ausnahmen, die Grundlinie bleibt aber: Datenzugang und -weitergabe sollen rechtlich und technisch möglich werden.

Der Data Act ist da: Was er regelt – und was Unternehmen jetzt tun müssen weiterlesen

NVIDIA Omniverse: Rechtliche Herausforderungen für Unternehmen bei der Nutzung von Weltmodellen

Das NVIDIA Omniverse ist im weitesten Sinne ein sogenanntes Weltmodell – Weltmodelle sind dabei der nächste große Schritt in der Entwicklung von Künstlicher Intelligenz (KI) und Robotik. Sie ermöglichen es Maschinen, sich in einer simulierten Umgebung zu trainieren und inzwischen auch die physikalischen Gesetzmäßigkeiten der Welt zu verstehen, bevor sie in der realen Umgebung eingesetzt werden. NVIDIA Omniverse ist eine der führenden Plattformen in diesem Bereich, inzwischen erweitert um das auf physische Fähigkeiten ausgerichtete NVIDIA Cosmos, und bietet Unternehmen eine leistungsfähige Simulationsumgebung. Doch die Nutzung bringt auch erhebliche rechtliche Herausforderungen mit sich.

NVIDIA Omniverse: Rechtliche Herausforderungen für Unternehmen bei der Nutzung von Weltmodellen weiterlesen

Whitepaper des BSI zur Transparenz von KI-Systemen

Nun, da Künstliche Intelligenz (KI) zunehmend in verschiedenen Bereichen Einzug hält, ist die Transparenz dieser Systeme von zentraler Bedeutung – auch in juristischer Hinsicht mit Blick auf die EU-KI-Verordnung. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat ein umfassendes Whitepaper veröffentlicht, das die Wichtigkeit und die Anforderungen an die Transparenz von KI-Systemen beleuchtet. Ich gehe kurz auf die Kernaussagen dieses Whitepapers vor und erläutern, warum Transparenz für die Akzeptanz und das Vertrauen in KI-Systeme essenziell ist.

Whitepaper des BSI zur Transparenz von KI-Systemen weiterlesen

Datenschutz bei KI – Rechtliche Herausforderungen und Lösungen für Unternehmen

Der Datenschutz im Kontext von Künstlicher Intelligenz (KI) ist ein komplexes und dynamisches Thema, das Unternehmen vor vielfältige Herausforderungen stellt.

Die Entwicklung und der Einsatz von KI-Technologien erfordern nicht nur technische Innovationen, sondern auch die Einhaltung strenger rechtlicher Rahmenbedingungen, insbesondere in der EU und Deutschland. In diesem Blog-Beitrag werden die wichtigsten rechtlichen Probleme und Anforderungen des Datenschutzes bei der Entwicklung und dem Einsatz von KI in Unternehmen erläutert.

Datenschutz bei KI – Rechtliche Herausforderungen und Lösungen für Unternehmen weiterlesen

Ethik im AI-Act

Der AI-Act der Europäischen Union integriert ethische Grundsätze in verschiedenen Artikeln und Abschnitten, um sicherzustellen, dass KI-Systeme sicher, vertrauenswürdig und im Einklang mit den Werten der EU gestaltet und genutzt werden. Ich möchte eine kurze Übersicht der wesentliche Artikel des AI_Act geben, in denen Ethik oder ethische Überlegungen eine Rolle spielen.


1. Einhaltung ethischer und beruflicher Standards (Artikel 2)

Artikel 2 betont, dass Forschungs- und Entwicklungsaktivitäten im Bereich KI in Übereinstimmung mit anerkannten ethischen und professionellen Standards für wissenschaftliche Forschung durchgeführt werden müssen.

2. Risikobasierter Ansatz und ethische Leitlinien (Erwägungsgrund 27)

Der AI-Act verfolgt einen risikobasierten Ansatz und verweist auf die 2019 veröffentlichten Ethikleitlinien für vertrauenswürdige KI der unabhängigen Hochrangigen Expertengruppe für Künstliche Intelligenz (AI HLEG). Diese Leitlinien beinhalten sieben ethische Prinzipien: menschliche Handlungsfähigkeit und Aufsicht, technische Robustheit und Sicherheit, Datenschutz und Datenmanagement, Transparenz, Vielfalt, Nichtdiskriminierung und Fairness, gesellschaftliches und ökologisches Wohlergehen sowie Rechenschaftspflicht.

3. Förderung von Codes of Conduct (Artikel 56 und Artikel 95)

Anbieter von KI-Systemen werden ermutigt, freiwillige Verhaltenskodizes zu erstellen, die Elemente der ethischen Leitlinien der EU für vertrauenswürdige KI enthalten. Diese Verhaltenskodizes sollen helfen, die ethischen Anforderungen in der Praxis umzusetzen und sicherzustellen, dass KI-Systeme inklusiv und nachhaltig entwickelt und genutzt werden.

4. Menschliche Kontrolle und Aufsicht (Erwägungsgrund 7)

Der AI-Act betont die Bedeutung der menschlichen Kontrolle und Aufsicht über KI-Systeme, um sicherzustellen, dass diese als Werkzeuge dienen, die den Menschen unterstützen und deren Würde und Autonomie respektieren.

Anwendung philosophischen Wissens zur Ethik

Philosophisches Wissen zur Ethik kann bei der Umsetzung des AI-Acts in mehreren Bereichen von großer Bedeutung sein: Durch die Integration philosophischen Wissens in die Umsetzung des AI-Acts können Unternehmen sicherstellen, dass ihre KI-Systeme nicht nur rechtlichen Anforderungen entsprechen, sondern auch ethisch verantwortungsvoll und gesellschaftlich akzeptabel sind. Dies fördert Vertrauen und damit Absatz sowie Bindung an Kunden.

  • Risikobewertung und Management: Philosophische Ansätze zur Ethik können helfen, eine fundierte Risikobewertung durchzuführen, indem sie tiefere Einblicke in die potenziellen sozialen und moralischen Auswirkungen von KI-Systemen bieten.
  • Entwicklung ethischer Leitlinien: Philosophisches Wissen ist entscheidend für die Entwicklung und Implementierung von Verhaltenskodizes und ethischen Leitlinien, die sicherstellen, dass KI-Systeme im Einklang mit den Werten der Gesellschaft stehen.
  • Transparenz und Erklärbarkeit: Philosophische Diskussionen über Transparenz und Verantwortung können dazu beitragen, dass KI-Systeme so gestaltet werden, dass ihre Funktionsweise und Entscheidungen für die Nutzer nachvollziehbar und verständlich sind.
  • Nichtdiskriminierung und Fairness: Philosophische Theorien zur Gerechtigkeit und Fairness können dabei helfen, Diskriminierung zu erkennen und zu vermeiden sowie sicherzustellen, dass KI-Systeme gerecht und inklusiv sind.
  • Nachhaltigkeit und gesellschaftliches Wohlergehen: Ethische Überlegungen zur Nachhaltigkeit können dazu beitragen, dass KI-Systeme entwickelt werden, die langfristig positive Auswirkungen auf die Gesellschaft und die Umwelt haben.

5. Technische Robustheit und Sicherheit (Artikel 9)

Artikel 9 fordert, dass KI-Systeme robust und widerstandsfähig gegenüber Problemen und Versuchen sind, die Nutzung oder Leistung des KI-Systems zu ändern. Dies soll unrechtmäßige Nutzung durch Dritte verhindern und unbeabsichtigte Schäden minimieren.

6. Datenschutz und Datenmanagement (Artikel 10)

KI-Systeme müssen gemäß den Datenschutzbestimmungen entwickelt und genutzt werden. Dies umfasst die Verarbeitung von Daten, die hohe Standards in Bezug auf Qualität und Integrität erfüllen, und die Gewährleistung, dass die Rechte der Betroffenen respektiert werden.

7. Transparenz (Artikel 13 und Artikel 52)

Der AI-Act legt großen Wert auf Transparenz bei der Entwicklung und Nutzung von KI-Systemen. Nutzer müssen darüber informiert werden, dass sie mit einem KI-System interagieren, und über die Fähigkeiten und Grenzen des Systems sowie über ihre Rechte aufgeklärt werden.

8. Vielfalt, Nichtdiskriminierung und Fairness (Erwägungsgrund 27 und Artikel 95)

KI-Systeme sollen so entwickelt und genutzt werden, dass sie verschiedene Akteure einbeziehen und gleichen Zugang, Geschlechtergerechtigkeit und kulturelle Vielfalt fördern. Diskriminierende Auswirkungen und unfaire Voreingenommenheiten müssen vermieden werden.

9. Gesellschaftliches und ökologisches Wohlergehen (Erwägungsgrund 7 und Artikel 9)

KI-Systeme sollen nachhaltig und umweltfreundlich entwickelt und genutzt werden und dem Wohlergehen aller Menschen dienen. Die langfristigen Auswirkungen auf Individuen, Gesellschaft und Demokratie sollen kontinuierlich überwacht und bewertet werden.


Ausblick

Der AI-Act integriert ethische Grundsätze in verschiedenen Artikeln und Abschnitten, um sicherzustellen, dass KI-Systeme im Einklang mit den Werten der EU entwickelt und genutzt werden. Diese umfassenden ethischen Anforderungen fördern das Vertrauen der Öffentlichkeit in KI und unterstützen die Schaffung eines europäischen Ökosystems für sichere und vertrauenswürdige KI.

Regulierung von künstlicher Intelligenz durch den AI-Act (KI-Verordnung)

Die KI-Verordnung (der „AI Act“) reguliert Entwicklung, Vertrieb und Einsatz von KI. Nun bringen es EU-Regeln mit sich, äußerst umfangreich und komplex zu sein – zwar bieten sich hier viele Hilfen beim Verständnis des Textes, aber gerade Laien sind schnell überfordert, die wesentlichen ersten Infos systematisch zu erfassen.

Im Folgenden möchte ich eine kleine Hilfestellung geben, zum Orientieren für diejenigen, die sich mit der Entwicklung von KI beschäftigen.

Regulierung von künstlicher Intelligenz durch den AI-Act (KI-Verordnung) weiterlesen

CE-Kennzeichen für KI-Systeme?

Der AI-Act der Europäischen Union (EU) legt fest, dass Künstliche Intelligenz (KI)-Systeme, die in der EU verwendet werden, bestimmte Anforderungen erfüllen müssen, um sicherzustellen, dass sie sicher und vertrauenswürdig sind. Eine zentrale Komponente dieser Anforderungen ist die CE-Konformitätsprüfung.

CE-Kennzeichen für KI-Systeme? weiterlesen