EU-Maschinenverordnung (Verordnung über sichere Maschinenprodukte 2027)

Im Juni 2022 einigten sich die EU-Mitgliedstaaten auf ein Mandat für Verhandlungen mit dem Europäischen Parlament über den Vorschlag für eine Verordnung über Maschinenprodukte. Mit diesem Vorschlag wurde die Maschinenrichtlinie aus dem Jahr 2006 schließlich in eine Verordnung umgewandelt und diese neue EU-Maschinenverordnung verschiebt die Verantwortung für die Maschinensicherheit bei Produkten mit integrierter KI noch stärker ins Management.

Wer Maschinen entwickelt, beschafft oder betreibt, muss seine Produktstrategie, Compliance und Governance bis 2027 an das deutlich komplexere Zusammenspiel von Maschinenverordnung, KI-Verordnung, Cyber-Resilience-Act und allgemeinem Produktsicherheitsrecht anpassen. Zugleich eröffnet der Rechtsrahmen die Chance, Safety, Cybersecurity und datengetriebene Geschäftsmodelle konsistent zu verzahnen. Wer früh strukturiert vorgeht, kann Rechtssicherheit und Wettbewerbsvorteile verbinden.

Hinweis, Update Januar 2026: Dieser Beitrag wurde ursprünglich im Jahr 2022 verfasst und wird seitdem laufend aktualisiert, um alle Entwicklungen möglichst zu beachten. Beachten Sie auch, dass dieser Beitrag bei Wikipedia referenziert wird.

EU-Maschinenverordnung (Verordnung über sichere Maschinenprodukte 2027) weiterlesen

Dark Factories

Die Idee der „Dark Factory“ – einer nahezu menschenleeren, vollständig automatisierten Produktionsstätte, die mangels Menschen im Dunkeln arbeiten kann – gewinnt möglicherweise derzeit in der globalen Industrie zunehmend an Bedeutung. Getrieben durch Fachkräftemangel, technologische Fortschritte und wirtschaftliche Zwänge, stellt dieses Konzept traditionelle Fertigungsmodelle infrage. Doch während einige darin eine unvermeidliche Zukunft sehen, warnen andere vor ökonomischen Risiken und sozialen Folgen.

Dark Factories weiterlesen

Haftung für Chatbot?

Haften Unternehmen für Auskünfte, die ein Ihnen installierter Chatbot gibt? Nachdem in Kanada eine Airline zum Schadensersatz auf Grund einer falschen Chatbot-Auskunft verurteilt wurde, stellt sich die Frage, ob so etwas in Deutschland denkbar ist. Und tatsächlich ist schon zu lesen, dass „vermutlich auch deutsche Gerichte nicht anders entscheiden würden“ (so in BC 2024, 95). Doch bei genauem Blick fragt sich: Auf welcher Rechtsgrundlage soll das geschehen? Dazu im Folgenden ein paar lose Gedanken.

Update: Die Entscheidung des LG Hamburg (324 O 461/25) wurde mit berücksichtigt.

Haftung für Chatbot? weiterlesen

Weltmodelle und Datenrecht

Wie KI die physische Welt begreift – und warum das Datenrecht darüber (mit-)entscheidet: Die nächste Stufe der Künstlichen Intelligenz wird nicht in Chatfenstern stattfinden, sondern in Fabriken, Logistikzentren und auf Straßen. Weltmodelle – KI-Systeme, die nicht Wörter, sondern physikalische Zustände vorhersagen – gelten als Schlüssel, um Maschinen ein echtes Verständnis ihrer Umgebung zu verleihen.

Während Sprachmodelle wie ChatGPT statistische Muster in Texten erkennen, simulieren Weltmodelle die Gesetze der Physik, die Dynamik von Objekten und die Konsequenzen von Handlungen. Sie ermöglichen es Robotern, autonome Fahrzeuge oder Produktionsanlagen, sich in einer komplexen, unvorhersehbaren Welt zu orientieren, ohne jede Situation zuvor explizit programmiert zu haben. Doch dieser Fortschritt wirft nicht nur technische, sondern auch grundlegende rechtliche Fragen auf: Wer kontrolliert die Daten, auf denen diese Modelle trainieren? Wie lassen sich synthetische Trainingsdaten rechtssicher nutzen? Und welche Rolle spielt der europäische Data Act bei der Verteilung von Wertschöpfung und Risiko? Ein Überblick.

Weltmodelle und Datenrecht weiterlesen

Entwicklung der Robotik im Jahr 2025

Die aktuelle Ausgabe des World Robotics Report der International Federation of Robotics (IFR) zeichnet ein zunehmend klares Bild: Die globale Nachfrage nach Industrierobotern bleibt robust, doch die Dynamik verschiebt sich. Während einige Regionen und Branchen mit Rückgängen kämpfen, entstehen anderswo neue Wachstumsmotoren. Die Zahlen für 2024 zeigen eine Branche im Wandel – getrieben von technologischem Fortschritt, geopolitischen Spannungen und einem strukturellen Umbruch in der industriellen Produktion.

Entwicklung der Robotik im Jahr 2025 weiterlesen

Software Bill of Materials (SBOM)

Eine SBOM ist ein maschinenlesbares Dokument und entspricht einer elektronischen Stückliste: Es inventarisiert eine Codebasis und enthält somit Informationen über alle verwendeten Komponenten einer Software. Inzwischen gewinnt die SBOM durch den CRA erhebliche juristische Relevanz und gehört zwingend zur Compliance bei Einsatz oder Entwicklung von Software, speziell mit Blick auf die Supply-Chain.

Die SBOM-Informationen können in unterschiedlicher Breite und Tiefe dargestellt werden und von einer groben Struktur bis zu einer detaillierten Aufschlüsselung von Produkten und Softwarekomponenten reichen. Entsprechende Vorgaben sind in der Technischen Richtlinie TR-03183 des BSI enthalten.

Software Bill of Materials (SBOM) weiterlesen

Der Data Act ist da: Was er regelt – und was Unternehmen jetzt tun müssen

Der Data Act (VO (EU) 2023/2854) ist seit dem 12. September 2025 in weiten Teilen anwendbar – mit dem erklärten Ziel, Datennutzung in Europa einfacher, fairer und interoperabler zu machen. Er richtet sich vor allem an Hersteller vernetzter Produkte, Dateninhaber und Nutzer, außerdem an Anbieter von Datenverarbeitungsdiensten (Cloud, PaaS, SaaS, IaaS). Die Verordnung ergänzt die DSGVO, sie ersetzt sie nicht: Wo personenbezogene Daten betroffen sind, gelten weiterhin die DSGVO-Spielregeln; der Data Act zielt primär auf nicht-personenbezogene Nutzungsdaten und damit verbundene Metadaten ab.

Wer in diesen Kategorien fällt? Praktisch jedes Unternehmen, das smarte, datenproduzierende Güter herstellt oder betreibt – vom Industriegerät über Fahrzeuge bis zum Haushaltssystem – und alle, die entsprechende Cloud-Leistungen anbieten oder beziehen. Für Start-ups und Kleinstunternehmen gibt es punktuelle Ausnahmen, die Grundlinie bleibt aber: Datenzugang und -weitergabe sollen rechtlich und technisch möglich werden.

Der Data Act ist da: Was er regelt – und was Unternehmen jetzt tun müssen weiterlesen

NVIDIA Omniverse: Rechtliche Herausforderungen für Unternehmen bei der Nutzung von Weltmodellen

Das NVIDIA Omniverse ist im weitesten Sinne ein sogenanntes Weltmodell – Weltmodelle sind dabei der nächste große Schritt in der Entwicklung von Künstlicher Intelligenz (KI) und Robotik. Sie ermöglichen es Maschinen, sich in einer simulierten Umgebung zu trainieren und inzwischen auch die physikalischen Gesetzmäßigkeiten der Welt zu verstehen, bevor sie in der realen Umgebung eingesetzt werden. NVIDIA Omniverse ist eine der führenden Plattformen in diesem Bereich, inzwischen erweitert um das auf physische Fähigkeiten ausgerichtete NVIDIA Cosmos, und bietet Unternehmen eine leistungsfähige Simulationsumgebung. Doch die Nutzung bringt auch erhebliche rechtliche Herausforderungen mit sich.

NVIDIA Omniverse: Rechtliche Herausforderungen für Unternehmen bei der Nutzung von Weltmodellen weiterlesen

Vorsicht bei Studien zu großen Sprachmodellen (LLMs)

Eine frühere Studie mit dem Titel „Physics of Language Models: Part 2.1, Grade-School Math and the Hidden Reasoning Process“, stellte die Leistungsfähigkeit von Transformer-Modellen bei der Lösung elementarer mathematischer Textaufgaben in den Mittelpunkt. Diese Arbeit behauptet, tiefgreifende Einsichten in die Fähigkeiten von großen Sprachmodellen (LLMs) zu liefern.

Jedoch zeigt eine kritische Analyse von Ernest Davis von der New York University, dass diese Studie ein hervorragendes Beispiel dafür ist, wie vorsichtig man bei der Bewertung und Interpretation von Forschungsergebnissen im Bereich der LLMs sein muss.

Vorsicht bei Studien zu großen Sprachmodellen (LLMs) weiterlesen

Angriffsszenarien auf LLM durch Formulierung in Vergangenheitsform

In einer kürzlich durchgeführten Studie haben Forscher der EPFL (Eidgenössische Technische Hochschule Lausanne) eine interessante Schwachstelle in den aktuellen Ablehnungsmechanismen von großen Sprachmodellen (Large Language Models, LLMs) aufgedeckt.

Diese Schwachstelle ermöglicht es, die Sicherheitsvorkehrungen vieler LLMs zu umgehen, indem man gefährliche Anfragen einfach in die Vergangenheitsform umformuliert. Dieser Blog-Beitrag beleuchtet die Ergebnisse der Studie und deren Implikationen für die Zukunft der LLM-Sicherheit.

Angriffsszenarien auf LLM durch Formulierung in Vergangenheitsform weiterlesen