EU-Maschinenverordnung (Verordnung über sichere Maschinenprodukte 2027)

Im Juni 2022 einigten sich die EU-Mitgliedstaaten auf ein Mandat für Verhandlungen mit dem Europäischen Parlament über den Vorschlag für eine Verordnung über Maschinenprodukte. Mit diesem Vorschlag wurde die Maschinenrichtlinie aus dem Jahr 2006 schließlich in eine Verordnung umgewandelt und diese neue EU-Maschinenverordnung verschiebt die Verantwortung für die Maschinensicherheit bei Produkten mit integrierter KI noch stärker ins Management.

Wer Maschinen entwickelt, beschafft oder betreibt, muss seine Produktstrategie, Compliance und Governance bis 2027 an das deutlich komplexere Zusammenspiel von Maschinenverordnung, KI-Verordnung, Cyber-Resilience-Act und allgemeinem Produktsicherheitsrecht anpassen. Zugleich eröffnet der Rechtsrahmen die Chance, Safety, Cybersecurity und datengetriebene Geschäftsmodelle konsistent zu verzahnen. Wer früh strukturiert vorgeht, kann Rechtssicherheit und Wettbewerbsvorteile verbinden.

Hinweis, Update Januar 2026: Dieser Beitrag wurde ursprünglich im Jahr 2022 verfasst und wird seitdem laufend aktualisiert, um alle Entwicklungen möglichst zu beachten. Beachten Sie auch, dass dieser Beitrag bei Wikipedia referenziert wird.

EU-Maschinenverordnung (Verordnung über sichere Maschinenprodukte 2027) weiterlesen

Haftung für Chatbot?

Haften Unternehmen für Auskünfte, die ein Ihnen installierter Chatbot gibt? Nachdem in Kanada eine Airline zum Schadensersatz auf Grund einer falschen Chatbot-Auskunft verurteilt wurde, stellt sich die Frage, ob so etwas in Deutschland denkbar ist. Und tatsächlich ist schon zu lesen, dass „vermutlich auch deutsche Gerichte nicht anders entscheiden würden“ (so in BC 2024, 95). Doch bei genauem Blick fragt sich: Auf welcher Rechtsgrundlage soll das geschehen? Dazu im Folgenden ein paar lose Gedanken.

Update: Die Entscheidung des LG Hamburg (324 O 461/25) wurde mit berücksichtigt.

Haftung für Chatbot? weiterlesen

Weltmodelle und Datenrecht

Wie KI die physische Welt begreift – und warum das Datenrecht darüber (mit-)entscheidet: Die nächste Stufe der Künstlichen Intelligenz wird nicht in Chatfenstern stattfinden, sondern in Fabriken, Logistikzentren und auf Straßen. Weltmodelle – KI-Systeme, die nicht Wörter, sondern physikalische Zustände vorhersagen – gelten als Schlüssel, um Maschinen ein echtes Verständnis ihrer Umgebung zu verleihen.

Während Sprachmodelle wie ChatGPT statistische Muster in Texten erkennen, simulieren Weltmodelle die Gesetze der Physik, die Dynamik von Objekten und die Konsequenzen von Handlungen. Sie ermöglichen es Robotern, autonome Fahrzeuge oder Produktionsanlagen, sich in einer komplexen, unvorhersehbaren Welt zu orientieren, ohne jede Situation zuvor explizit programmiert zu haben. Doch dieser Fortschritt wirft nicht nur technische, sondern auch grundlegende rechtliche Fragen auf: Wer kontrolliert die Daten, auf denen diese Modelle trainieren? Wie lassen sich synthetische Trainingsdaten rechtssicher nutzen? Und welche Rolle spielt der europäische Data Act bei der Verteilung von Wertschöpfung und Risiko? Ein Überblick.

Weltmodelle und Datenrecht weiterlesen

Der Data Act ist da: Was er regelt – und was Unternehmen jetzt tun müssen

Der Data Act (VO (EU) 2023/2854) ist seit dem 12. September 2025 in weiten Teilen anwendbar – mit dem erklärten Ziel, Datennutzung in Europa einfacher, fairer und interoperabler zu machen. Er richtet sich vor allem an Hersteller vernetzter Produkte, Dateninhaber und Nutzer, außerdem an Anbieter von Datenverarbeitungsdiensten (Cloud, PaaS, SaaS, IaaS). Die Verordnung ergänzt die DSGVO, sie ersetzt sie nicht: Wo personenbezogene Daten betroffen sind, gelten weiterhin die DSGVO-Spielregeln; der Data Act zielt primär auf nicht-personenbezogene Nutzungsdaten und damit verbundene Metadaten ab.

Wer in diesen Kategorien fällt? Praktisch jedes Unternehmen, das smarte, datenproduzierende Güter herstellt oder betreibt – vom Industriegerät über Fahrzeuge bis zum Haushaltssystem – und alle, die entsprechende Cloud-Leistungen anbieten oder beziehen. Für Start-ups und Kleinstunternehmen gibt es punktuelle Ausnahmen, die Grundlinie bleibt aber: Datenzugang und -weitergabe sollen rechtlich und technisch möglich werden.

Der Data Act ist da: Was er regelt – und was Unternehmen jetzt tun müssen weiterlesen

NVIDIA Omniverse: Rechtliche Herausforderungen für Unternehmen bei der Nutzung von Weltmodellen

Das NVIDIA Omniverse ist im weitesten Sinne ein sogenanntes Weltmodell – Weltmodelle sind dabei der nächste große Schritt in der Entwicklung von Künstlicher Intelligenz (KI) und Robotik. Sie ermöglichen es Maschinen, sich in einer simulierten Umgebung zu trainieren und inzwischen auch die physikalischen Gesetzmäßigkeiten der Welt zu verstehen, bevor sie in der realen Umgebung eingesetzt werden. NVIDIA Omniverse ist eine der führenden Plattformen in diesem Bereich, inzwischen erweitert um das auf physische Fähigkeiten ausgerichtete NVIDIA Cosmos, und bietet Unternehmen eine leistungsfähige Simulationsumgebung. Doch die Nutzung bringt auch erhebliche rechtliche Herausforderungen mit sich.

NVIDIA Omniverse: Rechtliche Herausforderungen für Unternehmen bei der Nutzung von Weltmodellen weiterlesen

Whitepaper des BSI zur Transparenz von KI-Systemen

Nun, da Künstliche Intelligenz (KI) zunehmend in verschiedenen Bereichen Einzug hält, ist die Transparenz dieser Systeme von zentraler Bedeutung – auch in juristischer Hinsicht mit Blick auf die EU-KI-Verordnung. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat ein umfassendes Whitepaper veröffentlicht, das die Wichtigkeit und die Anforderungen an die Transparenz von KI-Systemen beleuchtet. Ich gehe kurz auf die Kernaussagen dieses Whitepapers vor und erläutern, warum Transparenz für die Akzeptanz und das Vertrauen in KI-Systeme essenziell ist.

Whitepaper des BSI zur Transparenz von KI-Systemen weiterlesen

Vorsicht bei Studien zu großen Sprachmodellen (LLMs)

Eine frühere Studie mit dem Titel „Physics of Language Models: Part 2.1, Grade-School Math and the Hidden Reasoning Process“, stellte die Leistungsfähigkeit von Transformer-Modellen bei der Lösung elementarer mathematischer Textaufgaben in den Mittelpunkt. Diese Arbeit behauptet, tiefgreifende Einsichten in die Fähigkeiten von großen Sprachmodellen (LLMs) zu liefern.

Jedoch zeigt eine kritische Analyse von Ernest Davis von der New York University, dass diese Studie ein hervorragendes Beispiel dafür ist, wie vorsichtig man bei der Bewertung und Interpretation von Forschungsergebnissen im Bereich der LLMs sein muss.

Vorsicht bei Studien zu großen Sprachmodellen (LLMs) weiterlesen

Model Autophagy Disorder: Generative Modelle in der Selbstzerstörung?

In der modernen Welt der Künstlichen Intelligenz (KI) haben generative Modelle eine Revolution ausgelöst. Diese Modelle erzeugen Bilder, Texte und andere Datentypen, die zunehmend von Unternehmen und in Konsumentendiensten eingesetzt werden. Doch was passiert, wenn diese Modelle beginnen, sich selbst zu konsumieren? Die kürzlich durchgeführte Studie, „Self-Consuming Generative Models Go MAD“, beleuchtet diese Frage und liefert besorgniserregende Einblicke.

Model Autophagy Disorder: Generative Modelle in der Selbstzerstörung? weiterlesen

KI-Lösungen am Scheideweg

Zweifel an der Wirtschaftlichkeit von KI: In jüngster Zeit haben kritische Stimmen die Wirtschaftlichkeit der KI-Branche infrage gestellt.

Ein bemerkenswerter Beitrag hierzu kam vom Hedgefonds Elliott, der in einem Brief an seine Kunden den Hype um künstliche Intelligenz als „überbewertet“ bezeichnete. Elliott argumentiert, dass viele KI-Anwendungen unausgereift seien und möglicherweise nie kosteneffizient funktionieren würden. Dies habe auch Auswirkungen auf den Aktienkurs von Nvidia und anderen großen Tech-Unternehmen, die stark in KI investieren.

KI-Lösungen am Scheideweg weiterlesen

Angriffsszenarien auf LLM durch Formulierung in Vergangenheitsform

In einer kürzlich durchgeführten Studie haben Forscher der EPFL (Eidgenössische Technische Hochschule Lausanne) eine interessante Schwachstelle in den aktuellen Ablehnungsmechanismen von großen Sprachmodellen (Large Language Models, LLMs) aufgedeckt.

Diese Schwachstelle ermöglicht es, die Sicherheitsvorkehrungen vieler LLMs zu umgehen, indem man gefährliche Anfragen einfach in die Vergangenheitsform umformuliert. Dieser Blog-Beitrag beleuchtet die Ergebnisse der Studie und deren Implikationen für die Zukunft der LLM-Sicherheit.

Angriffsszenarien auf LLM durch Formulierung in Vergangenheitsform weiterlesen