Weltmodelle und Datenrecht

Wie KI die physische Welt begreift – und warum das Datenrecht darüber (mit-)entscheidet: Die nächste Stufe der Künstlichen Intelligenz wird nicht in Chatfenstern stattfinden, sondern in Fabriken, Logistikzentren und auf Straßen. Weltmodelle – KI-Systeme, die nicht Wörter, sondern physikalische Zustände vorhersagen – gelten als Schlüssel, um Maschinen ein echtes Verständnis ihrer Umgebung zu verleihen.

Während Sprachmodelle wie ChatGPT statistische Muster in Texten erkennen, simulieren Weltmodelle die Gesetze der Physik, die Dynamik von Objekten und die Konsequenzen von Handlungen. Sie ermöglichen es Robotern, autonome Fahrzeuge oder Produktionsanlagen, sich in einer komplexen, unvorhersehbaren Welt zu orientieren, ohne jede Situation zuvor explizit programmiert zu haben. Doch dieser Fortschritt wirft nicht nur technische, sondern auch grundlegende rechtliche Fragen auf: Wer kontrolliert die Daten, auf denen diese Modelle trainieren? Wie lassen sich synthetische Trainingsdaten rechtssicher nutzen? Und welche Rolle spielt der europäische Data Act bei der Verteilung von Wertschöpfung und Risiko? Ein Überblick.

Weltmodelle und Datenrecht weiterlesen

Der Data Act ist da: Was er regelt – und was Unternehmen jetzt tun müssen

Der Data Act (VO (EU) 2023/2854) ist seit dem 12. September 2025 in weiten Teilen anwendbar – mit dem erklärten Ziel, Datennutzung in Europa einfacher, fairer und interoperabler zu machen. Er richtet sich vor allem an Hersteller vernetzter Produkte, Dateninhaber und Nutzer, außerdem an Anbieter von Datenverarbeitungsdiensten (Cloud, PaaS, SaaS, IaaS). Die Verordnung ergänzt die DSGVO, sie ersetzt sie nicht: Wo personenbezogene Daten betroffen sind, gelten weiterhin die DSGVO-Spielregeln; der Data Act zielt primär auf nicht-personenbezogene Nutzungsdaten und damit verbundene Metadaten ab.

Wer in diesen Kategorien fällt? Praktisch jedes Unternehmen, das smarte, datenproduzierende Güter herstellt oder betreibt – vom Industriegerät über Fahrzeuge bis zum Haushaltssystem – und alle, die entsprechende Cloud-Leistungen anbieten oder beziehen. Für Start-ups und Kleinstunternehmen gibt es punktuelle Ausnahmen, die Grundlinie bleibt aber: Datenzugang und -weitergabe sollen rechtlich und technisch möglich werden.

Der Data Act ist da: Was er regelt – und was Unternehmen jetzt tun müssen weiterlesen

NVIDIA Omniverse: Rechtliche Herausforderungen für Unternehmen bei der Nutzung von Weltmodellen

Das NVIDIA Omniverse ist im weitesten Sinne ein sogenanntes Weltmodell – Weltmodelle sind dabei der nächste große Schritt in der Entwicklung von Künstlicher Intelligenz (KI) und Robotik. Sie ermöglichen es Maschinen, sich in einer simulierten Umgebung zu trainieren und inzwischen auch die physikalischen Gesetzmäßigkeiten der Welt zu verstehen, bevor sie in der realen Umgebung eingesetzt werden. NVIDIA Omniverse ist eine der führenden Plattformen in diesem Bereich, inzwischen erweitert um das auf physische Fähigkeiten ausgerichtete NVIDIA Cosmos, und bietet Unternehmen eine leistungsfähige Simulationsumgebung. Doch die Nutzung bringt auch erhebliche rechtliche Herausforderungen mit sich.

NVIDIA Omniverse: Rechtliche Herausforderungen für Unternehmen bei der Nutzung von Weltmodellen weiterlesen

Whitepaper des BSI zur Transparenz von KI-Systemen

Nun, da Künstliche Intelligenz (KI) zunehmend in verschiedenen Bereichen Einzug hält, ist die Transparenz dieser Systeme von zentraler Bedeutung – auch in juristischer Hinsicht mit Blick auf die EU-KI-Verordnung. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat ein umfassendes Whitepaper veröffentlicht, das die Wichtigkeit und die Anforderungen an die Transparenz von KI-Systemen beleuchtet. Ich gehe kurz auf die Kernaussagen dieses Whitepapers vor und erläutern, warum Transparenz für die Akzeptanz und das Vertrauen in KI-Systeme essenziell ist.

Whitepaper des BSI zur Transparenz von KI-Systemen weiterlesen

Vorsicht bei Studien zu großen Sprachmodellen (LLMs)

Eine frühere Studie mit dem Titel „Physics of Language Models: Part 2.1, Grade-School Math and the Hidden Reasoning Process“, stellte die Leistungsfähigkeit von Transformer-Modellen bei der Lösung elementarer mathematischer Textaufgaben in den Mittelpunkt. Diese Arbeit behauptet, tiefgreifende Einsichten in die Fähigkeiten von großen Sprachmodellen (LLMs) zu liefern.

Jedoch zeigt eine kritische Analyse von Ernest Davis von der New York University, dass diese Studie ein hervorragendes Beispiel dafür ist, wie vorsichtig man bei der Bewertung und Interpretation von Forschungsergebnissen im Bereich der LLMs sein muss.

Vorsicht bei Studien zu großen Sprachmodellen (LLMs) weiterlesen

Model Autophagy Disorder: Generative Modelle in der Selbstzerstörung?

In der modernen Welt der Künstlichen Intelligenz (KI) haben generative Modelle eine Revolution ausgelöst. Diese Modelle erzeugen Bilder, Texte und andere Datentypen, die zunehmend von Unternehmen und in Konsumentendiensten eingesetzt werden. Doch was passiert, wenn diese Modelle beginnen, sich selbst zu konsumieren? Die kürzlich durchgeführte Studie, „Self-Consuming Generative Models Go MAD“, beleuchtet diese Frage und liefert besorgniserregende Einblicke.

Model Autophagy Disorder: Generative Modelle in der Selbstzerstörung? weiterlesen

KI-Lösungen am Scheideweg

Zweifel an der Wirtschaftlichkeit von KI: In jüngster Zeit haben kritische Stimmen die Wirtschaftlichkeit der KI-Branche infrage gestellt.

Ein bemerkenswerter Beitrag hierzu kam vom Hedgefonds Elliott, der in einem Brief an seine Kunden den Hype um künstliche Intelligenz als „überbewertet“ bezeichnete. Elliott argumentiert, dass viele KI-Anwendungen unausgereift seien und möglicherweise nie kosteneffizient funktionieren würden. Dies habe auch Auswirkungen auf den Aktienkurs von Nvidia und anderen großen Tech-Unternehmen, die stark in KI investieren.

KI-Lösungen am Scheideweg weiterlesen

Angriffsszenarien auf LLM durch Formulierung in Vergangenheitsform

In einer kürzlich durchgeführten Studie haben Forscher der EPFL (Eidgenössische Technische Hochschule Lausanne) eine interessante Schwachstelle in den aktuellen Ablehnungsmechanismen von großen Sprachmodellen (Large Language Models, LLMs) aufgedeckt.

Diese Schwachstelle ermöglicht es, die Sicherheitsvorkehrungen vieler LLMs zu umgehen, indem man gefährliche Anfragen einfach in die Vergangenheitsform umformuliert. Dieser Blog-Beitrag beleuchtet die Ergebnisse der Studie und deren Implikationen für die Zukunft der LLM-Sicherheit.

Angriffsszenarien auf LLM durch Formulierung in Vergangenheitsform weiterlesen

BGH: KI kann kein Erfinder sein

Der Bundesgerichtshof (BGH) hat in einem jüngsten Beschluss vom 11. Juni 2024 entschieden, dass Künstliche Intelligenz (KI) nicht als Erfinder im Sinne des Patentrechts anerkannt werden kann (Az.: X ZB 5/22). Diese Entscheidung hat weitreichende Konsequenzen für die Patentlandschaft und die rechtliche Behandlung von Erfindungen, die durch KI-generierte Prozesse entstehen.

BGH: KI kann kein Erfinder sein weiterlesen

Generative KI – Risiken und Missbrauch

Generative, multimodale Künstliche Intelligenz (GenAI) hat das Potenzial, viele Branchen zu revolutionieren. Doch genauso groß wie die Möglichkeiten sind auch die Risiken, die durch den Missbrauch dieser Technologie entstehen. Eine kürzlich veröffentlichte Studie beleuchtet die verschiedenen Taktiken des Missbrauchs von GenAI und gibt wertvolle Einblicke und Empfehlungen. Hier sind die wichtigsten Erkenntnisse und Empfehlungen aus dieser Studie.

Generative KI – Risiken und Missbrauch weiterlesen