Wie KI die physische Welt begreift – und warum das Datenrecht darüber (mit-)entscheidet: Die nächste Stufe der Künstlichen Intelligenz wird nicht in Chatfenstern stattfinden, sondern in Fabriken, Logistikzentren und auf Straßen. Weltmodelle – KI-Systeme, die nicht Wörter, sondern physikalische Zustände vorhersagen – gelten als Schlüssel, um Maschinen ein echtes Verständnis ihrer Umgebung zu verleihen.
Während Sprachmodelle wie ChatGPT statistische Muster in Texten erkennen, simulieren Weltmodelle die Gesetze der Physik, die Dynamik von Objekten und die Konsequenzen von Handlungen. Sie ermöglichen es Robotern, autonome Fahrzeuge oder Produktionsanlagen, sich in einer komplexen, unvorhersehbaren Welt zu orientieren, ohne jede Situation zuvor explizit programmiert zu haben. Doch dieser Fortschritt wirft nicht nur technische, sondern auch grundlegende rechtliche Fragen auf: Wer kontrolliert die Daten, auf denen diese Modelle trainieren? Wie lassen sich synthetische Trainingsdaten rechtssicher nutzen? Und welche Rolle spielt der europäische Data Act bei der Verteilung von Wertschöpfung und Risiko? Ein Überblick.
Physische Realität als nächste Grenze
Die Grenzen heutiger KI liegen dort, wo die digitale Welt auf die physische trifft. Sprachmodelle mögen – zumindest auf den ersten Blick – flüssig argumentieren, doch sie verstehen nicht, was passiert, wenn ein Glas zerschellt, ein Roboterarm ein Werkstück greift oder ein autonomes Fahrzeug einer plötzlichen Fußgängerbewegung ausweichen muss. Weltmodelle sollen diese Lücke schließen, indem sie aus Videos, Sensordaten und 3D-Simulationen lernen, wie sich die Welt verhält – nicht als Abfolge von Wörtern, sondern als dynamisches System von Ursache und Wirkung. Google DeepMind, Nvidia und Meta treiben diese Entwicklung voran, jeder mit einer eigenen Strategie: DeepMind kombiniert Planungs- und Ausführungsmodelle in seiner Gemini-Robotics-Reihe, Nvidia bietet mit Omniverse eine Plattform für physikalische Simulationen, und Meta setzt auf Video-basierte Lernverfahren wie V-JEPA, um KI ein „intuitives“ Verständnis von Räumen und Objekten zu verleihen.
Die technologische Herausforderung ist immens. Während das Internet fast unbegrenzte Textdaten liefert, ist die physische Welt ungleich komplexer. Ein Roboter, der in einer Fabrik Müll sortieren soll, muss nicht nur Objekte erkennen, sondern auch ihre Materialeigenschaften, das Verhalten unter Kräften und die Folgen eigener Handlungen antizipieren. Aktuelle Systeme wie DeepMinds Gemini Robotics 1.5 oder Nvidias GR00T erreichen in Laborumgebungen Erfolgsquoten von 20 bis 40 Prozent – für industrielle Anwendungen, die „fünf Neunen“ (“99.999%”) an Zuverlässigkeit erfordern, ist das noch unzureichend. Die Lösung liegt in synthetischen Daten: KI-generierte Simulationen, die reale Szenarien in beliebiger Vielfalt nachbilden, ohne dass jedes Detail mühsam in der Praxis erfasst werden muss. Start-ups wie Genesis AI oder Decart zeigen, wie sich mit hochpräzisen Physik-Engines Trainingsdaten in Echtzeit erzeugen lassen – 400.000-mal schneller als in der Realität. Doch je mehr diese Modelle auf künstlich generierten Daten basieren, desto drängender wird die Frage, wer die Hoheit über die zugrundeliegenden Informationen besitzt und wie sie rechtlich geschützt werden.
Player und Strategien
Wer die Infrastruktur kontrolliert, definiert die Regeln
Die Wettbewerbslandschaft lässt sich in drei Kategorien einteilen: Erstens die Tech-Giganten, die mit proprietären Plattformen und massiven Rechenressourcen die Standards setzen. Nvidia dominiert hier mit seinem Ökosystem aus Chips, Simulationssoftware (Omniverse) und dem offenen Standard OpenUSD, der als „Esperanto für digitale Zwillinge“ gilt. Google und Meta fokussieren sich auf universelle Grundmodelle, die von Sprachverarbeitung bis zur Robotik skalieren sollen. Zweitens agile Start-ups wie Genesis AI oder Physical Intelligence, die mit spezialisierten Physik-Engines und Open-Source-Ansätzen die Barrieren für Entwickler senken. Drittens traditionelle Industrieunternehmen, insbesondere aus Deutschland und Europa, die ihre proprietären Produktionsdaten mit synthetischen Methoden anreichern, um in Nischen wie Montagerobotik oder Qualitätssicherung zu punkten.
Deutsche Maschinenbauer sitzen dabei auf einem einzigartigen Schatz: jahrzehntelang gesammelte Daten aus Fertigungsprozessen, die sich mit synthetischen Methoden zu wettbewerbsdifferenzierenden KI-Lösungen ausbauen lassen. Die Kombination aus realen Produktionsdaten und KI-generierten Szenarien ermöglicht es, Roboter für seltene Fehlerbilder oder komplexe Montageaufgaben zu trainieren, ohne die Produktion unterbrechen zu müssen. Studien zeigen, dass synthetische Daten die Trainingskosten um bis zu 90 Prozent senken können – vorausgesetzt, die rechtlichen Rahmenbedingungen klären, wer diese Daten nutzen darf und unter welchen Bedingungen.
Hier kommt der europäische Data Act ins Spiel. Die Verordnung, die seit 2024 schrittweise in Kraft tritt, zielt darauf ab, den Zugang zu industriellen Daten fairer zu gestalten. Für Hersteller von vernetzten Geräten – etwa Roboterarme oder Sensoren – bedeutet das, dass sie Nutzerdaten auf Anfrage herausgeben müssen, selbst an Wettbewerber. Gleichzeitig schafft der Data Act Anreize für Datenpooling, also die gemeinsame Nutzung von Datensätzen zwischen Unternehmen, um KI-Modelle zu verbessern. Für Weltmodelle ist das ein zweischneidiges Schwert: Einerseits erleichtert der Act den Zugang zu wertvollen Trainingsdaten, andererseits riskieren Unternehmen, ihre proprietären Prozesskenntnisse preiszugeben, wenn sie nicht klar regeln, welche Daten geteilt werden und welche als Betriebsgeheimnis geschützt bleiben.
Datenrecht als Enabler … oder Bremse
Der Data Act zwingt Unternehmen, ihre Datenstrategie neu zu denken. Bisher konnten Hersteller von Industrieanlagen oder Robotik-Komponenten die Nutzung der anfallenden Daten oft vertraglich einschränken.
Künftig müssen sie Nutzerdaten „fair, angemessen und nicht-diskriminierend“ zur Verfügung stellen – eine Regelung, die vor allem mittelständischen Zulieferern neue Chancen eröffnet, aber auch die Gefahr von Know-how-Abfluss birgt. Besonders relevant ist Artikel 4 der Verordnung, der den Zugang zu „Daten, die durch die Nutzung eines Produkts oder einer Dienstleistung generiert werden“, regelt. Für Weltmodelle bedeutet das: Wenn ein Roboter in einer Fabrik Sensordaten sammelt, können diese Daten unter bestimmten Bedingungen auch von Dritten genutzt werden, um konkurrierende KI-Systeme zu trainieren.
Für deutsche Unternehmen ergibt sich daraus eine strategische Weichenstellung. Wer seine Daten proaktiv in kontrollierten Ökosystemen teilt – etwa über branchenweite Datenräume –, kann Standards setzen und von Skaleneffekten profitieren. Wer sich verschließt, riskiert, dass Wettbewerber mit besseren Datengrundlagen überlegene KI-Lösungen entwickeln. Gleichzeitig stellt der Data Act hohe Anforderungen an die Interoperabilität: Daten müssen maschinenlesbar und in standardisierten Formaten bereitgestellt werden. Das begünstigt Plattformanbieter wie Nvidia, deren Tools bereits auf OpenUSD und andere offene Standards setzen.
Ein weiteres Spannungsfeld entsteht beim Einsatz synthetischer Daten. Rechtlich gelten diese zwar nicht als personenbezogen, doch wenn sie auf realen Produktionsdaten basieren, können sie indirekt Betriebsgeheimnisse preisgeben. Die Lösung liegt in hybriden Ansätzen: Echte Daten werden nur für die Grundkalibrierung genutzt, während die meisten Trainingsdaten synthetisch generiert werden. So lässt sich das Risiko minimieren, ohne auf die Vorteile verzichten zu müssen. Allerdings fehlen bisher klare Leitlinien, wie synthetische Daten im Sinne des Data Act zu behandeln sind – eine Lücke, die in den kommenden Jahren durch Rechtsprechung oder ergänzende Regulierung geschlossen werden muss.

Weltmodelle erfordern eine neue Datenkultur
Die Entwicklung hin zu KI, die die physische Welt versteht, ist nicht nur eine technische, sondern auch eine rechtliche und strategische Herausforderung. Weltmodelle werden die Produktivität in Industrie, Logistik und Dienstleistung revolutionieren – doch ihr Erfolg hängt davon ab, ob Unternehmen die Kontrolle über ihre Daten behalten oder sie gezielt als Wettbewerbsvorteil einsetzen. Der Data Act bietet hier einen Rahmen, der sowohl Chancen als auch Risiken birgt. Entscheidend wird sein, wie Unternehmen die Balance finden zwischen Offenheit, um von gemeinsamen Datensätzen zu profitieren, und Schutz ihrer Kernkompetenzen.
Für das Management bedeutet das: Daten sind nicht länger ein Nebenprodukt der Produktion, sondern ein zentraler Werttreiber. Wer jetzt investiert – in die Anreicherung proprietärer Daten mit synthetischen Methoden, in die Teilnahme an Datenpooling-Initiativen und in die rechtssichere Gestaltung von Datenflüssen –, kann die nächste Woche der KI mitgestalten. Wer zaudert, riskiert, dass andere die Regeln definieren. In einer Welt, in der KI zunehmend über physikalische Prozesse entscheidet, wird die Beherrschung der Datenströme zum entscheidenden Faktor. Nicht die größte KI, sondern diejenige mit den besten Daten wird am Ende gewinnen.
- Entwicklung der Robotik 2025 - Oktober 24, 2025
- Weltmodelle und Datenrecht - Oktober 10, 2025
- Entwicklung der Robotik im Jahr 2025 - Oktober 5, 2025
