Im BMW-Werk Leipzig stehen, wie das Handelsblatt berichtet, seit Februar 2026 humanoide Roboter am Band. In der Hyundai-Fabrik in Georgia sortiert der Atlas von Boston Dynamics Dachträger weitgehend ohne menschliche Hilfe. Und NVIDIA-Chef Jensen Huang proklamierte auf der CES 2026, der „ChatGPT-Moment für die Robotik“ sei gekommen. Was nach Science-Fiction klingt, wird gerade zum Gegenstand industrieller Routineplanung – und wirft eine Reihe rechtlicher Fragen auf, die das bestehende Regulierungsgerüst an seine Grenzen bringen.
KI verlässt den Bildschirm
Jahrzehntelang war Künstliche Intelligenz ein Phänomen der digitalen Welt. Chatbots formulierten Texte, Empfehlungssysteme schlugen Filme vor, Diagnosealgorithmen bewerteten Röntgenbilder.
Die Konsequenzen eines Fehlers waren überschaubar: eine falsche Produktempfehlung, eine unzutreffende Übersetzung, ein irritierender Chatbot-Dialog. Das ändert sich gerade grundlegend. Unter dem Schlagwort „Physical AI“ drängen KI-Systeme in die physische Welt – und bringen dort jene Risiken mit, die Fehler in der realen Umgebung stets mit sich tragen: Körperverletzung, Sachschäden, Betriebsunterbrechungen.
Physical AI meint, vereinfacht gesagt, KI-Systeme, die nicht nur Daten verarbeiten, sondern über Sensoren, Aktoren und Hardware unmittelbar auf ihre physische Umgebung einwirken. Sie steuern Roboterarme, lenken Fahrzeuge, assistieren bei Operationen. Der Unterschied zur klassischen Industrierobotik liegt nicht in der Mechanik, sondern im Gehirn dahinter: Statt starrer Wenn-dann-Logik kommen zunehmend lernende Systeme zum Einsatz, die auf unvorhergesehene Situationen reagieren, ihre Prozesse eigenständig anpassen und – im Falle agentischer KI – sogar eigene Handlungsstrategien entwerfen.
Globales Wettrennen
Das Tempo der Entwicklung ist atemberaubend. Goldman Sachs hat seine Prognose für den Markt humanoider Roboter innerhalb weniger Jahre versechsfacht – von 6 Milliarden US-Dollar auf 38 Milliarden bis 2035. Morgan Stanley hält sogar ein Volumen von über einer Billion Dollar bis 2040 für möglich. Elon Musk prognostiziert, dass es in Zukunft mehr humanoide Roboter als Menschen geben wird.
In Deutschland nimmt das Thema gerade konkret Fahrt auf. BMW startet laut Berichterstattung im Sommer 2026 ein Pilotprojekt mit humanoiden Robotern des Typs „AEON“ von Hexagon Robotics im Werk Leipzig – der erste Einsatz dieser Art in der europäischen Serienproduktion. Das Projekt baut auf den Erfahrungen aus dem US-Werk Spartanburg auf, wo der Roboter Figure 02 elf Monate lang an der Produktionslinie stand: über 90.000 Blechteile bewegt, mehr als 1.250 Betriebsstunden absolviert, Beitrag zur Produktion von über 30.000 BMW X3 – bei einer Platzierungsgenauigkeit von über 99 Prozent. BMW-Manager Michael Ströbel rechnet damit, dass in fünf Jahren tausende humanoide Roboter in den Fabriken im Einsatz sein werden.
Parallel dazu startet Agile Robots Anfang 2026 in Bayern die Serienfertigung des „Agile ONE“, eines humanoiden Roboters, der speziell für industrielle Umgebungen entwickelt wurde. Schaeffler und Neura Robotics haben eine Technologiepartnerschaft begründet, die bis 2035 eine mittlere vierstellige Zahl an Humanoiden in die Schaeffler-Produktion bringen soll. Bosch und Neura Robotics sammeln mittels Sensoranzügen, die Mitarbeiter in Bosch-Werken tragen, reale Arbeitsdaten, um damit KI-Software für humanoide Roboter zu trainieren. Und Boston Dynamics hat die Produktion des neuen Atlas am Standort Boston begonnen, die gesamte Startproduktion für 2026 ist bereits ausverkauft – ab 2028 soll der Roboter in Hyundai-Werken regulär eingesetzt werden.
Was ist überhaupt ein „KI-System“?
Bevor die Haftungsfrage beantwortet werden kann, muss eine vorgelagerte Frage geklärt werden: Handelt es sich bei einem Physical-AI-Roboter überhaupt um ein „KI-System“ im Sinne der europäischen KI-Verordnung? Die Antwort ist weniger selbstverständlich, als man vermuten würde.
Die KI-Verordnung definiert ein KI-System in Art. 3 Nr. 1 als „ein maschinengestütztes System, das für einen in unterschiedlichem Grade autonomen Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann und das aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ausgaben wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die physische oder virtuelle Umgebungen beeinflussen können“. Diese Definition, eng angelehnt an die überarbeitete OECD-Definition von November 2023, ist allerdings von bemerkenswert geringer Trennschärfe.
Wendehorst, Nessler, Aufreiter und Aichinger haben in einem grundlegenden Aufsatz gezeigt, dass praktisch kein einziges Element der Definition geeignet ist, KI-Systeme zuverlässig von anderen Softwaresystemen abzugrenzen. Das Merkmal der Autonomie ist nach dem Wortlaut auch bei Grad null erfüllt. Die Anpassungsfähigkeit soll lediglich fakultativ sein – andernfalls wären die meisten am Markt befindlichen ML-Modelle, die nach Inbetriebnahme gar nicht mehr lernen, nicht erfasst. Und das zentrale Merkmal der „Ableitung“ lässt sich sowohl als Verweis auf den Entwicklungsprozess (Ableitung von Modellen aus Trainingsdaten) als auch auf die Anwendungsphase (Ableitung von Outputs aus Eingabedaten) lesen.
Die Autoren schlagen daher einen „Drei-Faktor-Ansatz“ vor, der an drei unabhängigen Achsen ansetzt: erstens die Rolle von Daten oder Erfahrungswissen bei der Entwicklung des Systems, zweitens das Maß an zielorientierter Optimierung bei der Anwendung und drittens das Ausmaß formaler Unbestimmtheit bei den erwarteten Ausgaben. Diese drei Faktoren wirken nach dem Prinzip eines beweglichen Systems zusammen – eine starke Ausprägung eines Faktors kann eine schwache oder fehlende Ausprägung eines anderen kompensieren. Als Faustregel empfehlen die Autoren, ab insgesamt drei „Plus“-Zeichen von einem KI-System im Sinne der Verordnung auszugehen.
Für Physical-AI-Systeme im Bereich der adaptiven Robotik ergibt sich nach diesem Schema typischerweise eine klare Einordnung als KI-System: Die Entwicklung basiert auf umfangreichen Trainingsdaten, die Systeme nutzen Reinforcement Learning und zielorientierte Optimierung im laufenden Betrieb, und der Ermessensspielraum bei den Ausgaben – etwa der Frage, welche Bewegung in einer konkreten Situation die richtige ist – ist erheblich.
Roboter als Maschine mit eingebettetem KI-System
Ein wichtiger technischer Punkt der Einordnung: Die KI-Verordnung unterscheidet zwischen KI-Systemen als eigenständigem Produkt und KI-Systemen als Komponente eines anderen Produkts. Ein Roboter ist nach der KI-Verordnung als eine Maschine mit eingebettetem KI-System zu qualifizieren – nicht als KI-System insgesamt. Die Hardware, also die mechanischen Komponenten, Sensoren und Aktoren, ist nicht Teil des KI-Systems im regulatorischen Sinne. Allerdings ist die Konformität eines KI-Systems immer in seiner konkreten Hardware- und Softwareumgebung zu beurteilen, sodass die Unterscheidung in der Praxis eine geringe Rolle spielt.
Entscheidend ist die Konsequenz für die Risikoklassifizierung: KI-Systeme, die im Anwendungsbereich der aktuellen Maschinenrichtlinie liegen, werden von der KI-Verordnung als Hochrisiko-KI eingestuft. Physical AI mit beweglichen Elementen ist daher in aller Regel Hochrisiko-KI und muss die entsprechenden umfangreichen Pflichten erfüllen – von Risikomanagementsystemen über Datenqualitätssicherung bis zur technischen Dokumentation und Gewährleistung menschlicher Aufsicht.
Der Zeitfaktor: Maschinenverordnung und Digital Omnibus
Doch die zeitliche Dimension macht die Sache komplizierter. Ab Januar 2027 wird – mit einigen Übergangsfristen – die neue Maschinenverordnung an die Stelle der bisherigen Maschinenrichtlinie treten. Maschinen im Anwendungsbereich der neuen Maschinenverordnung sind dann nicht mehr unmittelbar Hochrisiko-KI nach der KI-Verordnung. Es kommt also stark darauf an, wann ein bestimmtes Physical-AI-System in Verkehr gebracht wird.
Hinzu kommt das „Digital Omnibus“-Paket, das die EU-Kommission im November 2025 vorgelegt hat. Die Compliance-Frist für Hochrisiko-KI-Systeme nach Anhang III der KI-Verordnung verschiebt sich danach voraussichtlich vom 2. August 2026 auf den 2. Dezember 2027. Für Hochrisiko-KI-Systeme nach Anhang I, also insbesondere KI, die in bereits regulierte Produkte wie Maschinen integriert ist, verschiebt sich die Anwendung um ein Jahr – auf den 2. August 2028. Die Begründung: Die notwendigen harmonisierten Standards existieren schlicht noch nicht.
Für Unternehmen, die Physical-AI-Lösungen entwickeln oder einsetzen, ergibt sich daraus ein anspruchsvolles Puzzle verschiedener Regelwerke und Übergangsfristen. Bei jedem Inverkehrbringen muss sorgfältig geprüft werden, welches Regime gerade gilt.
Kernfrage: Wer haftet, wenn der Roboter irrt?
Die physische Welt birgt ein erheblich größeres Schadenspotential als die digitale. Fehler eines Chatbots sind meist nur lästig. Fehler eines autonomen Roboters können gefährlich werden – sie können Leib, Leben und Gesundheit beeinträchtigen, weil die Maschine selbst ein physisches Hindernis darstellt.
Die aktuelle Tendenz in der Literatur verortet die primäre Verantwortung beim Hersteller beziehungsweise beim Inverkehrbringer, da diese den größten Einfluss auf Konzeption, Entwicklung und Sicherheit des Systems haben. Daneben können aber auch Betreiberpflichten – Wartung, Überwachung, Schulung des Personals – haftungsrechtlich relevant werden.
Besonders heikel sind zwei Aspekte. Zum einen die Vorhersehbarkeit: Bei selbstlernenden Systemen ist die Abgrenzung zwischen beherrschbaren und nicht mehr beherrschbaren Risiken rechtlich anspruchsvoll. Wenn weder der konkrete Schadenshergang noch das Schadensausmaß hinreichend vorhersehbar waren, stellt sich die Frage, ob und in welchem Umfang die Haftung begrenzt werden kann. Zum anderen das Black-Box-Problem: Viele KI-Systeme sind in ihrer internen Funktionsweise selbst für die Entwickler nur eingeschränkt nachvollziehbar. Versteckt sich diese Software in einem physischen Gerät, wird der Entlastungsbeweis praktisch kaum zu führen sein.
Neues Produkthaftungsrecht ab Dezember 2026
Parallel zu dieser regulatorischen Gemengelage wird das Produkthaftungsrecht grundlegend reformiert. Die neue EU-Produkthaftungsrichtlinie (EU) 2024/2853 muss bis zum 9. Dezember 2026 in nationales Recht umgesetzt werden. Der deutsche Gesetzentwurf bringt für Physical AI wesentliche Neuerungen.
Erstens werden Software und KI-Systeme ausdrücklich als Produkte in den Produktbegriff einbezogen – unabhängig davon, ob die KI lokal läuft, cloudbasiert ist oder als „AI as a Service“ betrieben wird. Zweitens werden die bisherige Haftungshöchstgrenze von 85 Millionen Euro und der Selbstbehalt bei Sachschäden gestrichen. Drittens – und für die Praxis besonders relevant – wird das Beweisrecht zugunsten Geschädigter erweitert: Offenlegungsansprüche, gesetzliche Vermutungen für das Vorliegen eines Produktfehlers und eine komplexitätssensitive Beweislastentlastung, insbesondere bei technisch anspruchsvollen Produkten wie KI-Systemen. Bei Physical-AI-Systemen dürfte regelmäßig von einer solchen technischen Komplexität auszugehen sein, die eine Beweislastverschiebung zugunsten Geschädigter auslöst.
Die Reform steht bewusst im Kontext des AI Act und der neuen Produktsicherheits- und Cyberresilienz-Regime. Die Sicherheitsanforderungen dieser Regelwerke werden über Verweisungen ausdrücklich in den Fehlerbegriff der Produkthaftung hineingezogen.
Was kommt auf Unternehmen zu?

Die Gleichzeitigkeit von industriellem Aufbruch und regulatorischer Verdichtung erzeugt eine Gemengelage, die für Unternehmen – Hersteller wie Betreiber – höchste Aufmerksamkeit verlangt. Die Erfahrungen aus Spartanburg und Leipzig zeigen, dass Physical AI unter realen Bedingungen einen messbaren Mehrwert leisten kann. Die Marktdynamik mit Milliarden-Investitionen und exponentiellen Wachstumsprognosen lässt vermuten, dass humanoide Roboter in der industriellen Fertigung innerhalb weniger Jahre zum Standard gehören werden.
Gleichzeitig steigt das Haftungs- und Regulierungsrisiko erheblich. Unternehmen, die Physical-AI-Lösungen entwickeln oder einsetzen, sind gut beraten, mehrere Dinge frühzeitig anzugehen: die systematische Analyse möglicher Schadensszenarien und Haftungsketten, die genaue Prüfung, welche Anforderungen der KI-Verordnung, des Maschinenrechts und des neuen Produkthaftungsrechts für ihre konkreten Systeme gelten – und ab wann. Dazu gehört der Aufbau eines produkthaftungsfesten Dokumentationsregimes, das technische Nachvollziehbarkeit gewährleistet: Modellversionen, Trainingsdaten, Update-Historien, Risikoanalysen. Und nicht zuletzt die Überarbeitung von Verträgen entlang der gesamten Wertschöpfungskette – von Software-Zulieferern über Cloud-Provider bis zu Datenlieferanten.
- Physical AI - Februar 27, 2026
- EU-Maschinenverordnung (Verordnung über sichere Maschinenprodukte 2027) - Januar 1, 2026
- Softwareentwicklung und Zollwert: Immaterielle Leistungen steigern Warenwert - Dezember 31, 2025

