Weltmodelle und Datenrecht

Wie KI die physische Welt begreift – und warum das Datenrecht darüber (mit-)entscheidet: Die nächste Stufe der Künstlichen Intelligenz wird nicht in Chatfenstern stattfinden, sondern in Fabriken, Logistikzentren und auf Straßen. Weltmodelle – KI-Systeme, die nicht Wörter, sondern physikalische Zustände vorhersagen – gelten als Schlüssel, um Maschinen ein echtes Verständnis ihrer Umgebung zu verleihen.

Während Sprachmodelle wie ChatGPT statistische Muster in Texten erkennen, simulieren Weltmodelle die Gesetze der Physik, die Dynamik von Objekten und die Konsequenzen von Handlungen. Sie ermöglichen es Robotern, autonome Fahrzeuge oder Produktionsanlagen, sich in einer komplexen, unvorhersehbaren Welt zu orientieren, ohne jede Situation zuvor explizit programmiert zu haben. Doch dieser Fortschritt wirft nicht nur technische, sondern auch grundlegende rechtliche Fragen auf: Wer kontrolliert die Daten, auf denen diese Modelle trainieren? Wie lassen sich synthetische Trainingsdaten rechtssicher nutzen? Und welche Rolle spielt der europäische Data Act bei der Verteilung von Wertschöpfung und Risiko? Ein Überblick.

Weltmodelle und Datenrecht weiterlesen

Der Data Act ist da: Was er regelt – und was Unternehmen jetzt tun müssen

Der Data Act (VO (EU) 2023/2854) ist seit dem 12. September 2025 in weiten Teilen anwendbar – mit dem erklärten Ziel, Datennutzung in Europa einfacher, fairer und interoperabler zu machen. Er richtet sich vor allem an Hersteller vernetzter Produkte, Dateninhaber und Nutzer, außerdem an Anbieter von Datenverarbeitungsdiensten (Cloud, PaaS, SaaS, IaaS). Die Verordnung ergänzt die DSGVO, sie ersetzt sie nicht: Wo personenbezogene Daten betroffen sind, gelten weiterhin die DSGVO-Spielregeln; der Data Act zielt primär auf nicht-personenbezogene Nutzungsdaten und damit verbundene Metadaten ab.

Wer in diesen Kategorien fällt? Praktisch jedes Unternehmen, das smarte, datenproduzierende Güter herstellt oder betreibt – vom Industriegerät über Fahrzeuge bis zum Haushaltssystem – und alle, die entsprechende Cloud-Leistungen anbieten oder beziehen. Für Start-ups und Kleinstunternehmen gibt es punktuelle Ausnahmen, die Grundlinie bleibt aber: Datenzugang und -weitergabe sollen rechtlich und technisch möglich werden.

Der Data Act ist da: Was er regelt – und was Unternehmen jetzt tun müssen weiterlesen

Künstliche Intelligenz, Daten und Wettbewerb

Künstliche Intelligenz (KI) hat das Potenzial, viele Märkte positiv zu beeinflussen, insbesondere durch die jüngsten Entwicklungen im Bereich der generativen KI. Der OECD-Bericht „Artificial Intelligence, Data and Competition“ untersucht diese Entwicklungen und beleuchtet die möglichen Auswirkungen auf den Wettbewerb in verschiedenen Märkten.

Der Bericht bietet eine detaillierte Analyse der Herausforderungen und Chancen, die sich aus der Integration von KI ergeben, und stellt politische Maßnahmen vor, um diese Entwicklungen zu steuern.

Künstliche Intelligenz, Daten und Wettbewerb weiterlesen

Schutz von KI

Kann künstliche Intelligenz als solche rechtlich geschützt werden? Die Frage ist keineswegs trivial – und von erheblicher wirtschaftlicher Bedeutung: Die rechtliche Problematik und Notwendigkeit des Schutzes von Datensätzen in diesem Zusammenhang liegt auf der Hand.

In einer digitalisierten Wirtschaft, in der Daten zunehmend als wertvolles Wirtschaftsgut betrachtet werden, ist der rechtliche Schutz z.B. von Datenbeständen, aber auch von Software, die mit diesen Daten arbeitet, von entscheidender Bedeutung. Nur so kann aus hiesiger Sicht die Frage der Schutzfähigkeit von KI durch eine getrennte Betrachtung von Datenbeständen und Software beantwortet werden.

Schutz von KI weiterlesen

Data Act

Data Act, ein kleiner Überblick: Die Europäische Kommission hat bereits 2022 Regeln für die Nutzung und den Zugang zu in der EU erzeugten Daten in allen Wirtschaftsbereichen vorgelegt. Der Datenrechtsakt (“Data Act”) soll für Fairness im digitalen Umfeld sorgen, einen wettbewerbsfähigen Datenmarkt fördern, Möglichkeiten für datengestützte Innovationen eröffnen und den Zugang zu Daten für alle erleichtern. Inzwischen ist der Data Act dabei, Realität zu werden und gilt bald europaweit.

Der Data Act soll insbesondere zu neuen, innovativen Dienstleistungen und wettbewerbsfähigeren Preisen für Kundendienstleistungen und Reparaturen von vernetzten Gegenständen führen. Dieser letzte horizontale Baustein der Datenstrategie der Kommission wird eine Schlüsselrolle bei der digitalen Transformation im Einklang mit den digitalen Zielen für 2030 spielen.

Data Act weiterlesen

Rechtliche Herausforderungen durch künstliche Intelligenz

Die rechtlichen Herausforderungen im Bereich der Künstlichen Intelligenz (KI) sind vielfältig und betreffen nahezu alle Rechtsgebiete. Sie umfassen sowohl rechtsgebietsspezifische Fragen als auch Probleme, die durch den Einsatz von KI in verschiedenen Lebensbereichen entstehen können.

Dabei stellt sich grundsätzlich die Frage, wie das Rechtssystem auf die durch KI verursachten Veränderungen der Lebenswelt reagieren kann und soll. Dabei lassen sich drei grundsätzlich unterschiedliche Konstellationen unterscheiden: (1) die Anwendung bestehender Rechtsnormen auf neue Sachverhalte, (2) die notwendige Fortentwicklung bestehender Rechtsnormen und (3) die Notwendigkeit rechtspolitischer Veränderungen, wenn eine Fortentwicklung des geltenden Rechts nicht ausreicht.

Rechtliche Herausforderungen durch künstliche Intelligenz weiterlesen

Data-Sharing und Datenlizenzvertrag: Rechtliche Aspekte der Datennutzung

Data-Sharing und Datenlizenzvertrag: Im digitalen Zeitalter sind Daten das neue Gold. Sie treiben Innovationen voran, ermöglichen fortschrittliche KI-Technologien und sind zentraler Bestandteil vieler Geschäftsmodelle. Doch mit der zunehmenden Bedeutung von Daten wachsen auch die rechtlichen Herausforderungen. In diesem Beitrag werfen wir einen Blick auf einige der wichtigsten rechtlichen Fragen im Kontext der Nutzung von Daten.

Data-Sharing und Datenlizenzvertrag: Rechtliche Aspekte der Datennutzung weiterlesen

Predictive Policing: Automatisierte Datenanalyse und Informationelle Selbstbestimmung

Die Zukunft der Kriminalitätsbekämpfung liegt wahrscheinlich in einem Wandel von der reinen Reaktion hin zur Prävention. Technisch möglich wird dieser Wandel durch die Kombination zweier technologischer Entwicklungen: Auf der einen Seite eine eklatante Anhäufung von Daten (“Big Data”) und auf der anderen Seite die zunehmende Möglichkeit, durch bestimmte Formen künstlicher Intelligenz diese Daten nicht nur auszuwerten, sondern daraus auch brauchbare statistische Vorhersagen zu gewinnen. Dies ermöglicht zumindest theoretisch die Vorhersage des Auftretens von Straftaten, das sogenannte Predictive Policing.

Das Bundesverfassungsgericht hatte nun erstmals Gelegenheit, sich zu diesem Thema zu äußern. Die Entscheidung dürfte für Jahrzehnte richtungsweisend sein. Sie beginnt wenig überraschend mit der Klarstellung, dass, wenn gespeicherte Datenbestände mittels einer automatisierten Anwendung zur Analyse oder Auswertung von Daten verarbeitet werden, dies einen Eingriff in die informationelle Selbstbestimmung (Art. 2 Abs. 1 i.V.m. Art. 1 Abs. 1 GG) all derjenigen darstellt, deren Daten bei diesem Vorgang personenbezogen verwendet werden (1 BvR 1547/19 und 1 BvR 2634/20). Betroffen sind also nicht nur die Personen, die am Ende der Auswertung möglicherweise Gegenstand von (weiteren) Ermittlungsmaßnahmen sind.

Ebenso hat das Bundesverfassungsgericht ausdrücklich klargestellt, dass dann, wenn die entsprechende automatisierte Datenanalyse oder -auswertung einen schwerwiegenden Eingriff in das informationelle Selbstbestimmungsrecht ermöglicht, dieser nur unter den engen Voraussetzungen gerechtfertigt werden kann, wie sie allgemein für eingriffsintensive heimliche Überwachungsmaßnahmen gelten. Das heißt: nur zum Schutz besonders gewichtiger Rechtsgüter, sofern für diese eine zumindest hinreichend konkrete Gefahr besteht.

Auf das Erfordernis einer zumindest hinreichend konkretisierten Gefahr für besonders wichtige Rechtsgüter kann aus verfassungsrechtlicher Sicht nur dann verzichtet werden, wenn die zulässigen Analyse- und Auswertungsmöglichkeiten durch Regelungen insbesondere zur Begrenzung von Art und Umfang der Daten und zur Beschränkung der Datenverarbeitungsmethoden normenklar und hinreichend bestimmt so eng begrenzt werden, dass das Eingriffsgewicht der Maßnahmen erheblich reduziert wird. Dabei hat das BVerfG sogar einen Kriterienkatalog für die jeweilige Abwägung gleich mitgeliefert, der äußerst umfangreich ist, zugleich aber eine formelhafte Betrachtung im Keim unterbindet.

Predictive Policing: Automatisierte Datenanalyse und Informationelle Selbstbestimmung weiterlesen