Weltmodelle und Datenrecht

Wie KI die physische Welt begreift – und warum das Datenrecht darüber (mit-)entscheidet: Die nächste Stufe der Künstlichen Intelligenz wird nicht in Chatfenstern stattfinden, sondern in Fabriken, Logistikzentren und auf Straßen. Weltmodelle – KI-Systeme, die nicht Wörter, sondern physikalische Zustände vorhersagen – gelten als Schlüssel, um Maschinen ein echtes Verständnis ihrer Umgebung zu verleihen.

Während Sprachmodelle wie ChatGPT statistische Muster in Texten erkennen, simulieren Weltmodelle die Gesetze der Physik, die Dynamik von Objekten und die Konsequenzen von Handlungen. Sie ermöglichen es Robotern, autonome Fahrzeuge oder Produktionsanlagen, sich in einer komplexen, unvorhersehbaren Welt zu orientieren, ohne jede Situation zuvor explizit programmiert zu haben. Doch dieser Fortschritt wirft nicht nur technische, sondern auch grundlegende rechtliche Fragen auf: Wer kontrolliert die Daten, auf denen diese Modelle trainieren? Wie lassen sich synthetische Trainingsdaten rechtssicher nutzen? Und welche Rolle spielt der europäische Data Act bei der Verteilung von Wertschöpfung und Risiko? Ein Überblick.

Weltmodelle und Datenrecht weiterlesen

Der Data Act ist da: Was er regelt – und was Unternehmen jetzt tun müssen

Der Data Act (VO (EU) 2023/2854) ist seit dem 12. September 2025 in weiten Teilen anwendbar – mit dem erklärten Ziel, Datennutzung in Europa einfacher, fairer und interoperabler zu machen. Er richtet sich vor allem an Hersteller vernetzter Produkte, Dateninhaber und Nutzer, außerdem an Anbieter von Datenverarbeitungsdiensten (Cloud, PaaS, SaaS, IaaS). Die Verordnung ergänzt die DSGVO, sie ersetzt sie nicht: Wo personenbezogene Daten betroffen sind, gelten weiterhin die DSGVO-Spielregeln; der Data Act zielt primär auf nicht-personenbezogene Nutzungsdaten und damit verbundene Metadaten ab.

Wer in diesen Kategorien fällt? Praktisch jedes Unternehmen, das smarte, datenproduzierende Güter herstellt oder betreibt – vom Industriegerät über Fahrzeuge bis zum Haushaltssystem – und alle, die entsprechende Cloud-Leistungen anbieten oder beziehen. Für Start-ups und Kleinstunternehmen gibt es punktuelle Ausnahmen, die Grundlinie bleibt aber: Datenzugang und -weitergabe sollen rechtlich und technisch möglich werden.

Der Data Act ist da: Was er regelt – und was Unternehmen jetzt tun müssen weiterlesen

Vorsicht bei Studien zu großen Sprachmodellen (LLMs)

Eine frühere Studie mit dem Titel „Physics of Language Models: Part 2.1, Grade-School Math and the Hidden Reasoning Process“, stellte die Leistungsfähigkeit von Transformer-Modellen bei der Lösung elementarer mathematischer Textaufgaben in den Mittelpunkt. Diese Arbeit behauptet, tiefgreifende Einsichten in die Fähigkeiten von großen Sprachmodellen (LLMs) zu liefern.

Jedoch zeigt eine kritische Analyse von Ernest Davis von der New York University, dass diese Studie ein hervorragendes Beispiel dafür ist, wie vorsichtig man bei der Bewertung und Interpretation von Forschungsergebnissen im Bereich der LLMs sein muss.

Vorsicht bei Studien zu großen Sprachmodellen (LLMs) weiterlesen

Generative KI – Risiken und Missbrauch

Generative, multimodale Künstliche Intelligenz (GenAI) hat das Potenzial, viele Branchen zu revolutionieren. Doch genauso groß wie die Möglichkeiten sind auch die Risiken, die durch den Missbrauch dieser Technologie entstehen. Eine kürzlich veröffentlichte Studie beleuchtet die verschiedenen Taktiken des Missbrauchs von GenAI und gibt wertvolle Einblicke und Empfehlungen. Hier sind die wichtigsten Erkenntnisse und Empfehlungen aus dieser Studie.

Generative KI – Risiken und Missbrauch weiterlesen

LLM-Hacking: Ein Überblick über Angriffstechniken und -szenarien

Das sogenannte “LLM-Hacking” bezieht sich auf Techniken und Strategien, um diese Modelle zu manipulieren oder ihre Funktionen auf unvorhergesehene Weise zu nutzen.

Große Sprachmodelle sind in gewisser Hinsicht besonders gefahrgeneigt, weil diese versuchen autonom zu agieren und dabei notwendigerweise auf Eingaben von Außen angewiesen sind: Mal durch die Aufgaben, die ihnen erteilt werden, mal durch Daten, mit denen sie gefüttert werden. Die zunehmende Verbreitung von LLM sollte dabei Anlass sein, sich mit grundsätzlichem Wissen zur Cybersicherheit bei LLM auseinanderzusetzen. Im Folgenden möchte ich darum als Einstieg verständlich darauf eingehen, was LLM-Hacking ist und typische Angriffsszenarien beschreiben.

LLM-Hacking: Ein Überblick über Angriffstechniken und -szenarien weiterlesen

Überblick über die Regulierung von Künstlicher Intelligenz (KI) in China

China hat sich in den letzten Jahren als ein führendes Land in der Regulierung von Künstlicher Intelligenz (KI) etabliert. Die chinesische Regierung hat eine Vielzahl von Gesetzen und Regelungen eingeführt, um den Einsatz und die Entwicklung von KI zu steuern.

Diese Regulierung zielt darauf ab, die Technologie so zu gestalten, dass sie den politischen und sozialen Zielen des Landes dient, gleichzeitig aber auch ethische und wirtschaftliche Aspekte berücksichtigt. Im Folgenden gebe ich einen Überblick über die wichtigsten chinesischen Gesetze zur KI-Regulierung und ihre jeweiligen Links zu den vollständigen Texten.

Überblick über die Regulierung von Künstlicher Intelligenz (KI) in China weiterlesen

Production as a Service – Wirtschaftliche Vorteile für Unternehmen

In einer Zeit, in der Flexibilität und Kosteneffizienz entscheidend für den Erfolg von Unternehmen sind, gewinnt das Konzept “Production as a Service” (PaaS) immer mehr an Bedeutung. PaaS ermöglicht es Unternehmen, Produktionskapazitäten als Dienstleistung zu nutzen, ähnlich wie Software-as-a-Service (SaaS). Dieses Modell bietet insbesondere kleinen und mittelständischen Unternehmen (KMU) erhebliche wirtschaftliche Vorteile. In diesem Beitrag stellen wir das Geschäftsmodell “Production as a Service” vor und beleuchten die wichtigsten wirtschaftlichen Vorteile für Unternehmen.

Production as a Service – Wirtschaftliche Vorteile für Unternehmen weiterlesen

xLSTM: Revolution der Künstlichen Intelligenz durch erweiterte LSTM-Modelle?

Ein ganz frisches Forschungspapier – u.a. von Sepp Hochreiter – stellt eine vermutlich bahnbrechende Weiterentwicklung der bekannten LSTM-Technologie vor, die als xLSTM (Extended Long Short-Term Memory) bezeichnet wird. Diese Innovation könnte eine neue Ära für große Sprachmodelle und andere KI-Anwendungen einläuten, auch in wirtschaftlicher Hinsicht. Gleichwohl wird schon jetzt zur ruhigen Beobachtung der weiteren Entwicklung angemahnt.

Aufgrund des medialen Echos nehme ich das Thema hier im Blog ebenfalls kurz auf: Im Folgenden soll es kurz um die Kernkonzepte dieser Arbeit gehen, ihre Implikationen und was sie für die Zukunft der Künstlichen Intelligenz bedeuten könnte.

xLSTM: Revolution der Künstlichen Intelligenz durch erweiterte LSTM-Modelle? weiterlesen

Die ökonomischen Auswirkungen der generativen KI

Generative Künstliche Intelligenz (KI) steht im Mittelpunkt einer hochinteressanten Studie, die von Andrew McAfee, einem Forscher am MIT Sloan School of Management, verfasst wurde. Die Studie, betitelt „Generally Faster: The Economic Impact of Generative AI“, untersucht, wie diese Technologie die ökonomischen Landschaften verändern könnte. Dieser Blogbeitrag fasst die wesentlichen Erkenntnisse der Studie zusammen und diskutiert ihre möglichen Implikationen.

Die ökonomischen Auswirkungen der generativen KI weiterlesen