Blog

Künstliche Intelligenz als großer Filter im Universum?

In unserer digitalisierten Welt, in der die Entwicklung künstlicher Intelligenz (KI) kaum mehr fassbar voranschreitet, wirft eine aktuelle Studie von Michael A. Garrett (EN), veröffentlicht in der Acta Astronautica, eine faszinierende Frage auf: Ist KI der „Große Filter“, der die Seltenheit von fortgeschrittenen technologischen Zivilisationen im Universum erklärt – und geht damit eine existenzielle Bedrohung einher.

Garrett beleuchtet die bemerkenswerte These, dass die schnelle Entwicklung hin zur Künstlichen Superintelligenz (ASI) zu einem „Großen Filter“ führen könnte. Dieser Filter entsteht, bevor Zivilisationen eine stabile, multiplanetare Existenz entwickeln können. Die Studie schlägt vor, dass die typische Lebensdauer einer technischen Zivilisation unter 200 Jahre liegt. Dieser Zeitrahmen erklärt die Nullergebnisse der jüngsten SETI-Umfragen und anderer Versuche, verschiedene Technosignaturen im elektromagnetischen Spektrum zu entdecken.

Künstliche Intelligenz als großer Filter im Universum? weiterlesen

Asimov und die Wissensgesellschaft

Unsere Gesellschaft ändert sich in der Art, wie wir mit Wissen umgehen: Die Anfänge einer neuen Zeit zeigten sich mit Google und Wikipedia, die zu ersten Umbrüchen führten, wie etwa dem Aussterben gedruckter Lexika. Damals noch versuchte sich die alte Art zu denken auf ihre hergebrachte Art zu schützen: Man verbot Handys und später Smartphones im Prüfungsumfeld und schon war alles, wie man es kannte. Jedenfalls in Prüfungssituationen.

Irgendwann war zu bemerken, dass – zumindest subjektiv wahrgenommen – immer mehr Menschen immer weniger Präsenzwissen vorgehalten haben, sogar diskutiert haben, warum es gar nicht klug wäre, den Kopf mit Dingen zu belasten, die man ja jederzeit im Internet suchen kann. Doch die Entwicklung ging immer weiter, zielgerichtet zu dem, was wir heute generative KI nennen (und was sicherlich nur ein Pixel in einem Bild ist, das sich uns erst in einigen Jahren in seiner Dimension erschließen wird) – und die Frage ist, was dies mit unserer Gesellschaft macht. Eine gewisse kritische Haltung darf dabei gezeigt werden. Ein Kommentar mit Anregungen zur Reflexion, dazu gibt es auch ein LinkedIn-Posting von mir.

Asimov und die Wissensgesellschaft weiterlesen

Haftung für Chatbot?

Haften Unternehmen für Auskünfte, die ein Ihnen installierter Chatbot gibt? Nachdem in Kanada eine Airline zum Schadensersatz auf Grund einer falschen Chatbot-Auskunft verurteilt wurde, stellt sich die Frage, ob so etwas in Deutschland denkbar ist. Und tatsächlich ist schon zu lesen, dass „vermutlich auch deutsche Gerichte nicht anders entscheiden würden“ (so in BC 2024, 95). Doch bei genauem Blick fragt sich: Auf welcher Rechtsgrundlage soll das geschehen.

Haftung für Chatbot? weiterlesen

Studie zur Bewertung der Risiken und Chancen von KI-gestützten Beeinflussungsmaßnahmen in sozialen Medien

In der Forschungsarbeit „Assessing the risks and opportunities posed by AI-enhanced influence operations on social media“ von Rolf Fredheim und James Pamment wird ein tiefgreifendes Verständnis für die Risiken und Chancen von KI-gestützten Beeinflussungsoperationen in sozialen Medien dargelegt.

Studie zur Bewertung der Risiken und Chancen von KI-gestützten Beeinflussungsmaßnahmen in sozialen Medien weiterlesen

Ethik und KI

Im Folgenden möchte ich kurz das Kapitel „Approaches to Ethical AI“ aus dem Open-Access-Buch „Introduction to Digital Humanism“ von Erich Prem vorstellen. Das lesenswerte Kapitel bietet eine umfassende Analyse ethischer Fragestellungen in Bezug auf Künstliche Intelligenz (KI) und legt dar, wie diese Herausforderungen im Rahmen ethischer Rahmenwerke und Leitlinien angegangen werden.

Ethik und KI weiterlesen

Der Missbrauch von Generativer KI und großen Sprachmodellen (LLM)

Generative KI verlangt unserer Gesellschaft viel ab: Schon jetzt ist immer weniger das, wonach es aussieht. Man darf (und sollte) weder seinen Ohren noch seinen Augen trauen – und es wird immer einfacher, selbst ohne erhebliche eigene Ressourcen oder technische Fertigkeiten, Angriffsszenarien mithilfe von KI aufzubauen.

Die Analyse „GenAI against humanity: nefarious applications of generative artificial intelligence and large language models“ bietet eine tiefgreifende Analyse der missbräuchlichen Anwendungen von Generativer Künstlicher Intelligenz (GenAI) und Großen Sprachmodellen (LLMs). Diese Studie, verfasst von Emilio Ferrara, betrachtet die dunkle Seite dieser Technologien, indem sie verschiedene schädliche Szenarien und deren potenzielle Auswirkungen auf Gesellschaft und Individuen aufzeigt.

Der Missbrauch von Generativer KI und großen Sprachmodellen (LLM) weiterlesen

Einsatz von Generativer KI bei Penetrationstests

In dem Forschungsartikel „Generative AI for Pentesting: The Good, The Bad, The Ugly“ wird der Einsatz von Generativer Künstlicher Intelligenz (GenAI) und Großen Sprachmodellen (LLMs) im Kontext von Penetrationstests untersucht. Die Studie bietet eine umfassende Analyse der Vorteile, Herausforderungen und Risiken, die mit dem Einsatz von GenAI in der Cybersecurity verbunden sind.

Einsatz von Generativer KI bei Penetrationstests weiterlesen

Beratungspflichten eines Verkäufers

Auch wenn man einfach nur Produkte verkauft, kann man von Beratungspflichten gegenüber dem Käufer betroffen sein. Speziell im Bereich des Verkaufs spezialisierter Maschinen kann diese Situation eintreten – und zu undankbaren Ergebnissen führen. Speziell wenn Verkäufer tätig sind, die Maschinen wie „sauer Bier“ anpreisen und am (erkennbaren) Bedarf des Käufers vorbei verkaufen.

Im Fokus stehen im Folgenden zwei ältere Gerichtsentscheidungen zu den Beratungspflichten eines Verkäufers: das Urteil des BGH vom 23.07.1997 (VIII ZR 238/96) und der Hinweisbeschluss des LG Dortmund vom 18.01.2018 (1 S 188/17).

Beratungspflichten eines Verkäufers weiterlesen

Neue Wege zur Identifizierung von Bitcoin-finanzierten Cyberkriminalitätsnetzwerken

In einer Welt, in der Bitcoin und andere Kryptowährungen zunehmend von Cyberkriminellen für illegale Aktivitäten genutzt werden, ist es entscheidend, wirksame Methoden zur Aufdeckung und Analyse dieser kriminellen Finanznetzwerke zu entwickeln.

Eine spannende Analyse des IMDEA Software Institute, veröffentlicht im Oktober 2022, präsentiert eine innovative Methode namens „Back-and-Forth Exploration“ zur Nachverfolgung von Bitcoin-Transaktionen. Diese Technik ermöglicht es, finanzielle Beziehungen innerhalb von Cyberkriminalitätskampagnen und zu externen Diensten und anderen kriminellen Kampagnen aufzudecken

Neue Wege zur Identifizierung von Bitcoin-finanzierten Cyberkriminalitätsnetzwerken weiterlesen

Robotersicherheit

Die Welt der Robotik entwickelt sich rasant weiter und mit ihr die Art und Weise, wie Roboter gebaut und eingesetzt werden. Moderne Roboter unterscheiden sich deutlich von ihren Vorgängern. Statt monolithischer Entitäten, die für spezifische Aufgaben konstruiert wurden, entstehen heute modularere, flexiblere Systeme.

Diese Entwicklung bringt neue Herausforderungen mit sich, insbesondere in Bezug auf die Cybersicherheit und die Wahrung der Integrität der Roboterkörper. Eine neue Studie von Alberto Giaretta und Amy Loutfi an der Örebro Universität in Schweden beleuchtet genau diese Themen und bietet einen umfassenden Einblick in die Zukunft der Robotersicherheit.

Robotersicherheit weiterlesen