Kultur & Höflichkeit im Umgang mit maschinellen Sprachmodellen

In der Welt der Künstlichen Intelligenz und maschinellen Lernens spielen grosse Sprachmodelle eine zentrale Rolle, indem sie helfen, menschliche Sprache zu verstehen und darauf zu reagieren. Doch wie beeinflusst der Tonfall einer Anfrage – insbesondere deren Höflichkeitsgrad – die Leistung dieser Modelle? Eine aktuelle Studie der Waseda Universität und des RIKEN AIP hat sich dieser Frage angenommen und erstaunliche Ergebnisse in verschiedenen Sprachen erzielt.

Die Forschungsarbeit mit dem Titel „Should We Respect LLMs? A Cross-Lingual Study on the Influence of Prompt Politeness on LLM Performance“ untersucht, wie Höflichkeit in Befehlen die Leistung großer Sprachmodelle (LLMs) beeinflusst. Es wurde festgestellt, dass unhöfliche Prompts oft zu schlechterer Leistung führen, während übermäßig höfliche Sprache nicht unbedingt bessere Ergebnisse garantiert. Interessanterweise variiert das optimale Niveau der Höflichkeit je nach Sprache, was auf kulturelle Unterschiede in der Wahrnehmung und Erwartung von Höflichkeit hindeutet.

Kultur & Höflichkeit im Umgang mit maschinellen Sprachmodellen weiterlesen

Wissenskollaps durch KI?

Droht ein Wissenskollaps? In einer modernen, von DIgitalisierung durchdrungenden, Welt, in der künstliche Intelligenz (KI) immer mehr an Bedeutung gewinnt, stehen wir vor erheblichen Veränderungen in der Art & Weise, wie Wissen generiert, genutzt und verbreitet wird. Ich widme mich im Blog dieser Thematik hin und wieder, weil es sowohl gesellschaftliche Auswirkungen insgesamt hat, aber eben auch gravierende Bedeutung für „Wissens-Dienstleister“ wie Anwälte hat.

Eine kürzlich durchgeführte Studie von Andrew J. Peterson von der Universität Poitiers hebt nun besorgniserregende Aspekte im Zusammenhang mit der weitverbreiteten Nutzung von KI, insbesondere von großen Sprachmodellen (LLMs), hervor: Er sieht das erhebliche Risiko eines durch KI provozierten Wissenskollapses!

Wissenskollaps durch KI? weiterlesen

BSI zu Chancen und Risiken generativer KI

Im Folgenden soll eine aktuelle Publikation des Bundesamts für Sicherheit in der Informationstechnik (BSI) vorgestellt werden, die sich mit den Chancen und Risiken großer Sprachmodelle befasst. Diese KI-Modelle, bekannt als Large Language Models (LLMs), sind in der Lage, auf der Basis von trainierten Daten neue Texte, Bilder und andere Inhalte zu generieren. Ihre vielseitige Einsetzbarkeit bietet zahlreiche Möglichkeiten für Industrie und Behörden, birgt jedoch auch neue IT-Sicherheitsrisiken.

BSI zu Chancen und Risiken generativer KI weiterlesen

Sittenwidrige Investitionen in Kryptowährungen?

In einer beachtlichen Entscheidung vom 21. Dezember 2023, Aktenzeichen 24 U 95/23, hat das Oberlandesgericht Köln sich mit den juristischen Komplikationen rund um Investitionen in Kryptowährungen auseinandergesetzt. Der Fall betraf nicht nur die straf- und zivilrechtliche Beurteilung einer fehlerhaften Anlageberatung, sondern berührte auch tiefgreifende Fragen des Finanzmarktrechts.

Sittenwidrige Investitionen in Kryptowährungen? weiterlesen

Künstliche Intelligenz als großer Filter im Universum?

In unserer digitalisierten Welt, in der die Entwicklung künstlicher Intelligenz (KI) kaum mehr fassbar voranschreitet, wirft eine aktuelle Studie von Michael A. Garrett (EN), veröffentlicht in der Acta Astronautica, eine faszinierende Frage auf: Ist KI der „Große Filter“, der die Seltenheit von fortgeschrittenen technologischen Zivilisationen im Universum erklärt – und geht damit eine existenzielle Bedrohung einher.

Garrett beleuchtet die bemerkenswerte These, dass die schnelle Entwicklung hin zur Künstlichen Superintelligenz (ASI) zu einem „Großen Filter“ führen könnte. Dieser Filter entsteht, bevor Zivilisationen eine stabile, multiplanetare Existenz entwickeln können. Die Studie schlägt vor, dass die typische Lebensdauer einer technischen Zivilisation unter 200 Jahre liegt. Dieser Zeitrahmen erklärt die Nullergebnisse der jüngsten SETI-Umfragen und anderer Versuche, verschiedene Technosignaturen im elektromagnetischen Spektrum zu entdecken.

Künstliche Intelligenz als großer Filter im Universum? weiterlesen

Haftung für Chatbot?

Haften Unternehmen für Auskünfte, die ein Ihnen installierter Chatbot gibt? Nachdem in Kanada eine Airline zum Schadensersatz auf Grund einer falschen Chatbot-Auskunft verurteilt wurde, stellt sich die Frage, ob so etwas in Deutschland denkbar ist. Und tatsächlich ist schon zu lesen, dass „vermutlich auch deutsche Gerichte nicht anders entscheiden würden“ (so in BC 2024, 95). Doch bei genauem Blick fragt sich: Auf welcher Rechtsgrundlage soll das geschehen.

Haftung für Chatbot? weiterlesen

Studie zur Bewertung der Risiken und Chancen von KI-gestützten Beeinflussungsmaßnahmen in sozialen Medien

In der Forschungsarbeit „Assessing the risks and opportunities posed by AI-enhanced influence operations on social media“ von Rolf Fredheim und James Pamment wird ein tiefgreifendes Verständnis für die Risiken und Chancen von KI-gestützten Beeinflussungsoperationen in sozialen Medien dargelegt.

Studie zur Bewertung der Risiken und Chancen von KI-gestützten Beeinflussungsmaßnahmen in sozialen Medien weiterlesen

Ethik und KI

Im Folgenden möchte ich kurz das Kapitel „Approaches to Ethical AI“ aus dem Open-Access-Buch „Introduction to Digital Humanism“ von Erich Prem vorstellen. Das lesenswerte Kapitel bietet eine umfassende Analyse ethischer Fragestellungen in Bezug auf Künstliche Intelligenz (KI) und legt dar, wie diese Herausforderungen im Rahmen ethischer Rahmenwerke und Leitlinien angegangen werden.

Ethik und KI weiterlesen

Der Missbrauch von Generativer KI und großen Sprachmodellen (LLM)

Generative KI verlangt unserer Gesellschaft viel ab: Schon jetzt ist immer weniger das, wonach es aussieht. Man darf (und sollte) weder seinen Ohren noch seinen Augen trauen – und es wird immer einfacher, selbst ohne erhebliche eigene Ressourcen oder technische Fertigkeiten, Angriffsszenarien mithilfe von KI aufzubauen.

Die Analyse „GenAI against humanity: nefarious applications of generative artificial intelligence and large language models“ bietet eine tiefgreifende Analyse der missbräuchlichen Anwendungen von Generativer Künstlicher Intelligenz (GenAI) und Großen Sprachmodellen (LLMs). Diese Studie, verfasst von Emilio Ferrara, betrachtet die dunkle Seite dieser Technologien, indem sie verschiedene schädliche Szenarien und deren potenzielle Auswirkungen auf Gesellschaft und Individuen aufzeigt.

Der Missbrauch von Generativer KI und großen Sprachmodellen (LLM) weiterlesen

Einsatz von Generativer KI bei Penetrationstests

In dem Forschungsartikel „Generative AI for Pentesting: The Good, The Bad, The Ugly“ wird der Einsatz von Generativer Künstlicher Intelligenz (GenAI) und Großen Sprachmodellen (LLMs) im Kontext von Penetrationstests untersucht. Die Studie bietet eine umfassende Analyse der Vorteile, Herausforderungen und Risiken, die mit dem Einsatz von GenAI in der Cybersecurity verbunden sind.

Einsatz von Generativer KI bei Penetrationstests weiterlesen