Der Missbrauch von Generativer KI und großen Sprachmodellen (LLM)

Generative KI verlangt unserer Gesellschaft viel ab: Schon jetzt ist immer weniger das, wonach es aussieht. Man darf (und sollte) weder seinen Ohren noch seinen Augen trauen – und es wird immer einfacher, selbst ohne erhebliche eigene Ressourcen oder technische Fertigkeiten, Angriffsszenarien mithilfe von KI aufzubauen.

Die Analyse „GenAI against humanity: nefarious applications of generative artificial intelligence and large language models“ bietet eine tiefgreifende Analyse der missbräuchlichen Anwendungen von Generativer Künstlicher Intelligenz (GenAI) und Großen Sprachmodellen (LLMs). Diese Studie, verfasst von Emilio Ferrara, betrachtet die dunkle Seite dieser Technologien, indem sie verschiedene schädliche Szenarien und deren potenzielle Auswirkungen auf Gesellschaft und Individuen aufzeigt.

Der Missbrauch von Generativer KI und großen Sprachmodellen (LLM) weiterlesen

Large Language Models (LLM)

Ein LLM, oder “Large Language Model”, ist ein fortschrittliches Computerprogramm, das darauf trainiert ist, menschliche Sprache zu verstehen und zu generieren. LLMs kann man sich wie extrem erfahrene Bibliothekare vorstellen, die in einer riesigen Bibliothek mit einer Unmenge an Büchern und Texten arbeiten. Diese Bibliothekare haben so viele Texte gelesen, dass sie sehr gut darin geworden sind, Fragen zu beantworten, Texte zu schreiben und sogar Gespräche zu führen, die sich fast wie mit einem echten Menschen anfühlen.

Large Language Models (LLM) weiterlesen

Generative Künstliche Intelligenz für Korruptionsbekämpfung und Integrität in der Regierung

Generative Künstliche Intelligenz (GenAI) hat das Potenzial, den Kampf gegen Korruption zu revolutionieren und die Integrität in der Regierung zu stärken. Der OECD-Bericht „Generative AI for Anti-Corruption and Integrity in Government“ beleuchtet die Chancen und Herausforderungen der Nutzung von GenAI und großen Sprachmodellen (LLMs) durch Regierungsakteure, die sich der Integrität und Korruptionsbekämpfung widmen. In diesem Beitrag werden die wichtigsten Erkenntnisse des Berichts vorgestellt.

Generative Künstliche Intelligenz für Korruptionsbekämpfung und Integrität in der Regierung weiterlesen

Neue Forschungserkenntnisse zur Autonomen Website-Hackfähigkeit von LLMs

Eine bahnbrechende Forschungsarbeit mit dem Titel “LLM Agents can Autonomously Hack Websites” offenbart, wie fortgeschrittene große Sprachmodelle (LLMs), insbesondere GPT-4, autonom Websites hacken können. Dieses Potenzial wird durch die Fähigkeit der Modelle unterstrichen, ohne menschliches Feedback komplexe Aufgaben wie Blinddatenbankschema-Extraktion und SQL-Injections durchzuführen.

Neue Forschungserkenntnisse zur Autonomen Website-Hackfähigkeit von LLMs weiterlesen

Die Kehrseite der KI-gestützten Softwareentwicklung

Die rasante Entwicklung von KI-Werkzeugen wie GitHub Copilot hat die Art und Weise, wie Code geschrieben wird, revolutioniert. Entwickler können dank dieser Tools schneller codieren, was laut GitHub die Codierung um 55% beschleunigt und zu einer enormen Steigerung der Codeproduktion führt.

Diese Entwicklung scheint auf den ersten Blick nur Vorteile zu bringen, darunter eine massive Zeitersparnis und eine Erhöhung des geschriebenen Codes um 46%. Doch eine aktuelle Studie von GitClear wirft nun ein kritisches Licht auf die langfristigen Auswirkungen dieser Technologien auf die Codequalität und Wartbarkeit.

Die Kehrseite der KI-gestützten Softwareentwicklung weiterlesen

Cyberkriminalität in Nordkorea und die Bedrohung der Kryptowährungsindustrie

Nordkorea ist einer der Hauptverantwortlichen für die zunehmende Bedrohung der Cybersicherheit. Spätestens seit dem Angriff auf Sony Pictures im Jahr 2014 wird das Land als wichtiger Cyber-Akteur auf der internationalen Bühne wahrgenommen. Seitdem hat Pjöngjang seine Hackerfähigkeiten genutzt, um internationale Sanktionen zu umgehen und Gelder zu stehlen.

Mit den erbeuteten Geldern konnte Pjöngjang die Entwicklung seines Atom- und Raketenprogramms finanzieren. Nordkorea nutzt Cyberoperationen auch zur (digitalen) Spionage. Die Ziele sind breit gefächert: Sie richten sich unter anderem gegen Universitäten, Menschenrechtsorganisationen und Medienunternehmen, erzeugen Unzufriedenheit oder Misstrauen durch Wahlbetrug und greifen kritische nationale Infrastrukturen an. Die zunehmende Bedeutung Nordkoreas im Bereich Cybercrime und Cybersecurity ist auch der Grund, warum wir hier einen eigenen Blog-Post zu dem Thema pflegen.

Als Beispiel sei hier eine Studie der Insikt Group von Recorded Future aufgegriffen, die ein alarmierendes Bild der nordkoreanischen Cyberkriminalität zeichnet. Diese Aktivitäten, die seit 2017 zugenommen haben, zielen auf die Kryptowährungsindustrie ab und haben es Nordkorea ermöglicht, geschätzte 3 Milliarden Dollar an Kryptowährungen zu stehlen.

Cyberkriminalität in Nordkorea und die Bedrohung der Kryptowährungsindustrie weiterlesen

Generative Künstliche Intelligenz im Finanzwesen

Die rasante Entwicklung der Künstlichen Intelligenz (KI) hat in den letzten Jahren zu bedeutenden Fortschritten in verschiedenen Bereichen geführt, einschließlich des Finanzwesens. Besonders bemerkenswert ist die Entstehung generativer Künstlicher Intelligenz (GenAI), die Inhalte wie Texte, Bilder und sogar Audio erzeugen kann.

Das OECD-Papier “Generative Artificial Intelligence in Finance” beleuchtet die Anwendungsmöglichkeiten von GenAI im Finanzsektor, analysiert die damit verbundenen Risiken und diskutiert politische Implikationen. In diesem Beitrag werden die wesentlichen Punkte des Berichts vorgestellt.

Generative Künstliche Intelligenz im Finanzwesen weiterlesen

Erläuterndes OECD-Papier zur aktualisierten OECD-Definition eines KI-Systems

Mit der rasanten Entwicklung der Künstlichen Intelligenz (KI) und ihrer wachsenden Bedeutung in verschiedenen Bereichen hat die OECD ihre Definition eines KI-Systems aktualisiert.

Das Papier „Explanatory Memorandum on the Updated OECD Definition of an AI System“, veröffentlicht im März 2024, erläutert die Änderungen und bietet eine detaillierte technische Hintergrundinformation zur neuen Definition. Dieser Beitrag fasst die wichtigsten Punkte der Denkschrift zusammen und beleuchtet die Bedeutung der neuen Definition für die Praxis.

Erläuterndes OECD-Papier zur aktualisierten OECD-Definition eines KI-Systems weiterlesen

Unterstützung von Menschen mit Behinderung im Arbeitsmarkt durch KI

Die Integration von Menschen mit Behinderung in den Arbeitsmarkt bleibt eine große Herausforderung. Laut einem aktuellen OECD-Bericht ist die Arbeitslosenquote von Menschen mit Behinderung in den OECD-Ländern 2,3 Mal höher als die von Menschen ohne Behinderung. Zudem liegt die Beschäftigungsquote um 27 Prozentpunkte niedriger.

In diesem Beitrag wird das OECD-Papier “Using AI to Support People with Disability in the Labour Market” vorgestellt, das die Chancen und Risiken der Nutzung von Künstlicher Intelligenz (KI) zur Unterstützung von Menschen mit Behinderung untersucht.

Unterstützung von Menschen mit Behinderung im Arbeitsmarkt durch KI weiterlesen

OECD-Papier über gemeinsame Leitlinien zur Förderung der Interoperabilität im KI-Risikomanagement

Die rasante Entwicklung und der Einsatz von Künstlicher Intelligenz (KI) bringen immense Vorteile, aber auch erhebliche Risiken mit sich. Um diese Risiken zu managen und vertrauenswürdige KI-Systeme zu entwickeln, ist ein kohärentes Risikomanagement unerlässlich.

Das OECD-Papier „Common Guideposts to Promote Interoperability in AI Risk Management“, veröffentlicht im November 2023, bietet eine umfassende Analyse der Gemeinsamkeiten und Unterschiede führender Risikomanagement-Rahmenwerke für KI. Ziel ist es, eine gemeinsame Grundlage zu schaffen, um die Interoperabilität dieser Rahmenwerke zu fördern und die Effizienz zu steigern.

OECD-Papier über gemeinsame Leitlinien zur Förderung der Interoperabilität im KI-Risikomanagement weiterlesen