Ethik im AI-Act

Der AI-Act der Europäischen Union integriert ethische Grundsätze in verschiedenen Artikeln und Abschnitten, um sicherzustellen, dass KI-Systeme sicher, vertrauenswürdig und im Einklang mit den Werten der EU gestaltet und genutzt werden. Ich möchte eine kurze Übersicht der wesentliche Artikel des AI_Act geben, in denen Ethik oder ethische Überlegungen eine Rolle spielen.


1. Einhaltung ethischer und beruflicher Standards (Artikel 2)

Artikel 2 betont, dass Forschungs- und Entwicklungsaktivitäten im Bereich KI in Übereinstimmung mit anerkannten ethischen und professionellen Standards für wissenschaftliche Forschung durchgeführt werden müssen.

2. Risikobasierter Ansatz und ethische Leitlinien (Erwägungsgrund 27)

Der AI-Act verfolgt einen risikobasierten Ansatz und verweist auf die 2019 veröffentlichten Ethikleitlinien für vertrauenswürdige KI der unabhängigen Hochrangigen Expertengruppe für Künstliche Intelligenz (AI HLEG). Diese Leitlinien beinhalten sieben ethische Prinzipien: menschliche Handlungsfähigkeit und Aufsicht, technische Robustheit und Sicherheit, Datenschutz und Datenmanagement, Transparenz, Vielfalt, Nichtdiskriminierung und Fairness, gesellschaftliches und ökologisches Wohlergehen sowie Rechenschaftspflicht.

3. Förderung von Codes of Conduct (Artikel 56 und Artikel 95)

Anbieter von KI-Systemen werden ermutigt, freiwillige Verhaltenskodizes zu erstellen, die Elemente der ethischen Leitlinien der EU für vertrauenswürdige KI enthalten. Diese Verhaltenskodizes sollen helfen, die ethischen Anforderungen in der Praxis umzusetzen und sicherzustellen, dass KI-Systeme inklusiv und nachhaltig entwickelt und genutzt werden.

4. Menschliche Kontrolle und Aufsicht (Erwägungsgrund 7)

Der AI-Act betont die Bedeutung der menschlichen Kontrolle und Aufsicht über KI-Systeme, um sicherzustellen, dass diese als Werkzeuge dienen, die den Menschen unterstützen und deren Würde und Autonomie respektieren.

Anwendung philosophischen Wissens zur Ethik

Philosophisches Wissen zur Ethik kann bei der Umsetzung des AI-Acts in mehreren Bereichen von großer Bedeutung sein: Durch die Integration philosophischen Wissens in die Umsetzung des AI-Acts können Unternehmen sicherstellen, dass ihre KI-Systeme nicht nur rechtlichen Anforderungen entsprechen, sondern auch ethisch verantwortungsvoll und gesellschaftlich akzeptabel sind. Dies fördert Vertrauen und damit Absatz sowie Bindung an Kunden.

  • Risikobewertung und Management: Philosophische Ansätze zur Ethik können helfen, eine fundierte Risikobewertung durchzuführen, indem sie tiefere Einblicke in die potenziellen sozialen und moralischen Auswirkungen von KI-Systemen bieten.
  • Entwicklung ethischer Leitlinien: Philosophisches Wissen ist entscheidend für die Entwicklung und Implementierung von Verhaltenskodizes und ethischen Leitlinien, die sicherstellen, dass KI-Systeme im Einklang mit den Werten der Gesellschaft stehen.
  • Transparenz und Erklärbarkeit: Philosophische Diskussionen über Transparenz und Verantwortung können dazu beitragen, dass KI-Systeme so gestaltet werden, dass ihre Funktionsweise und Entscheidungen für die Nutzer nachvollziehbar und verständlich sind.
  • Nichtdiskriminierung und Fairness: Philosophische Theorien zur Gerechtigkeit und Fairness können dabei helfen, Diskriminierung zu erkennen und zu vermeiden sowie sicherzustellen, dass KI-Systeme gerecht und inklusiv sind.
  • Nachhaltigkeit und gesellschaftliches Wohlergehen: Ethische Überlegungen zur Nachhaltigkeit können dazu beitragen, dass KI-Systeme entwickelt werden, die langfristig positive Auswirkungen auf die Gesellschaft und die Umwelt haben.

5. Technische Robustheit und Sicherheit (Artikel 9)

Artikel 9 fordert, dass KI-Systeme robust und widerstandsfähig gegenüber Problemen und Versuchen sind, die Nutzung oder Leistung des KI-Systems zu ändern. Dies soll unrechtmäßige Nutzung durch Dritte verhindern und unbeabsichtigte Schäden minimieren.

6. Datenschutz und Datenmanagement (Artikel 10)

KI-Systeme müssen gemäß den Datenschutzbestimmungen entwickelt und genutzt werden. Dies umfasst die Verarbeitung von Daten, die hohe Standards in Bezug auf Qualität und Integrität erfüllen, und die Gewährleistung, dass die Rechte der Betroffenen respektiert werden.

7. Transparenz (Artikel 13 und Artikel 52)

Der AI-Act legt großen Wert auf Transparenz bei der Entwicklung und Nutzung von KI-Systemen. Nutzer müssen darüber informiert werden, dass sie mit einem KI-System interagieren, und über die Fähigkeiten und Grenzen des Systems sowie über ihre Rechte aufgeklärt werden.

8. Vielfalt, Nichtdiskriminierung und Fairness (Erwägungsgrund 27 und Artikel 95)

KI-Systeme sollen so entwickelt und genutzt werden, dass sie verschiedene Akteure einbeziehen und gleichen Zugang, Geschlechtergerechtigkeit und kulturelle Vielfalt fördern. Diskriminierende Auswirkungen und unfaire Voreingenommenheiten müssen vermieden werden.

9. Gesellschaftliches und ökologisches Wohlergehen (Erwägungsgrund 7 und Artikel 9)

KI-Systeme sollen nachhaltig und umweltfreundlich entwickelt und genutzt werden und dem Wohlergehen aller Menschen dienen. Die langfristigen Auswirkungen auf Individuen, Gesellschaft und Demokratie sollen kontinuierlich überwacht und bewertet werden.


Ausblick

Der AI-Act integriert ethische Grundsätze in verschiedenen Artikeln und Abschnitten, um sicherzustellen, dass KI-Systeme im Einklang mit den Werten der EU entwickelt und genutzt werden. Diese umfassenden ethischen Anforderungen fördern das Vertrauen der Öffentlichkeit in KI und unterstützen die Schaffung eines europäischen Ökosystems für sichere und vertrauenswürdige KI.

LLM-Hacking: Ein Überblick über Angriffstechniken und -szenarien

Das sogenannte „LLM-Hacking“ bezieht sich auf Techniken und Strategien, um diese Modelle zu manipulieren oder ihre Funktionen auf unvorhergesehene Weise zu nutzen.

Große Sprachmodelle sind in gewisser Hinsicht besonders gefahrgeneigt, weil diese versuchen autonom zu agieren und dabei notwendigerweise auf Eingaben von Außen angewiesen sind: Mal durch die Aufgaben, die ihnen erteilt werden, mal durch Daten, mit denen sie gefüttert werden. Die zunehmende Verbreitung von LLM sollte dabei Anlass sein, sich mit grundsätzlichem Wissen zur Cybersicherheit bei LLM auseinanderzusetzen. Im Folgenden möchte ich darum als Einstieg verständlich darauf eingehen, was LLM-Hacking ist und typische Angriffsszenarien beschreiben.

LLM-Hacking: Ein Überblick über Angriffstechniken und -szenarien weiterlesen

Algorithmische Entscheidungen

In einer zunehmend technologiegestützten Welt ist es von großer Bedeutung, die Wahrnehmung und Präferenz von Entscheidungen durch Algorithmen im Vergleich zu menschlichen Entscheidungsträgern zu verstehen.

Die Forschungsarbeit „Ruled by Robots: Preference for Algorithmic Decision Makers and Perceptions of Their Choices“ von Marina Chugunova und Wolfgang J. Luhan, veröffentlicht im März 2022, untersucht diese Thematik mittels eines Laborexperiments. Im Fokus stehen dabei Umverteilungsentscheidungen und die Frage, ob Menschen Algorithmen aufgrund ihrer Unvoreingenommenheit gegenüber menschlichen Entscheidungsträgern bevorzugen.

Algorithmische Entscheidungen weiterlesen

Erkenntnisse über die menschliche Fähigkeit KI-generierte Medien zu identifizieren

KI-generierte Medien werden zu einer zunehmenden Herausforderung: Sie können in großem Maßstab automatisch erstellt werden, was zu einer Vielzahl von Fälschungen oder fehlerhaften Inhalten führt – zugleich aber können Sie das Erstellen von Inhalten drastisch unterstützen.

Trotz zahlreicher technischer Fortschritte bei der automatischen Erkennung solcher künstlichen Medien wurde die menschliche Wahrnehmung dieser Medien bisher nicht ausreichend untersucht. Dabei mehren sich (aus gutem Grund) inzwischen die Forschungspapiere zu der Frage, wie gut Menschen in der Lage sind, KI-generierte Inhalte zu erkennen.

Erkenntnisse über die menschliche Fähigkeit KI-generierte Medien zu identifizieren weiterlesen

Entwicklung von Software mit KI

Der Einsatz künstlicher Intelligenz (KI) in der Softwareentwicklung bietet sowohl erhebliche Chancen als auch potenzielle Herausforderungen.

Eine qualitative Studie von Charles Collins und Kémaël Josua Kauppaymuthoo an der Lund University hat die Perspektiven von Softwareentwicklern zur Adoption von KI-Technologien in ihrem Arbeitsfeld untersucht. Diese Studie liefert wichtige Einblicke in die emotionalen und praktischen Auswirkungen, die KI auf die Softwareentwicklung hat.

Entwicklung von Software mit KI weiterlesen

KI in der wissenschaftlichen Schreibarbeit – GPT-4 gleichauf mit menschlichen Forschern

Es lässt sich nicht wegreden, dass der einleitende Text vor wissenschaftlichen Arbeiten eine entscheidende Rolle spielt: Hier werden Rahmen, identifizieren Forschungslücken und Ziele der Studie definiert.

Die Studie „ChatGPT-4 and Human Researchers Are Equal in Writing Scientific Introduction Sections: A Blinded, Randomized, Non-inferiority Controlled Study“ liefert nun hierzu spannende und zum Denken anregende Erkenntnisse über die Fähigkeiten von KI-Systemen; speziell zu Texten des Generative Pre-trained Transformer 4 (GPT-4), im Vergleich zu menschlichen Forschern beim Verfassen dieser bedeutsamen Abschnitte in Forschungsarbeiten.

Diese Untersuchung bietet einen – durchaus überraschenden und aufschlussreichen – Einblick in die Möglichkeiten und Herausforderungen beim Einsatz von KI in der akademischen Schreibarbeit; sie unterstreicht dabei das Potenzial von KI, den Forschungsprozess grundlegend zu transformieren.

KI in der wissenschaftlichen Schreibarbeit – GPT-4 gleichauf mit menschlichen Forschern weiterlesen

KI-Auditing: Auditing von KI – Rechtliche, ethische und technische Ansätze

KI-Auditing: Nun, da Künstliche Intelligenz (KI) immer häufiger in verschiedenen Bereichen und vor allem immer umfassender eingesetzt wird, steigen auch die Anforderungen an die Überwachung und Bewertung dieser Systeme.

Die Arbeit „Auditing of AI – Legal, Ethical and Technical Approaches“ bietet einen tiefgreifenden Einblick in die Notwendigkeit, Methoden und Herausforderungen beim Auditing von KI-Systemen.

KI-Auditing: Auditing von KI – Rechtliche, ethische und technische Ansätze weiterlesen

UniVaR – Ein neuer Ansatz zur Wertedarstellung in großen Sprachmodellen

In der dynamischen Welt der künstlichen Intelligenz haben große Sprachmodelle (LLMs) wie GPT-3 und BERT revolutionäre Fortschritte gemacht. Diese Modelle werden in verschiedenen Anwendungen eingesetzt, von Chatbots bis hin zu fortschrittlichen Analysetools.

Mit ihrer zunehmenden Verbreitung wächst jedoch auch die Notwendigkeit, sicherzustellen, dass diese Technologien mit menschlichen Werten und Präferenzen übereinstimmen. Ein neuer Ansatz, der in einer aktuellen Studie von Forschern der Hong Kong University of Science and Technology (HKUST) vorgestellt wurde, zielt darauf ab, dieses Problem zu adressieren.

UniVaR – Ein neuer Ansatz zur Wertedarstellung in großen Sprachmodellen weiterlesen

Kultur & Höflichkeit im Umgang mit maschinellen Sprachmodellen

In der Welt der Künstlichen Intelligenz und maschinellen Lernens spielen grosse Sprachmodelle eine zentrale Rolle, indem sie helfen, menschliche Sprache zu verstehen und darauf zu reagieren. Doch wie beeinflusst der Tonfall einer Anfrage – insbesondere deren Höflichkeitsgrad – die Leistung dieser Modelle? Eine aktuelle Studie der Waseda Universität und des RIKEN AIP hat sich dieser Frage angenommen und erstaunliche Ergebnisse in verschiedenen Sprachen erzielt.

Die Forschungsarbeit mit dem Titel „Should We Respect LLMs? A Cross-Lingual Study on the Influence of Prompt Politeness on LLM Performance“ untersucht, wie Höflichkeit in Befehlen die Leistung großer Sprachmodelle (LLMs) beeinflusst. Es wurde festgestellt, dass unhöfliche Prompts oft zu schlechterer Leistung führen, während übermäßig höfliche Sprache nicht unbedingt bessere Ergebnisse garantiert. Interessanterweise variiert das optimale Niveau der Höflichkeit je nach Sprache, was auf kulturelle Unterschiede in der Wahrnehmung und Erwartung von Höflichkeit hindeutet.

Kultur & Höflichkeit im Umgang mit maschinellen Sprachmodellen weiterlesen

Wissenskollaps durch KI?

Droht ein Wissenskollaps? In einer modernen, von DIgitalisierung durchdrungenden, Welt, in der künstliche Intelligenz (KI) immer mehr an Bedeutung gewinnt, stehen wir vor erheblichen Veränderungen in der Art & Weise, wie Wissen generiert, genutzt und verbreitet wird. Ich widme mich im Blog dieser Thematik hin und wieder, weil es sowohl gesellschaftliche Auswirkungen insgesamt hat, aber eben auch gravierende Bedeutung für „Wissens-Dienstleister“ wie Anwälte hat.

Eine kürzlich durchgeführte Studie von Andrew J. Peterson von der Universität Poitiers hebt nun besorgniserregende Aspekte im Zusammenhang mit der weitverbreiteten Nutzung von KI, insbesondere von großen Sprachmodellen (LLMs), hervor: Er sieht das erhebliche Risiko eines durch KI provozierten Wissenskollapses!

Wissenskollaps durch KI? weiterlesen