B165b88d 3a21 4cb9 9298 B7a6373786f3

Erkenntnisse über die menschliche Fähigkeit KI-generierte Medien zu identifizieren

KI-generierte Medien werden zu einer zunehmenden Herausforderung: Sie können in großem Maßstab automatisch erstellt werden, was zu einer Vielzahl von Fälschungen oder fehlerhaften Inhalten führt – zugleich aber können Sie das Erstellen von Inhalten drastisch unterstützen.

Trotz zahlreicher technischer Fortschritte bei der automatischen Erkennung solcher künstlichen Medien wurde die menschliche Wahrnehmung dieser Medien bisher nicht ausreichend untersucht. Dabei mehren sich (aus gutem Grund) inzwischen die Forschungspapiere zu der Frage, wie gut Menschen in der Lage sind, KI-generierte Inhalte zu erkennen.

Umfangreiche Studie zur Erkennung von KI-generierten Inhalten

Eine aktuelle Studie, durchgeführt von einem Forscherteam der Ruhr-Universität Bochum, der TU Berlin und der Leibniz Universität Hannover, zielt darauf ab, die Fähigkeit von Menschen zur Erkennung von KI-generierten Medien zu analysieren. Die Untersuchung umfasste Teilnehmer aus drei Ländern (USA, Deutschland und China) und deckte die Medienarten Audio, Bild und Text ab.

Methodik

Teilnehmer und Medienarten

Die Studie umfasste 3.002 Teilnehmer, die auf die Länder USA, Deutschland und China verteilt waren. Jeder Teilnehmer wurde einer von drei Medienarten zugewiesen: Audio, Bild oder Text. Die Teilnehmer mussten eine Reihe von Medienbeispielen bewerten und angeben, ob diese von Menschen oder Maschinen erzeugt wurden.

Erzeugung der Medienbeispiele

  1. Audio: Die Sprachproben wurden mit einem Text-zu-Sprache-Modell (Tacotron 2) und einem Vocoder (Hifi-GAN) erzeugt.
  2. Bild: Die Bilder wurden mit StyleGAN2, einem hochentwickelten Generative Adversarial Network (GAN), erstellt.
  3. Text: Die Texte wurden mithilfe von OpenAIs GPT-3 Modell generiert, das auf Text-Eingaben reagiert und daraus vollständige Artikel erstellt.

Fragebogen und Demografie

Neben den Bewertungen wurden die Teilnehmer gebeten, einen Fragebogen zu ihrer Demografie auszufüllen. Zusätzlich wurden Fragen zur Vertrautheit mit Deepfakes, ihrem allgemeinen Vertrauen und ihrem kognitiven Reflexionsvermögen gestellt.

Ergebnisse

Erkennungsfähigkeiten der Teilnehmer

Die Studie ergab, dass KI-generierte Medien bereits so überzeugend sind, dass die Mehrheit der Teilnehmer sie nicht von menschlich erzeugten Medien unterscheiden konnte. Besonders bei Bildern lagen die Erkennungsraten oft unter dem Zufallsniveau. Die durchschnittliche Erkennungsgenauigkeit lag bei Bildern unter 50% und bei den anderen Medientypen nie über 60%.

Länderspezifische Unterschiede

Teilnehmer aus den USA tendierten dazu, sowohl menschliche als auch maschinelle Medien häufiger als menschlich zu bewerten, während deutsche und chinesische Teilnehmer eine breitere Bewertungsspanne aufwiesen. Deutsche Teilnehmer waren im Allgemeinen etwas besser darin, maschinell erzeugtes Audio zu erkennen.

Einfluss persönlicher Variablen

Die Untersuchung zeigte, dass bestimmte persönliche Faktoren die Fähigkeit zur Erkennung von KI-generierten Medien beeinflussen. Insbesondere allgemeines Vertrauen, kognitive Reflexion und die Selbstangabe der Vertrautheit mit Deepfakes spielten eine signifikante Rolle. Teilnehmer mit höherem allgemeinen Vertrauen tendierten dazu, Medien eher als menschlich zu bewerten. Eine höhere kognitive Reflexion und Vertrautheit mit Deepfakes führten zu einer besseren Erkennung maschinell erzeugter Medien.


Schlussfolgerungen und Ausblick

Die Studie zeigt, dass die Qualität von KI-generierten Medien mittlerweile so hoch ist, dass selbst erfahrene und kritische Beobachter Schwierigkeiten haben, sie zuverlässig zu erkennen. Dies unterstreicht die Notwendigkeit weiterer Forschung und Entwicklung von Erkennungstechnologien sowie die Förderung der Medienkompetenz in der Bevölkerung. Denn das Risiko lauert auf beiden Seiten: Einmal, wenn es darum geht, sich nicht von KI in die Irre führen zu lassen; andererseits sollte man KI weder verteufeln noch Menschen blind unterstellen, die eigene Leistung sei KI-generiert.

Diese Ergebnisse werfen wichtige Fragen zur Zukunft der Medienwahrnehmung und -sicherheit auf. In einer Zeit, in der KI-generierte Inhalte zunehmend Realität werden, müssen wir unsere Ansätze zur Erkennung und zum Umgang mit diesen Technologien überdenken. Der Fortschritt in der KI-Generierung verlangt nach ebenso fortschrittlichen Erkennungs- und Bildungsmaßnahmen, um die Integrität unserer Informationsquellen zu wahren.

Rechtsanwalt Jens Ferner (Fachanwalt für IT-Recht & Strafrecht)
Letzte Artikel von Rechtsanwalt Jens Ferner (Fachanwalt für IT-Recht & Strafrecht) (Alle anzeigen)

Veröffentlicht von

Rechtsanwalt Jens Ferner (Fachanwalt für IT-Recht & Strafrecht)

Ich beschäftige mich intensiv im technologischen Bereich mit Fragen der Softwareentwicklung, KI und Robotik - nicht nur als Jurist, sondern eben auch selbst als Entwickler. In diesem Blog teile ich Inhalte vor allem rund um Robotik bzw. Roboterrecht und ergänzend zum Thema KI. Von mir werden Unternehmen im gesamten IT-Recht beraten und vertreten.