Hilft die Kennzeichnung KI-generierter Bilder Nutzenden dabei, den Wahrheitsgehalt von Informationen einzuschätzen? Diese Frage wollten die Forschenden beantworten. 

© ChatGPT

Falschinformationen erkennen

KI-Labels im Praxistest

CASA-Forschende untersuchen in Studien die Erwartungen, den Nutzen und die Risiken von KI-Labels aus der Perspektive von Nutzenden. Fazit: KI-Labels sind mit Vorsicht zu genießen.

Noch vor wenigen Jahren erforderte die Nutzung generativer Künstlicher Intelligenz (GenAI) spezielles Fachwissen, um Inhalte von Grund auf neu zu erstellen. Heute ist die Technologie deutlich zugänglicher: In der Regel genügt ein kurzer Textprompt, um neue Bilder, Videos oder Audios zu generieren. Dass diese Entwicklung nicht nur positive Auswirkungen auf unsere digitale Gesellschaft hat, ist den Gesetzgebern und Plattformanbietern längst bewusst. Eine mögliche Gegenmaßnahme: Spezielle Labels kennzeichnen Bilder als mit KI-generiert.

Forschende der Fakultät für Informatik an der Ruhr-Universität Bochum und des CISPA Helmholtz-Centers für Informationssicherheit, darunter Jonas Ricker, PhD und Mitglied des Horst-Görtz-Instituts für IT-Sicherheit, sowie Sandra Höltervennhoff (ehemals HGI/CASA, heute CISPA), haben sich dieser Idee aus der Userperspektive genähert. In ihrem Paper, das auf der Cybersicherheits-Konferenz ACM CHI 2026 (Barcelona, Spanien) vorgestellt wurde, analysierten sie das Nutzungsverhalten von KI-Labels.

Der Mensch im Mittelpunkt

Während große Hoffnungen damit verbunden sind, dass solche Kennzeichnungen gesellschaftliche Risiken von GenAI – darunter insbesondere die Verbreitung von Falschinformationen – mindern, dienen sie in erster Linie der Transparenz. Sie liefern keine Aussage darüber, ob ein Inhalt der Realität entspricht oder frei erfunden ist, sondern lediglich darüber, ob er mithilfe von KI erstellt wurde. Damit Nutzende angemessen mit solchen Informationen umgehen können, ist entscheidend, dass ihre Erwartungen mit der tatsächlichen Funktionsweise der Kennzeichnung übereinstimmen.

Basierend auf diesen Grundannahmen untersuchten die Forschenden die Erwartungen von Nutzenden, ihre Wahrnehmung sowie die Auswirkungen fehlerhafter Kennzeichnungen (Mislabeling) auf die User Experience. Dazu führten sie zwei Studien durch.

Wahr oder falsch? KI-Labels im Praxistest

Während die Studienteilnehmer*innen der ersten Studie KI-Labels zunächst als hilfreich empfanden, änderte sich ihre Wahrnehmung während der praktischen Anwendung. In der zweiten, zentralen Studie mit insgesamt 1.342 Teilnehmenden wurden reale und KI-generierte Bilder jeweils mit einer passenden – falschen oder richtigen – Information kombiniert. Die Aufgabe bestand darin, die jeweilige Aussage als wahr oder falsch zu erkennen. Die Beispiele stammen von Faktencheck-Websites.

In der Studie mussten die Teilnehmer*innen anhand von Stimuli erkennen, ob ein Fakt wahr oder falsch ist. Hierbei handelt es sich um ein KI-generiertes Bild in Kombination mit einer Falschaussage.

© https://www.snopes.com/fact-check/giant-octopus-indonesian-coast/ bzw.Instagram User @best_of_ai

„Die Labels veranlassten die Teilnehmer*innen nicht dazu, sich stärker auf die Richtigkeit der Behauptungen zu konzentrieren. Sie hatten auch keinen Einfluss auf die Sicherheit, mit der die Proband*innen ihre Urteile fällten,“ erklärt Jonas Ricker. Stattdessen tendierten sie dazu, sich bei ihrer Entscheidung auf die An- oder Abwesenheit des Labels zu verlassen. Das führte zu der unbeabsichtigten Nebenwirkung, dass wahre Informationen mit KI-Bebilderung häufig als falsch eingeschätzt wurden. Gleichzeitig nahm das Vertrauen in Fakten zu, die mit realen, aber aus dem Kontext gerissenen Fotos bebildert wurden.

Risiken durch Mislabeling

Eine weitere Problematik, die untersucht wurde, ist das sogenannte Mislabeling. Egal, ob sich bei der Zuweisung der Labels auf die Nutzenden der Plattform verlassen wird, die Information aus den Metadaten herausgelesen wird oder eine Software vor dem Upload alle Bilder prüft: Fehler können in jedem System auftreten und hätten gravierende Folgen auf das Urvertrauen in die Kennzeichnung. 

Die Ergebnisse der Studie unterstreichen, dass KI-Labels in der Praxis mit Vorsicht genutzt werden müssen.

Originalveröffentlichung

Sandra Höltervennhoff, Jonas Ricker, Maike M. Raphael, Charlotte Schwedes, Rebecca Weil, Asja Fischer, Thorsten Holz, Lea Schönherr, Sascha Fahl: "That’s another doom I haven’t thought about": A User Study on AI Labels as a Safeguard Against Image-Based Misinformation, in: Proceedings of the 2026 CHI Conference on Human Factors in Computing Systems (CHI ’26), April 13–17, 2026, Barcelona, Spain. ACM, New York, NY, USA, DOI: 10.1145/3772318.3791006

Die Publikation wurde im Rahmen der CHI’26 mit einem Honorable Mention Award ausgezeichnet.

Pressekontakt

Jonas Ricker, PhD
Horst-Görtz-Institut für IT-Sicherheit
Ruhr-Universität Bochum
E-Mail: jonas.ricker@ruhr-uni-bochum.de

Interdisziplinarität als Prinzip bei CASA

Die Idee für das Paper entstand im Rahmen eines Cross-Disciplinary Projects der CASA International Graduate School. 

Interdisziplinäres Arbeiten ist bei CASA ein fundamentales Prinzip, das die Bochumer Forschung besonders auszeichnet. Aus diesem Grund verbringen alle CASA-PhDs mindestens sechs Wochen in der Forschungsgruppe eines anderen CASA Principal Investigators. Während dieser Zeit arbeiten sie an einem interdisziplinären Forschungsprojekt, das ihre Dissertation voranbringt, und nutzen dabei das Fachwissen des jeweiligen Principal Investigators.

Veröffentlicht

Donnerstag
16. April 2026
10:04 Uhr

Von

Annika Sengalski

Teilen