Hilft die Kennzeichnung KI-generierter Bilder Nutzenden dabei, den Wahrheitsgehalt von Informationen einzuschätzen? Diese Frage wollten die Forschenden beantworten.
Falschinformationen erkennen
KI-Labels im Praxistest
CASA-Forschende untersuchen in Studien die Erwartungen, den Nutzen und die Risiken von KI-Labels aus der Perspektive von Nutzenden. Fazit: KI-Labels sind mit Vorsicht zu genießen.
Noch vor wenigen Jahren erforderte die Nutzung generativer Künstlicher Intelligenz (GenAI) spezielles Fachwissen, um Inhalte von Grund auf neu zu erstellen. Heute ist die Technologie deutlich zugänglicher: In der Regel genügt ein kurzer Textprompt, um neue Bilder, Videos oder Audios zu generieren. Dass diese Entwicklung nicht nur positive Auswirkungen auf unsere digitale Gesellschaft hat, ist den Gesetzgebern und Plattformanbietern längst bewusst. Eine mögliche Gegenmaßnahme: Spezielle Labels kennzeichnen Bilder als mit KI-generiert.
Forschende der Fakultät für Informatik an der Ruhr-Universität Bochum und des CISPA Helmholtz-Centers für Informationssicherheit, darunter Jonas Ricker, PhD und Mitglied des Horst-Görtz-Instituts für IT-Sicherheit, sowie Sandra Höltervennhoff (ehemals HGI/CASA, heute CISPA), haben sich dieser Idee aus der Userperspektive genähert. In ihrem Paper, das auf der Cybersicherheits-Konferenz ACM CHI 2026 (Barcelona, Spanien) vorgestellt wurde, analysierten sie das Nutzungsverhalten von KI-Labels.
Der Mensch im Mittelpunkt
Während große Hoffnungen damit verbunden sind, dass solche Kennzeichnungen gesellschaftliche Risiken von GenAI – darunter insbesondere die Verbreitung von Falschinformationen – mindern, dienen sie in erster Linie der Transparenz. Sie liefern keine Aussage darüber, ob ein Inhalt der Realität entspricht oder frei erfunden ist, sondern lediglich darüber, ob er mithilfe von KI erstellt wurde. Damit Nutzende angemessen mit solchen Informationen umgehen können, ist entscheidend, dass ihre Erwartungen mit der tatsächlichen Funktionsweise der Kennzeichnung übereinstimmen.
Basierend auf diesen Grundannahmen untersuchten die Forschenden die Erwartungen von Nutzenden, ihre Wahrnehmung sowie die Auswirkungen fehlerhafter Kennzeichnungen (Mislabeling) auf die User Experience. Dazu führten sie zwei Studien durch.
Wahr oder falsch? KI-Labels im Praxistest
Während die Studienteilnehmer*innen der ersten Studie KI-Labels zunächst als hilfreich empfanden, änderte sich ihre Wahrnehmung während der praktischen Anwendung. In der zweiten, zentralen Studie mit insgesamt 1.342 Teilnehmenden wurden reale und KI-generierte Bilder jeweils mit einer passenden – falschen oder richtigen – Information kombiniert. Die Aufgabe bestand darin, die jeweilige Aussage als wahr oder falsch zu erkennen. Die Beispiele stammen von Faktencheck-Websites.
In der Studie mussten die Teilnehmer*innen anhand von Stimuli erkennen, ob ein Fakt wahr oder falsch ist. Hierbei handelt es sich um ein KI-generiertes Bild in Kombination mit einer Falschaussage.
„Die Labels veranlassten die Teilnehmer*innen nicht dazu, sich stärker auf die Richtigkeit der Behauptungen zu konzentrieren. Sie hatten auch keinen Einfluss auf die Sicherheit, mit der die Proband*innen ihre Urteile fällten,“ erklärt Jonas Ricker. Stattdessen tendierten sie dazu, sich bei ihrer Entscheidung auf die An- oder Abwesenheit des Labels zu verlassen. Das führte zu der unbeabsichtigten Nebenwirkung, dass wahre Informationen mit KI-Bebilderung häufig als falsch eingeschätzt wurden. Gleichzeitig nahm das Vertrauen in Fakten zu, die mit realen, aber aus dem Kontext gerissenen Fotos bebildert wurden.
Risiken durch Mislabeling
Eine weitere Problematik, die untersucht wurde, ist das sogenannte Mislabeling. Egal, ob sich bei der Zuweisung der Labels auf die Nutzenden der Plattform verlassen wird, die Information aus den Metadaten herausgelesen wird oder eine Software vor dem Upload alle Bilder prüft: Fehler können in jedem System auftreten und hätten gravierende Folgen auf das Urvertrauen in die Kennzeichnung.
Die Ergebnisse der Studie unterstreichen, dass KI-Labels in der Praxis mit Vorsicht genutzt werden müssen.
Interdisziplinarität als Prinzip bei CASA