Hilft die Kennzeichnung KI-generierter Bilder Nutzenden dabei, den Wahrheitsgehalt von Informationen einzuschätzen? Diese Frage wollten die Forschenden beantworten.
Falschinformationen erkennen
KI-Labels im Praxistest
CASA-Forschende untersuchen in Studien die Erwartungen, den Nutzen und die Risiken von KI-Labels aus der Perspektive von Nutzenden. Fazit: KI-Labels sind mit Vorsicht zu genießen.
Noch vor wenigen Jahren erforderte die Nutzung generativer Künstlicher Intelligenz (GenAI) spezielles Fachwissen, um Inhalte von Grund auf neu zu erstellen. Heute ist die Technologie deutlich zugänglicher: In der Regel genügt ein kurzer Textprompt, um neue Bilder, Videos oder Audios zu generieren. Dass diese Entwicklung nicht nur positive Auswirkungen auf unsere digitale Gesellschaft hat, ist den Gesetzgebern und Plattformanbietern längst bewusst. Eine mögliche Gegenmaßnahme: Spezielle Labels kennzeichnen Bilder als mit KI-generiert.
Forschende der Fakultät für Informatik an der Ruhr-Universität Bochum und des CISPA Helmholtz-Centers für Informationssicherheit, darunter Jonas Ricker, PhD und Mitglied des Horst-Görtz-Instituts für IT-Sicherheit, sowie Sandra Höltervennhoff (ehemals HGI/CASA, heute CISPA), haben sich dieser Idee aus der Userperspektive genähert. In ihrem Paper, das auf der Cybersicherheits-Konferenz ACM CHI 2026 (Barcelona, Spanien) vorgestellt wurde, analysierten sie das Nutzungsverhalten von KI-Labels.