IT-Sicherheit Wie häufig Fake-Profilbilder auf Twitter sind
Automatisiert agierende Social-Media-Profile sind ein mächtiges Werkzeug für das Verbreiten von Propaganda. Oft beinhalten sie KI-generierte Profilbilder. Forschende arbeiten daran, diese identifizieren zu können.
Wie viele mit Künstlicher Intelligenz (KI) erzeugte Profilbilder es in dem Sozialen Netzwerk Twitter (mittlerweile X genannt) gibt, haben Bochumer Forschende mit Kollegen aus Köln und Saarbrücken untersucht. Sie analysierten fast 15 Millionen Accounts und fanden heraus, dass 0,052 Prozent davon ein KI-generiertes Personenbild als Avatar besaßen. „Das klingt im ersten Moment nicht viel, aber solche Bilder sind merklich präsent auf Twitter“, sagt Erstautor Jonas Ricker von der Ruhr-Universität Bochum. „Unsere Analysen geben zudem Hinweise darauf, dass es sich bei vielen der Accounts um Fakeprofile handelt, die unter anderem politische Propaganda oder Verschwörungstheorien verbreiten.“ Das Team stellte die Arbeit am 1. Oktober 2024 in Padua auf dem 27th International Symposium on Research in Attacks, Intrusions and Defenses (RAID) vor.
Die Forschenden der Ruhr-Universität Bochum kooperierten für die Arbeit mit Kollegen des Helmholtz-Zentrums für Informationssicherheit CISPA in Saarbrücken und des Leibniz-Instituts für Sozialwissenschaften GESIS in Köln. Die Arbeiten fanden im Rahmen des Exzellenzclusters Cybersecurity in the Age of Large-Scale Adversaries, kurz CASA, statt.