Linguistik Schädigende Sprache mit Algorithmen finden
Künstliche Intelligenz kann Schimpfwörter gut identifizieren. Mit versteckteren Formen sprachlicher Gewalt tut sie sich schwer. Noch.
Wie gut Methoden zur Erkennung von Hassrede auch subtilere Formen von schädigender Sprache aufspüren können, untersucht Prof. Dr. Tatjana Scheffler aus der Arbeitsgruppe für Digitale Forensische Linguistik der Ruhr-Universität Bochum (RUB). Gemeinsam mit Kolleginnen aus Berlin hat sie beispielsweise einen Telegram-Chat zum Sturm auf das Kapitol 2021 ausgewertet und Formen von schädigender Sprache identifiziert, die Algorithmen bislang schlecht erkennen. Diese Erkenntnisse möchte die Wissenschaftlerin in Zukunft nutzen, um selbst entwickelte Algorithmen für die Erkennung von schädigender Sprache zu optimieren. Über ihre Arbeit berichtet Rubin, das Wissenschaftsmagazin der RUB.
Mehr als nur direkte Beleidigungen
Künstliche-Intelligenz-Algorithmen können lernen, Aussagen verschiedenen Kategorien zuzuordnen. So können sie etwa entscheiden, ob eine Textpassage eine direkte Beleidigung enthält oder nicht. Die Algorithmen lernen die Kategorien anhand von großen Trainingsdatensätzen, die Menschen zuvor klassifiziert haben. Später können sie das Wissen über die erlernten Kategorien dann auf neue Daten übertragen.
„Direkte Beleidigungen und Schimpfwörter sind so schon gut zu identifizieren“, weiß Tatjana Scheffler. Oft reicht ein Abgleich mit einer Wortliste, die häufig verwendete Beleidigungen enthält. Unter schädigender Sprache versteht die Forscherin aber viel mehr als offensichtliche Hassrede, die sich gegen einzelne Personen richtet. „Es gibt implizitere Formen, die gar nicht an einen bestimmten Adressaten oder eine Adressatin gerichtet sind“, sagt sie. „Man kann auch Schaden anrichten, in dem man auf eine gewisse Weise über andere spricht oder eine bestimmte Stimmung herstellt.“
Telegram-Chat von Trump-Anhängern analysiert
In einer Studie arbeitete das Team um Tatjana Scheffler beispielsweise mit 26.431 Nachrichten, die zwischen dem 11. Dezember 2016 und dem 18. Januar 2021 in einem öffentlichen Telegram-Kanal gepostet worden waren. Dort äußerten sich Menschen mit extrem rechter Gesinnung zunächst zu der theoretischen Idee, die US-amerikanische Regierung zu stürzen. Später entwickelten sie konkrete Pläne, das Kapitol zu stürmen, was am 6. Januar 2021 passierte.
Automatisierte Verfahren und Menschen im Vergleich
Die Forscherinnen analysierten etwa ein Fünftel der Nachrichten von Hand und verglichen die Ergebnisse mit denen von automatisierten Verfahren, wie Tech-Firmen sie nutzen, um Hassrede oder beleidigende Sprache ausfindig zu machen. 4.505 Nachrichten gingen in den Vergleich ein. 3.395 davon stuften sowohl die Wissenschaftlerinnen als auch die automatisierten Verfahren als nicht schädigend ein, bei 275 waren sie sich einig, dass sie schädigende Sprache enthielten. 835 Nachrichten hingegen bewerteten Mensch und Maschine unterschiedlich: Etwa die Hälfte stuften die Algorithmen fälschlicherweise als Hassrede oder Beleidigung ein; den Rest erkannten sie – anders als die Wissenschaftlerinnen – nicht als schädigende Sprache.
Gerade bei aufwiegelnden Kommentaren, Insiderbegriffen und Othering – Bemerkungen, die genutzt werden, um eine Gruppe Menschen von einer anderen abzugrenzen – lagen die automatisierten Verfahren oft daneben. „Wenn wir sehen, in welchen Fällen etablierte Methoden Fehler machen, hilft uns das, künftige Algorithmen besser zu machen“, resümiert Tatjana Scheffler. Mit ihrem Team entwickelt sie auch selbst automatisierte Verfahren, die schädigende Sprache noch besser erkennen sollen. Dabei fließen auch linguistische Erkenntnisse ein: „Bestimmte grammatische Strukturen können ein Hinweis darauf sein, dass ein Begriff abwertend gemeint ist“, erklärt Scheffler. „Wenn ich sage ‚Du Lauch‘ ist das etwas anderes, als wenn ich nur ‚Lauch‘ sage.“