Sprache kann viel Unheil anrichten – dazu müssen Beleidigungen oder Aufwiegelungen gar nicht so direkt formuliert sein wie in diesem Beispiel.
© Roberto Schirdewahn

Linguistik Schädigende Sprache mit Algorithmen finden

Künstliche Intelligenz kann Schimpfwörter gut identifizieren. Mit versteckteren Formen sprachlicher Gewalt tut sie sich schwer. Noch.

Wie gut Methoden zur Erkennung von Hassrede auch subtilere Formen von schädigender Sprache aufspüren können, untersucht Prof. Dr. Tatjana Scheffler aus der Arbeitsgruppe für Digitale Forensische Linguistik der Ruhr-Universität Bochum (RUB). Gemeinsam mit Kolleginnen aus Berlin hat sie beispielsweise einen Telegram-Chat zum Sturm auf das Kapitol 2021 ausgewertet und Formen von schädigender Sprache identifiziert, die Algorithmen bislang schlecht erkennen. Diese Erkenntnisse möchte die Wissenschaftlerin in Zukunft nutzen, um selbst entwickelte Algorithmen für die Erkennung von schädigender Sprache zu optimieren. Über ihre Arbeit berichtet Rubin, das Wissenschaftsmagazin der RUB.

Mehr als nur direkte Beleidigungen

Künstliche-Intelligenz-Algorithmen können lernen, Aussagen verschiedenen Kategorien zuzuordnen. So können sie etwa entscheiden, ob eine Textpassage eine direkte Beleidigung enthält oder nicht. Die Algorithmen lernen die Kategorien anhand von großen Trainingsdatensätzen, die Menschen zuvor klassifiziert haben. Später können sie das Wissen über die erlernten Kategorien dann auf neue Daten übertragen.

„Direkte Beleidigungen und Schimpfwörter sind so schon gut zu identifizieren“, weiß Tatjana Scheffler. Oft reicht ein Abgleich mit einer Wortliste, die häufig verwendete Beleidigungen enthält. Unter schädigender Sprache versteht die Forscherin aber viel mehr als offensichtliche Hassrede, die sich gegen einzelne Personen richtet. „Es gibt implizitere Formen, die gar nicht an einen bestimmten Adressaten oder eine Adressatin gerichtet sind“, sagt sie. „Man kann auch Schaden anrichten, in dem man auf eine gewisse Weise über andere spricht oder eine bestimmte Stimmung herstellt.“

Telegram-Chat von Trump-Anhängern analysiert

In einer Studie arbeitete das Team um Tatjana Scheffler beispielsweise mit 26.431 Nachrichten, die zwischen dem 11. Dezember 2016 und dem 18. Januar 2021 in einem öffentlichen Telegram-Kanal gepostet worden waren. Dort äußerten sich Menschen mit extrem rechter Gesinnung zunächst zu der theoretischen Idee, die US-amerikanische Regierung zu stürzen. Später entwickelten sie konkrete Pläne, das Kapitol zu stürmen, was am 6. Januar 2021 passierte.

Automatisierte Verfahren und Menschen im Vergleich

Die Forscherinnen analysierten etwa ein Fünftel der Nachrichten von Hand und verglichen die Ergebnisse mit denen von automatisierten Verfahren, wie Tech-Firmen sie nutzen, um Hassrede oder beleidigende Sprache ausfindig zu machen. 4.505 Nachrichten gingen in den Vergleich ein. 3.395 davon stuften sowohl die Wissenschaftlerinnen als auch die automatisierten Verfahren als nicht schädigend ein, bei 275 waren sie sich einig, dass sie schädigende Sprache enthielten. 835 Nachrichten hingegen bewerteten Mensch und Maschine unterschiedlich: Etwa die Hälfte stuften die Algorithmen fälschlicherweise als Hassrede oder Beleidigung ein; den Rest erkannten sie – anders als die Wissenschaftlerinnen – nicht als schädigende Sprache.

Gerade bei aufwiegelnden Kommentaren, Insiderbegriffen und Othering – Bemerkungen, die genutzt werden, um eine Gruppe Menschen von einer anderen abzugrenzen – lagen die automatisierten Verfahren oft daneben. „Wenn wir sehen, in welchen Fällen etablierte Methoden Fehler machen, hilft uns das, künftige Algorithmen besser zu machen“, resümiert Tatjana Scheffler. Mit ihrem Team entwickelt sie auch selbst automatisierte Verfahren, die schädigende Sprache noch besser erkennen sollen. Dabei fließen auch linguistische Erkenntnisse ein: „Bestimmte grammatische Strukturen können ein Hinweis darauf sein, dass ein Begriff abwertend gemeint ist“, erklärt Scheffler. „Wenn ich sage ‚Du Lauch‘ ist das etwas anderes, als wenn ich nur ‚Lauch‘ sage.“

Ausführlicher Artikel im Wissenschaftsmagazin Rubin

Einen ausführlichen Beitrag zum Thema finden Sie im Wissenschaftsmagazin Rubin mit dem Schwerpunkt „Verbrechen“. Für redaktionelle Zwecke dürfen die Texte auf der Webseite unter Angabe der Quelle „Rubin – Ruhr-Universität Bochum“ sowie Bilder aus dem Downloadbereich unter Angabe des Copyrights und Beachtung der Nutzungsbedingungen honorarfrei verwendet werden.

Rubin kann als Newsletter und Printmagazin kostenlos abonniert werden.

Pressekontakt

Prof. Dr. Tatjana Scheffler
Digitale Forensische Linguistik
Germanistisches Institut
Ruhr-Universität Bochum
Tel.: +49 234 32 21471
E-Mail: tatjana.scheffler@rub.de

Veröffentlicht

Montag
25. April 2022
09:10 Uhr

Teilen