Künstliche Intelligenz Bochumer Projekt schafft Klarheit zu KI-Tools für NRW-Hochschulen
Wenn Chatroboter eine Hausarbeit schreiben, stehen Lehrende vor einem Problem. Ein Rechtsgutachten soll helfen, einheitliche Antworten auf die dringendsten Fragen zu geben.
Ist es ein Plagiat, wenn eine Künstliche Intelligenz eine Hausarbeit schreibt? Wer ist eigentlich Urheber dieser Arbeit? Solche Fragen treiben Hochschulen um, seit Chatroboter wie ChatGPT in der Lage sind, Texte zu verfassen, die sich lesen wie von Menschenhand geschrieben. Erste Hilfe in solchen Fällen erhalten Hochschulen durch ein Rechtsgutachten, das von der Ruhr-Universität Bochum koordiniert wird und das noch im Frühjahr 2023 vorliegen soll. Eine Klärung der drängenden Fragen zu KI-Schreibwerkzeugen wurde vom Ministerium für Kultur und Wissenschaft des Landes Nordrhein-Westfalen in Auftrag gegeben und wird im Rahmen des seit 2020 am Zentrum für Wissenschaftsdidaktik der Ruhr-Universität laufenden Projekts KI:edu.nrw vorgenommen.
Akute Fragen in den Hochschulen
Das Bochumer Team um Projektleiter Dr. Peter Salden gehört zu den ersten, die sich mit der Bedeutung von KI-Anwendungen für den Lehr- und Lernbetrieb an deutschen Hochschulen beschäftigen. Er und sein Team beraten Mitarbeitende von Hochschulen auch bei akuten Fragen zum Thema. „Beschäftigte der Hochschulen fragen sich zurzeit konkret, was sie tun sollen, wenn Studierende diese Technik für Hausarbeiten nutzen, die als Prüfungsleistungen anerkannt werden“, sagt Nadine Lordick als Expertin für das Thema im Projektteam. „Sie fragen sich zum Beispiel: Können wir die Nutzung verhindern? Müssen wir der Eigenständigkeitserklärung etwas hinzufügen, die bei solchen Hausarbeiten üblich ist?“
Durch das Gutachten sollen die Hochschulen Orientierung erhalten, wie Fragen mit Verbindung zu ChatGPT und ähnlichen Programmen im Lichte von Urheber- und Prüfungsrecht zu beurteilen sind. Sie sollen zudem Klarheit darüber erhalten, ob an bestimmten Stellen Regelungen angepasst werden müssen. „Wichtig ist vor allem, jetzt nicht in blinden Aktionismus zu verfallen, sondern alle Schritte wohlüberlegt anzugehen“, sagt Nadine Lordick. Die Ausarbeitung des Gutachtens erfolgt in zwei Schritten: In einem ersten Schritt erstellt das Bochumer Projekt KI:edu.nrw einen Überblick über den aktuellen Stand der Dinge und zentrale Fragen, die in Lehre und Studium auftreten können. Der zweite Teil umfasst die rechtliche Bewertung dieser Fragen, wofür der Einbezug eines Gutachters mit spezialisierter Expertise vorgesehen ist.
ChatGPT und Co.
Der Dienst ChatGPT und andere Dienste sind in der Lage, zu einem vorgegebenen Thema einen Text zu verfassen, der sich auf den ersten Blick liest wie von einem Menschen verfasst. Dabei werden nicht einfach vorgefundene Textteile zusammengesetzt, sondern der Text wird neu generiert. „Das ist der Grund, warum Plagiatssoftware solche Texte nicht identifizieren kann“, erklärt Nadine Lordick. KI-generierte Texte als solche erkennen könnten vor allem Menschen, die bereits Erfahrung mit dem Lesen solcher Texte haben, oder die den Stil des vermeintlichen Autors oder der Autorin kennen und den Unterschied somit bemerken, berichtet sie. „KI-generierte Texte sind häufig etwas oberflächlicher formuliert als von Menschen geschriebene.“ Unterm Strich bleibt die Expertin gelassen. „Auch andere technische Neuerungen wie der Taschenrechner oder Internetsuchmaschinen haben die gängige Praxis in Forschung und Lehre in Frage gestellt“, sagt sie. „Man muss seine Prozesse daraufhin prüfen und an die neuen Gegebenheiten anpassen. Dann kann man durchaus auch die Vorteile in Forschung und Lehre nutzen.“