Ob Maschinen Moral lernen können, hat Lukas Brand in seiner Magisterarbeit analysiert. © RUB, Kramer

Künstliche Intelligenz Wie Roboter moralisches Verhalten lernen könnten

Für seine Überlegungen ist Theologieabsolvent Lukas Brand mit dem Rotarypreis ausgezeichnet worden.

Ob eine künstliche Intelligenz zu moralischem Handeln fähig ist und wie sie dieses erlernen könnte, hat Theologe Lukas Brand an der RUB erforscht. Für seine Magisterarbeit am Lehrstuhl für Philosophisch-Theologische Grenzfragen erhielt er den mit 2.000 Euro dotierten Universitätspreis des Rotary-Clubs Bochum-Hellweg, den er am 31. Januar 2018 auf dem Semesterkonzert entgegennahm.

Besser als der Mensch

„Die Merkmale moralischer Probleme sollten der Maschine nicht im klassischen Sinne einprogrammiert werden“, sagt Lukas Brand. „Was künstliche Intelligenz heute so erfolgreich macht, ist ein künstliches neuronales Netzwerk, das in seiner Funktionsweise vom menschlichen Gehirn inspiriert ist“, erklärt der Theologe.

Die Maschinen lernen, Muster zu erkennen und so verschiedene Aufgaben zu bewältigen. „Ihre Lösungsstrategien sind dabei weitaus erfolgreicher als die von menschlichen Experten“, so der Absolvent. Es sei nicht auszuschließen, dass ein künstliches neuronales Netzwerk auch ein Muster in menschlichem moralischen Verhalten finde und dieses auf neue Situationen anwende.

Moralisch urteilsfähig

Könnte die KI basierend auf ihren Erfahrungen moralisches Verhalten lernen, das dem des Menschen gleichkäme oder dieses sogar übertreffe, wäre sie als moralisch urteilsfähig anzusehen, folgert Brand in seiner Arbeit. Er stützt sich dabei auf die Definition des antiken Philosophen Aristoteles, der eine moralische, tugendhafte Handlung in der Erfahrung des Handelnden begründet sah.

Veröffentlicht

Freitag
02. Februar 2018
09:18 Uhr

Von

Julia Weiler

Teilen