Künstliche Intelligenz Das Gewissen der Maschinen
Unser eigenes Handeln sollte von Moral und Ethik geprägt sein. Können wir das auch von Robotern erwarten?
Roboter und Maschinen werden uns zukünftig immer mehr alltägliche Arbeiten erleichtern oder abnehmen. Dabei werden sie auch in Situationen kommen, in denen sie Entscheidungen treffen müssen. Wie man ihnen beibringen kann, dabei die menschliche Moral mitzudenken, weiß Lukas Brand, Doktorand am RUB-Lehrstuhl für Religionsphilosophie und Wissenschaftstheorie.
Herr Brand, was für Situationen könnten es sein, in denen Maschinen moralisch richtige Entscheidungen treffen müssen?
Das wissen wir nicht so genau. Und dass wir es nicht wissen, macht es so schwierig, der Maschine die beste Entscheidung einzuprogrammieren.
Eine moralische Entscheidung hängt von unterschiedlichen Faktoren ab, die scheinbar ähnliche Situationen in sehr unterschiedlichem Licht darstellen können. Wie soll zum Beispiel ein selbstfahrendes Auto handeln, wenn plötzlich Menschen unmittelbar vor ihm über die Straße laufen? Soll es eher das Risiko von Schaden für seine Insassen in Kauf nehmen, etwa, indem es sich gegen eine Wand steuert um auszuweichen, oder sollte es die Insassen schützen und die Fußgänger überfahren? Die Entscheidung könnte etwa davon abhängen, ob die Passanten bei Rot die Straße überqueren, dabei unaufmerksam, einfach nur rücksichtslos oder vielleicht im Begriff sind, ein Kind zurückzuholen, dass auf die Straße gelaufen ist. Das zu erkennen, zu bewerten, geschweige denn zu entscheiden, ist extrem kompliziert und lässt sich kaum mit Hilfe eines handgeschriebenen Algorithmus bewältigen.
Maschinen müssen also moralische Entscheidungen in Ausnahmesituationen treffen, die im Rahmen ihrer eigentlich vorgesehenen Aufgaben auftreten, in denen aber ungewiss ist, wie zu handeln ist.
Meine Hoffnung ist, dass wir lernenden Algorithmen anhand von Beispielen unsere Vorstellung vom guten Leben vermitteln.
Wie bringt man Maschinen Moral bei?
Meine Hoffnung ist, dass wir lernenden Algorithmen anhand von Beispielen unsere Vorstellung von gutem Leben vermitteln.
Der Algorithmus abstrahiert aus unseren Beispielen die Werte und Normen, die unsere Entscheidungen und unser Handeln anleiten, ohne dass wir diese explizit formalisieren müssen. Denn zum einen ist dies meist nicht möglich, zum anderen bleibt so idealerweise die Flexibilität erhalten, mit der wir diese Werte auf sich verändernde Situationen anwenden, statt sie in starre Regeln umzuwandeln, die unserer dynamischen Wirklichkeit nicht gerecht werden.
Es wird immer Situationen geben, die nicht wünschenswerte Folgen haben, egal wie wir oder die Maschinen handeln.
Die schwierigsten Situationen sind die, in denen es keine eindeutig richtige Lösung gibt. Wie können Maschinen hier eine gute Entscheidung treffen, wenn selbst Menschen es nicht können?
Was im konkreten Einzelfall eine gute Entscheidung auszeichnet ist sehr subjektiv. Ich bin aber überzeugt, dass es gewisse Werte gibt, die eine gute Handlung anleiten, die quasi als Leitplanken unseres Handelns nicht verletzt werden dürfen.
Denken Sie etwa an die Unverletzlichkeit der menschlichen Würde oder das Ideal der körperlichen Unversehrtheit. Aber diese Werte sind Ideale, sie werden nicht immer vollständig verwirklicht werden. Dieses Ideal erreichen wir Menschen nicht, und es ist auch illusorisch zu glauben, dass Maschinen dies jemals könnten.
Es wird immer Situationen geben, die nicht wünschenswerte Folgen haben, egal wie wir oder die Maschinen handeln.
[infobox:2]