Philosophie Kann es Bewusstsein in einer Computersimulation geben?
Wanja Wiese untersucht die Bedingungen, die für ein Bewusstsein erfüllt sein müssen. Mindestens eine findet er im Computer nicht.
Wäre es wünschenswert, dass Künstliche Intelligenzen ein Bewusstsein entwickeln? Aus verschiedenen Gründen eher nicht, meint Dr. Wanja Wiese vom Institut für Philosophie II der Ruhr-Universität Bochum. In einem Aufsatz untersucht er daher Bedingungen, die für ein Bewusstsein erfüllt sein müssen, und vergleicht Gehirn und Computer. Wesentliche Unterschiede zwischen Mensch und Maschine findet er vor allem in der Organisation von Gehirnarealen beziehungsweise Speicher und Recheneinheit. „Die kausale Struktur könnte ein bewusstseinsrelevanter Unterscheid sein“, argumentiert er. Der Aufsatz ist am 26. Juni 2024 in der Zeitschrift „Philosophical Studies“ erschienen.
Zwei Ansätze der Betrachtung
Wenn man sich mit der Möglichkeit von Bewusstsein in künstlichen Systemen beschäftigt, gibt es mindestens zwei verschiedene Ansätze. Ein Ansatz fragt: Wie wahrscheinlich ist es, dass aktuelle KI-Systeme bewusst sind – und was muss bestehenden Systemen hinzugefügt werden, um es wahrscheinlicher zu machen, dass sie bewusstseinsfähig sind? Ein anderer Ansatz fragt: Welche Arten von KI-Systemen sind wahrscheinlich nicht bewusst, und wie können wir ausschließen, dass bestimmte Arten von Systemen bewusstseinsfähig werden?
Wanja Wiese verfolgt in seiner Forschung den zweiten Ansatz. „Dadurch möchte ich zu zwei Zielen beitragen: Zum einen soll das Risiko gemindert werden, versehentlich künstliches Bewusstsein zu schaffen; dies wäre wünschenswert, da derzeit nicht klar ist, unter welchen Bedingungen die Schaffung künstlichen Bewusstseins moralisch zulässig ist. Zum anderen soll dieser Ansatz helfen, Täuschungen durch scheinbar bewusste KI-Systeme auszuschließen, die nur so wirken, als wären sie bewusst“, erklärt er. Dies sei besonders deswegen wichtig, weil es bereits Hinweise darauf gibt, dass viele Menschen, die oft mit Chatbots interagieren, diesen Systemen Bewusstsein zuschreiben. Zugleich besteht unter Expert*innen ein Konsens, dass aktuelle KI-Systeme kein Bewusstsein besitzen.
Das Prinzip der freien Energie
In seinem Aufsatz fragt Wiese: Wie können wir herausfinden, ob es notwendige Bedingungen für Bewusstsein gibt, die zum Beispiel von klassischen Computern nicht erfüllt werden? Eine allgemeine Eigenschaft, die alle bewussten Tiere teilen, ist, dass sie lebendig sind. Lebendig zu sein ist jedoch eine so starke Anforderung, dass viele sie nicht als plausiblen Kandidaten für eine notwendige Bedingung für Bewusstsein ansehen. Aber vielleicht sind einige Bedingungen, die notwendig sind, um lebendig zu sein, auch notwendig für Bewusstsein?
Wanja Wiese bezieht sich in seinem Artikel auf das Prinzip der freien Energie des britischen Neurowissenschaftlers Karl Friston. Das Prinzip zeigt: Die Vorgänge, die für die fortwährende Existenz eines selbstorganisierenden Systems wie eines lebenden Organismus sorgen, können als eine Art von Informationsverarbeitung beschrieben werden. Beim Menschen sind das unter anderem Vorgänge, die lebensnotwendige Werte wie Körpertemperatur, den Sauerstoffgehalt im Blut oder den Blutzucker regulieren. Die gleiche Art von Informationsverarbeitung könnte auch in einem Computer realisiert werden. Der Computer würde dadurch jedoch nicht ebenfalls seine Temperatur oder Blutzuckerwerte regulieren, sondern diese Vorgänge lediglich simulieren.
Die meisten Unterschiede sind nicht bewusstseinsrelevant
Der Forscher schlägt vor, dass es sich mit dem Bewusstsein ähnlich verhalten könnte. Unter der Annahme, dass Bewusstsein einen Beitrag zum Überleben eines bewussten Organismus leistet, muss es aus Sicht des Prinzips der freien Energie in den physiologischen Vorgängen, die zum Erhalt des Organismus beitragen, eine Spur geben, die das bewusste Erleben hinterlässt, und die sich als informationsverarbeitender Vorgang beschreiben lässt. Dies kann man das „computationale Korrelat von Bewusstsein“ nennen. Auch dieses kann in einem Computer realisiert werden. Es kann jedoch sein, dass in einem Computer weitere Bedingungen erfüllt sein müssen, damit der Computer das bewusste Erleben nicht nur simuliert, sondern repliziert.
Im Artikel untersucht Wanja Wiese daher Unterschiede zwischen der Art, wie bewusste Lebewesen das computationale Korrelat von Bewusstsein realisieren, und der Art, wie ein Computer es in einer Simulation realisieren würde. Er argumentiert, dass die meisten dieser Unterschiede nicht bewusstseinsrelevant sind. Zum Beispiel ist unser Gehirn, im Gegensatz zu einem elektronischen Computer, sehr energieeffizient. Es ist jedoch unplausibel, dass dies eine Voraussetzung für Bewusstsein ist.
Ein anderer Unterschied besteht jedoch in der kausalen Struktur von Computern und Gehirnen: In einem klassischen Computer müssen Daten immer erst aus dem Speicher geladen, dann in der Recheneinheit verarbeitet, und schließlich wieder im Speicher abgelegt werden. Im Gehirn gibt es keine solche Trennung und daher eine andere kausale Vernetzung unterschiedlicher Gehirnareale. Wanja Wiese argumentiert, dass dies ein bewusstseinsrelevanter Unterschied zwischen Gehirnen und klassischen Computern sein könnte.
„Aus meiner Sicht ist die Perspektive, die das Prinzip der freien Energie bietet, vor allem deswegen interessant, weil man dadurch Merkmale bewusster Lebewesen so beschreiben kann, dass sie zwar grundsätzlich in künstlichen Systemen realisiert werden können, in großen Klassen künstlicher Systeme (wie Computersimulationen) jedoch nicht vorhanden sind“, erklärt Wanja Wiese. „Dadurch können Voraussetzungen für Bewusstsein in künstlichen Systemen feinkörniger und präziser erfasst werden.“