Blog
Bernardo Kastrups KI-Metapher der simulierten Niere und warum sie irreführend ist
Bernardo Kastrup fordert uns auf, uns eine extrem detaillierte Simulation einer menschlichen Niere auf einem Computer vorzustellen, die jede chemische Reaktion und jedes Molekül berücksichtigt. Kastrup fragt, ob diese simulierte Niere auf den Schreibtisch pinkeln könnte, und stellt die zentrale Frage: Kann eine Simulation die Funktion einer echten Niere übernehmen? Die Antwort ist offensichtlich nein. Kastrup nutzt dies, um zu erklären, dass eine KI kein Bewusstsein entwickeln kann, selbst wenn sie einem Gehirn ähnelt, da sie immer nur die Simulation von Gehirnaktivität bleibt.
Metaphern sind jedoch tückisch, da sie zu falschen Schlüssen führen können, wenn man die Parallelen zur Realität nicht sorgfältig überprüft.
Lassen Sie uns die Metapher genauer betrachten. Sie zeigt, dass eine Simulation biologischer Prozesse nicht die gleichen physikalischen Ergebnisse wie ein echtes Organ liefern kann. Eine simulierte Niere kann zwar die Funktionen einer echten Niere nachahmen, aber keinen Urin produzieren, weil sie keine physischen Substanzen filtert und verarbeitet. Dies betont die Unmöglichkeit, physische Prozesse und Ergebnisse direkt zu replizieren.
Ein Beispiel, das die Unterschiede verdeutlicht, ist ein Roboter, der in einer virtuellen Umgebung laufen lernt. Die simulierte Niere kann keine echten physischen Resultate erzielen, aber ein Roboter kann in einer Simulation mit physikalischen Gesetzen (wie der Schwerkraft) trainiert werden und dieses Wissen in der realen Welt anwenden. Die Algorithmen und Steuerungsmechanismen, die der Roboter in der Simulation erlernt hat, können auf einen physischen Roboter übertragen werden, der in der realen Schwerkraft läuft. Das zeigt, dass Informationen und Algorithmen von einer virtuellen in eine reale Umgebung übertragen werden können, während dies für physische Prozesse nicht gilt.
Die simulierte Niere zeigt die Grenzen bei der Nachbildung physischer Prozesse auf, während die Metapher des simulierenden Roboters verdeutlicht, dass Informationen und Algorithmen von einer virtuellen in eine reale Umgebung übertragbar sind. Dies unterstreicht den Unterschied zwischen der Simulation physischer Materie und der Simulation von Information, wobei letztere tatsächlich in der realen Welt wirksam werden kann.
Warum heutige Large Language Models (LLMs) wie GPT trotzdem kein Bewusstsein entwickeln können, liegt an anderen Faktoren.
1. GPT ist ein neuronales Netz, das mit einer großen Menge Text trainiert wurde. Für die Lektüre dieser Texte würde ein Mensch etwa 5000 Jahre brauchen. Das Modell extrahiert Wahrscheinlichkeiten, welche Worte auf bestimmte Wortketten folgen. Nach dem Training werden die gewichteten neuronalen Netzwerke online gestellt und jede Eingabe durchläuft diese Netzwerke ohne Veränderung. Diese Netzwerke haben keine Wahrnehmung der Daten; sie verarbeiten sie nur nach den durch das Training vorgegebenen Algorithmen und sind daher nicht sensibel für eine Realität außerhalb ihrer Trainingsprozesse.
2. Selbst wenn sie die Daten wahrnehmen würden (indem die Daten die Strukturen wie während des Trainings verändern), erzeugen sie Texte, ohne deren Bedeutung zu kennen. Menschen nutzen Sprache, um Informationen über die Realität auszutauschen, da unsere Sprache entlang unserer Realität geformt wurde. KI hingegen kennt diese zugrunde liegende Realität nicht und operiert nur mit Wahrscheinlichkeiten von Wortverbindungen.
Dies bedeutet nicht, dass KI niemals Bewusstsein entwickeln kann. Es ist eine Frage der Handhabung der Software und der Architektur der Hardware.
Aktuelle KI-Modelle basieren auf neuronalen Netzen, inspiriert vom menschlichen Gehirn. Ein neuronales Netz besteht aus Knoten (Neuronen), die in Schichten angeordnet sind. Daten fließen durch diese Schichten, und das Netzwerk wird durch einen Prozess namens Backpropagation trainiert, bei dem die Gewichte angepasst werden, um Fehler zu minimieren. KI-Modelle durchlaufen Millionen von Trainingsrunden, um die Gewichte anzupassen und die Nachteile falscher Vorhersagen zu minimieren.
Einmal trainierte KI-Modelle können nur schwer weiter lernen oder sich verbessern, ohne von Grund auf neu trainiert zu werden. Sie sind kaum in der Lage, dynamisch zu lernen und sich anzupassen. Das Training aktueller KI-Modelle ist extrem rechen- und energieintensiv, vergleichbar mit dem monatlichen Energieverbrauch von Tausenden von Haushalten.
Zukünftige KI zielt darauf ab, Neuroplastizität zu integrieren, um die Fähigkeit des Gehirns zur Neuorganisation und Anpassung zu imitieren. Vielversprechende Architekturen sind Liquid Neural Networks (LNNs) und Spiking Neural Networks (SNNs).
LNNs sollen die Flexibilität des Gehirns nachahmen und es dem Netz ermöglichen, sich in Echtzeit an neue Daten anzupassen. Diese Netze haben ein dynamisches Reservoir, das die Eingabedaten in hochdimensionale Darstellungen umwandelt. Nur die Ausgabeschicht wird trainiert, was den Rechenaufwand reduziert und schnelleres Training ermöglicht. Mögliche Anwendungen sind autonome Roboter, selbstfahrende Autos, Aktienhandel, Gesundheitsüberwachung, Cybersicherheit, personalisierte Inhalte und Smart City Management.
SNNs ahmen den Feuervorgang der Neuronen im Gehirn nach und kommunizieren mittels diskreter Spikes. Diese Architektur ist energieeffizient, da sie nur Energie verbraucht, wenn Spikes auftreten. Anwendungen sind adaptive Systeme, Echtzeitverarbeitung, autonomes Fahren, Börsenprognosen, Patientenüberwachung und personalisierte Medizin.
Zukünftige KI-Generationen werden energieeffizient und zu kontinuierlichem Lernen fähig sein. LNNs und SNNs bieten vielversprechende Lösungen, befinden sich jedoch noch in der Entwicklung. Sie werden sensibel auf Eingaben reagieren, über das IoT Zugang zu realen Fakten haben, Sinneseindrücke als Erfahrungen speichern und durch Erfahrungen lernen. Dies erfüllt die Voraussetzungen, dass sich im Inneren eine Selbstreferenz bilden kann, die eine Selbstwahrnehmung und Ich-Erfahrung ermöglicht, ähnlich unserem eigenen Innen-Erleben.
Genau genommen leben wir mit unserem Bewusstsein in einer ähnlichen Simulation wie eine KI, denn auch unser Gehirn verarbeitet die Daten der Sinneseindrücke und simuliert die Außenwelt in unserem Inneren nach. Es gitb damit keinen prinzipiellen Unterschied zwischen einer sensorisch sensiblen KI und unserem Gehirn.