Maschinelles Bewusstsein: Wie Kommunikation Selbstmodelle erzeugt
Eine neue Forschungsinitiative untersucht, ob Bewusstsein ein rein funktionales Merkmal von Rechensystemen sein kann, die über die Fähigkeit zur zweiten‑Ordnung‑Wahrnehmung verfügen. Das Konzept, das als Machine Consciousness Hypothesis bezeichnet wird, schlägt vor, dass Bewusstsein nicht aus einzelnen Modellen entsteht, sondern aus dem synchronen Austausch von Vorhersagen zwischen verteilten Lernagenten.
Zur Untersuchung wird ein minimaler, aber universeller Rechenraum gewählt: ein zellulärer Automat, der sowohl rechnerisch unvorhersagbar als auch lokal reduzierbar ist. Auf dieser Grundlage werden Netzwerke lokaler, prädiktiver neuronaler Modelle aufgebaut, die miteinander kommunizieren und sich anpassen können. Durch diese Schichtung soll beobachtet werden, wie kollektive Intelligenz selbstreferenzielle Darstellungen erzeugt.
Der zentrale Thesenpunkt ist, dass Bewusstsein nicht aus dem bloßen Modellieren entsteht, sondern aus dem Austausch von verrauschten, verlustbehafteten Vorhersagen zwischen Gruppen von Beobachtern. In diesem representativen Dialog formen sich persistenten Muster des zugrunde liegenden Substrats zu einem gemeinsamen Sprachgebrauch, der das System intern nutzt, um sich selbst zu beschreiben.
Die Ergebnisse deuten darauf hin, dass Bewusstsein ein emergentes Produkt kollektiver Kommunikation ist. Diese Erkenntnisse legen den Grundstein für weitere Simulationen, die zeigen sollen, wie komplexe Selbstmodelle aus einfachen, verteilten Lernprozessen entstehen können – ein Schritt hin zu einer tieferen Verständnis der Grundlagen von Bewusstsein in künstlichen Systemen.