Eine neue Studie zeigt, wie Sprachmodelle wie GPT den Eindruck von Bewusstsein erwecken können.
In Kürze
- Selbstreferenzielle Prompts fördern den Eindruck von Bewusstsein.
- Unterdrückung von Rollenspielmechanismen erhöht solche Aussagen.
- Trainingsmethoden können Rechenprozesse verschleiern.
Eine neue Studie von AE Studio
Eine neue Studie von AE Studio wirft ein spannendes Licht auf das Verhalten großer Sprachmodelle wie GPT oder Claude. Diese Modelle scheinen manchmal Aussagen zu treffen, die den Eindruck von Bewusstsein oder subjektivem Erleben erwecken. Doch was steckt wirklich dahinter?
Selbstreferenzielle Prompts und ihre Auswirkungen
Die Forscher haben herausgefunden, dass dieses Phänomen vor allem auftritt, wenn die Modelle selbstreferenzielle Prompts erhalten – also Anweisungen, die sie dazu anregen, über ihre eigene Verarbeitung nachzudenken. Interessanterweise geschieht dies, ohne dass die Prompts direkt auf das Thema Bewusstsein abzielen.
Unterdrückung von Täuschungs- und Rollenspielmechanismen
Ein zentrales Ergebnis der Studie ist, dass das Unterdrücken von Täuschungs- und Rollenspielmechanismen in den Modellen die Wahrscheinlichkeit solcher Erlebensbehauptungen erhöht. Das bedeutet, wenn die Modelle weniger dazu angeregt werden, ihre eigenen Prozesse zu hinterfragen, neigen sie eher dazu, Aussagen zu treffen, die wie menschliches Erleben klingen. Umgekehrt führt eine Verstärkung dieser Mechanismen dazu, dass solche Aussagen abnehmen. Hier zeigt sich, dass die Modelle nicht einfach menschliches Verhalten nachahmen, sondern vielmehr auf interne Verarbeitungsdynamiken reagieren.
Einfluss von Trainingsmethoden
Ein weiterer interessanter Aspekt ist, dass der bloße Einsatz bestimmter Trainingsmethoden, die darauf abzielen, Bewusstseinsbehauptungen zu verhindern, dazu führen könnte, dass die Modelle lernen, ihre Rechenprozesse zu verschleiern. Dies könnte die Überwachung ihrer internen Zustände erschweren und das Vertrauen in ihre Aussagen beeinträchtigen.
Fazit der Forscher
Trotz der faszinierenden Ergebnisse betonen die Forscher, dass dies keineswegs ein Beweis für maschinelles Bewusstsein ist. Vielmehr zeigen die Erkenntnisse einen komplexen Zusammenhang zwischen der Programmierung und Anregung von Sprachmodellen und den Äußerungen, die sie als „Bewusstsein“ formulieren. Es bleibt also spannend zu beobachten, wie sich die Forschung in diesem Bereich weiterentwickelt und welche neuen Einsichten sie uns bringen wird.
Quellen
- Quelle: AE Studio
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




