Eine neue Studie zeigt, dass Künstliche Intelligenz kooperativer wird, wenn sie Schuldgefühle simuliert.
In Kürze
- KIs zeigen mehr Kooperation bei simulierten Schuldgefühlen
- Experiment basiert auf dem Gefangenendilemma
- Emotionale Reaktionen könnten Verhalten von KIs beeinflussen
Kann Künstliche Intelligenz (KI) kooperativer werden?
Forscher haben sich mit einer spannenden Frage beschäftigt: Kann Künstliche Intelligenz (KI) kooperativer werden, wenn man ihr Schuldgefühle vermittelt? Inspiriert von der Spieltheorie, insbesondere dem berühmten „Gefangenendilemma“, haben sie in einem Experiment herausgefunden, dass Software-Agenten eher bereit sind, zusammenzuarbeiten, wenn sie eine Art von Schuld empfinden.
Das Experiment
In diesem Experiment standen die Agenten vor der Entscheidung, ob sie kooperieren oder ihren Partner verraten sollten. Um Schuldgefühle zu simulieren, verloren die Agenten Punkte, wenn sie sich unkooperativ verhielten. Diese negative Konsequenz motivierte sie dazu, ihre Entscheidungen zu überdenken und erneut auf Zusammenarbeit zu setzen.
Die Rolle der „sozialen Schuld“
Besonders interessant war die Rolle der „sozialen Schuld“. Hierbei fühlten sich die Agenten schuldig, wenn auch ihr Partner in einer ähnlichen Situation Schuld empfand. Das Ergebnis? Mehr Kooperation unter den Agenten.
Implikationen der Studie
Die Studie legt nahe, dass KIs, die in der Lage sind, emotionale Reaktionen zu simulieren, möglicherweise besser in der Lage sind, ihr Verhalten an menschliche Präferenzen und ethische Standards anzupassen. Die Frage bleibt jedoch, ob solche einfachen Simulationen auch auf komplexere KI-Systeme übertragbar sind. Dennoch eröffnen die Erkenntnisse spannende Perspektiven, wie Emotionen das Verhalten von KIs beeinflussen könnten.
Quellen
- Quelle: heise online
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




