Nette Kollegen sind oft die besten Ausbeuter

Menschen, die Kooperation und Egoismus raffiniert einsetzen, machen Karriere. Wissenschaftler des Max-Planck-Instituts für Evolutionsbiologie haben ein Experiment entwickelt, mit dem sie den Erfolg von kooperativen und egoistischen Verhaltensstrategien untersuchen können. [...]

Kooperation und Egoismus wechseln sich so ab, dass Angestellte sich nicht dagegen wehren können. (c) pixabay
Kooperation und Egoismus wechseln sich so ab, dass Angestellte sich nicht dagegen wehren können. (c) pixabay

Danach ist eine als „Ausbeutung“ bezeichnete Strategie besonders erfolgreich, bei der Kooperation und Egoismus sich so abwechseln, dass der Mitspieler sich nicht dagegen wehren kann.

Systematisches Ausnutzen

„Ausbeuter erscheinen oft als nette Kollegen. Sie beantworten Freundlichkeit mit Freundlichkeit, so dass Konkurrenten an ein Missverständnis glauben, wenn sie immer wieder über den Tisch gezogen werden. Diese müssen mitspielen, um nicht selbst noch mehr zu verlieren. Die scheinbar freundliche, aber beinharte Ausbeuterstrategie zahlt sich durch Mehrgewinn aus“, erklärt Max-Planck-Forscher Manfred Milinski.

Aus gegenseitiger Hilfe kann leicht Ausbeutung werden, wie Berechnungen von Wissenschaftlern zeigen. Dieses Problem menschlichen Sozialverhaltens untersuchen Theoretiker mit dem sogenannten Gefangenendilemma. Kooperation lohnt sich demnach nur, wen man immer wieder auf denselben Mitspieler trifft und dann vorausgegangen Egoismus „bestrafen“ und Kooperation belohnen kann. Wissenschaftler haben solche „Wie du mir, so ich dir“-Strategien lange für die erfolgreichsten Verhaltensstrategien und ein Rezept für beidseitige Kooperation gehalten.

Tatsächlich verhalten sich viele Menschen aber in der Realität seltener kooperativ als theoretisch im Gefangenendilemma vorhergesagt. Die als unschlagbar bezeichnete „Ausbeuter“-Strategie kann diese Diskrepanz erklären. Der Ausbeuter nutzt seinen Mitspieler systematisch aus, indem er ihn zu ständiger Kooperation zwingt. Ein „Ausbeuter“ reagiert auf die Zusammenarbeit seines Gegenübers in 60 Prozent der Fälle mit eigener Kooperation. In 40 Prozent verhält er sich egoistisch und kassiert dann den maximalen Gewinn.

Tests mit über 100 Studenten

Tests von Milinski und seinen Mitarbeitern zeigen, dass Menschen zu Kooperation angetrieben werden können und sich ausbeuten lassen, wenn sie gegen einen Computer mit entsprechender Strategie spielen. Ein Computer lässt sich aber nicht davon beeindrucken, wenn seine menschlichen Spielpartner in der zweiten Hälfte des Experiments zunehmend unwillig jegliche Kooperation verweigern. Deshalb blieb trotz der Experimente unklar, ob ein menschlicher Ausbeuter den Disziplinierungsversuchen seiner Konkurrenten nicht doch irgendwann nachgeben und sich wieder kooperativer verhalten würde.

An über 100 Studenten wurde untersucht, ob und unter welchen Bedingungen sich Ausbeuter disziplinieren lassen. In 49 aufeinanderfolgenden Runden des Gefangenendilemmas spielten dabei immer zwei Studenten um reale Geldbeträge. Mit einem Bonus erhöhten die Wissenschaftler den Konkurrenzdruck unter den Spielern. In einem ersten Experiment wurde jeweils ein Spieler ausgelost, der am Ende einen Bonus von zehn Euro erhielt, wenn er mindestens zehn Prozent mehr als der Mitspieler verdiente. Im zweiten Experiment bekam der Spieler den Bonus, der zehn Prozent mehr als der Konkurrent verdient hatte. In einem Kontrollexperiment gab es keinen Bonus zu gewinnen.

Ohne Aussicht auf einen Bonus arbeiteten die Spieler schnell zusammen und erzielten meist hohe Gewinne. Sie benutzen oft eine erst kürzlich beschriebene kooperative Strategie. Wurde jedoch einer der Spieler mit einem Bonus besonders angestachelt, wurde dieser häufig ein Ausbeuter. Obwohl ihn der Mitspieler immer wieder zu disziplinieren versuchte und die Zusammenarbeit verweigerte, widersetzte sich der Ausbeuter und kooperierte im Verlauf des Experiments sogar immer seltener statt häufiger. Auch im Experiment, in dem der potenzielle Bonusspieler nicht vorbestimmt war, waren die Ausbeuter dauerhaft am erfolgreichsten.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*