«Kooperation hält unsere Gemeinschaft zusammen. Sie erfordert Kompromiss- und Risikobereitschaft, da das Vertrauen, das wir anderen entgegenbringen, immer auch ausgenutzt werden kann», erklärt Jurgis Karpus, Ph.D., Mitarbeiter am Lehrstuhl für Philosophy of Mind der LMU. «Der Autoverkehr ist dafür ein gutes Beispiel: Wir verlieren etwas Zeit, wenn wir jemandem Vorfahrt gewähren, und sind verärgert, wenn andere es uns nicht gleichtun.»
Modelle der Spieltheorie
Im Rahmen der Studie wurden in Online-Experimenten verschiedene Situationen mit Methoden der verhaltensorientierten Spieltheorie modelliert, in denen Mensch und Maschine zusammentreffen.
«Unsere Studie zeigt, dass Menschen Maschinen zunächst dasselbe Vertrauen entgegenbringen wie ihren Mitmenschen: Die meisten gehen davon aus, auf Kooperationsbereitschaft zu treffen», sagt Karpus.
Nicht überraschend: Menschen agieren mit Maschinen anders als mit Menschen. /


Doch dann beginnen die Unterschiede: «Menschen sind sehr viel weniger bereit, sich einer KI gegenüber reziprok zu verhalten als gegenüber einem Menschen. Sie beuten sogar die 'Gutmütigkeit' der Maschine zum eigenen Vorteil aus. Im Autoverkehr würde ein Mensch einem menschlichen Fahrer die Vorfahrt gewähren, nicht jedoch einem selbst fahrenden Auto.»
«Ausbeutung von Algorithmen»
Im Laufe der Experimente erwies sich dieses Muster als so konsistent, dass in der Studie die Rede von einer «Ausbeutung von Algorithmen» ist. «Dieser Widerwillen zur Kooperation mit Maschinen ist eine Herausforderung für die zukünftige Interaktion zwischen Mensch und KI», sagt Jurgis Karpus.