Treffen Maschinen bessere Entscheidungen?

Mensch versus Maschine: Eine neue Untersuchung der ESMT Berlin ergab, dass Menschen oft Schwierigkeiten haben, einer maschinellen Entscheidung zu vertrauen. Dies führt dazu, dass sie nichts von der Maschine lernen.

Lieber auf das eigene Bauchgefühl setzen als auf abstrakte Entscheidungsfindungen: Dieses Phänomen ist als Algorithmus-Aversion bekannt und wird häufig auf ein angeborenes Misstrauen gegenüber Maschinen zurückgeführt. Das systematische Übergehen eines Algorithmus muss jedoch nicht unbedingt auf Algorithmus-Aversion zurückzuführen sein. Eine neue Forschungsarbeit der ESMT Berlin zeigt, dass der Kontext, in dem ein menschlicher Entscheidungsträger arbeitet, den Entscheidungsträger auch daran hindern kann zu lernen, ob eine Maschine bessere Entscheidungen trifft.   

Woher wissen wir, wann die Entscheidung einer Maschine besser ist als unsere eigene?

Die Ergebnisse stammen aus der Forschung von Francis de Véricourt und Hüseyin Gurkan, beide Professor of Management Science an der ESMT Berlin. Die Forscher wollten herausfinden, unter welchen Bedingungen ein menschlicher Entscheidungsträger, der eine Maschine überwacht, die kritische Entscheidungen trifft, richtig beurteilen kann, ob die Maschine bessere Empfehlungen ausspricht. Zu diesem Zweck erstellten die Forscher ein Analysemodell, bei dem ein menschlicher Entscheidungsträger eine Maschine beaufsichtigte, die mit wichtigen Entscheidungen betraut war - zum Beispiel, ob eine Biopsie bei einem Patienten durchgeführt werden sollte. Der menschliche Entscheidungsträger traf dann auf der Grundlage der Informationen, die er von der Maschine für jede Aufgabe erhielt, die beste Wahl.  

Misstrauen gegenüber Maschinen führt zu verzerrtem Lernen

Die Forscher fanden heraus, dass ein menschlicher Entscheidungsträger der Maschine mehr Vertrauen schenkte, wenn er die Empfehlung der Maschine beachtete und diese sich als richtig erwies. Manchmal beobachtete der Mensch jedoch nicht, ob die Empfehlung der Maschine richtig war – dies geschah zum Beispiel, wenn der menschliche Entscheidungsträger beschloss, keine Folgemaßnahmen zu ergreifen. In diesem Fall änderte sich das Vertrauen nicht und der menschliche Entscheider lernte nichts daraus. Diese Wechselwirkung zwischen der Entscheidung des Menschen und seiner Einschätzung der Maschine führt zu einem verzerrten Lernen. Daher kann es sein, dass Menschen im Laufe der Zeit nicht lernen, wie man Maschinen effektiv einsetzt.  

Diese Ergebnisse zeigen deutlich, dass es nicht immer ein inhärentes Misstrauen gegenüber Maschinen ist, das Menschen dazu veranlasst, sich über algorithmische Entscheidungen hinwegzusetzen. Dieses einseitige Lernen durch konsequentes Übergehen kann im Laufe der Zeit auch verstärkt werden, was dazu führen kann, dass Maschinen bei der Entscheidungsfindung falsch und ineffektiv eingesetzt werden.

Vertrauen in die Entscheidungsfähigkeit einer Maschine ist der Schlüssel für eine effektive Nutzung

"Wir beobachten häufig die Tendenz, dass sich Menschen über Algorithmen hinwegsetzen, was in der Regel auf ein intrinsisches Misstrauen gegenüber maschinellen Vorhersagen zurückzuführen ist", sagt Prof. de Véricourt. "Diese Voreingenommenheit ist jedoch möglicherweise nicht der einzige Grund für das unangemessene und systematische Übergehen eines Algorithmus. Es kann auch sein, dass wir einfach nicht lernen, wie man Maschinen richtig einsetzt, wenn unser Lernen ausschließlich auf der Richtigkeit der Vorhersagen der Maschine beruht." Diese Ergebnisse zeigen, dass das Vertrauen in die Entscheidungsfähigkeit einer Maschine der Schlüssel dafür ist, dass wir effektiv lernen, sie zu nutzen, und dass sich auch die Genauigkeit ihrer Nutzung verbessert.  

"Unsere Forschung zeigt, dass menschliche Entscheidungsträger eindeutig zu wenig von der Intelligenz einer Maschine lernen können, wenn sie deren Ratschläge nicht kontinuierlich berücksichtigen", sagt Prof. Gurkan. "Wir müssen Wege finden, um mit den Maschinen ständig und nicht nur punktuell zu lernen."

Wann wir Maschinen vertrauen sollten - und wann nicht

Den Forschern zufolge geben diese Ergebnisse Aufschluss über die Bedeutung der Zusammenarbeit zwischen Menschen und Maschinen und zeigen uns, wann wir Maschinen vertrauen sollten (und wann nicht). Durch die Untersuchung solcher Situationen können wir lernen, wann es am besten ist, auf die Maschine zu hören und wann es besser ist, unsere eigenen Entscheidungen zu treffen. Der von den Forschern entwickelte Rahmen kann Menschen helfen, Maschinen bei der Entscheidungsfindung besser zu nutzen. 



Das könnte Sie auch interessieren:

Datenflut in Unternehmen erschwert Entscheidungsprozesse

Roboter, Cobots und generative KI: Die neusten Entwicklungen

Personalmagazin 7/2023 mit dem Schwerpunkt "Künstliche Intelligenz"