Prof. Strohmeier: KI in der Personalarbeit - eine Gefahr?

Die Diskussion um den Einsatz künstlicher Intelligenz in der Personalarbeit ist in Deutschland von Ressentiments und offener Ablehnung gekennzeichnet. Dabei wird die Entscheidungsgüte von algorithmischen Systemen oft übersehen, meint Prof. Stefan Strohmeier.

Künstliche Intelligenz (KI) in HR durchläuft derzeit einen zweiten "Hype Cycle". Getriggert durch vielfältige Publikationen, Vorträge, Beratungsangebote sowie nicht zuletzt durch erste KI-basierte Softwareangebote, genießt das Thema hohe Aufmerksamkeit. Einen Schwerpunkt der Diskussion bildet die Frage, inwieweit Algorithmen der KI, hier speziell der Kategorie "Maschinelles Lernen", in der Personalarbeit Entscheidungen wie zum Beispiel die Vorauswahl von Bewerbenden übernehmen oder zumindest unterstützen können, dürfen und sollen. Die Diskussion hierzu ist in Deutschland von Vorsicht und Distanz, teils auch Ressentiments und offener Ablehnung gekennzeichnet.

"Es stellt sich die Frage, ob die bislang herangezogenen Kriterien nicht zu eng sind und die Diskussion nicht viel zu einseitig in Richtung 'Schutz von Betroffenen' geführt wird." Prof. Dr. Stefan Strohmeier

Diskussion über "ethisch richtigen" Einsatz

Institutionalisierungen wie ein "Ethik-Beirat" für HR-Technologien und ein auf Bundesebene geplanter "KI-TÜV" verstärken den Eindruck, dass KI im Personalbereich hauptsächlich als Gefahr verstanden wird, vor der man „Betroffene schützen“ muss. Entsprechend werden inzwischen hohe Anforderungen an einen Einsatz von KI für Personalentscheidungen gestellt, was unter anderem die Transparenz, die Erklärbarkeit, die Diskriminierungsfreiheit, die Vertraulichkeit oder die Haftbarkeit von Algorithmen betrifft.

Auch wenn sich die Frage aufdrängt, ob an die Alternative zum Algorithmus, nämlich den Menschen, tatsächlich dieselben hohen Standards angelegt werden, ist die Diskussion um den "ethisch richtigen" Einsatz von Algorithmen in der Personalarbeit grundsätzlich richtig und nachdrücklich zu begrüßen. Allerdings stellt sich zum derzeitigen Stand die Frage, ob die bislang herangezogenen Kriterien nicht zu eng sind und die Diskussion nicht viel zu einseitig in Richtung "Schutz von Betroffenen" geführt wird. 

Entscheidungsgüte von KI als Kriterium

Im Folgenden möchte ich aufzeigen, dass die gegenwärtige Diskussion die Entscheidungsgüte als wesentliches Kriterium für die ethische Bewertung von Algorithmen in der Personalarbeit übersieht. Eine künftige Berücksichtigung dieses Kriteriums vermag der Diskussion eine andere Richtung zu geben.

Eine Personalentscheidung kann abstrakt als Auswahl zwischen unterschiedlichen Alternativen unter Unsicherheit beschrieben werden. Ein klassisches Beispiel ist die Vorauswahl von geeigneten Bewerbenden zum Vorstellungsgespräch. Die Güte einer Entscheidung kann dann über den Anteil an richtig ausgewählten Alternativen bestimmt werden. Am Beispiel der Vorauswahl ist die Entscheidungsgüte damit umso besser, je weniger eigentlich ungeeignete Bewerbende („false posi­tives“) eingeladen und je weniger eigentlich geeignete Bewerbende abgelehnt werden („false negatives“). Unterscheiden sich nun zwei Entscheidungsmethoden oder -träger in ihrer Entscheidungsgüte, wird man trivialerweise die Methode oder den Träger mit der besseren Entscheidungsgüte wählen.

Click to tweet

Die richtige Entscheidungsmethode

Dies ist allerdings nicht nur ein Gebot der (beschränkten) Rationalität, sondern durchaus auch der ethischen Verantwortung. Wissentlich schlechtere Entscheidungsmethoden oder -träger einzusetzen, bedeutet, vorsätzlich eine Ungerechtigkeit zu begehen oder diese zumindest billigend in Kauf zu nehmen. Im Falle der Vorauswahl bedeutet dies etwa, wissentlich mehr „false negatives“ um die Chance einer Vorstellung und gegebenenfalls einer Anstellung zu bringen. Dies ist erkennbar nicht nur schlecht für das Unternehmen, sondern unfair den Bewerbenden gegenüber. Analoges gilt für alle weiteren kleinen wie großen Personalentscheidungen. Entsprechend ist die Entscheidungsgüte auch aus ethischer Perspektive relevant und bei einer ethischen Bewertung der KI zu berücksichtigen.

Empirische Evidenz zur Entscheidungsgüte von KI

Dies rückt die Frage nach der komparativen Entscheidungsgüte von KI in den Vordergrund. Auch wenn man in der gegenwärtigen Praxis Einzelanwendungen der KI mit durchaus fragwürdiger (Entscheidungs-) Güte identifizieren kann, muss diese Frage losgelöst vom Einzelfall auf genereller Ebene geklärt werden. Natürlich ist der Einsatz von KI in der Personalarbeit zu neu, als dass bereits umfangreiche empirische Erkenntnisse dazu vorliegen könnten. Allerdings ist die generelle Frage nach der Entscheidungsgüte von Menschen versus Algorithmen wissenschaftlich durchaus langfristig und breit untersucht.

Überraschendes Ergebnis mehrerer Meta-Studien

Eine bemerkenswerte Zusammenfassung der wissenschaftlichen Ergebnisse mehrerer Meta-Studien wurde unlängst von meinen Kollegen Torsten Biemann und Heiko Weckmüller vorgelegt (Mensch gegen Maschine: Wie gut sind Algorithmen im HR? Personalquarterly, 4(68)). Ihr Ergebnis über viele Einzelstudien in vielen unterschiedlichen Bereichen hinweg mag manche Diskussionsteilnehmer überraschen: "Algorithmen haben in der Regel eine stärkere Vorhersagekraft als Expertenurteile." Dabei ist klarzustellen, dass sich die einbezogenen Studien nicht ausschließlich auf Personalentscheidungen und nicht ausschließlich auf KI-Algorithmen beziehen. Auch ist die Entscheidungsgüte von Algorithmen nicht sehr viel, sondern "nur" leicht besser als die des Menschen. Mithin bedarf diese Erkenntnis auch einer systematischen empirischen Replikation mit speziellem Fokus auf KI-Algorithmen in der Personalarbeit. Dennoch bleibt der übergreifende Befund einer Überlegenheit von Algorithmen – so unerwartet und unbequem diese Erkenntnis auch sein mag.

Ignoriert HR die Entscheidungsgüte von KI?

Handeln also Personalverantwortliche, die Algorithmen zur Entscheidungsfindung ablehnen, irrational und unethisch? Nein – dies zu behaupten wäre vorschnell und überzogen. Zunächst dürfte die Überlegenheit von Algorithmen keineswegs breiter bekannt sein und für viele gestandene Personalverantwortliche derzeit durchaus "starken Tobak" darstellen. Weiter ist es rein pragmatisch keineswegs so, dass für zentrale Personalentscheidungen bereits validierte und benutzerfreundlich implementierte Algorithmen existierten, die man einfach anwenden könnte.

"Was soll ein Personalverantwortlicher tun, wenn ein Algorithmus ausgerechnet den Bewerbenden für das Vorstellungsgespräch vorschlägt, den er fachlich für unterirdisch und menschlich für eine Zumutung hält?"

Auch schränken Algorithmen die Handlungs- und Entscheidungsspielräume von Personalverantwortlichen erheblich ein. Die vielfach angeführte Idee, bei der Entscheidungsfindung die "komparativen Vorteile von Mensch und Maschine" zu nutzen, hilft nämlich bei hartem Dissens kaum weiter: Was soll ein Personalverantwortlicher tun, wenn ein Algorithmus ausgerechnet den Bewerbenden für das Vorstellungsgespräch vorschlägt, den er fachlich für unterirdisch und menschlich für eine Zumutung hält? Insofern ist es ausgesprochen rational, sich gar nicht erst der Möglichkeit solcher Konflikte auszusetzen, sondern seine Spielräume aufrechtzuerhalten.

 
Schließlich schwebt über der sich derzeit erst abzeichnenden algorithmischen Entscheidungsfindung im Personal­bereich die Gefahr eines großen Dammbruchs: Über Dekaden hat sich bei Anbietern und Anwendern von HR-Software die Formel etabliert, dass durch den Einsatz der Software den HR-Fachleuten "mehr Zeit für das Wesentliche" bliebe. Nur was, wenn personalwirtschaftliche Software "das Wesentliche" in Zukunft zunehmend selbst übernehmen kann?

Sicherung von Status quo und eigenen Pfründen?

Aus Perspektive von HR gibt es also zugkräftige Argumente für das weit verbreitete Credo des "people should make people decisions", und es ist mehr als legitim, wenn sich eine Profession gegen eine Einengung ihrer Handlungs- und Entscheidungsspielräume stellt und sich nachdrücklich für den eigenen langfristigen Erhalt einsetzt. Gleichwohl kann die künftige Diskussion zum ethischen Einsatz der KI in der Personalarbeit die Entscheidungsgüte von Algorithmen nicht weiter ignorieren. Wer dies tut, setzt sich dem Vorwurf aus, ethische Bedenken nur als Vorwand zur Sicherung von Status quo und eigenen Pfründen zu äußern.

"Es könnte sich herausstellen, dass KI weniger eine Gefahr als vielmehr eine Chance ist, und dass Mitarbeitende gar nicht 'Betroffene', sondern Begünstigte der KI sind."

Wer dagegen ernsthaft an einem fairen, gerechten, ehrlichen – schlicht einem ethischen Umgang mit Personal interessiert ist, wird dafür sorgen müssen, dass Personalentscheidungen mit der bestmöglichen Güte getroffen werden. Die gegenwärtige Situation birgt die historische Möglichkeit, sich erstmals kritisch-konstruktiv mit den tradierten, aber keineswegs unfehlbaren Formen der Entscheidungsfindung im Personalbereich auseinanderzusetzen und Verbesserungen herbeizuführen. Es könnte sich herausstellen, dass KI weniger eine Gefahr als vielmehr eine Chance ist, und dass Mitarbeitende gar nicht "Betroffene", sondern Begünstigte der KI sind.


Dieser Kommentar ist zuvor in Personalmagazin Ausgabe 03/2020 erschienen, die sich dem Schwerpunktthema "Diskriminierung" widmet. Lesen Sie die gesamte Ausgabe auch in der Personalmagazin-App.


Das könnte Sie auch interessieren:

People Analytics: Wie lässt sich Big Data für HR nutzen?

Künstliche Intelligenz: Diskriminierung durch Algorithmen

Schlagworte zum Thema:  Künstliche Intelligenz (KI), Personalarbeit