Jörg Dräger zu KI in der Personalauswahl

Algorithmen beeinflussen bereits heute unser Leben. Jörg Dräger fordert daher einen gesellschaftlichen Diskurs über Chancen und Risiken sowie klare Regeln. Dabei warnt der Vorstand der Bertelsmann-Stiftung vor einem Entweder-oder-Denken und glaubt, dass gerade bei der Personalauswahl algorithmische Verfahren hilfreich sind.

personalmagazin: Die Unternehmensberatung McKinsey schätzt, dass KI die Wirtschaftsleistung weltweit bis 2030 um zusätzlich ein Prozent pro Jahr steigern könne. Allein in Deutschland wären das 400 Milliarden Euro. Für die Wirtschaft ist KI also ein großer Hype. Wie sieht das in der Gesellschaft aus?

Jörg Dräger: In der Wirtschaft haben wir derzeit einen sehr chancenorientierten Diskurs. In der breiten Gesellschaft ist es aber ein eher risikoorientierter und ablehnender Diskurs. Mit unserer gesellschaftlichen Perspektive bei der Bertelsmann-Stiftung versuchen wir eine Brücke zu schlagen und sowohl Chancen als auch Risiken zu beleuchten.

personalmagazin: Laut US-Studien ist jeder von uns permanent mit sechs Datenaufzeichnungen umgeben. Ist es daher nicht längst zu spät, etwas dagegen zu tun?

Dräger: Nein, es ist nicht zu spät. Denn es hängt an uns als Gesellschaft, wo wir künstliche Intelligenz und Algorithmen nutzen und wo wir sie verbieten. Dazu müssen wir natürlich das Zepter des Handelns in der Hand halten. Die Digitalisierung ist ein Werkzeug der Gesellschaft und ihr untertan. Menschen bestimmen die Ziele und entscheiden, was Maschinen erlaubt und was ihnen verboten wird.

Algorithmen in der Personalauswahl

personalmagazin: Aber ein Bewerber, der aufgrund von Algorithmen keinen Job bekommt, kann doch nichts entscheiden.

Dräger: Nein, ein Einzelner wäre dem System ausgeliefert, aber Verbände, Interessenvertretungen und Politik nicht. Ein Problem bei der Personalauswahl ist zum Beispiel die Monopolstruktur: In vielen Unternehmen in den USA wird derselbe Algorithmus eingesetzt und er entscheidet, ob ich zum Vorstellungsgespräch eingeladen werde. Dann besteht die Gefahr, dass bestimmte Gruppen von Menschen ganz vom Arbeitsmarkt ausgeschlossen werden, weil der monopolistische Algorithmus sie regelmäßig aussortiert. Solche Monopolstrukturen können Politik und Gesellschaft sehr wohl unterbinden. Ein anderes Problem sind diskriminierende Auswahlverfahren. Auch dafür haben wir bereits Gesetze und Regelungen. Übrigens ist es ja auch so, dass Menschen diskriminieren. Aus Studien zur Personalauswahl wissen wir beispielweise, dass nach nicht sachgerechten Kriterien entschieden wird. Ein Golfer stellt dann gerne einen Golfer ein. Die Chance algorithmischer Entscheidungen besteht darin, dass falsche Kriterien nun besser sichtbar werden. Bei großen Datenmengen können Diskriminierungen erkannt und nachverfolgt werden.

personalmagazin: Aber es wird doch nichts sichtbar. Der Algorithmus gilt als Geschäftsgeheimnis.

Dräger: Ich brauche ja nicht den Quellcode, aber ich kann die Anbieter zwingen, dass ich die Wirkweise eines Algorithmus beforschen kann. Nehmen Sie das Beispiel der Autoversicherung. Da kann ich Millionen Musterdatensätze analysieren lassen und wenn ich im Ergebnis sehe, dass Wohlhabende bevorteilt werden, habe ich ganz andere Möglichkeiten, regulierend einzugreifen. Das ist die Chance, die ich sehe. Überhaupt erst einmal Fakten zu schaffen und damit gesellschaftliche Debatten zu führen.


Click to tweet


personalmagazin: Solche Analysen machen die Anbieter jedoch nicht ...

Dräger: Dazu brauchen wir unabhängige Institutionen oder zivilgesellschaftliche Watchdogs. Nur muss man ihnen die Möglichkeit dazu einräumen. Lebensmittelhersteller würden sich vielleicht auch keine Lebensmittelkontrollen wünschen. Trotzdem hat man beschlossen, dass Kontrolle eine sinnvolle Sache ist. Und kein Hersteller möchte heute gern den Windbeutel des Jahres bekommen. Und wahrscheinlich will auch kein Anbieter den Preis für den ungerechtesten Algorithmus in der Personalauswahl gewinnen. Insgesamt brauchen wir eine breitere gesellschaftliche Diskussion. Bevor wir alles verteufeln, sollten wir schauen, was wir Gutes mit der neuen Technik erreichen können. Das geht nur, wenn wir im Verhältnis zu den Maschinen immer vor Augen haben, wer Ross und wer Reiter ist. Der Mensch nutzt und kontrolliert die Maschine, nicht andersrum.


Click to tweet


Die Datenbasis für Algorithmen

personalmagazin: In Ihrem neuen Buch "Wir und die intelligenten Maschinen" beschreiben Sie, wie ein Anbieter von Darlehen anhand bestimmter Daten herausfinden will, wie hoch die Rückzahlungswahrscheinlichkeit eines Kreditsuchenden ist. Dabei spielt auch der Schrifttyp eine Rolle, mit dem er den Antrag am Computer ausfüllt. Das ist doch völlig abstrus.

Dräger: Auch hier haben wir wieder Chancen und Risiko. Es gibt viele Menschen, die bekommen bisher überhaupt kein Darlehen. Mit Hilfe von Algorithmen kann man die Rückzahlungsfähigkeit anders beurteilen als das klassische Banken heute tun. Und da mag der auf dem PC installierte Schrifttyp eine Rolle spielen, weil er Rückschlüsse auf die Nutzung bestimmter Computerprogramme erlaubt. Für manche Menschen sind algorithmische Kreditbewilligungen eine Chance. Das Risiko, dass andere damit stigmatisiert werden, ist ebenso präsent. Daher braucht es klare Regeln: Erst mal muss ich als Bürger wissen, ob da ein Algorithmus am Werk ist und welche Daten herangezogen werden. Wir brauchen ein Vermummungsverbot für Algorithmen. Zudem sollten die Menschen wissen, wie der Algorithmus wirkt. Wir brauchen also auch eine Art Beipackzettel. Und drittens brauche ich Beschwerdemöglichkeiten und Verfahren, wie man beispielsweise falsche Daten korrigieren kann. Gerade im Bereich der Fintechs sollte es daher so etwas wie ein Siegel für vernünftige, datenbasierte Analysen geben.

personalmagazin: Aber Algorithmen erkennen immer nur Korrelationen. Damit weiß ich zwar, dass bestimmte Kriterien oft gleichzeitig auftreten, aber nicht, ob sie auch kausal zusammenhängen.

Dräger: Der Mensch ist gut im Verstehen von Kausalitäten, der Algorithmus gut im Verstehen von Mustern und Korrelationen. Und zusammen sind wir richtig gut. Und wenn ein erkanntes Muster stabil ist und nicht diskriminiert, bedarf es auch nicht immer einer erklärbaren Kausalität.


Click to tweet


Die Chance von Algortihmen bei der Personalauswahl

personalmagazin: Gilt das auch für die Personalauswahl? In ihrem Buch beschreiben Sie Computerspiele wie Wasabi Waiter, wo die Bewerber sich in einer virtuellen Sushi-Bar als Kellner bewähren müssen, oder Pymetrics, das Eigenschaften wie die Risikobereitschaft messen will. Der Algorithmus filtert dann die Eigenschaften heraus, die man braucht, um auf einer Stelle erfolgreich zu sein. Experten halten das Vorgehen für fragwürdig. Denn dahinter steht keine überprüfte Theorie und es fehlt der Anforderungsbezug. Wer als Kellner glänzt, muss das noch lange nicht auch im Job tun.

Dräger: Theorie hin oder her, der Erfolg dieser Verfahren lässt sich ja am Ergebnis messen. Die überprüfen eben hinterher, ob die Bewerber, die mit Algorithmen ausgewählt wurden, zum Beispiel länger im Unternehmen bleiben, schneller befördert werden oder mehr Fortbildungen besuchen als diejenigen, die ohne Algorithmus ausgewählt wurden. Die Frage ist doch, was zählt mehr: der in der Realität hinterher gemessene Erfolg ohne vorige Theorie oder die Theorie, die sich nicht unbedingt empirisch bestätigen lässt?

personalmagazin: Statt wissenschaftlich fundierten eignungsdiagnostischen Verfahren braucht man künftig also nur noch ein nettes Computerspiel?

Dräger: Was spricht gegen beides? Wir dürfen hier wieder nicht in die Falle des Entweder-Oder tappen. Es wird Situationen geben, in denen die klassischen Verfahren bessere Ergebnisse erzielen und andere, in den Verfahren mit Mustererkennung bessere Ergebnisse erzielen. Wenn ich als Personaler tausend Bewerbungen auf eine Stelle bekomme, werde ich die nicht alle gleichermaßen gründlich lesen können. Dann könnte mir die Maschine bei der Vorsortierung helfen. Und wenn alles nur darauf ankommt, wie gut ich mich in einem einstündigen Interview verkaufen kann, dann setzen sich auch bestimmte Muster durch. Hier können Algorithmen Kompetenzen entdecken, die uns als Menschen manchmal verborgen bleiben. Auf der anderen Seite können Algorithmen sich genauso wie Menschen auch gnadenlos irren. Wir Menschen müssen da aufpassen und korrigieren. In der Regel führt die Kombination von Mensch und Maschine zur besten und qualitativ hochwertigsten Lösung.



Jörg Dräger, Jahrgang 1968, war Hamburger Wissenschaftssenator bevor er 2008 in den Vorstand der Bertelsmann-Stiftung wechselte. Zuletzt ist sein neustes Buch „Wir und die intelligenten Maschinen“ erschienen, das er gemeinsam mit Ralph Müller-Eiselt geschrieben hat. Darin diskutieren die beiden Autoren die Chancen und Risiken der algorithmischen Gesellschaft.


Lesen Sie dazu auch:

Künstliche Intelligenz im Personalwesen

Standards im Umgang mit künstlicher Intelligenz

Die Verantwortung beim Einsatz von künstlicher Intelligenz

Arbeitsrechtliche Fragen zu künstlicher Intelligenz

"Künstliche Intelligenz kann die Welt besser machen"

Algorithmen im HR-Management: keine neue Wunderwaffe