ZPE Virtual: Künstliche Intelligenz im Personalmanagement

Wie funktioniert künstliche Intelligenz eigentlich und was heißt das für HR? In ihrer Keynote auf der ZPE Virtual 2020 machte Professorin Jana Koehler, Leiterin des Forschungsbereiches "Algorithmic Business and Production" am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI), einen kurzen Ritt durch die Geschichte der KI und gab Personalern Handlungsempfehlungen.

Der Online-Händler Amazon hatte vor einigen Jahren eine Software entwickelt, die Bewerber anhand ihrer Unterlagen automatisch selektieren sollte. Der Versuch, die besten Kandidaten zu finden, endete in einem Fauxpas: Die Anwendung stellte sich als sexistisch heraus. Frauen wurden systematisch benachteiligt. Was war passiert?

Was macht Intelligenz aus?

Diese Frage nahm die DFKI-Direktorin Jana Koehler, die an der Universität des Saarlandes den Lehrstuhl für Künstliche Intelligenz innehat, als Aufhänger für ihren Vortrag auf der ZPE Virtual, in dem sie grundlegend erklärte, wie künstliche Intelligenz (KI), Deep Learning und neuronale Netze vom Prinzip her funktionieren. Angefangen habe alles mit der Frage Alan Turings, ob eine Maschine denken könne, und den ersten Programmiererinnen und Programmierern, vorwiegend Frauen. Getrieben von der Frage, was Intelligenz ausmache, testeten später KI-Forscher Funktionsweisen an Computerspielen. Die Software Deep Blue schlug in den 1990er-Jahren den Schachweltmeister, 2012 lancierte IBM das System Watson. "Dann ging es Schlag auf Schlag", so Koehler. Google und Universitäten wurden aktiv, auch beim Poker und dem japanischen Spiel "Go", Spiele, bei denen man auch bluffen kann, feierte KI Erfolge. "Bei KI geht es meistens darum, intelligente Systeme einzubauen", sagte Koehler. Diese seien geprägt von der menschlichen Fähigkeit, sich selbstständig Ziele zu setzen und ein Verhalten zu entwickeln, um diese Ziele zu erreichen – entlang von Wahrnehmung, Erkenntnis und Handlung.

Künstliche Intelligenz: Passt der Einzelfall ins statistische Muster?

Konkret erläuterte Koehler die Eigenschaften von KI am Beispiel einer hypothetischen Patientin Lilly, die Symptome einer Masern-Erkrankung aufweist. Ein Arzt stelle in dem Fall gewisse Hypothesen auf, wähle Diagnosetools und leite demnach die Behandlung ein. Neuronale Netze hingegen sammelten viele Daten über Masern-Patienten und über Fälle, die so aussahen, sich dann aber doch als etwas anderes herausstellten. Ein verborgenes signifikantes Muster erkenne, ob Masern vorlägen oder nicht. Angewendet auf die Beispielpatientin Lilly käme dann beispielsweise eine Konfidenz von 99 Prozent heraus. "Wir trainieren auf Basis von Daten, testen und wenden es im konkreten Fall an", erklärte die DFKI-Direktorin ihre Arbeit. Letztlich treffe man mit KI eine Aussage, mit welchem Grad an Vertrauen ein Fall in das statistische Muster hineinfalle. "Wir können aber nicht auf den Einzelfall schließen. Man kann hochkonfidente Daten bekommen, die Unsinn sind."

Die Technologie hält uns den Spiegel vor

Dieser Mechanismus sei Amazon seinerzeit zum Verhängnis geworden. Auch der Online-Händler hatte ein neuronales Netz verwendet. Bewerbungen der letzten zehn Jahre wurden nach Schulnoten von eins bis fünf klassifiziert und das System damit trainiert, um den Einstellungsprozess irgendwann vollautomatisch laufen lassen zu können. Da sich in der Vergangenheit jedoch hauptsächlich männliche Kandidaten beworben hatten, wurden Frauen schlechter bewertet. "Die Technologie hält uns den Spiegel vor", sagte Koehler. Die Fehler des Systems seien falsche Positive, die im Amazon-Fall als passend eingestuft werden, obwohl sie es nicht sind, und falsche Negative, die dem System durch die Lappen gehen. "Die Auswirkungen der falschen Positiven sind dramatischer. Wenn wir einen Kandidaten einstellen, der ungeeignet ist, sind die Kosten massiv."

Künstliche Intelligenz als Hypothesengenerator

Wenn man KI in der Praxis einsetze, sei also eine gewisse Skepsis angebracht. Es sei möglich, KI als Hypothesengenerator anzuwenden. Doch wir neigten dazu, dem Urteil von KI zu folgen, wie man zum Beispiel an Textprogrammen beobachten könne, die auf Rechtschreibfehler aufmerksam machen. Ein weiteres Problem: Die gelernten Muster seien für die Anwender nicht zugänglich und so wisse man nicht, ob die Anwendung vertrauenswürdig ist – da seien ethische Bedenken angebracht. Das sei lediglich dann ein Fortschritt, wenn man keine andere Entscheidungsgrundlage habe.

Doch letztlich werde der Markt die Anwendung von KI regulieren. Nur wenn die Fehlentscheidungen und Unfälle, zum Beispiel beim autonomen Fahren, zu viele werden, könne dies den Einsatz bremsen. Auch im Personalbereich würden diese Anwendungen immer mehr kommen. Doch es brauche sinnvolle Szenarien, zum Beispiel indem man mit KI analysiere, welche Kompetenzen in einem Team fehlten oder welche Vorurteile vorherrschten, um sie zu hinterfragen. Viele junge Menschen lernten einen Beruf, der nicht für sie passe – da könnte KI helfen. Auch lebenslanges Lernen könne man mit KI sehr gut unterstützen, etwa durch Lernplattformen, die sich an individuelle Bedürfnisse anpassen. Die Professorin selbst trainiere gerade ein System, das für sie die Vorlesung halte, damit sie mehr Zeit habe, mit Studierenden zu diskutieren und Probleme zu lösen.

Es braucht Weiterbildung, um die Technologie zu verstehen

Damit in Unternehmen sinnvolle Anwendungen entstünden, braucht es laut der KI-Forscherin mehr Weiterbildung, um die Technologie zu verstehen und Ängste zu verhindern. Ihr Vortrag war eine gute Einführung in das Thema und Koehler brachte auch einige Beispiele ein, die über den HR-Bereich hinausgingen. Sie schaffte Verständnis für die Problematik von KI – für Personaler, die sich schon mit dem Thema beschäftigt haben, dürfte die Keynote allerdings kaum etwas Neues geliefert haben. In Sachen Politik forderte die Professorin weitere Richtlinien und Gesetze, auch wenn die Europäische Datenschutzverordnung in die richtige Richtung gehe. Haften blieb am Ende die Botschaft, dass HR die Wirksamkeit von KI-Anwendungen fokussieren sollte: "Daten sind wichtig, aber immer, wenn Menschen Daten beurteilen, ist das subjektiv."


Das könnte Sie auch interessieren:

So lief der Thementag "Learning & Training"

ZPE-Thementag: Trends für HR und die Personalentwicklung

ZP Thinktank "Learning & Training": Fünf Thesen zur Zukunft des Lernens