Wie Personaler künstliche Intelligenz sinnvoll nutzen können
Der Online-Händler Amazon hatte vor einigen Jahren eine Software entwickelt, die Bewerber anhand ihrer Unterlagen automatisch selektieren sollte. Der Versuch, die besten Kandidaten zu finden, endete in einem Fauxpas: Die Anwendung stellte sich als sexistisch heraus. Frauen wurden systematisch benachteiligt. Was war passiert?
Was macht Intelligenz aus?
Diese Frage nahm die DFKI-Direktorin Jana Koehler, die an der Universität des Saarlandes den Lehrstuhl für Künstliche Intelligenz innehat, als Aufhänger für ihren Vortrag auf der ZPE Virtual, in dem sie grundlegend erklärte, wie künstliche Intelligenz (KI), Deep Learning und neuronale Netze vom Prinzip her funktionieren. Angefangen habe alles mit der Frage Alan Turings, ob eine Maschine denken könne, und den ersten Programmiererinnen und Programmierern, vorwiegend Frauen. Getrieben von der Frage, was Intelligenz ausmache, testeten später KI-Forscher Funktionsweisen an Computerspielen. Die Software Deep Blue schlug in den 1990er-Jahren den Schachweltmeister, 2012 lancierte IBM das System Watson. "Dann ging es Schlag auf Schlag", so Koehler. Google und Universitäten wurden aktiv, auch beim Poker und dem japanischen Spiel "Go", Spiele, bei denen man auch bluffen kann, feierte KI Erfolge. "Bei KI geht es meistens darum, intelligente Systeme einzubauen", sagte Koehler. Diese seien geprägt von der menschlichen Fähigkeit, sich selbstständig Ziele zu setzen und ein Verhalten zu entwickeln, um diese Ziele zu erreichen – entlang von Wahrnehmung, Erkenntnis und Handlung.
Künstliche Intelligenz: Passt der Einzelfall ins statistische Muster?
Konkret erläuterte Koehler die Eigenschaften von KI am Beispiel einer hypothetischen Patientin Lilly, die Symptome einer Masern-Erkrankung aufweist. Ein Arzt stelle in dem Fall gewisse Hypothesen auf, wähle Diagnosetools und leite demnach die Behandlung ein. Neuronale Netze hingegen sammelten viele Daten über Masern-Patienten und über Fälle, die so aussahen, sich dann aber doch als etwas anderes herausstellten. Ein verborgenes signifikantes Muster erkenne, ob Masern vorlägen oder nicht. Angewendet auf die Beispielpatientin Lilly käme dann beispielsweise eine Konfidenz von 99 Prozent heraus. "Wir trainieren auf Basis von Daten, testen und wenden es im konkreten Fall an", erklärte die DFKI-Direktorin ihre Arbeit. Letztlich treffe man mit KI eine Aussage, mit welchem Grad an Vertrauen ein Fall in das statistische Muster hineinfalle. "Wir können aber nicht auf den Einzelfall schließen. Man kann hochkonfidente Daten bekommen, die Unsinn sind."
Die Technologie hält uns den Spiegel vor
Dieser Mechanismus sei Amazon seinerzeit zum Verhängnis geworden. Auch der Online-Händler hatte ein neuronales Netz verwendet. Bewerbungen der letzten zehn Jahre wurden nach Schulnoten von eins bis fünf klassifiziert und das System damit trainiert, um den Einstellungsprozess irgendwann vollautomatisch laufen lassen zu können. Da sich in der Vergangenheit jedoch hauptsächlich männliche Kandidaten beworben hatten, wurden Frauen schlechter bewertet. "Die Technologie hält uns den Spiegel vor", sagte Koehler. Die Fehler des Systems seien falsche Positive, die im Amazon-Fall als passend eingestuft werden, obwohl sie es nicht sind, und falsche Negative, die dem System durch die Lappen gehen. "Die Auswirkungen der falschen Positiven sind dramatischer. Wenn wir einen Kandidaten einstellen, der ungeeignet ist, sind die Kosten massiv."
Künstliche Intelligenz als Hypothesengenerator
Wenn man KI in der Praxis einsetze, sei also eine gewisse Skepsis angebracht. Es sei möglich, KI als Hypothesengenerator anzuwenden. Doch wir neigten dazu, dem Urteil von KI zu folgen, wie man zum Beispiel an Textprogrammen beobachten könne, die auf Rechtschreibfehler aufmerksam machen. Ein weiteres Problem: Die gelernten Muster seien für die Anwender nicht zugänglich und so wisse man nicht, ob die Anwendung vertrauenswürdig ist – da seien ethische Bedenken angebracht. Das sei lediglich dann ein Fortschritt, wenn man keine andere Entscheidungsgrundlage habe.
Doch letztlich werde der Markt die Anwendung von KI regulieren. Nur wenn die Fehlentscheidungen und Unfälle, zum Beispiel beim autonomen Fahren, zu viele werden, könne dies den Einsatz bremsen. Auch im Personalbereich würden diese Anwendungen immer mehr kommen. Doch es brauche sinnvolle Szenarien, zum Beispiel indem man mit KI analysiere, welche Kompetenzen in einem Team fehlten oder welche Vorurteile vorherrschten, um sie zu hinterfragen. Viele junge Menschen lernten einen Beruf, der nicht für sie passe – da könnte KI helfen. Auch lebenslanges Lernen könne man mit KI sehr gut unterstützen, etwa durch Lernplattformen, die sich an individuelle Bedürfnisse anpassen. Die Professorin selbst trainiere gerade ein System, das für sie die Vorlesung halte, damit sie mehr Zeit habe, mit Studierenden zu diskutieren und Probleme zu lösen.
Es braucht Weiterbildung, um die Technologie zu verstehen
Damit in Unternehmen sinnvolle Anwendungen entstünden, braucht es laut der KI-Forscherin mehr Weiterbildung, um die Technologie zu verstehen und Ängste zu verhindern. Ihr Vortrag war eine gute Einführung in das Thema und Koehler brachte auch einige Beispiele ein, die über den HR-Bereich hinausgingen. Sie schaffte Verständnis für die Problematik von KI – für Personaler, die sich schon mit dem Thema beschäftigt haben, dürfte die Keynote allerdings kaum etwas Neues geliefert haben. In Sachen Politik forderte die Professorin weitere Richtlinien und Gesetze, auch wenn die Europäische Datenschutzverordnung in die richtige Richtung gehe. Haften blieb am Ende die Botschaft, dass HR die Wirksamkeit von KI-Anwendungen fokussieren sollte: "Daten sind wichtig, aber immer, wenn Menschen Daten beurteilen, ist das subjektiv."
Das könnte Sie auch interessieren:
So lief der Thementag "Learning & Training"
ZPE-Thementag: Trends für HR und die Personalentwicklung
ZP Thinktank "Learning & Training": Fünf Thesen zur Zukunft des Lernens
-
Essenszuschuss als steuerfreier Benefit
697
-
Workation und Homeoffice im Ausland: Was Arbeitgeber wissen müssen
602
-
BEM ist Pflicht des Arbeitgebers
350
-
Probezeitgespräche als Feedbackquelle für den Onboarding-Prozess
283
-
Vorlage: Leitfaden für das Mitarbeitergespräch
265
-
Ablauf und Struktur des betrieblichen Eingliederungsmanagements
219
-
Mitarbeiterfluktuation managen
2134
-
Das sind die 25 größten Anbieter für HR-Software
210
-
Acht rettende Sätze für schwierige Gesprächssituationen
199
-
Warum Offboarding an Bedeutung gewinnt
181
-
Jung, dynamisch, männlich: Stellenanzeigen grenzen aus
22.12.2025
-
Engagement statt PR: Inklusion als Employer-Branding-Faktor
19.12.2025
-
Haufe Live: Praxisnahe Einblicke in den KI-Einsatz
18.12.2025
-
“Nicht das Gehalt erhöhen, sondern den Gehalt”
17.12.2025
-
Wie Chat GPT und Co. die Jobsuche verändern
16.12.2025
-
Beim Anteil von Frauen in Führung verändert sich wenig
15.12.2025
-
Warum Offboarding an Bedeutung gewinnt
12.12.2025
-
"Wir müssen mit KI Schritt halten"
11.12.2025
-
Wenn der Chef-Chef anklopft
10.12.2025
-
Wie ein inklusiver Berufseinstieg gelingt
08.12.2025