Neben den klassischen IT-Tools werden verstärkt auch schwache KI-Tools eingesetzt, die das Recruitment noch gezielter unterstützen können.

 
Praxis-Beispiel

Einsatz von schwacher KI im Bewerbungsverfahren

Schwache KI wird im Bewerbungsverfahren insbesondere wie folgt eingesetzt:

  • Lebenslauf-Screening: KI kann Bewerbungen automatisiert analysieren und relevante Informationen wie Berufserfahrung, Fähigkeiten und Ausbildung identifizieren. Dadurch kann eine Vorauswahl von Kandidaten getroffen werden und herausgefunden werden, welcher Kandidat die Stellenanforderungen erfüllt.
  • Skill-Assessment-Tools: Es können sog. Skill-Assessments durchgeführt werden, um Fähigkeiten der Bewerber zu bewerten. Erfasst werden hier oftmals Sprachkenntnisse und kognitive Fähigkeiten der Bewerber.
  • Video-Interviews: KI kann bei der Analyse von Video-Interviews zum Einsatz kommen, um nonverbale Signale, wie Tonfall und Körpersprache des Bewerbers auszuwerten.
  • Chatbots und virtuelle Assistenten: KI-gestützte Chatbots können Bewerbern helfen, Fragen zu Stellenangeboten zu beantworten oder Informationen über den potenziellen Arbeitgeber zu erhalten, ehe sie ihre Bewerbung auf den Weg bringen.
  • Persönlichkeitsbewertung-Tools: Im Rahmen von Textanalysen kann sich der Arbeitgeber dabei unterstützen lassen, die Persönlichkeit des Bewerbers zu bewerten und herauszufinden, ob sich der Bewerber in die vordefinierte Unternehmenskultur einfügen würde oder nicht.

Beim Einsatz solcher KI ist nun die Besonderheit, dass im Unterschied zu klassischen IT-Tools gerade keine konkrete "Vorprogrammierung" stattgefunden hat. KI wird deshalb teilweise als "besonders objektiv" wahrgenommen – da weniger menschliche "Fehler" einfließen – oder aber sie wird als völlig undurchsichtig in ihrer Entscheidungsfindung beschrieben und insofern besonders kritisch gesehen. Beide Ansichten haben gemein, dass KI-basierte Entscheidungen ein erhebliches Diskriminierungspotenzial bieten. Deshalb ist es entscheidend, dass bei KI-basierten Entscheidungen der KI die korrekten Daten geliefert werden und ggf. das Ergebnis überprüft wird. Jedenfalls können sich die Unternehmen nicht hinter einer KI "verstecken", sondern bleiben auch beim Einsatz von KI verantwortlich und entsprechend an den allgemeinen Gleichbehandlungsgrundsatz sowie an das Allgemeine Gleichbehandlungsgesetz und weitere spezialgesetzliche Vorschriften gebunden.[1] In einem verantwortungsvollen Einsatz von KI könnte sich der Arbeitgeber – vorerst freiwillig – der Obliegenheit unterwerfen, ein "erklärbares" KI-System zu nutzen, um weiterhin eine größtmögliche Transparenz im Bewerbungsauswahlverfahren zu garantieren.

In Bezug auf das Bewerbungsverfahren ist der Unterschied zu den sonstigen IT-Tools, dass eine KI in großen Datenmengen (z. B. Texte oder Bilder) bekannte und unbekannte Zusammenhänge, Strukturen und Muster erkennen kann. Die einzelnen Schritte der KI auf dem Weg zu ihrem Ergebnis können dabei oftmals nicht mehr vollständig durch einen Menschen nachvollzogen werden. Die KI lernt somit quasi selbst, mit diesen Daten umzugehen und eine gewisse Aufgabe auszuführen. Bei den klassischen IT-Tools kann klar vorgegeben werden, was das Tool tun soll. Beispielsweise können Bewerberdaten nach Noten oder Berufserfahrung gefiltert oder strukturiert werden. Bei der KI werden die Daten dem Programm jedoch im Unterschied zum klassischen IT-Tool zur Verfügung gestellt und als Ganzes einem Ergebnis zugeordnet. Es findet anschließend selbst heraus, welche Einzelparameter "gut" und welche "schlecht" sind bzw. berücksichtigt werden. Insofern sollte beim Umgang mit KI und Gleichbehandlung besonders auf die Rohdaten geachtet werden, die der KI zur Verfügung gestellt werden.[2] Gerade beim Einsatz schwacher KI muss der Arbeitgeber auch darauf achten, dass die zugrunde liegenden Daten, mit denen die schwache KI trainiert wird, frei von Benachteiligungen sind, bzw. der KI benachteiligende Schlüsse im Lernprozess wieder abtrainiert werden. Arbeitgeber sollten insofern sicherstellen, dass die zugrundeliegenden Algorithmen regelmäßig überprüft und optimiert werden (bzw. das System neu trainiert wird), und keine benachteiligenden Vorurteile aus Trainingsdaten übernommen werden. Insbesondere wenn das Unternehmen feststellt, dass diskriminierende Ergebnisse vorliegen, muss gehandelt werden. Hier besteht ganz besonders die Herausforderung von Transparenz und auch, dass die KI ggf. Muster erkennt, die der Mensch nicht wahrnehmen kann.

Beispiele: Benachteiligende Daten

  • Datenvoreingenommenheit: KI-Systeme basieren auf Trainingsdaten, die meist von Menschen erstellt wurden. Sind diese Daten mit Blick auf die §§ 1, 7 Abs. 1 AGG vorurteilsbehaftet, kann die KI diese übernehmen und in ihren Entscheidungen widerspiegeln. Eine KI könnte beispielsweise Bewerber bestimmter Ethnien oder Geschlechter benachteiligen, wenn in der Vergangenheit für eine spezielle Stelle maßgeblich ein Geschlecht einer bestimmten Ethnie eingestellt wurde.

    Beispiel: Ein Unternehme...

Das ist nur ein Ausschnitt aus dem Produkt Haufe Personal Office Platin. Sie wollen mehr?

Anmelden und Beitrag in meinem Produkt lesen


Meistgelesene beiträge