PERSONALquarterly

Wird Künstliche Intelligenz den Menschen ersetzen?


Wird Künstliche Intelligenz den Menschen ersetzen?

Was sind die Potenziale, Risiken, Trends und Herausforderungen von Künstlicher Intelligenz (KI) im Personalbereich? Ein Vortrag von Marius Wehner im Rahmen des Arbeitskreises Personal und Arbeit der Schmalenbachgesellschaft in Düsseldorf beantwortet die praktischen Implikationen dieser Frage.

Die Frage im Titel ist zugegebenermaßen provokativ gestellt – und dennoch spiegelt sie die derzeitige emotionale Gefühlslage und berufliche Unsicherheit von vielen Beschäftigten wider, wenn es um Künstliche Intelligenz (KI) geht. Bereits im Jahr 1960 prophezeite der Wirtschaftsnobelpreisträger Herbert Simon, dass „Maschinen in zwanzig Jahren in der Lage sein werden, jede Arbeit zu erledigen, die ein Mensch verrichten kann“ (Simon, 1960, S. 38). Wenngleich sich Simon (1960) in der voraus­gesagten Zeitspanne offensichtlich geirrt hat, so befeuerte im Jahr 2022 „Chat GPT“ von der Firma Open AI als das inzwischen bekannteste Large Language Model (LLM) gleichermaßen die dystopischen und utopischen Zukunftsvisionen, insbesondere in den medialen und gesellschaftlichen Debatten. Und so erneuerte der Gründer von Microsoft, Bill Gates, im Jahr 2025 die Prophezeiung, dass KI innerhalb der kommenden zehn Jahre Menschen in den Bereichen Medizin und Bildung weitest­gehend ersetzen wird. 

Im Jahr 2016, also noch vor Chat GPT, wurden führende KI-Forscherinnen und -Forscher dazu befragt, wann mit einer maschinellen Intelligenz auf hohem Niveau (auch „starke KI“ genannt) zu rechnen sei, die jede Aufgabe besser und güns­tiger als menschliche Arbeitskräfte erledigen könne: Mit einer fünfzigprozentigen Wahrscheinlichkeit wurde mit einer vollständigen Automatisierung sämtlicher menschlicher Arbeit in 122 Jahren gerechnet (Grace et al., 2017). Ebenfalls mit einer fünfzigprozentigen Wahrscheinlichkeit wurden innerhalb von zehn Jahren bestimmte Meilensteine prognostiziert, wie zum Beispiel Transkription von Sprache, Übersetzungen im Vergleich zu Laien, telefonisches Banking oder das Schreiben eines Schulaufsatzes (Grace et al., 2017, Figure 2). Bereits heute zeigt sich: Tatsächlich ist KI weitestgehend in der Lage, diese Tätigkeiten gut bis sehr gut zu erfüllen. Nach einer aktuellen Bitkom-Umfrage aus dem Jahr 2025 sind knapp zwei Drittel der Deutschen der Meinung, dass KI die Gesellschaft innerhalb der nächsten fünf Jahre spürbar verändern wird. Es scheint, als würden sich die Prophezeiungen von Simon und Gates nun bewahrheiten. Doch stimmt das? Was kann KI und was kann sie vielleicht (noch) nicht? Ein Versuch einer Antwort für den Personalbereich.

KI und maschinelles Lernen – Trainingsdaten als zentraler Faktor

Eine einheitlich anerkannte Definition für KI existiert zwar bis heute nicht, dennoch kann KI im Allgemeinen als eine Technologie verstanden werden, die es Maschinen ermöglicht, menschliches Verhalten und Intelligenz nachzuahmen. Dazu gehören unter anderem Algorithmen und traditionelle Techniken des maschinellen Lernens (z. B. Random Forest, Nearest Neighbor), die statistische Methoden verwenden, um eine bestimmte Aufgabe zu erfüllen, wie beispielsweise die Kündigungsabsicht vorherzusagen oder ein Matching für Kandidaten bei der Rekrutierung zu erstellen. Deep Learning ist wiede­rum ein Teilgebiet des maschinellen Lernens und bedient sich neuronaler Netze, um komplexe Daten zu verarbeiten, daraus selbstständig zu lernen und schließlich eine Aufgabe zu erfüllen. Hierunter fallen auch die Text- und Bildgenerierung der bekannten LLMs und die generative KI. Daher lässt sich KI eher als allgemeiner Überbegriff verstehen, der die klassischen von Menschen programmierten Algorithmen sowie maschinelles Lernen und das Deep Learning umfasst (Langer/Landers, 2021).

Sämtliche KI-Techniken haben gemein, dass sie eine große Menge an Trainingsdaten benötigen, um akkurate Ergebnisse für neue, unbekannte Daten liefern zu können. Während bisher kleinere Stichproben für ein bestimmtes Problem gesammelt und statistisch analysiert wurden, wie bei Mitarbeiterbefragungen oder Surveys, benötigt KI eine deutlich größere Menge an Trainingsdaten sowie in der Regel ein erwartetes Ergebnis, um darauf trainiert zu werden. Das trainierte Modell mit den erlernten Parametern bleibt jedoch unbekannt, sodass dieses Modell im Anschluss an neuen, unbekannten Daten getestet und evaluiert werden muss. Wurden also bisher die möglichen Zusammenhänge zwischen Ursachen und Wirkung theoretisch abgeleitet und an wenigen Daten statistisch überprüft, liefert die KI als Ergebnis eine Prädiktion, die gut oder schlecht sein kann, jedoch ohne genaue Kenntnis des theoretischen Zusammenhangs zwischen Ursache und Wirkung. Die Akkuratheit dieser Prädiktion kann anschließend nur über wiederholte Testung und Anpassung des Modells beziehungsweise der Trainingsdaten erhöht und erneut überprüft werden. Den Trainingsdaten kommt daher beim Einsatz von KI-Techniken eine besondere Rolle zu, denn die Prädiktion ist letztlich nur so präzise und frei von systematischen Verzerrungen (engl. Bias), wie es die Trainingsdaten zulassen. 

Potenziale von KI in Bewerbungsprozessen und im Talentmanagement

Das enorme Potenzial von Daten und statistischen Analysen in der Personalarbeit war schon deutlich vor Chat GPT erkennbar, als die inzwischen mit Brad Pitt verfilmte Moneyball-Story die HR-Welt dazu inspirierte, sich stärker den HR-Metriken und Statistiken zu widmen, um für Organisationen Wett­bewerbsvorteile zu erzielen. KI stellte den nächsten logischen Entwicklungsschritt dar, um die wachsenden gesammelten Datenmengen in deutlich informiertere und vor allem datenbasierte Entscheidungen zu überführen – etwa in der Personalauswahl, der Gestaltung von Trainingsangeboten, im Performance Management oder bei Zusatzleistungen (Tambe et al., 2019). In den jeweiligen Personalbereichen haben inzwischen professionelle Anbieter für Personaldienstleistungen mit KI einen festen Platz eingenommen. So sind Hire Vue, Pymetrics oder Retorio dafür bekannt geworden, Softwarelösungen für videobasierte Vorstellungsgespräche und Onlinespiele für die Rekrutierung anzubieten, die es ihnen erlauben, die Persönlichkeitseigenschaften von Bewerberinnen und Bewerbern aus den Bewerbungsgesprächen oder den Onlinespielen vorherzusagen. Bei jährlich knapp 1,8 Mio. Bewerbungen hat Unilever mithilfe dieser Anbieter ungefähr 70.000 bis 100.000 Arbeitskräftestunden im Screeningprozess und damit ungefähr 1 Mio. Dollar an Rekrutierungskosten eingespart (Marr, 2020). Für unternehmensinterne Positionen und das Talentmanagement zur Karriere- und Weiterentwicklung haben sich Anbieter wie Eightfold, Gloat oder Fuel 50 einen Namen gemacht (Schellmann, 2024). Benefitfocus ist wiederum ein bekannter Anbieter im Bereich Vergütung und Zusatzleistungen (Tambe et al., 2019). Das Start-up Visier dagegen sammelt und vereint sämtliche Daten eines Unternehmens, sofern möglich, mit dem Ziel der Vorhersage, ob eine Person erfolgreich in einer neuen Position sein wird und wie sich eine Person derzeit fühlt (Schellmann, 2024). 

Wandel der KI-Nutzung: Von Effizienz zu Diversität und Kollaboration

Die bisherigen Entwicklungen zeigen, dass sich Unternehmen und Personalabteilungen von KI vorrangig Zeit- und Kostenersparnisse versprechen. Allerdings soll KI nicht nur Effizienzsteigerungen bedeuten, sondern auch die Diversität der Belegschaft erhöhen, indem menschliche Voreingenommenheit und stereotypisches Denken in der Rekrutierung oder im Talentmanagement durch den Einsatz von KI vermindert werden (Marr, 2020). Kurz- bis mittelfristig wird erwartet, dass KI außerdem den Erwerb zusätzlicher und neuer Fähigkeiten der Beschäftigten begünstigt (sog. Upskilling), und so eine grundlegende Kollaboration zwischen Mensch und Maschine entsteht. Dies gilt nicht nur für die einzelnen Personalbereiche von Rekrutierung bis Vergütung, sondern auch für die Führung (Van Quaquebeke/Gerpott, 2023). So werden LLMs zu Co-Leadern, KI analysiert in Echtzeit sämtliche Informationen zu Beschäftigten und deren Aufgabenerfüllung und unterstützt bei der kreativen Ideenfindung von Visionen, Strategien und Innovationen (Van Quaquebeke/Gerpott, 2023).

Das Jahr 2025 ist außerdem geprägt durch den Begriff der KI-Agenten – autonom handelnde Bots, die über ein LLM gesteuert und angesprochen werden und eigenständig kleinere Aufgaben übernehmen können. So kann ein KI-Agent zum Beispiel dazu genutzt werden, automatisch und selbstständig auf eingehende E-Mails zu antworten oder eine Nachricht der unternehmenseigenen Kollaborationsplattform eine passende Antwort zu formulieren. Besonders interessant werden KI-Agenten, wenn aus ihnen ein hierarchisches System ähnlich einer kleinen digitalen Organisation gebaut wird. In einem solchen System fungiert ein KI-Agent als Führungskraft, erhält Aufgaben und Zielvorgaben vom Menschen und koordiniert nachgelagerte untergebene KI-Agenten. So kann etwa ein erster untergebener KI-Agent relevante Informationen aus Lin­kedin-Beiträgen oder Websites herunterladen und speichern, ein zweiter KI-Agent eine Sentiment-Analyse und eine Zusammenfassung erstellen, während ein dritter KI-Agent die Ergebnisse mit internen Unternehmensdaten abgleicht. Der führende KI-Agent bündelt schließlich alle Informationen, leitet daraus eine Entscheidung ab und übermittelt diese entweder an den Menschen – oder agiert selbstständig weiter. Dies birgt ein enormes Potenzial, um repetitive Aufgaben sukzessive an KI auszulagern, wobei nur noch wenige Menschen ein solches KI-Agenten-System überwachen und nur dann einschreiten, wenn die KI-Agenten ihre Aufgabe nicht erfüllen können.

Risiken durch verzerrte Trainingsdaten

Da die Qualität der Trainingsdaten maßgeblich die Genauigkeit beziehungsweise Akkuratheit von KI-Modellen bestimmt, können systematische Verzerrungen in den Trainingsdaten erhebliche – mitunter gravierende – Auswirkungen haben. Zwar spielen auch Modellauswahl und -entwicklung eine zentrale Rolle für akkurate Prädiktionen, doch insbesondere bei unternehmensintern entwickelten KI-Lösungen wird häufig auf bewährte, öffentlich zugängliche Modelle und Algorithmen zurückgegriffen. Die Ursachen für fehlerhafte oder verzerrte Trainingsdaten sind mannigfaltig. 

Zu den wichtigsten Verzerrungen in Trainingsdaten gehören der historische, der technische, der emergente und der Repräsentations-Bias (Friedman/Nissenbaum, 1996). Der historische Bias enthält zwangsläufig menschliche (Vor-)Urteile oder Stereo­typen, denn die Daten wurden ursprünglich von Menschen generiert. Beim technischen Bias kann es zu Pro­blemen kommen, wenn menschliche Konstrukte (z. B. Intuition, Emotionen) in eine quantifizierbare, maschinenlesbare Form umgewandelt werden müssen. Wenn sich neuere gesellschaftliche und kulturelle Entwicklungen oder Entscheidungen nicht in den Daten widerspiegeln, dann kann dies zum emergenten Bias führen. Und schließlich ist der Repräsentations-Bias die Unterrepräsentation von bestimmten Gruppen (z. B. Frauen, ethnische Minderheiten) oder Charakteristiken in den Trainingsdaten (Köchling/Wehner, 2020). 

Ein prominentes Beispiel für die negativen Konsequenzen verzerrter Trainingsdaten war Amazons Rekrutierungs­algorithmus, der auf Basis historisch bedingt überwiegend männlicher Bewerber bei Amazon trainiert wurde und anschließend Frauen aus dem Selektionsprozess systematisch ausschloss. Ein weiteres Beispiel liefert die personalisierte Jobwerbung von Google, die weiblichen Nutzern häufiger Stellen mit geringerem Jahresverdienst, niedrigeren Einstiegsgehältern oder stereotypisch weiblich konnotierte Positionen (z. B. Sekretärin) vorgeschlagen hat, während männlichen Nutzern häufiger besser bezahlte Positionen, Senior-Level-Jobs oder stereotypisch männlich konnotierte Positionen (z. B. LKW-Fahrer) vorgeschlagen wurden. 

Die negativen Folgen verzerrter Trainingsdaten können sich auch im Umgang mit ethnischer Diversität zeigen. Der Film „Vorprogrammierte Diskriminierung“ (engl. Coded Bias) von Shalini Kantayya illustriert eindrücklich, dass People of Color von Gesichtserkennungsalgorithmen nicht erkannt werden, wenn diese ausschließlich mit Bildern weißer Personen trainiert wurden. Ähnliche negative Verzerrungen zeigen sich auch in hochakkuraten Algorithmen zur Videoanalyse im Rahmen einer Programmier-Challenge, wenn sie auf unausgewogenen Daten bezogen auf die ethnische Herkunft trainiert werden (Köchling et al., 2021). 
Solche Algorithmen reproduzieren damit gesellschaftlich verankerte Vorurteile, anstatt sie zu reduzieren. Gruppen, die seltener in den Trainingsdaten vertreten sind, werden durch die Prädiktion der Algorithmen benachteiligt – zugunsten solcher Gruppen, die in den Trainingsdaten überrepräsentiert sind. Und schließlich gelangen verschiedene Algorithmen bei gleichen Trainingsdaten zu unterschiedlichen Ergebnissen, das heißt, es gibt nicht ein einzelnes „richtiges“ Ergebnis von KI (Köchling et al., 2021). Letzteres ist inzwischen aus den vielen Vergleichen verschiedener Modelle der gängigen LLMs in der breiten Öffentlichkeit bekannt. Weniger bekannt ist dagegen, dass selbst die neuesten LLMs, die beinahe zur Höflichkeit und Neutralität gezwungen sind, verdeckte Stereotypen und Rassismus trainiert haben, die sie aus dem Dialekt der nutzenden Person – sprich: des geschriebenen oder gesprochenen Prompts – schließen (Hofmann et al., 2024).

Neben den möglichen Verzerrungen in den Trainingsdaten kommt der Wahrnehmung und Vertrauenswürdigkeit von Algorithmen aus Sicht der Betroffenen, insbesondere Beschäftigten, eine wesentliche Bedeutung zu. Werden Algorithmen von (potenziellen) Beschäftigten als unfair oder nicht vertrauenswürdig wahrgenommen, dann beeinträchtigt dies die Arbeit­geberattraktivität (Köchling et al., 2022; Oostrom et al., 2024) und Betroffene suchen nach Umgehungen des Systems, ziehen sich möglicherweise aus Bewerbungsverfahren zurück oder verlassen sogar das Unternehmen (Langer/Landers, 2021). Dies ist nicht nur ein deutsches Phänomen, sondern zeigte sich über 35 quantitative Studien mit 46 unabhängigen Stichproben hinweg, die in Europa, den USA und Asien durchgeführt wurden, wie ein Preprint einer Metaanalyse in diesem Bereich zeigt (Moritz et al., 2024). Betroffene hinterfragen offensichtlich die Fairness und die Vertrauenswürdigkeit der KI-Systeme und schließen aus einer stärkeren Nutzung von KI im Personalbereich möglicherweise darauf, dass menschliche Interaktionen und persönliche Kontakte eine geringere Rolle in der Organisationskultur spielen (Oostrom et al., 2024).

Auditierung und „Human-in-the-Loop“ zur Risikominimierung

Mit dem im Juni 2024 beschlossenen EU-AI Act sind KI-Systeme in verschiedene Risikogruppen einzustufen. Dementsprechend sind die Anforderungen an KI unterschiedlich hoch. KI im Personalbereich, wie zum Beispiel in der Rekrutierung, Personalauswahl oder Karriereentwicklung, gehört zu den Hochrisiko-KI-Systemen, da sie den Lebensverlauf eines Menschen entscheidend beeinflussen kann, wenn die Person zum Beispiel das Jobangebot oder die höher bezahlte Position erhält oder nicht. Das bedeutet, dass hier nach dem EU AI Act die höchsten Anforderungen an die Trainingsdaten, menschliche Aufsicht und Transparenz gesetzt werden, was bei der Implementierung von KI-Systemen im Blick behalten werden muss.

Eine Auditierung der eigenen oder fremden KI-Systeme, wie dies bereits bei Pymetrics geschehen ist (Wilson et al., 2021), ist ein erster wichtiger Schritt, um das Vertrauen in KI zu erhöhen. Hochrisiko-KI-Systeme erfordern zudem die Aufsicht des Menschen über das Ergebnis und die Verantwortung für die anschließende Entscheidung (sog. Human-in-the-Loop). Die Hoffnung auf eine korrigierende menschliche Aufsicht ist jedoch trügerisch, wenn der Mensch das fehlerhafte oder diskriminierende KI-Ergebnis nicht erkennt, nicht erkennen kann oder sich schlicht darauf verlässt (Langer, 2023). Neben den geforderten wichtigen KI-Schulungen für Beschäftigte sollten Verantwortliche und Beschäftigte daher regelmäßig kritische Fragen vor und nach der Implementierung von KI-Systemen stellen und algorithmische Ergebnisse wiederholt kritisch hinterfragen. Schließlich sind Transparenz zum Einsatz von KI und Erklärungen der Vorteile von KI hilfreich, um die negativen Reaktionen seitens der Betroffenen zu vermindern (Ochmann et al., 2024).

Abb. 1: Herausforderungen von KI und pragmatische Handlungsempfehlungen

Bevor daher bestehende und weniger risikobehaftete Prozesse vollständig durch KI automatisiert werden, sollte der Einsatz von KI stets mit menschlichen Elementen kombiniert werden, da dies die Akzeptanz von KI durch Beschäftigte und Betroffene erhöht. Auf dem Weg zu einer erfolgreichen Transformation erscheint es daher zudem ratsam, zunächst nur solche KI-Projekte zu initialisieren und umzusetzen, die einen echten Mehrwert für die Organisation bedeuten, anstelle KI allein um der KI willen einzusetzen. Dies kann beispielsweise zunächst nur die Kommunikation mit neuen Bewerberinnen und Bewerbern oder der Screeningprozess eingehender Bewerbungen sein, um die Reaktions- und Prozessgeschwindigkeit des Unternehmens zu erhöhen, während das persönliche Auswahlgespräch weiterhin ohne KI-Unterstützung stattfindet (Köchling et al., 2022). Die Abbildung oben gibt einen kurzen exemplarischen Überblick über die beschriebenen Herausforderungen und Maßnahmen für den Einsatz von KI-Systemen in Unternehmen.

Wen oder was wird die KI ersetzen?

Klar ist, dass generative KI bestimmte Aufgaben im Unternehmen schneller, effizienter und teils präziser erledigen wird, als es Menschen können. Gleichzeitig ergeben sich fundamentale Fragen. So werden Organisationen zukünftig abwägen müssen, ob es kostengünstiger und einfacher ist, eine Aufgabe von einem Menschen oder einer KI beziehungsweise einem KI-Agenten erledigen zu lassen. Darüber hinaus wird die Frage zu beantworten sein, wann und wo ein Mensch, aufgrund der notwendigen menschlichen Interaktion und Wertschätzung durch den Menschen, Aufgaben übernehmen muss, um negative Konsequenzen zu vermeiden oder innovative Ideen voranzubringen. 

Bereits im Jahr 2023 wurde untersucht, welche Auswirkungen generative KI auf den gesamten US-Arbeitsmarkt haben wird. Bei 19 Prozent aller US-Beschäftigten waren mindestens 50 Prozent ihrer Aufgaben betroffen, und dies galt überwiegend für die höchsten Einkommensgruppen in den USA (Eloundou et al., 2023). Es wird also davon ausgegangen, dass die Hälfte der Aufgaben in den hochbezahlten Wissensberufen von generativer KI unterstützt oder sogar ersetzt wird. Langfristig könnte KI sogar die menschliche Führung ersetzen, was bereits jetzt in der Gig-Economy (z. B. bei Uber oder Lieferdiensten) zu beobachten ist, in denen Menschen von KI-Systemen geführt werden (Van Quaquebeke/Gerpott, 2023). Der Einsatz von KI-Agenten zur Übernahme von repetitiven und arbeitsintensiven Aufgaben wird diesen Trend weiter verstärken. In den USA zeigen sich bereits erste Signale durch eine Verschlechterung der Arbeitsmarktsituation für junge Menschen mit einem College-Abschluss, deren Arbeitslosenquote im Jahr 2025 auf einen ungewöhnlich hohen Wert von 5,8 Prozent angestiegen ist. Neben weltweiten Krisen, Turbulenzen auf den Finanzmärkten und dem sinkenden Wert eines Hochschul­studiums wird die zunehmende Automatisierung durch generative KI für diese Entwicklung verantwortlich gemacht, denn junge Absolventinnen und Absolventen übernehmen oft einfache Aufgaben, wie Recherchen, Präsentationserstellungen und Zusammenfassungen von Informationen (Thompson, 2025).

Hinzu kommt schließlich der demografische Wandel: In den nächsten zehn bis zwölf Jahren wird in Deutschland ein großer Anteil der Arbeitskräfte, die jetzt 55 Jahre oder älter sind, in den Ruhestand gehen. Sofern KI ethisch, akkurat, weitest­gehend diskriminierungsfrei – dies lässt sich nicht vollkommen erreichen – sowie datenschutzkonform eingesetzt wird, kann und muss KI den drohenden zusätzlichen Fachkräftemangel in Verwaltung, Administration, im Übersetzungswesen und in anderen Bereichen kompensieren. Dadurch ist nicht in erster Linie Jobverlust, sondern eine Neudefinition menschlicher Arbeit zu erwarten. Ähnlich sieht es die Internationale Arbeitsorganisation der UN, die davon ausgeht, dass generative KI die Aufgaben des Menschen verändern und dadurch eher Jobs ergänzen als vernichten wird (Gmyrek et al., 2023).

Hier finden Sie die Inhaltsübersicht des Magazins und alle Artikel aus dem Schwerpunkt.

Literaturverzeichnis

Eloundou, T./Manning, S./Mishkin, P./Rock, D. (2023): GPTs are GPTs: An early look at the labor market impact potential of large language models. arXiv preprint arXiv:2303.10130.

Friedman, B./Nissenbaum, H. (1996): Bias in computer systems. ACM Transactions on Information Systems, 14 (3): 330–347.
Gmyrek, P./Berg, J./Bescond, D. (2023): Generative AI and jobs: A global analysis of potential effects on job quantity and quality. International Labour Organization. https://doi.org/10.54394/FHEM8239

Grace, K./Salvatier, J./Dafoe, A./Zhang, B./Evans, O. (2017): When Will AI Exceed Human Performance? Evidence from AI Experts. https://doi.org/10.48550/ARXIV.1705.08807

Hofmann, V./Kalluri, P. R./Jurafsky, D./King, S. (2024): AI generates covertly racist decisions about people based on their dialect. Nature, 633(8028), 147–154. https://doi.org/10.1038/s41586-024-07856-5

Köchling, A./Wehner, M. C. (2020): Discriminated by an algorithm: A systematic review of discrimination and fairness by algorithmic decision-making in the context of HR recruitment and HR development. Business Research, 13(3), 795–848. https://doi.org/10.1007/s40685-020-00134-w

Köchling, A./Riazy, S./Wehner, M.C./Simbeck, K. (2021): Highly Accurate, But Still Discriminatory: A Fairness Evaluation of Algorithmic Video Analysis in the Recruitment Context. Business & Information Systems Engineering, 63, 39–54. https://doi.org/10.1007/s12599-020-00673-w

Köchling, A./Wehner, M. C./Warkocz, J. (2022): Can I show my skills? Affective responses to artificial intelligence in the recruitment process. Review of Managerial Science. https://doi.org/10.1007/s11846-021-00514-4

Langer, M. (2023): Fehlgeleitete Hoffnungen? Grenzen menschlicher Aufsicht beim Einsatz algorithmusbasierter Systeme am Beispiel Personalauswahl. Psychologische Rundschau, 0033-3042/a000626. https://doi.org/10.1026/0033-3042/a000626

Langer, M./Landers, R. N. (2021): The Future of Artificial Intelligence at Work: A Review on Effects of Decision Automation and Augmentation on Workers Targeted by Algorithms and Third-Party Observers. Computers in Human Behavior, 123, 106878. https://doi.org/10.1016/j.chb.2021.106878

Marr, B. (2020): Künstliche Intelligenz in Unternehmen. Innovative Anwendungen in 50 erfolgreichen Unternehmen. Wiley-VCH Verlag. Weinheim. 

Moritz, J. M./Pomrehn, L./Steinmetz, H./Wehner, M. C. (2024, Preprint): A Meta-Analysis on Reactions to Algorithmic Decision-Making in Human Resource Management. http://dx.doi.org/10.2139/ssrn.4871658

Ochmann, J./Michels, L./Tiefenbeck, V./Maier, C./Laumer, S. (2024): Perceived algorithmic fairness: An empirical study of transparency and anthropomorphism in algorithmic recruiting. Information Systems Journal, isj.12482. https://doi.org/10.1111/isj.12482

Oostrom, J. K./Holtrop, D./Koutsoumpis, A./Van Breda, W./Ghassemi, S./De Vries, R. E. (2024): Applicant reactions to algorithm- versus recruiter-based evaluations of an asynchronous video interview and a personality inventory. Journal of Occupational and Organizational Psychology, 97(1), 160–189. https://doi.org/10.1111/joop.12465

Schellmann, H. (2024): The Algorithm – How AI Decides Who Gets Hired, Monitored, Promoted, and Fired and Why We Need to Fight Back Now. Hachette Books, New York.

Simon, H. A. (1960): The New Science of Management Decision. Chapter: Organizational Design: Man-Machine Systems for Decision Making, Lecture III, Date: April 7, 1960, Harper & Brother Publishers, New York.

Tambe, P./Cappelli, P./Yakubovich, V. (2019): Artificial Intelligence in Human Resources Management: Challenges and a Path Forward. California Management Review, 61(4), 15–42. https://doi.org/10.1177/0008125619867910

Thompson, D. (2025, April 30): Something Alarming Is Happening to the Job Market – A New Sign that AI is Competing with College Grads. The Atlantic. https://www.theatlantic.com/economy/archive/2025/04/job-market-youth/682641/

Van Quaquebeke, N./Gerpott, F. H. (2023): The Now, New, and Next of Digital Leadership: How Artificial Intelligence (AI) Will Take Over and Change Leadership as We Know It. Journal of Leadership & Organizational Studies, 30(3), 265–275. https://doi.org/10.1177/15480518231181731

Wilson, C./Ghosh, A./Jiang, S./Mislove, A./Baker, L./Szary, J./Trindel, K./Polli, F. (2021): Building and Auditing Fair Algorithms: A Case Study in Candidate Screening. Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 666–677. https://doi.org/10.1145/3442188.3445928


0 Kommentare
Das Eingabefeld enthält noch keinen Text oder nicht erlaubte Sonderzeichen. Bitte überprüfen Sie Ihre Eingabe, um den Kommentar veröffentlichen zu können.
Noch keine Kommentare - teilen Sie Ihre Sicht und starten Sie die Diskussion