


Künstliche Intelligenz verändert HR-Prozesse grundlegend. KI-Systeme unterstützen heute bei der Vorauswahl von Bewerbungen, der Bewertung von Kandidatenprofilen, der Analyse von Mitarbeiterdaten oder der Automatisierung administrativer Aufgaben. Das spart Zeit, birgt aber Haftungsrisiken, die in der Praxis oft unterschätzt werden. Bekanntlich ist irren menschlich, aber auch KI-Systeme machen Fehler. Sogenannte Halluzinationen – also fachlich plausibel klingende, aber objektiv falsche Ausgaben eines KI-Systems – sind keine Ausnahme, sondern ein systemimmanentes Merkmal aktueller Large Language Models. Die Frage ist nicht, ob sie auftreten, sondern wann. Und spätestens dann stellt sich die Frage: Wer trägt die Verantwortung?
Die folgenden drei Szenarien zeigen anhand eines konkreten Beispiels aus dem Recruiting, wie sich Haftung beim Einsatz von KI in HR verteilen kann und warum entscheidend ist, wie KI eingesetzt wird, nicht nur ob.
Hinweis: Die rechtliche Einordnung dieser Szenarien basiert auf dem aktuellen Stand des deutschen Arbeitsrechts, des Allgemeinen Gleichbehandlungsgesetzes (AGG) sowie des AI Act (KI-Verordnung der EU). Sie ersetzt keine individuelle Rechtsberatung.
Die drei Szenarien decken das gesamte Haftungsspektrum ab: von einem Fall, in dem trotz echtem Schaden niemand haftet, über eine Konstellation, in der Regress theoretisch möglich aber faktisch schwerdurchsetzbar ist, bis hin zum klassischen Haftungsfall durch menschliches Fehlverhalten.
Sie bilden damit die drei Grundsituationen ab, mit denen HR-Verantwortliche im Alltag konfrontiert sein können. Gemeinsam zeigen sie: Haftung hängt nicht an der Technologie, sondern am Verhalten der handelnden Personen und Organisationen.
Die Situation
Ein Recruiting Manager nutzt ein KI-System zur Vorauswahl von Bewerbungen. Das System liefert zu einem Kandidaten eine fachlich plausibel formulierte Einschätzung, die sich im Nachhinein als objektiv falschherausstellt. Eine klassische Halluzination. Die Halluzination bliebt unbemerkt und der Bewerber wird auf Basis dieser Empfehlung abgelehnt.
Der Recruiting Manager hat dabei:
Wer haftet?
Hier kommt es auf das sogenannte Vertretenmüssen an. Eine Haftung setzt voraus, dass die handelnde Person die Pflichtverletzung zu vertreten hat, also vorsätzlich oder fahrlässig gehandelt hat (§ 276 BGB). Da der Recruiting Manager die Halluzination weder erkennen konnte noch erkennen musste, liegt keine Pflichtverletzung vor. Denn: ohne Verschulden keine Haftung.
Auch ein AGG-Verstoß scheidet in diesem Fall aus, wenn die Ablehnung nicht auf einem der in § 1 AGG geschützten Merkmale beruht also etwa nicht wegen Geschlecht, Alter, Herkunft oder anderer Merkmale in der Person des Bewerbers erfolgte, die nach AGG eine Diskriminierung ausmachen können. Der Schaden verbleibt rechtlich im allgemeinen Lebensrisiko des abgelehnten Bewerbers.
Praxistipp: Dieses Szenario funktioniert nur dann als Exkulpation, also als Möglichkeit, sich von der Haftung zu befreien, wenn Prüfung und Dokumentation tatsächlich stattgefunden haben und belegbar sind. Wer sich auf „ich habe drüber geschaut" beruft, ohne es nachweisen zu können, steht rechtlich deutlich schlechter da.
Die Situation
Der Recruiting Manager übernimmt eine fehlerhafte KI-Empfehlung, ohne sie zu prüfen. Ein Bewerber wird dadurch diskriminiert etwa, weil das KI-System systematisch bestimmte Merkmale benachteiligt. Der Bewerberklagt erfolgreich nach AGG.
Das Unternehmen trägt den Schaden und prüft anschließend Regressansprüche gegen den KI-Anbieter. Der Anbieter kann jedoch nachweisen, dass das System den vertraglichen Anforderungen entspricht und die Vorgaben des EU AI Act eingehalten wurden.
Wer haftet?
Klar ist: Das Unternehmen haftet gegenüber dem Bewerber. Die spannende Frage ist, ob es den Schaden auf den KI-Anbieter abwälzen kann? Eine zivilrechtliche Exkulpation des Anbieters ist sehr wahrscheinlich möglich wenn Entwicklung, Training und Überwachung des KI-Systems rechtskonform erfolgten und das System den vertraglichen Spezifikationen entspricht.Verbleibende Fehlleistungen können als systemimmanentes Risiko rechtmäßig eingesetzter KI eingeordnet werden, solange sie sich im Rahmen der vereinbarten Leistungsparameter bewegen.
Was bedeutet „systemimmanentes Risiko"?
Gemeint ist, dass KI-Systeme, auch wenn sie korrekt entwickelt und eingesetzt werden, gelegentlich fehlerhafte Ausgaben produzieren können. Dieses Restrisiko lässt sich technisch nicht vollständig eliminieren. Wer KI-Systeme einsetzt, muss dieses Risiko kennen und durch geeignete Maßnahmen beherrschbar machen.
In der Konsequenz, bleibt das Unternehmen auf dem Schaden sitzen. Regressansprüche gegen den Anbieter laufen ins Leere, wenn dieser seine Pflichten aus dem AI Act und dem Vertrag erfüllt hat. Juristisch ausgedrückt: Der Anbieter hat den Schaden nicht zu vertreten.
Hinweis für HR-Tech-Entscheider: Die Vertragsgestaltung mit dem KI-Anbieter ist entscheidend. AGB, Service Level Agreements und Haftungsausschlüsse bestimmen, welche Risiken das Unternehmen trägt. Eine Prüfung durch einen Juristen und den Datenschutzbeauftragten vor Vertragsschluss ist dringend empfehlenswert.
Die Situation
Der Recruiting Manager setzt ein KI-Tool ein, das ausdrücklich nicht für Auswahlentscheidungen vorgesehen ist. Warnhinweise des Anbieters werden ignoriert, eine Plausibilitätsprüfung findet nicht statt. Die KI-Ausgabe wird zur alleinigen Entscheidungsgrundlage. Die Folge: Ein Bewerber wird diskriminiert.
Wer haftet?
Hier liegt der Fehler eindeutig beim Menschen, nicht (nur) beim System. Der Einsatz außerhalb des vorgesehenen Zwecks stellt eine Pflichtverletzung dar. Nach außen haftet das Unternehmen gegenüber dem geschädigten Bewerber. Etwa nach AGG auf Entschädigung, verschuldensunabhängig (§ 15 Abs. 2 AGG).
Im Innenverhältnis kann das Unternehmen den Recruiting Manager in Regress nehmen. Die Grundlage dafür sind die Grundsätze des innerbetrieblichen Schadensausgleichs, die die Arbeitsgerichte aus der Rechtsprechung entwickelt haben:
Das Ignorieren von Warnhinweisen und das vollständige Unterlassen einer Prüfung dürfte im Bereich grober Fahrlässigkeit liegen. Das bedeutet: Der Recruiting Manager trägt den Schaden im Innenverhältnis in der Regel selbst.
Eine Einschränkung: Wenn die Schadenshöhe in einem krassen Missverhältnis zum Gehalt des Mitarbeiters steht, können die Arbeitsgerichte eine Quotelung vornehmen. Die endgültige Einordnung ist immer eine Frage des Einzelfalls.
Zur Beweislast: Gemäß § 619a BGB trägt der Arbeitgeber die Darlegungs- und Beweislast dafür, dass der Arbeitnehmer die Pflichtverletzung zu vertreten hat.
Hinweis: Mitarbeitende müssen eine KI-Kompetenz aufweisen, wenn sie mit KI-Systemen arbeiten. Die Schulungspflicht nach Art. 4AI Act besteht bereits seit Februar 2025. Unabhängig von der rechtlichen Pflicht zeigen Fälle wie der oben beschriebene, welche Konsequenzen eintreten können, wenn diese KI-Kompetenz fehlt.
Die drei Szenarien zeigen die mögliche Rechtslage nachaktuellem Stand. Ab dem 9. Dezember 2026 verändert sich das Bild grundlegend.
Die neue EU-Produkthaftungsrichtlinie (RL 2024/2853) gilt dann auch für Software und KI-Systeme. Sie bringt drei wesentliche Änderungen mit sich:
Die neue Rechtslage verschiebt Risiken, löst sie aber nicht auf. Wer den AI Act sauber umsetzt, schafft Exkulpationsmöglichkeiten, aber keine Haftungsfreiheit.
Die neue Produkthaftungsrichtlinie ist kein abstraktes Thema für die Rechtsabteilung, sie hat konkrete Auswirkungen auf den Alltag von HR-Verantwortlichen.
Die Datenschutzerklärung muss den Einsatz von KI-Systemen in HR-Prozessen vollständig abbilden, inklusive der verarbeiteten Datenkategorien, der eingesetzten Systeme und der Rechte der Betroffenen. Gleiches gilt für interne Richtlinien: Wer KI-Systeme in HR einsetzt, braucht klare Regelungen dazu, welche Systeme für welche Zwecke zugelassen sind, wer Entscheidungen auf Basis von KI-Ausgaben treffen darf und wie diese Entscheidungen dokumentiert werden. Fehlen solche Richtlinien, entsteht genau die Grauzone, die Szenario 3 beschreibt: Ein Mitarbeiter setzt ein KI-Tool zweckwidrig ein, weil niemand festgelegt hat, was erlaubt ist und was nicht.
Der Datenschutzbeauftragte sollte nicht erst dann einbezogen werden, wenn ein KI-System bereits im Einsatz ist. Die relevanten Fragenstellen sich bereits bei der Beschaffung:
Diese Fragen im Nachhinein zu klären ist möglich, aber deutlich aufwändiger und risikobehafteter als eine strukturierte Prüfung vor dem Go-live.
Ein Aspekt, der in der Praxis oft unterschätzt wird: Dokumentation ist kein bürokratischer Aufwand, sondern aktiver Haftungsschutz. Die neuen Beweiserleichterungen der Produkthaftungsrichtlinie wirken in beide Richtungen: Sie helfen Geschädigten, aber sie schützen auch Unternehmen, die nachweisen können, dass sie sorgfältig gehandelt haben. Wer den Einsatz von KI-Systemen, die durchgeführten Prüfungen und die getroffenen Entscheidungenlückenlos dokumentiert, ist im Streitfall deutlich besser aufgestellt.
Nein. Möglicherweise lässt sich ein Teil des Risikos vertraglich auf den Anbieter verlagern, etwa durch entsprechende AGB oder Haftungsklauseln. Eine vollständige Übertragung ist jedoch nicht möglich. Das Unternehmen als Betreiber des KI-Systems trägt immer eine Eigenverantwortung für den ordnungsgemäßen Einsatz, insbesondere nach den Anforderungen des AI Act.
Als Halluzination bezeichnet man Ausgaben eines KI-Systems, die fachlich plausibel klingen, aber sachlich falsch sind, ohne dass das System diesen Fehler selbst erkennt oder kennzeichnet. Sie entstehen durch dasstatistische Funktionsprinzip von Large Language Models und lassen sichtechnisch nicht vollständig vermeiden. Für den Einsatz in HR bedeutet das: Jede KI-Ausgabe, die in eine Entscheidung einfließt, sollte von einem Menschengeprüft werden.
Die allgemeine Datenschutzerklärung des Unternehmens muss den Einsatz von KI-Systemen in HR-Prozessen abdecken, inklusive der Zwecke der Verarbeitung, der eingesetzten Systeme und der Rechte der Betroffenen. Ob eine separate Erklärung notwendig ist, hängt von der konkreten Ausgestaltung ab. Wichtig: Betroffene Personen müssen nach DSGVO über automatisierte Entscheidungeninformiert werden (Art. 22 DSGVO). Der Datenschutzbeauftragte sollte hier frühzeitig einbezogen werden.
Clemens Dorner ist Senior Data Privacy Expert und GRC Manager in der Haufe Group. Als Syndikusanwalt unterstützt er intern seine Kolleg:innen bei Fragen zu Datenschutz und Compliance. Clemens hat zuvor als Senior Consultant Unternehmen bei der Umsetzung und Implementierung der Datenschutz-Grundverordnung beraten und setzt dieses Fachwissen nun bei der praktikablen Umsetzung der Vorgaben der KI Verordnung ein.