Demo vereinbaren

Jetzt eine unverbindliche Online-Demo vereinbaren (ca. 20 Min.)

Kontakt aufnehmen

Jetzt Kontakt aufnehmen und beraten lassen

Beraten lassen

Mit einem Experten sprechen
+49 89 90 40 97 00

TIPP
HR Chatbot
|
7.3.2023
|
8 Min.

ChatGPT und Rechtssicherheit: Wenn der KI-Textgenerator an seine Grenzen kommt

Meity Mariani Herianto
Meity Mariani Herianto
Haufe Onboarding Produktmanagerin
Software-Entwickler Leon Kaltenbrunn spricht darüber, warum ChatGPT für rechtssichere Aussagen nicht trainiert worden ist.

Was ChatGPT leisten kann, ist beeindruckend: Zu allen möglichen Themen kann der KI-Textgenerator Antworten liefern – zur Frage passend und überraschend wortreich. Doch in Bereichen wie HR, wo es oft auf sehr präzise und rechtssichere Aussagen ankommt, kann diese Redseligkeit zum Problem werden. Als Software-Entwickler bei Haufe in Freiburg kennt sich Leon Kaltenbrunn mit ChatGPT und Chatbots im Allgemeinen aus. Im Interview spricht er darüber, warum ChatGPT für rechtssichere Aussagen nicht trainiert worden ist. 

Meity Mariani Herianto: Hellauf begeistert die einen, zutiefst verunsichert die anderen – der KI-Textgenerator ChatGPT löst unterschiedliche Reaktionen aus. Herr Kaltenbrunn, Sie sind Software-Entwickler. Wie ist das bei Ihnen: Sind Sie fasziniert von der Technologie oder doch eher skeptisch? 

Leon Kaltenbrunn: Beides ein bisschen. Einerseits finde ich ChatGPT wahnsinnig spannend. Ich kann dem Modell eine Frage stellen, die es noch nie in seinen Trainingsdaten gesehen hat – und trotzdem kann es eine darauf zugeschnittene Antwort generieren. Das ist die Kernkompetenz von ChatGPT. Andererseits müssen wir aufpassen, dass uns der Hype nicht überrollt. Uns muss bewusst sein: ChatGPT strahlt eine Sicherheit aus, die nicht zwingend gegeben ist. 

Wie ChatGPT funktioniert

Herianto: Woher kommt diese vermeintliche Sicherheit? 

Kaltenbrunn: ChatGPT basiert auf einem „large language model“, also auf einem großen Sprachmodell. Deshalb beherrscht die Technologie natürliche Sprache, antwortet also wie in einem Dialog mit einem Menschen – und das suggeriert Sicherheit. Denn wenn ich eine Antwort bekomme, die perfekt auf meine Frage zugeschnitten ist, gehe ich davon aus, dass sich mein Gegenüber dabei etwas überlegt hat. Unsere Unterhaltungen mit anderen Menschen haben uns das gelehrt – und eine vergleichbare Technologie auf dem Niveau gab es bisher nicht. Aber: Was herauskommt, kann richtig sein, aber auch zu 100% falsch. Das Sprachmodell trifft mit voller Überzeugung Aussagen, die vollkommener Humbug sein können. 

Warum ChatGPT nicht auf Rechtssicherheit trainiert wurde

Herianto: Gerade im Personalbereich kommt es häufig auf ganz bestimmte Formulierungen an. Sagen wir, ich stelle ChatGPT eine Frage, die das deutsche Arbeitsrecht betrifft. In diesem Fall reicht es mir nicht, dass das Modell selbstständig irgendeine zu meiner Frage passende Antwort ausspuckt. Ich möchte mich darauf verlassen können, dass die Information in dieser Formulierung rechtssicher ist. Ist das mit ChatGPT gerade möglich? 

Kaltenbrunn: Um das zu beantworten, müssen wir uns zunächst das Grundprinzip von ChatGPT etwas genauer anschauen. Das funktioniert etwa so: OpenAI (die Macher hinter ChatGPT, Anm.d.Red.) hat unzählige öffentlich zugängliche Texte gesammelt – unter anderem Werbetexte, Bücher und Wikipedia-Artikel –, die Daten in einen Topf geworfen und ein Basis-Sprachmodell darauf trainiert. Auf ihre Rechtssicherheit wurden diese Texte nicht überprüft. Die gesammelten Daten wurden dann mathematisch als Wort- oder Satzteile mit bestimmten Eigenschaften abgebildet als sogenannte Tokens. Das Sprachmodell versucht nun, immer den nächsten richtigen Token zu berechnen. Dem Basismodell haben menschliche Trainer dann mithilfe eines weiteren Verfahrens beigebracht, was gute und was schlechte Ergebnisse sind.

Das Thema Rechtssicherheit und das dazu passende Training – zum Beispiel, dass das Modell sehr präzise Formulierungen ausgeben soll – waren dabei kein Ziel, das OpenAI dabei verfolgt hat. Und deswegen kann ich mich nicht blind auf die Aussagen von ChatGPT verlassen – gerade, wenn es um Rechtssicherheit geht.

ChatGPT ist ein Chatbot des US-amerikanischen Unternehmens OpenAI. Das System nutzt Künstliche Intelligenz, um natürliche Sprache zu verstehen und darauf zu reagieren. Benutzer:innen können also über ein Dialogfeld ihre Fragen eingeben und sich mit dem Chatbot fast wie mit einem Menschen unterhalten. ChatGPT kann z.B. komplizierte Sachverhalte erklären, Zusammenfassungen von Texten schreiben und Programmierfehler in Codes finden.

Mit welchen Chatbots sind rechtssichere Formulierungen möglich?

Herianto:  Aber gibt es nicht heute schon Chatbots, die im Service-Bereich oder in HR genutzt werden, der HR Assistant von Haufe zum Beispiel? Was macht der HR Assistant denn anders? 

Kaltenbrunn: Chatbots wie der Haufe HR Assistant haben eine Datenbank hinterlegt. Darin befinden sich rechtssichere Texte, die von Fachleuten kontrolliert und auf aktuellem Stand gehalten werden. Wenn ich meine Frage oder einen Satz eingebe, wird mithilfe einer KI die Absicht erkannt und der dazu passende Fachtext wird ausgespielt. Stelle ich dem HR Assistant morgen dieselbe Frage wie heute, bekomme ich auch morgen noch dieselbe Antwort – vorausgesetzt natürlich, der hinterlegte Fachtext in der Datenbank wurde nicht in der Zwischenzeit von Fachleuten aktualisiert. Das kann ein wenig statisch wirken, für die Rechtssicherheit der Texte kann das aber ausschlaggebend sein.

Bei Modellen wie ChatGPT sind die Antworten dagegen nicht in einer Datenbank hinterlegt, sondern werden jedes Mal neu zusammengebaut – Token für Token. Deshalb fühlt sich die Unterhaltung mit ChatGPT so flüssig an. Der Preis dafür: Ich bekomme nicht zwangsläufig exakt die Formulierung, die in bestimmten Fällen notwendig ist – wie eben zum Beispiel, wenn es um Rechtssicherheit geht.   

Herianto: Was könnten denn Chatbots wie der Haufe HR Assistant von ChatGPT lernen? 

Kaltenbrunn: Wenn man die Technologien der beiden Chatbots kombiniert, könnte der Small Talk von ChatGPT generiert werden. Das ist also auch ein nächster Schritt für den Haufe HR Assistant. Der HR Assistant hätte dann zusätzlich die Fähigkeit zu plaudern – als würde man sich mit einem Menschen unterhalten –, ohne dass davon die relevanten Segmente mit den rechtssicheren Informationen betroffen sind.

Warum HR sich nicht bedingungslos auf ChatGPT verlassen sollte

Herianto: Sollte ich als Personalerin ChatGPT dann überhaupt Fragen stellen, wo es um rechtlich sichere Formulierungen geht, oder lasse ich besser gleich die Finger davon? 

Kaltenbrunn: Probieren geht natürlich immer. Man muss sich aber bewusst sein: Das Modell wird Antworten zurückgegeben, die falsch sein können, aber suggerieren, dass sie richtig sind. Das ist die Krux: Ich darf mich nicht bedingungslos auf die Aussagen des Modells verlassen. Wenn ich als Personaler aber Inhalte von ChatGPT nutze, stehe ich auch für die Verwendung von falschen Antworten, Mustern und Vorlagen in der Verantwortung. Wir haben es nicht mit einer Intelligenz wie der von uns Menschen zu tun. ChatGPT ist immer noch ein Sprachmodell, bei dem ganz viel Mathe passiert.

Weiterführende Informationen dazu, wie ein Chatbot rechtssichere  Antworten geben kann, erhalten Sie in diesem Online-Seminar.

Artikel teilen
Über den Autor
Über die Autorin

Meity Mariani Herianto verfolgte eine Karriere als Opernsängerin bevor sie sich entschied in die Software-Branche zu wechseln. Nach ihrem Studium des Kultur- und Medienmanagements, lernte sie in einem Chatbot-Start-Up die Technologie von allen Seiten kennen und entwickelte und bewertete für zahlreiche Branchen und Industrien Chatbot Use Cases und Anwendungsmöglichkeiten. Als Autorin und Referentin, kümmert sich die Chatbot Expertin nun um den Haufe HR Assistant. Sie begeistert sich für die Produktentwicklung neuer Technologien und spannende Innovationen.

Mehr zum Thema HR Chatbot