Künstliche Intelligenz

Wie KI unseren Umgang mit Fachwissen verändert


Wie KI unseren Umgang mit Fachwissen verändert

Generative KI verändert, wie wir Wissen suchen und nutzen – schneller, zugänglicher, aber auch riskanter. Sprachmodelle wie ChatGPT, Gemini oder Claude liefern Antworten in ansprechender Form, doch im beruflichen Kontext reicht das nicht. Hier zählt nicht nur, wie gut eine Antwort klingt, sondern ob sie korrekt ist. Wie umgehen mit diesem Paradox?

Würden Sie einem Steuerberater vertrauen, der Sie allein auf der Basis von ChatGPT-Informationen berät? Oder einer Personalerin, die sich mithilfe dieses Sprachmodells auf den neuesten Stand zu gesetzlichen Vorgaben bringt? Wahrscheinlich nicht. 

Damit steht ein zentrales Paradox des aktuellen KI-Zeitalters im Raum: LLMs wie ChatGPT machen Wissen zugänglicher, verständlicher und übersichtlicher – doch die Sicherheit, dass dieses Wissen korrekt ist, fehlt. Genau an diesem Punkt können die "klassischen" Anbieter von Fachwissen ansetzen, um die Stärken generativer KI zu nutzen, ohne ihre Schwächen zu ignorieren oder dabei das eigene Geschäftsmodell aus den Augen zu verlieren.  

Wahrscheinlich richtig ist nicht gut genug 

Wer generative KI nutzen will, muss ihre Funktionsweise verstehen. Sprachmodelle wie ChatGPT arbeiten probabilistisch. Sie generieren Antworten auf Basis von Wahrscheinlichkeiten, ohne die Inhalte, auf die sie zurückgreifen, tatsächlich zu verstehen. LLMs sind Generalisten. Sie erzeugen Antworten, die plausibel klingen, aber nicht zwingend faktisch korrekt sind. In professionellen Kontexten wie der Arbeit in einer Personalabteilung oder einer Steuerkanzlei ist „wahrscheinlich richtig“ aber nicht gut genug.  

Warum KI Grenzen braucht, um sich voll entfalten zu können 

NLP, die Technologie zum Verstehen natürlicher Sprache, ist extrem domänenspezifisch. Verschiedene Zielgruppen sprechen verschiedene Sprachen und verwenden bestimmte Fachbegriffe. Deshalb muss die Technologie für die jeweilige Zielgruppe optimiert werden. Konkret bedeutet das zunächst, dass das Wissen, auf das die KI zugreift, limitiert werden muss. Was zunächst wie ein weiteres Paradox klingt, ist vielmehr eine logische Schlussfolgerung: Wenn die KI in einem Rahmen agieren kann, in dem alle Inhalte, auf die sie zugreift, bereits geprüftes Fachwissen sind, ist die Wahrscheinlichkeit sehr viel geringer, dass sie schlechte oder falsche Ergebnisse liefert.  

Mit diesen Technologien kann KI begrenzt und besser gemacht werden 

So einen Rahmen können Anbieter von Fachwissen schaffen. Bei Haufe werden alle Antworten unserer CoPilots ausschließlich auf der Basis unserer rechtsicheren Fachinhalten generiert. Zudem liefern wir zu jedem Ergebnis die passenden Quellenverweise. So können die Anwender überprüfen, ob die Antwort der KI stimmt. Retrieval Augmented Generation und Grounding nennen sich diese technologischen Prinzipien. Und es sind nicht die einzigen, mit denen wir sicherstellen, dass Fachwissen in der KI so gut und genau wie möglich dargestellt wird.  

So kann die KI beispielsweise mit Intent-Erkennung die Anforderung eines Prompts zerlegen und bei Bedarf mit einem agentischen Ansatz auf spezialisierte und rechtssichere Vorlagen, Tools und Arbeitshilfen, die in den Haufe Fachdatenbanken bereits hinterlegt sind, zurückgreifen. So können wir sicherstellen, dass das Ergebnis rechtssicher und reproduzierbar ist.  

Weg vom Text und hin zur Stammzellenform von Wissen 

Doch die Suche nach der perfekten Aufbereitung von Fachwissen geht für uns noch weiter. Maschinen wurden nie dazu gemacht, Text zu verstehen. Deshalb arbeiten wir daran, Wissen digital zu konservieren: in semantischen Netzen – maschinenlesbar und universell nutzbar, eine Stammzellenform von Wissen. So kann das Wissen maximal flexibel für den jeweiligen Anwendungsfall wiederverwendet werden – mit der Garantie, dass dieses Wissen korrekt ist. 

Qualität entsteht durch Messbarkeit: Wie bestimmt man, was eine richtige Antwort ist? 

Da LLMs immer wieder Anpassungen erleben oder auf neue Modelle umgestellt werden, muss auch die Qualität der Antworten ständig neu überprüft werden. Um das zu tun, haben wir lange an einem umfangreichen Framework gearbeitet, wie wir Qualität messen. Hier spielen die klassischen Fachredaktionen eine wichtige Rolle. Denn auf Basis ihrer eingepflegten und laufend aktualisierten Listen bestehend aus typischen und erwartbaren Frage-Antwort-Paaren, sogenannten Ground Truths, können Automatismen greifen, die die Ergebnisse bewerten können.  

Mehr als nur Technologie: Wer gutes Wissen anbieten will, muss interdisziplinär arbeiten 

Haufe hat den großen Vorteil, dass es Technologie- und Wissensanbieter ist. Wir erhalten höchste Qualität nur dann, wenn wir in interdisziplinären Teams alle unsere Stärken kombinieren. Zwei dieser Teams sind bei Haufe das Legal Tech Lab bestehend aus Redakteuren, Juristinnen, KI-Spezialisten und Entwicklerinnen und das Content Structure Core bestehend aus Fachexperten, Content-/Metadaten-Managerinnen und KI-Experten. Diese interdisziplinären Teams sollen zudem als Multiplikatoren dienen und überall da helfen, wo die tägliche Arbeit anfällt.  

Blick in die Zukunft 

Wie könnte die Zukunft aussehen, wenn KI zur Wissensvermittlung optimal genutzt wird? Drei Entwicklungen zeichnen sich ab: 

1. Integriertes Portfolio: Die KI kann auf alle Angebote von Haufe nutzen und greift nicht nur auf Fachwissen, Rechner, Tools und Arbeitshilfen zurück, sondern auch auf Lösungen für komplexe Anwendungsfälle wie etwa das Erstellen eines Arbeitszeugnisses.  

2. Integration vor- und nachgelagerter Systeme: Die KI kann auf Stammdaten der Kundinnen und Kunden zugreifen, um bestmögliche Lösungen anzubieten. 

3. Integration in Kunden-Ökosysteme: Wir bieten Knowledge-as-a-Service: Die KI mit unserem Fachwissen und unserem Lösungsportfolio wird in die Systeme der Kunden integriert.  

Wie verändert KI also unseren Umgang mit Fachwissen? 

Generative KI revolutioniert den Zugang zu Wissen. Doch beeindruckende Präsentation ersetzt keine Verlässlichkeit. Die Antwort auf das Paradox der KI liegt in geprüften Inhalten, systematischer Qualitätssicherung, interdisziplinärer Zusammenarbeit und einer durchdachten Integration. Nur so können wir die Vorteile der KI nutzen, ohne ihre Schwächen zu ignorieren. 

Dabei geht es im Übrigen nicht darum, Effizienz um jeden Preis zu steigern oder Kosten zu sparen. Der Fokus liegt darauf, das Produkterlebnis zu verbessern und echten Mehrwert zu schaffen. Denn am Ende zählt nicht nur, dass Wissen verfügbar ist – sondern, dass es die Menschen in ihrer Arbeit wirklich unterstützt und sie auf verlässliche Lösungen vertrauen können. 


Schlagworte zum Thema:  Künstliche Intelligenz (KI)
0 Kommentare
Das Eingabefeld enthält noch keinen Text oder nicht erlaubte Sonderzeichen. Bitte überprüfen Sie Ihre Eingabe, um den Kommentar veröffentlichen zu können.
Noch keine Kommentare - teilen Sie Ihre Sicht und starten Sie die Diskussion