Ein Problem, an dem derzeit bereits gearbeitet wird, ist das sogenannte Black Box Risiko. Es stellt infrage, wie vertrauenswürdig eine KI ist, bei der nicht bekannt ist, wie sie zu ihren Ergebnissen gekommen ist. Das Problem beschreibt also die undurchsichtigen Entscheidungsprozesse bei KI-Systemen, bei denen die zugrundeliegenden Algorithmen und Modelle für menschliche Beobachter schwer oder gar nicht nachvollziehbar sind.

Dazu gehören als Unsicherheitsfaktoren insbesondere, dass dem Nutzer in der Regel die Grundlage der Daten, mit denen die KI trainiert wurde, unbekannt ist, und dass die Algorithmen oft nicht nur unbekannt, sondern auch äußerst komplex sind, was es selbst bei Kenntnis schwer macht, sie zu verstehen. Dies kann zu unerwarteten Ergebnissen aus Nutzersicht führen und das Vertrauen der Nutzer negativ beeinflussen.

Insbesondere bei kritischen Anwendungen, wie etwa im Arbeitsschutz, wo die Gesundheit von Menschen betroffen ist, sollte die Funktionsweise und der Entscheidungsweg der KI-Systeme idealerweise transparent sein. So kann verstanden werden, warum bestimmte Entscheidungen getroffen wurden und ob sie fair und ethisch vertretbar sind. Es ist jedoch keine einfache Aufgabe, die Entscheidungsfindung nachvollziehbar zu dokumentieren und besser noch zu visualisieren.

Das ist nur ein Ausschnitt aus dem Produkt Arbeitsschutz Office Professional. Sie wollen mehr?

Anmelden und Beitrag in meinem Produkt lesen


Meistgelesene beiträge