Kann Gefährdungsbeurteilung mit KI alle Risiken ermitteln?

Die Risiko- und Gefahrenerkennung soll mit Künstlicher Intelligenz (KI) und ihren Instrumenten wie der Hazard Detection Lens immer umfassender, schneller und perfekter geschehen. Trotz aller Vorteile sind aber noch einige Einsatzprobleme für die betriebliche Praxis zu lösen.

KI-Systeme analysieren in Echtzeit große Datenmengen, die von Sensoren aus den verschiedensten Quellen im Betrieb generiert werden: aus Maschinen und Anlagen, von Videokameras und teilweise sogar schon aus Drohnen. Durch die Analyse aller Daten sowohl aus der betrieblichen Vergangenheit als auch aus der Gegenwart können KI-Lösungen Muster erkennen und potenzielle Gefährdungsszenarien vorhersagen. Das ermöglicht es Unternehmen, sich viel schneller als bislang über neue Gefährdungslagen zu informieren und hierfür mit entsprechenden Sicherheitsmaßnahmen zu reagieren. Dabei erkennen sie oft sogar Gefährdungen, die dem menschlichen Auge in der Regel verborgen bleiben.

Verantwortliche 24/7 informiert

Der Vorteil der KI-Gefährdungsanalysen ist aber nicht nur, dass gesetzliche Anforderungen etwa in Form der Einhaltung bestimmter Grenzwerte schneller und effektiver umzusetzen sind. Die Sicherheitsverantwortlichen können mit umfassenden und zeitnahen sensorischen Informationen über ihre Arbeitsumgebungsparameter Tag und Nacht sowie unabhängig von ihrem aktuellen Aufenthaltsort versorgt werden. Dank der Daten intelligenter-Sensoren, Echtzeitwarnungen und Augmented Reality-Methoden können sie rund um die Uhr kritische Arbeitsumgebungsparameter abrufen, überprüfen und bei Bedarf sofort notwendige und zeitkritische Schutzmaßnahmen initiieren.

Hazard Detection Lens

Zu den wichtigsten KI-Instrumenten für die Gefährdungs- oder Risikoanalyse zählt die „Hazard Detection Lens“ (deutsch: Optische Linse zur Gefahrenerkennung). Diese Technologie wendet Machine-Learning-Verfahren an, um Anomalien und Fehler unter anderem bei Maschinen und Anlagen zu identifizieren.

Aber nicht nur die Maschinensicherheit kann die Hazard Detection Lens überprüfen. So kann sie unter anderem checken, ob die Beschäftigten ihre Persönliche Schutzausrüstung tragen und wenn ja, ob sie das auch korrekt und bestimmungsgemäß tun.

Lösungen wie die Hazard Detection Lens sind auch aus datenschutzrechtlicher Perspektive schon heute kein Problem mehr, denn sie verarbeiten Bilddaten direkt auf dem Gerät, ohne sie an externe Server zu senden. So gelangen sensible Daten nicht unkontrolliert aus dem Unternehmen.

Daten für die Gefährdungsbeurteilung

Arbeitsumgebungsdaten sind naturgemäß die Grundlage jeder Gefährdungsbeurteilung. Die Messung dieser betrieblichen Umweltparameter ist aber nicht nur sehr aufwendig, sondern oft auch teuer für ein Unternehmen, denn oft müssen Spezialisten für professionelle Messungen auf dem Stand der Technik erst für viel Geld einbestellt werden.

Digitale Sensoren erbringen zwar aktuell noch nicht die sehr genauen Messergebnisse solcher Experten, aber sie liefern erst einmal sehr brauchbare Grundlagendaten, mit denen die Unternehmen schon einmal grob beurteilen können, ob aller Wahrscheinlichkeit nach Anomalien vorliegen, bestimmte gesetzliche Grenzwerte nicht eingehalten werden können und ob bereits mit Gegenmaßnahmen reagiert werden sollte.

Haufe Onlinetraining

Künstliche Intelligenz im Arbeitsschutz – alles nur ein Hype?

In diesem Seminar erfahren Sie, ob und wie sich die Technologie, insbesondere Generative KI (GenAI), im Arbeitsschutz etabliert hat. Das Seminar gibt Ihnen Einblicke in die neuesten Entwicklungen und beleuchtet, wie KI und GenAI bereits heute den Arbeitsschutz transformieren können.

Termin: 15.4.2025, 14:00 Uhr

Preis: 108,00 € zzgl. MwSt.

Zur Anmeldung

Ungelöste Probleme

Gemäß der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) gibt es allerdings noch eine Reihe ungelöster Probleme auf dem Weg zum vollumfänglichen KI-Einsatz für den Arbeitsschutz. Dazu zählt die Aufbereitung der von den Sensoren ermittelten Daten. Hierzu müssen sogenannte Anomaliedetektionsalgorithmen Abweichungen vom Normalzustand finden.

Wie aber sollen die KI-Analysesysteme, so die Wissenschaftler, mit bestimmten Änderungen von Daten umgehen, die sie bislang als den Normalzustand angesehen haben und Abweichungen davon als Anomalie? Die aber nicht auf tatsächliche (Sicherheits-) Fehler der Anlage zurückzuführen sind, sondern z. B. lediglich durch den Austausch einer alten Maschine durch eine neue? Der Betrieb der neuen Maschine sei dann nämlich der neue Normalzustand, der aber von dem vom KI-System „erlernten“ Zustand abweicht.

Als Folge würden große Mengen der Messwerte vom KI-System erst einmal als abnormal angezeigt. Dann müsse man das KI-System neu trainieren, was relativ viel Zeit erfordere. Zudem gäbe es kurz nach der Installation der neuen Maschine in der Regel noch nicht genug Sensordaten, um das KI-System den neuen Normalzustand erlernen zu lassen.