Nach Zahlen des Statistischen Bundesamtes (Destatis) für 2023 nutzt rund jedes dritte Großunternehmen in Deutschland (35 %) künstliche Intelligenz. Mit Abnahme der Unternehmensgröße sinkt die Zahl der KI-Anwender allerdings, nur noch 16 % der mittleren Unternehmen (50 bis 249 Beschäftigte) verwenden KI, bei den kleinen Unternehmen sind es gar nur 10 %.

Hauptanwendung findet KI danach im Finanzbereich mit 25 %. Es folgen IT-Sicherheit (24 %) und Produktions- und Dienstleistungsprozesse (22 %). Die KI-Algorithmen werden dabei zur Spracherkennung (43 %), zur Automatisierung von Arbeitsabläufen oder Hilfe bei der Entscheidungsfindung (32 %) und zur Analyse von Schriftsprache beziehungsweise Text Mining (30 %) verwendet.[1]

Eine Untersuchung des ifo Institut sieht dagegen im Mittel nur 13,3 % der deutschen Unternehmen, die KI bereits einsetzen (Stand August 2023). Weitere 9,2 % planen sie zu nutzen. Dagegen ist künstliche Intelligenz für rund 40 % der Unternehmen in Deutschland noch kein Thema, im Baugewerbe sogar für 60 %. Das mag verwundern, denn laut dem Think Tank des Europäischen Parlaments in 2020 kann die Arbeitsproduktivität im Zusammenhang mit KI bis 2025 um 11 % bis 37 % steigen.[2]

Deutsche Unternehmen stehen dabei laut einer Studie von Gigamon (ein Unternehmen, das im Bereich Deep Oberservability tätig ist), TikTok, WhatsApp und dem Metaverse in Punkto Sicherheit zwar skeptisch gegenüber, dem KI-Chatbot ChatGPT allerdings nicht. 75 % der 150 befragten CIO/CISO deutscher Unternehmen haben keinerlei Sicherheitsbedenken, wenn ihre Mitarbeitenden ChatGPT nutzen, 5 % haben die Nutzung untersagt, die restlichen 20 % waren noch dabei mögliche Risiken zu untersuchen. Dagegen sind 100 % der CIO/CISO von Sicherheitsrisiken bei der Nutzung von WhatsApp und Metaverse überzeugt und 67 % haben die Nutzung von WhatsApp im Unternehmen bereits verboten. Immerhin 89 % untersuchten noch mögliche Sicherheitsrisiken von TikTok (während bei 10 % die Nutzung bereits verboten ist).[3]

Bei der Nutzung von Chatbots könnten Mitarbeitende dazu verleitet werden, sensible Daten einzugeben. Das Problem: Die so an ChatGPT übermittelten Daten können im Trainingsdatenpool von OpenAI landen und so beispielsweise bei Anfragen anderer Nutzer wieder ausgegeben oder gar bei einem Angriff auf OpenAI gestohlen werden.

Das ist nur ein Ausschnitt aus dem Produkt Arbeitsschutz Office Professional. Sie wollen mehr?

Anmelden und Beitrag in meinem Produkt lesen


Meistgelesene beiträge