Künstliche Intelligenz: Verlässlichkeit und Risiken

Der Einsatz von Künstlicher Intelligenz (KI) in den Unternehmen gewinnt immer stärker an Bedeutung. Damit rücken auch die mit dem Einsatz von KI verbundenen Risiken und demzufolge die Frage nach der Beurteilung der Verlässlichkeit der KI in den Vordergrund.

KI-Systeme sind typischerweise individuelle Systeme, die davon beeinflusst werden, wie sie erstellt, trainiert und genutzt werden. Grundsätzlich verändert die Digitalisierung unser Miteinander in nahezu allen gesellschaftlichen Bereichen. Insbesondere in Verbindung mit Fortschritten auf dem Gebiet der Künstlichen Intelligenz sowie beim Zusammenwirken von Informations- und Biotechnologie fordern diese Entwicklungen auch Selbstbild und Selbstverständnis des Menschen grundlegend heraus, wie der Deutsche Ethikrat festgestellt hat.

Deutscher Ethikrat: "Mensch und Maschine"

Daher befasste sich die Arbeitsgruppe "Mensch und Maschine" des Deutschen Ethikrats unter anderem mit folgenden Fragen:

  • Was sind ethisch bedeutsame Unterschiede zwischen Menschen und Maschinen mit ihren jeweiligen materiellen und funktionalen Merkmalen?
  • Welche Gemeinsamkeiten, Annäherungen und Schnittstellen zwischen Mensch und Maschine sind zu beobachten oder zu erwarten und wie wirken sich diese auf unser Selbstverständnis aus?
  • Was sind die gesellschaftlichen, kulturellen und historischen Grundlagen des Verhältnisses von Menschen und Maschinen und welche Werte, Normen und gesellschaftlichen Visionen verbergen sich dahinter?
  • Welche Rolle spielen verschiedene Konzepte von Intelligenz, Vernunft, Autonomie und Verantwortung für die Entwicklung, aber auch für die Bewertung (teil-)autonomer Systeme?

Dazu wurde eine 287-seitige Stellungnahme veröffentlicht, diese ist hier abrufbar.

Prüfung von KI-Systemen: Neuer Prüfungsstandard

Das IDW hat in diesem Zusammenhang schon länger die Digitalisierung und insbesondere den Einsatz der KI aus der Perspektive der Wirtschaftsprüfung begleitet und festgestellt, dass der Bedarf nach standardisierten Prüfungen auf der Basis geeigneter Kriterien immer deutlicher wird, um das Potential von KI in Unternehmen voll nutzen zu können.

Zur Unterstützung des Berufsstands bei Prüfungen aber auch der Anwender in den Unternehmen in dieser zukunftsweisenden Technologie hat der Fachausschuss IT (FAIT) den IDW Prüfungsstandard Prüfung von KI-Systemen (IDW PS 861) (03.2023) für Prüfungen außerhalb der Abschlussprüfung entwickelt.

Dem IDW PS 861 (03.2023) liegt der International Standard on Assurance Engagements (ISAE) 3000 (Revised) "Assurance Engagements Other than Audits or Reviews of Historical Financial Information" zugrunde. Er ermöglicht hinsichtlich der Beurteilungskriterien einen breiten Anwendungsbereich.

KI-Governance, KI-Compliance und KI-Monitoring

Für die Anwender in den Unternehmen erscheinen besonders die Ausführungen über die KI-Governance, KI-Compliance und das KI-Monitoring relevant.

So betrifft die KI-Governance die Grundeinstellung, das Problembewusstsein und das Verhalten der gesetzlichen Vertreter und der Mitarbeiter in Bezug auf den Einsatz, d. h. die Entwicklung, Einführung und Nutzung, von KI. Durch die Aufbau- und Ablauforganisation sind die Verantwortlichkeiten im Zusammenhang mit dem Einsatz von KI im Unternehmen klar geregelt und abgegrenzt.

KI-Compliance umfasst Maßnahmen, die der Einhaltung gesetzlicher, regulatorischer sowie sonstiger unternehmensinterner Vorgaben, insb. über den gesetzlichen Rahmen hinausgehender ethischer Erwägungen, beim Einsatz von KI dienen.

Unter KI-Monitoring ist die objektivierte Beurteilung der Angemessenheit und Wirksamkeit des KI-Systems durch das Unternehmen zu verstehen. Dies umfasst auch, dass die Ergebnisse der Beurteilung in geeigneter Form berichtet und ausgewertet sowie festgestellte Mängel im KI-System beseitigt werden und dadurch das KI-System verbessert wird.

Der IDW Prüfungsstandard Prüfung von KI-Systemen (IDW PS 861) (03.2023) wird in der IDW Life Heft 4/2023 veröffentlicht, frei abrufbar ist lediglich die Entwurfsfassung.