Algorithmen[1] und "künstliche Intelligenz" (KI)[2] sind schon seit langem in den Schlagzeilen, seit ein paar Jahren dominieren sie die Schlagzeilen der Republik.[3]"Handlungen informationstechnischer Systeme basieren gerade nicht auf menschlichem, aktivem Tun, sondern sind das Ergebnis einer Abfolge von Algorithmen. . . . Die künstliche Intelligenz ermöglicht es, dass Systeme geschaffen werden, die menschenähnliche Entscheidungen durch Nachbildung menschenähnlicher Entscheidungsstrukturen treffen und somit menschliches Denken in einer Maschine abbilden."[4] Die Schlagworte sind beispielhaft: Autonomes Fahren, Kampfdrohnen, Profiling von Verbrauchern, Algorithmic Pricing, Scoring bei Kreditvergaben, automatisierte Bild-,  Text- und Spracherkennung, algorithmus-gesteuerte Geldanlagestrategie bzw. Aktienauswahl, "Predictive Policing" bei der Polizeieinsatzplanung, Chatbots im Kundenservice, Personalauswahl per digitaler Sprachanalyse und Gesichtserkennungssysteme. Algorithmen gestalten auch zunehmend mehr Bereiche unseres Lebens; so fungieren Roboter in der Arbeitswelt partiell schon als Vorgesetzte und im Privatbereich liegen "Smart Home"-Anwendungen wie z. B. "Alexa" oder "Siri" im Trend.

Algorithmen, die lediglich vom Programmierer vorgegebene Befehle/Rechenvorgänge in einer ebenfalls vorgegebenen Reihenfolge umsetzen bzw. repetieren, also der Basissystematik "Input=Output" folgen, sind weder spannend noch ein nennenswertes rechtliches Problem. Spannender sind sog. "selbstlernende" Algorithmen, die in großen Datenmengen (Big Data) Regelmäßigkeiten und Muster aufspüren können und aus dem Datenabgleich lernen (maschine learning). Je umfangreicher und qualitativ hochwertiger das Datenmaterial und je öfter der Rechenvorgang vorgenommen werden kann, desto mehr "lernt" der Algorithmus aus der repetitiven Ausführung der Aufgaben und der jeweiligen Rückmeldung (Erfolg/Misserfolg). Algorithmen erweitern so selbständig ihren Wissens- und Erfahrungsschatz und können damit auch qualitativ bessere Ergebnisse erzielen oder und auf Basis der erkannten Muster auch bessere Prognosen für andere Datenkonstellationen ("predictive analytics") ableiten.[5] Bereits hier beginnt die Besonderheit, dass die Programmierer, geschweige denn Organmitglieder von Unternehmen zumindest teilweise nicht mehr in der Lage sind, die Prozesse, die zu den Ergebnissen der KI geführt haben, vollständig nachvollziehen zu können.[6] Darin dürfte bereits eine rechtliche Problematik liegen.[7] Diese Form von Algorithmen verlässt die Basissystematik "Input=Output" schon und wird als (schwache) "künstliche Intelligenz" bezeichnet. Diese ist heute auch in der Unternehmensrealität schon relativ weit verbreitet. Inzwischen erhalten Algorithmen bzw. KI auch bereits "Körper", z. T. sogar in menschlicher Gestalt, sodass humanoide Roboter, sog. Androiden, entstehen. Der scheinbar nicht domestizierbare menschliche Forschungsdrang nach immerwährender Verbesserung der Welt und der Menschen hat uns hierhin geführt. Zutreffend ist Zetzsche's Hinweis darauf, dass es bei dieser "Optimierungs-Rallye" auch um die "Substitution der Hauptfehlerquelle im Unternehmen geht: den Menschen."[8]! Beispielhaft sei dazu auf Volkswagen verwiesen: VW wird in den nächsten vier Jahren ca. vier Mrd. Euro in Digitalisierungsprojekte investieren und zugleich 4000 Stellen in der Verwaltung abbauen und 2000 neue IT-Stellen schaffen.[9] Das macht unter dem Strich 2000 Arbeitsplätze weniger.

Richtig spannend und rechtlich sehr problematisch wird der – allerdings noch bevorstehende – epochale Schritt, wenn sich KI vom Willen ihrer Schöpfer, also von den Vorgaben der Programmierer löst und sich nicht mehr (nur) im vorgegebenen Rahmen selbst fortentwickelt und der Mensch damit die Schritte der KI nicht mehr vorhersagen und auch kaum mehr nachvollziehen kann[10] und damit jedenfalls die vollständige Kontrolle über Handlungen der KI verliert. In diesem Zusammenhang ist oftmals von einer "Blackbox" die Rede: Die Ausgangsprogrammierung ist noch transparent, intransparent werden dann jedoch die Trainings- und Lernprozeese, wenn und soweit diese von der KI selbst initiiert und/oder modifziert werden.[11] Die technische Entwicklung ermöglicht es – wie gesagt – bereits, Algorithmen bzw. KI-Systeme zu schaffen, die mit Hilfe neuronaler Netzwerke menschliche Denkmuster nachbilden und lernen, auch an ggf. auftretenden Problemen in Richtung einer "Lösung" zu arbeiten[12] (starke KI). Zutreffend ist dabei (noch) die Aussage von Bilski/Schmid: "Dabei muss man sich bewusst machen, dass kein Denken im menschlichen Sinne vorliegt. Die Maschine leitet allein Gesetzmäßigkeiten und Wahrscheinlichkeiten nach mathematischen Methoden ab, ohne ein näheres Verständnis für die analysierten Daten, deren Bedeutung oder die Tragweite der getroffenen Entscheidungen zu entwickeln. Das System kann zwar klassifizieren, aber nicht die hinter den Zahlen stehenden Bedeutungen erfassen."[13] Allerdings wird es die Entwicklung künftig...

Das ist nur ein Ausschnitt aus dem Produkt VerwalterPraxis. Sie wollen mehr? Dann testen Sie hier live & unverbindlich VerwalterPraxis 30 Minuten lang und lesen Sie den gesamten Inhalt.


Meistgelesene beiträge