Künstliche Intelligenz versteckt sich oft in Software und ist somit nicht erkennbar. Welche Gefahren lauern dahinter im Rahmen des Datenschutzes?

Was bedeutet Künstliche Intelligenz: Eine Definition

Der Begriff "Künstliche Intelligenz" (KI), auch artificial intelligence (AI), wurde zum ersten Mal von dem amerikanischen Informatiker John McCarthy (1927 bis 2011) benutzt. KI beschäftigt sich mit Methoden, die es einem Computer ermöglichen, solche Aufgaben zu lösen, die, wenn sie vom Menschen gelöst werden, Intelligenz erfordern (Gabler Wirtschaftslexikon).

Als Roboter gelten Maschinen, die sich selbständig bewegen und verschiedene Tätigkeiten erledigen können, was heutzutage auch auf KI beruhen kann. Das kommt aber auf die Software an. Ein Pflegeroboter ist beispielsweise künstlich intelligent, wenn er auf die Patientenbedürfnisse eingehen kann, aber nicht, wenn er nur das Essen serviert.

Was KI ist und was nicht, ist schwierig zu bestimmen. Die Übergänge sind fließend. So beruhen zum Beispiel Bilderkennung oder Chatbots nur auf der Auswertung von Daten und sind noch keine KI. Dazu gehört mindestens die Lernfähigkeit eines Systems, oder die noch höhere Stufe, dass es sich selbständig weiterentwickeln kann.

Hingegen kann man eine Kundenberatung durch digitale „Personen“ als Künstliche Intelligenz betrachten, sofern diese lernfähig sind.

Allgemeine Gefahr und Risiken Künstlicher Intelligenz

Als Gefahr von KI wird oft die Möglichkeit betrachtet, dass sie sich selbständig macht und nicht mehr beherrschbar ist. Für die Juristen stellt sich die wichtige Grundfrage: Wer haftet, wenn ein automatisiertes System außer Kontrolle gerät, und Schaden anrichtet. Möglichkeiten gäbe es mehrere, der Eigentümer, der Anwender oder der Hersteller, sogar die Händler oder alle zusammen. In Deutschland wurde sogar schon in Betracht gezogen, dass intelligente Roboter persönlich für Fehler haften sollen. Die Frage nach einem Recht für Roboter und Autonomiksysteme ist noch lange nicht spezifisch beantwortet und natürlich bestehen Rechtslücken. Das Recht hinkt normalerweise der Technik hinterher.

Mangels spezifischer Regelungen muss man das Produkthaftungsgesetz beachten. Wird durch den Fehler eines Produkts jemand getötet, sein Körper oder seine Gesundheit verletzt oder eine Sache beschädigt, so ist der Hersteller des Produkts verpflichtet, dem Geschädigten den daraus entstehenden Schaden zu ersetzen (§ 1 Abs. 1 ProdHaftG).

Warum Künstliche Intelligenz für Datenschutz eine Gefahr darstellt

Natürlich ist bei der KI das Risiko einer Datenschutzverletzung, bzw. eines unkontrollierten Datenmissbrauchs, noch höher als bei anderen Systemen. Deswegen sind die DSGVO und das BDSG noch sorgfältiger zu beachten und die Fachleute empfehlen den Unternehmen, sich abzusichern.

In diesem Zusammenhang wird Art. 23 DSGVO besonders diskutiert. Nach diesem haben betroffene Personen das Recht, nicht einer ausschließlich auf einer automatisierten Verarbeitung – einschließlich Profiling – beruhenden Entscheidung unterworfen zu werden, die ihr gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt. Zumindest braucht man für eine solche Datenverarbeitung eine ausdrückliche Einwilligung der betroffenen Person.

Die Vorschriften von Art. 23 Abs. 1 DSGVO gelten nicht, wenn die Entscheidung für den Abschluss oder die Erfüllung eines Vertrags zwischen der betroffenen Person und dem Verantwortlichen erforderlich ist oder aufgrund von Rechtsvorschriften der EU zulässig ist und diese Rechtsvorschriften angemessene Maßnahmen zur Wahrung der Rechte und Freiheiten sowie der berechtigten Interessen der betroffenen Person enthalten. Der Verantwortliche hat in solchen Fällen angemessene Maßnahmen zu ergreifen, um die Rechte und Freiheiten sowie die berechtigten Interessen der betroffenen Person zu wahren, wozu mindestens das Recht auf Erwirkung des Eingreifens einer Person seitens des Verantwortlichen, auf Darlegung des eigenen Standpunkts und auf Anfechtung der Entscheidung gehört (Art. 23 Abs. 3 DSGVO).

Wichtig: Bei Anwendung von KI sind die Informationsrechte der betroffenen Personen besonders zu berücksichtigen und in der Datenschutzerklärung muss man darauf hinweisen.

Kritik an der Künstlichen Intelligenz

Wie bei allen anderen Techniken kommt es auch bei KI darauf an, ob man sie zum Nutzen oder zum Schaden der Menschen anwendet. Wichtige Kritikpunkte sind:

  • Fortgeschrittene Formen der KI sind durch die Menschen allenfalls nicht mehr zu kontrollieren und machen, was sie wollen.
  • KI überwacht und manipuliert die Menschen und wirkt sich so auf die Gesellschaft und die Politik aus.
  • Man kann bald nicht mehr unterscheiden, ob man es mit realen Personen oder Kunstfiguren zu tun hat.  
  • KI ist zur Kriegsführung geeignet.

Künstliche Intelligenz – eine Frage der Ethik und Philosophie

Die Regeln von Ethik und fairem Verhalten sind auch bei der Anwendung von KI zu beachten. Dazu gehört unter anderem Information.

Beispiel:

Wird eine Kunstfigur verwendet, z.B. für Beratung, müsste der Kunde fairerweise vorher darüber informiert werden. Noch besser, man überlässt ihm die Wahl, ob er seine Fragen der Kunstfigur stellen will oder lieber einem menschlichen Berater.

Der Schriftsteller Issac Asimov entwickelte Robotergesetze, die man auch auf jede Art von KI anwenden sollte. Das erste Mal tauchten diese Gesetze 1942 in der Geschichte "Runaround" auf. Auch der Begriff der "Robotik", der heute die Wissenschaft der Roboterentwicklung bezeichnet, wurde in "Runaround" erstmals erwähnt. Die ursprünglichen Grundregeln der Robotik lauteten:

  1. Ein Roboter darf einem menschlichen Wesen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
  2. Ein Roboter muss den Befehlen gehorchen, die ihm von Menschen erteilt werden, es sei denn, dies würde gegen das erste Gebot verstoßen.
  3. Ein Roboter muss seine eigene Existenz schützen, solange solch ein Schutz nicht gegen das erste oder zweite Gebot verstößt.

Das sogenannte nullte Robotergesetz dachte Asimov sich später aus: "Ein Roboter darf der Menschheit keinen Schaden zufügen oder durch Untätigkeit zulassen, dass der Menschheit Schaden zugefügt wird." Die anderen drei Regeln wurden diesem nullten Gesetz untergeordnet.