Künstliche Intelligenz: Ethik, Recht und Risiken

Künstliche Intelligenz versteckt sich oft in Software und ist somit nicht erkennbar. Kann die Datenschutz-Grundverordnung in Europa auch Künstliche Intelligenz regulieren?

Was KI ist und was nicht, ist schwierig zu bestimmen. Die Übergänge sind fließend. So beruhen zum Beispiel Bilderkennung oder Chatbots nur auf der Auswertung von Daten und sind noch keine KI. Dazu gehört mindestens die Lernfähigkeit eines Systems, oder die noch höhere Stufe, dass es sich selbständig weiterentwickeln kann.

Hingegen kann man eine Kundenberatung durch digitale „Personen“ als Künstliche Intelligenz betrachten, sofern diese lernfähig sind.

Risiken Künstlicher Intelligenz

Als Gefahr von KI wird oft die Möglichkeit betrachtet, dass sie sich selbständig macht und nicht mehr beherrschbar ist. Für die Juristen stellt sich die wichtige Grundfrage: Wer haftet, wenn ein automatisiertes System außer Kontrolle gerät, und Schaden anrichtet. Möglichkeiten gäbe es mehrere, der Eigentümer, der Anwender oder der Hersteller, sogar die Händler oder alle zusammen. In Deutschland wurde sogar schon in Betracht gezogen, dass intelligente Roboter persönlich für Fehler haften sollen. Die Frage nach einem Recht für Roboter und Autonomiksysteme ist noch lange nicht spezifisch beantwortet und natürlich bestehen Rechtslücken. Das Recht hinkt normalerweise der Technik hinterher.

Mangels spezifischer Regelungen muss man das Produkthaftungsgesetz beachten. Wird durch den Fehler eines Produkts jemand getötet, sein Körper oder seine Gesundheit verletzt oder eine Sache beschädigt, so ist der Hersteller des Produkts verpflichtet, dem Geschädigten den daraus entstehenden Schaden zu ersetzen (§ 1 Abs. 1 ProdHaftG).

Künstliche Intelligenz  - Recht und Regulierungen

Natürlich ist bei der KI das Risiko einer Datenschutzverletzung, bzw. eines unkontrollierten Datenmissbrauchs, noch höher als bei anderen Systemen. Deswegen sind die DSGVO und das BDSG noch sorgfältiger zu beachten und die Fachleute empfehlen den Unternehmen, sich abzusichern.

In diesem Zusammenhang wird Art. 23 DSGVO besonders diskutiert. Nach diesem haben betroffene Personen das Recht, nicht einer ausschließlich auf einer automatisierten Verarbeitung – einschließlich Profiling – beruhenden Entscheidung unterworfen zu werden, die ihr gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt. Zumindest braucht man für eine solche Datenverarbeitung eine ausdrückliche Einwilligung der betroffenen Person.

Die Vorschriften von Art. 23 Abs. 1 DSGVO gelten nicht, wenn die Entscheidung für den Abschluss oder die Erfüllung eines Vertrags zwischen der betroffenen Person und dem Verantwortlichen erforderlich ist oder aufgrund von Rechtsvorschriften der EU zulässig ist und diese Rechtsvorschriften angemessene Maßnahmen zur Wahrung der Rechte und Freiheiten sowie der berechtigten Interessen der betroffenen Person enthalten. Der Verantwortliche hat in solchen Fällen angemessene Maßnahmen zu ergreifen, um die Rechte und Freiheiten sowie die berechtigten Interessen der betroffenen Person zu wahren, wozu mindestens das Recht auf Erwirkung des Eingreifens einer Person seitens des Verantwortlichen, auf Darlegung des eigenen Standpunkts und auf Anfechtung der Entscheidung gehört (Art. 23 Abs. 3 DSGVO).

Wichtig: Bei Anwendung von KI sind die Informationsrechte der betroffenen Personen besonders zu berücksichtigen und in der Datenschutzerklärung muss man darauf hinweisen.

Künstliche Intelligenz - Kritik

Wie bei allen anderen Techniken kommt es auch bei KI darauf an, ob man sie zum Nutzen oder zum Schaden der Menschen anwendet. Wichtige Kritikpunkte sind:

  • Fortgeschrittene Formen der KI sind durch die Menschen allenfalls nicht mehr zu kontrollieren und machen, was sie wollen.
  • KI überwacht und manipuliert die Menschen und wirkt sich so auf die Gesellschaft und die Politik aus.
  • Man kann bald nicht mehr unterscheiden, ob man es mit realen Personen oder Kunstfiguren zu tun hat.  
  • KI ist zur Kriegsführung geeignet.

Künstliche Intelligenz - Ethik

Die Regeln von Ethik und fairem Verhalten sind auch bei der Anwendung von KI zu beachten. Dazu gehört unter anderem Information.

Beispiel:

Wird eine Kunstfigur verwendet, z.B. für Beratung, müsste der Kunde fairerweise vorher darüber informiert werden. Noch besser, man überlässt ihm die Wahl, ob er seine Fragen der Kunstfigur stellen will oder lieber einem menschlichen Berater.

Der Schriftsteller Issac Asimov entwickelte Robotergesetze, die man auch auf jede Art von KI anwenden sollte. Das erste Mal tauchten diese Gesetze 1942 in der Geschichte "Runaround" auf. Auch der Begriff der "Robotik", der heute die Wissenschaft der Roboterentwicklung bezeichnet, wurde in "Runaround" erstmals erwähnt. Die ursprünglichen Grundregeln der Robotik lauteten:

  1. Ein Roboter darf einem menschlichen Wesen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
  2. Ein Roboter muss den Befehlen gehorchen, die ihm von Menschen erteilt werden, es sei denn, dies würde gegen das erste Gebot verstoßen.
  3. Ein Roboter muss seine eigene Existenz schützen, solange solch ein Schutz nicht gegen das erste oder zweite Gebot verstößt.

Das sogenannte nullte Robotergesetz dachte Asimov sich später aus: "Ein Roboter darf der Menschheit keinen Schaden zufügen oder durch Untätigkeit zulassen, dass der Menschheit Schaden zugefügt wird." Die anderen drei Regeln wurden diesem nullten Gesetz untergeordnet.