Header easylern

Lernen im KI-Zeitalter

Risiken und Grenzen von KI in der Weiterbildung


Risiken und Grenzen von KI in der Weiterbildung

Die Begeisterung über die Möglichkeiten von Künstlicher Intelligenz ist groß. Vor allem mit der jüngsten Evolutionsstufe, der generativen KI. Sie erzeugt eigenständig neue Inhalte wie Texte, Bilder oder Videos und kommuniziert dabei erstaunlich menschlich. Während sie unseren Arbeitsalltag revolutioniert, zeigen jedoch immer mehr Studien problematische Auswirkungen auf.

Wie oft nutzen Sie KI, um Texte zu überarbeiten oder Ideen zu entwickeln? Ohne Frage, solche Tools stellen eine großartige Unterstützung dar. Damit der technologische Fortschritt aber nicht zum kognitiven und gesellschaftlichen Rückschritt wird, lohnt sich ein genauer Blick auf die Risiken und Grenzen.

Macht KI uns dumm?

Wir überlassen das Denken immer mehr der Maschine. Als ChatGPT kürzlich mehrere Stunden offline war, zeigte sich das drastisch: Viele fühlten sich plötzlich handlungsunfähig. Wie soll ich jetzt nur diese wichtige E-Mail schreiben? Wie meine Präsentation erstellen? Statt zu reflektieren, tippen wir lieber Prompts. Statt zu verstehen, übernehmen wir Inhalte einfach. Kurz: Wir gewöhnen uns daran, das Denken auszulagern. Fachbegriffe hierfür sind "Kognitives Entladen" oder einfach Denkfaulheit. 

Eine Untersuchung des MIT Media Lab bestätigt: Bei der Nutzung von Tools wie ChatGPT ist die Gehirnaktivität geringer als ohne Hilfsmittel. Andere Arbeiten zeigen, dass häufige KI-Nutzung zum "Overreliance-Effekt" führt: Menschen vertrauen KI-Sprachmodellen mehr als sich selbst. Und vergessen dabei, dass diese mitunter halluzinieren, also plausibel klingende, aber erfundene Antworten liefern. Es überrascht kaum, dass KI-Nutzung mit geringerem kritischen Denken korreliert, wie Studien von Microsoft und der Carnegie Mellon University zeigen. Ohne regelmäßige geistige Anstrengung lässt die Denkfähigkeit nach.

Verlernen wir, zu lernen?

Noch nie war die Menge an verfügbaren Informationen so groß und Wissen noch nie so leicht zugänglich wie heute. Diese ständige Verfügbarkeit von Informationen senkt allerdings unsere Aufmerksamkeitsspanne, Lesekompetenz sowie Konzentrationsfähigkeit drastisch und verführt zum oberflächlichen Konsum: Wir überfliegen Informationen nur noch, statt sie richtig zu lesen und zu verstehen. Damit verlieren wir die wichtige Fähigkeit, uns mit komplexen Inhalten auseinanderzusetzen. 

Diese ist aber grundlegend, um zu lernen. Denn echte Expertise entsteht erst, wenn Wissen bewertet, verknüpft und in eigene Gedanken übersetzt wird. So zeigen mehrere Studien, dass Lernende mit KI-Unterstützung Inhalte weniger gut verankern und in Prüfungen schlechter abschneiden. Ein ähnliches Muster zeigte schon 2011 der "Google-Effekt": Wenn Wissen jederzeit abrufbar ist, merken wir uns nicht die Information, sondern wo wir sie finden. Noch fehlen Langzeitdaten, doch bisherige Befunde deuten darauf hin, dass die Nutzung von KI aktives Lernen und Erinnern schwächt.

Wieviel Kontrolle geben wir der KI?

Stellen Sie sich vor, Ihr Unternehmen entwickelt Software und arbeitet dazu, wie heute üblich, mit KI. Damit diese unterstützen kann, muss sie den Quellcode kennen, also das wichtigste Geschäftsgeheimnis. Sobald die KI diesen aber verarbeitet, kann er in Trainingsdaten oder nach außen gelangen. Ein Beispiel dafür ist der Vorfall im Juli 2025, als private ChatGPT-Konversationen öffentlich wurden.

Und bei wem liegt das Urheberrecht, wenn KI besagten Quellcode generiert? Bei Ihrer Firma? Beim KI-Anbieter? Sagen wir, Ihre Firma stellt Flugsteuerungssoftware her, die durch einen KI-generierten Fehler zum Absturz führt. Wer trägt in dem Fall die Verantwortung? Solche Beispiele zeigen: KI entwickelt sich schneller als die Rechtsgrundlage. Das wird vor allem dann kritisch, wenn wir KI in Entscheidungsprozesse einbinden. Der EU AI-Act versucht, den sicheren Einsatz zu regeln. Sonst schützt derzeit nur ein Blick in die Bestimmungen der genutzten KI-Tools. 

Tappen wir in eine Abhängigkeitsfalle?

Viele KI-Tools sind derzeit noch scheinbar kostenlos nutzbar. (Tatsächlich zahlen wir mit unseren Daten, die zu Trainingszwecken verwendet werden.) Der einfache Zugang trieb die Verbreitung zusätzlich voran und wir haben uns längst daran gewöhnt, mit ihnen zu arbeiten. Diese zunehmende Abhängigkeit könnte uns langfristig teuer zu stehen kommen. Hinzu kommt: Laut einer aktuellen Bitkom-Studie nutzen 96 Prozent der deutschen Unternehmen digitale Dienste und Technologien aus dem Ausland. Damit befinden sich ihre Daten auf Servern, die womöglich anderen Datenschutzstandards unterliegen. 

Echte Wettbewerbsfähigkeit entsteht dort, wo Volkswirtschaften und Organisationen im digitalen Raum die eigene Handlungsfähigkeit bewahren und die Kontrolle über ihre Daten behalten. Was, wenn ein großer Anbieter plötzlich die Preise verdoppelt oder neue Nutzungsbedingungen vorgibt? Von heute auf morgen können Prozesse stillstehen oder sensible Daten plötzlich in fremde Hände gelangen. Bei der Wahl von Anbietern digitaler Lernlösungen lohnt es sich daher, auf eine ISO-27001-Zertifizierung zu achten. Sie zeigt, dass das Unternehmen Informationssicherheit verlässlich umsetzt. 

Wie fair sind algorithmenbasierte Entscheidungen?

KI ist nie neutral. Sie lernt aus bestehenden Daten, oft aus Nutzerdaten, und damit auch aus deren Vorurteilen. Wenn bestimmte Gruppen in Trainingsdaten über- oder unterrepräsentiert sind, übernimmt KI diese Verzerrungen nicht nur, sie verstärkt sie oft noch. So entstehen Ergebnisse, die Diskriminierung reproduzieren, statt sie abzubauen. Etwa, wenn Bewerbungssysteme Namen bestimmter Herkunft schlechter bewerten, Versicherungsrechner für bestimmte Postleitzahlen höhere Prämien ansetzen oder bildgenerierende KI CEOs ausschließlich als weiße Männer darstellen.

Hinzu kommt die Intransparenz vieler Modelle. Ihre Entscheidungslogik bleibt eine Blackbox und für die meisten Anwendenden nicht nachvollziehbar. Wenn aber niemand erklären kann, wie ein Ergebnis zustande kam, lässt es sich weder prüfen noch verantworten. Und wo Erklärbarkeit fehlt, schwindet auch das Vertrauen – intern bei Mitarbeitenden ebenso wie extern bei Kundschaft oder Partnerinnen und Partnern. Das Aufkommen von KI-Agenten, die eigenständig Ziele formulieren und Maßnahmen umsetzen können, verschärft dieses Problem.

Und was machen wir mit den neuen Freiräumen? 

Mehr vom Gleichen, nur weil wir jetzt doppelt so viele Kurse oder LinkedIn-Posts schreiben können wie zuvor, bringt uns nicht weiter. Gerade in betrieblichen Schulungen wollen Sie Ihre Lernenden nicht mit generischen Inhalten langweilen. Zudem machen wir uns so langfristig überflüssig.

Wir müssen vielmehr lernen, KI die repetitiven Aufgaben zu übergeben und freiwerdende Zeit dafür zu nutzen, was KI nicht kann: wahrhaft kreativ und konzeptionell arbeiten. Wie Sie KI gezielt ins L&D integrieren, erfahren Sie im nächsten Kapitel dieser Themenserie zu "Lernen im KI-Zeitalter". 


0 Kommentare
Das Eingabefeld enthält noch keinen Text oder nicht erlaubte Sonderzeichen. Bitte überprüfen Sie Ihre Eingabe, um den Kommentar veröffentlichen zu können.
Noch keine Kommentare - teilen Sie Ihre Sicht und starten Sie die Diskussion