Künstliche Intelligenz hat sich in den Leben vieler Menschen eingenistet – ob sie es wollen oder nicht. Doch macht sie uns mit ihren zahlreichen, vielversprechenden Eigenschaften wirklich einen Gefallen oder schadet sie uns im Endeffekt nur?

Übernehmen KI-Tools wie ChatGPT das Denken? (Collage: CC BY 4.0 Bart Fish & Power Tools of AI / https://betterimagesofai.org)
Sogenannte künstliche Intelligenz kann mittlerweile als persönliche virtuelle Assistentin beinahe alles für eine*n tun. Sie fungiert als Ratgeberin, Fotoeditorin, Gesprächspartnerin, generiert Kochrezepte und fasst Bücher zusammen. Hauptsächlich ersetzen die auf großen Sprachmodellen (LLMs) basierenden Chatbots allerdings die einfache Suchmaschine, so heißt es in den Statistiken von ChatGPT-Hersteller OpenAI. Für Schüler*innen, die ihre Hausaufgaben nicht selbst machen wollen, bieten diese Programme eine schnelle und einfache Lösung. Das geht allerdings mit der Gefahr einher, dass das Denken verlernt wird.
Das Benutzen von KI-Anwendungen fördert das sogenannte „kognitive Offloading“. Damit wird das Phänomen bezeichnet, dass Menschen jede Gelegenheit nutzen, ihr Gehirn zu entlasten und anstrengende Aufgaben auszulagern. Ein Beispiel dafür wäre die Nutzung eines Taschenrechners. Vor dessen Erfindung musste man selbst die Hirnkapazität und Zeit aufwenden, um zu rechnen, nun ist dies nicht mehr nötig. Ähnlich ist es bei der Nutzung von KI-Anwendungen, denn man kann weitaus komplexere Tätigkeiten vermeintlich auf die Maschine abladen: recherchieren, schreiben, nachdenken, lernen. Auch das Ausprobieren alternativer Lösungen nehmen Chatbots ab. „Ist das automatisierte Erforschen von Möglichkeiten eine vorteilhafte Alternative zum biologischen Äquivalent? Ist das wiederholte Generieren neuer Varianten das Gleiche wie menschliche Kreativität?“, fragte Joshua Rothman in seiner „Why Even Try if You Have A.I.?” betitelten Kolumne im Magazin „The New Yorker“.
Beim Lernen geht es jedoch nicht immer um die reine Wissensaufnahme. Kritisches Denken hängt von der Art und Weise ab, wie Informationen aufgenommen werden. Laut einer Studie der Swiss Business School ist es daher vor allem bei Heranwachsenden wichtig, den Gebrauch von KI-Chatbots zu limitieren, um ihrer Entwicklung nicht zu schaden. Künstliche Intelligenz ist entgegen landläufiger Annahmen nicht wirklich „intelligent“. Vielmehr handelt es sich um Algorithmen, deren Funktion darin besteht, das nächste Wort in einem Satz zu erraten. Somit entstehen statistisch wahrscheinliche „Antworten“. Deren Inhalt muss nicht unbedingt richtig sein, da die Programme keinerlei Wissen über „richtig“ oder „falsch“ haben.
Mit ChatGPT zum Genie?
Auf den sozialen Medien taucht in Bezug auf KI der Begriff „anti-intellectualism“ (zu Deutsch: Antiintellektualismus) auf. Damit ist gemeint, dass klassische Bildungswege als nicht mehr zeitgemäß wahrgenommen werden, da ja KI-Anwendungen Wissen vermitteln könnten. Einfacher als selbst zu recherchieren und sich mühsam aus mehreren Quellen Informationen zusammenzustellen, ist es, die Informationshäppchen zu sich zu nehmen, die von einem KI-Chatbot mundgerecht zubereitet wurden. Vertrauenswürdig ist dieses Wissen jedoch nicht: Ob es sich um Informationen aus wissenschaftlichen Artikeln, Halbwissen aus Forenbeiträgen oder gar Propaganda handelt, ist für die Nutzer*innen nicht ersichtlich. NewsGuard, ein US-amerikanischer Betrieb, der sich auf das Analysieren von Nachrichtenquellen spezialisiert hat, hat festgestellt, dass vor allem Fragen zu aktuellen Ereignissen mit Falschaussagen beantwortet werden. ChatGPT zum Beispiel habe bei kontroversen Themen 40 Prozent der Fragen falsch beantwortet. Wer schon einmal einen solchen Chatbot benutzt hat, weiß, dass die generierten Antworten stets im Brustton der Überzeugung vorgetragen werden – so wird das vermeintlich leicht zugängliche Wissen zum Nährboden für Falschinformationen. Dadurch, dass sie von Chatbots in ihrem Un- oder Halbwissen bestärkt werden, fällt es vielen Menschen leicht, sich für Expert*innen zu halten und auszugeben. Den besonders tragischen Fall eines Mannes, der sich nach einmonatigen Unterhaltungen mit ChatGPT für ein Physikgenie hielt, hat die „New York Times“ dokumentiert.
Für Unternehmen, die sich vom KI-Hype mitreißen lassen, könnte das zum Problem werden. Einer Studie von Luxinnovation zufolge hat nur etwas mehr als die Hälfte der 114 Firmen, die angaben, KI zu verwenden, auch offizielle Dokumente erstellt, die den Umgang damit innerhalb des Unternehmens regulieren. Die Implementierung hatte bei diesen Firmen Vorrang, im Nachhinein muss nun versucht werden, entsprechende Richtlinien aufzustellen.
Die Regierung setzt auf ein „Gleichgewicht zwischen Regulierung und Innovation“, wie es Justizministerin Elisabeth Margue (CSV) ausdrückte. „Wir wollen, dass KI in Luxemburg verstanden und angewendet wird und dass man ihr vertraut“, betonte sie im April 2025 auf der „Elements of AI“-Konferenz, organisiert von der Universität Luxemburg. In diesem Zeichen steht auch die Idee, die breite Bevölkerung in Sachen KI zu schulen. Seit 2021 arbeitet die Regierung daran, das generelle Verständnis für künstliche Intelligenz zu verbreiten und zu demokratisieren. Bis 2030 soll ein Prozent der luxemburgischen Bürger*innen den Kurs „Elements of AI“ absolviert haben. Dieser bietet für Menschen, denen das Grundwissen fehlt, eine kostenlose Einleitung in das Thema.
Fehlende Verantwortlichkeiten
Kommende Woche will Bildungsminister Claude Meisch (DP) einen „KI Kompass“ vorstellen, der Anleitung für den Umgang mit diesen Programmen in der Schule geben soll. An der Universität Luxemburg gibt es bereits eine Regelung, sie verbietet ihren Studierenden das Nutzen von KI-Anwendungen nicht grundsätzlich, wie Rektor Jens Kreisel im September in Interviews mit „RTL“ und „100komma7“ betonte. Zusätzlich bietet die Uni Workshops für einen guten Umgang mit KI an. Forscherin Sana Nouzri bringt Schüler*innen den ethischen Gebrauch von KI näher und legt dabei besonderen Wert auf „AI literacy“, also das Verständnis der Funktionsweise von und den richtigen Umgang mit KI. „Es ist inspirierend, zu sehen, wie KI Menschen motivieren kann, anders zu denken und Probleme auf eine neue Art anzugehen“, so die Forscherin gegenüber der woxx.
Nouzri spricht das Problem der Falschinformationen von KI und die Konsequenzen davon an. In einem regulierten, akademischen Umfeld sei dies kein Problem, da dieses, wie viele andere KI-Probleme, mit Aufklärung vermieden werden könne. Dieser optimistische Ansatz hält einer Prüfung jedoch nicht stand: So prüfte zum Beispiel die „American Association for Cancer Research“ eigene Publikationen eines halben Jahres. 36 Prozent der Zusammenfassungen in mehr als 7.000 Manuskripten enthielten KI-generierten Text. Immer wieder gibt es Fälle, in denen vermeintlich wissenschaftliche Texte von Computern generiert wurden.
Der richtige Umgang mit einem mächtigen Werkzeug sei wichtig, heißt es oft in Bezug auf KI. Damit wird die Verantwortung auf die Nutzer*innen geschoben – wobei es ja eigentlich ein paar wenige Technologiefirmen sind, die Programme entwickeln, die am laufenden Band Fehlinformationen ausspucken. Es handelt sich dabei auch nicht um Programmierfehler, die ausgemerzt werden könnten, sondern um systemische Probleme der eingesetzten Technologie. Während den Nutzer*innen von KI, wie auch allen anderen Menschen im Internet, nichts anderes übrig bleibt, als ihre Medienkompetenz zu steigern, müssten vor allem die verantwortlichen Firmen zur Rechenschaft gezogen und ihre Produkte reguliert werden.

