Zwei aktuelle Studien zeigen, wie KI-Tools die Art verändern, wie Menschen denken, urteilen und sich ausdrücken. Die Ergebnisse deuten darauf hin, dass die weit verbreitete Nutzung von KI nicht nur dazu führt, dass Nutzer Informationen weniger kritisch prüfen, sondern auch, dass menschliches Denken insgesamt einheitlicher wird.
Forscher der University of Pennsylvania prägten den Begriff „cognitive surrender“ — zu Deutsch etwa „kognitive Kapitulation“ — für das Phänomen, bei dem Nutzer KI-generierte Antworten ohne Prüfung übernehmen. Anders als bei älteren Formen des „cognitive offloading“, also der Auslagerung von Aufgaben an Werkzeuge wie Taschenrechner oder GPS, geben Nutzer beim cognitive surrender den Denkprozess selbst ab. Die Forscher sehen darin einen grundlegend anderen Umgang mit automatisierten Systemen.
Um das zu untersuchen, führten sie Experimente mit sogenannten Cognitive Reflection Tests durch. Diese Tests sind so gestaltet, dass schnelles, intuitives Denken oft zu falschen Antworten führt, während sorgfältigeres Nachdenken zur richtigen Lösung kommt. Die Teilnehmer hatten Zugang zu einem KI-Chatbot, der absichtlich so verändert worden war, dass er etwa die Hälfte der Zeit falsche Antworten gab. In mehr als 9.500 einzelnen Versuchen mit 1.372 Teilnehmern übernahmen die Probanden die falschen KI-Antworten in 73,2 Prozent der Fälle und widersprachen der KI nur in 19,7 Prozent der Fälle.
Mehrere Faktoren beeinflussten, wie kritisch die Teilnehmer mit der KI umgingen:
- Teilnehmer mit höherem fluid IQ nutzten die KI seltener und wiesen falsche Antworten häufiger zurück.
- Wer KI grundsätzlich als verlässliche Autorität betrachtete, ließ sich leichter in die Irre führen.
- Finanzielle Anreize und direktes Feedback erhöhten die Bereitschaft, falsche KI-Antworten abzulehnen, um 19 Prozentpunkte.
- Zeitdruck verringerte diese Bereitschaft um 12 Prozentpunkte.
Auffällig: KI-Nutzer schätzten ihre eigenen Antworten um 11,7 Prozent sicherer ein als Teilnehmer ohne KI-Zugang — obwohl der Chatbot die Hälfte der Zeit falsch lag.
Ein Team der USC Dornsife beschäftigt sich mit einer verwandten, aber eigenständigen Frage: Macht KI die Art, wie Menschen denken und schreiben, einheitlicher? Die Analyse, veröffentlicht in Trends in Cognitive Sciences, argumentiert, dass große Sprachmodelle auf Daten trainiert werden, die westliche, gebildete und wohlhabende Perspektiven überrepräsentieren. Wenn Milliarden von Menschen dieselben Chatbots nutzen, gehen individuelle Unterschiede in Schreibstil, Denkweise und Perspektive verloren.
Die USC-Forscher stellen fest, dass einzelne Nutzer mit KI-Unterstützung zwar oft mehr Ideen entwickeln, Gruppen mit KI aber insgesamt weniger und weniger kreative Ergebnisse erzielen als Gruppen, die auf ihr gemeinsames Denken setzen. Außerdem bevorzugen KI-Systeme lineares, schrittweises reasoning, was intuitivere oder abstraktere Denkstile verdrängen kann.
Beide Forschungsteams bezeichnen KI-Nutzung nicht pauschal als schädlich. Die Forscher der University of Pennsylvania räumen ein, dass das Vertrauen in ein sehr genaues KI-System Entscheidungen verbessern kann. Das USC-Team fordert vor allem mehr Vielfalt in den Trainingsdaten von KI-Modellen.
Die beiden Studien machen eine grundlegende Spannung beim Einsatz von KI sichtbar: Dieselbe Flüssigkeit und Sicherheit, die KI-Tools nützlich macht, veranlasst Nutzer gleichzeitig dazu, sie seltener zu hinterfragen.
Quellen: Ars Technica, USC Dornsife
Bleib auf dem Laufenden
KI für Contentprofis: die neuesten Tools, Tipps und Trends. Alle 14 Tage in deine Inbox:
