Neue KI-Systeme weisen ein bemerkenswertes Muster auf: Sie können komplexe Aufgaben lösen, scheitern aber oft an einfachen Problemen. Das geht aus einer aktuellen Analyse von Sigal Samuel bei Vox hervor, die sich mit den Behauptungen führender KI-Unternehmen über die Denkfähigkeiten ihrer Modelle befasst.
Unternehmen wie OpenAI haben spezielle „Reasoning-Modelle“ wie o1 entwickelt, die Probleme schrittweise analysieren sollen. Diese Systeme können zwar komplizierte Logikrätsel und mathematische Aufgaben lösen, doch Experten sind uneins, ob es sich dabei um echtes logisches Denken handelt.
Melanie Mitchell vom Santa Fe Institute erklärt, dass menschliches Denken verschiedene Arten umfasst – von deduktivem über induktives bis hin zu analogem Denken. Die aktuellen KI-Modelle beherrschen nur einen kleinen Ausschnitt dieser Fähigkeiten.
Die Philosophin Shannon Vallor von der Universität Edinburgh vermutet, dass die Systeme lediglich menschliche Denkprozesse nachahmen, statt selbst zu denken. Da die KI-Unternehmen keine Einblicke in die Funktionsweise ihrer Modelle gewähren, lassen sich ihre Behauptungen schwer überprüfen.
Forscher sprechen von einer „zerklüfteten Intelligenz“ („jagged intelligence“), um zu beschreiben, wie KI-Systeme bei schwierigen Aufgaben brillieren und bei einfachen versagen können. Diese ungleichmäßige Verteilung der Fähigkeiten unterscheidet sich deutlich von menschlicher Intelligenz.
Experten empfehlen, KI vor allem dort einzusetzen, wo sich Ergebnisse leicht überprüfen lassen, etwa beim Programmieren oder Webdesign. Bei komplexen Entscheidungen sollte KI nur als Ideengeber dienen, nicht als maßgebliche Instanz.