Wissenschaftler, die große Sprachmodelle entwickeln, stehen vor einem grundlegenden Problem: Sie verstehen nicht wirklich, wie diese KI-Systeme funktionieren. Dies berichtet James O’Brien in einem aktuellen Artikel für Quanta Magazine.
Martin Wattenberg, Sprachmodellforscher an der Harvard University, vergleicht den Prozess mit dem Anbau einer Tomatenpflanze: Man schafft die Bedingungen für das Wachstum, versteht aber nicht die inneren Vorgänge.
Große Sprachmodelle basieren auf künstlichen neuronalen Netzen mit Milliarden oder sogar Billionen von Parametern. Diese Parameter können Forscher nicht im Voraus optimal einstellen. Stattdessen trainieren sie die Modelle, indem sie wiederholt das nächste Wort in Textbeispielen vorhersagen lassen.
Ein wachsendes Forschungsgebiet namens „mechanistische Interpretierbarkeit“ versucht, diese Modelle durch Untersuchung ihrer internen Komponenten zu verstehen. Die Forscher können Parameter und Aktivierungen messen und manipulieren, um herauszufinden, wo bestimmte Informationen gespeichert sind.
Diese Untersuchungen haben überraschende Komplexitäten aufgedeckt. Asma Ghandeharioun von Google DeepMind stellt fest, dass viele Annahmen über die Funktionsweise von Modellen bei genauerer Betrachtung falsch sind. Forscher haben beobachtet, dass Modelle für ähnliche Aufgaben unterschiedliche Verfahren anwenden und sogar eine „selbstreparierenden“ Funktion zeigen, wenn Teile deaktiviert werden.
Trotz dieser Herausforderungen bleibt Wattenberg optimistisch. Er betont, dass die Fortschritte im Verständnis von Sprachmodellen in den letzten fünf Jahren erheblich seien.