KI-Systeme zeigen zunehmend Qualitätsverluste aufgrund der übermäßigen Nutzung synthetischer Trainingsdaten. Dies beschreibt Rick Song, CEO von Persona, in einem Artikel für VentureBeat. Das als „Modellkollaps“ bekannte Phänomen tritt auf, wenn KI-Systeme wiederholt mit künstlich erzeugten statt menschlich erstellten Daten trainiert werden. Eine in Nature veröffentlichte Studie zeigt, dass Sprachmodelle nach neun Trainingsiterationen mit synthetischen Daten vollständig degenerieren. Die Folgen können schwerwiegend sein, besonders in kritischen Anwendungsbereichen. Song empfiehlt Unternehmen, in Werkzeuge zur Datenherkunftsverfolgung zu investieren, KI-Erkennungsfilter einzusetzen und mit vertrauenswürdigen Datenanbietern zusammenzuarbeiten. Zusätzlich sollten Nutzer geschult werden, synthetische Inhalte zu erkennen.