Bericht: OpenAI verkürzt Sicherheitstests für KI-Modelle

OpenAI hat die Zeit für Sicherheitstests seiner KI-Modelle drastisch reduziert, was Bedenken über mangelnde Schutzmaßnahmen auslöst. Laut eines Berichts der Financial Times von Cristina Criddle haben Tester jetzt nur noch wenige Tage statt mehrerer Monate für Evaluierungen. Acht mit den Testverfahren vertraute Personen berichten, dass die Tests weniger gründlich geworden sind, während das 300-Milliarden-Dollar-Unternehmen unter Druck steht, neue Modelle schnell zu veröffentlichen. Für GPT-4 hatten Tester 2023 sechs Monate Zeit, während das kommende o3-Modell möglicherweise nach weniger als einer Woche Sicherheitsprüfungen freigegeben wird. Ein Tester des neuen o3-Modells warnte, dass mit zunehmenden Fähigkeiten der Sprachmodelle auch ihr Missbrauchspotenzial steigt, und bezeichnete den beschleunigten Zeitplan als „leichtsinnig“ und „ein Rezept für Katastrophen“.

Mehr zum Thema:

Bleib up-to-date: