Eine Gruppe namens „Sora PR Puppets“ hat vorübergehend Zugang zu OpenAIs unveröffentlichtem Videogenerator Sora ermöglicht. Die Aktivisten veröffentlichten Authentifizierungscodes auf der Entwicklerplattform Hugging Face. Nutzer konnten damit kurzzeitig 10-sekündige Videos in 1080p-Auflösung erstellen. Die Gruppe kritisiert, dass OpenAI seine Testkünstler unzureichend vergütet und zu positiver Berichterstattung drängt. OpenAI betonte in einer Stellungnahme, dass die Teilnahme am Alpha-Programm freiwillig sei. Bei der geleakten Version handelte es sich offenbar um eine schnellere „Turbo“-Variante von Sora, die seit ihrer Vorstellung im Februar mit technischen Herausforderungen kämpft.
Der Vorfall verdeutlicht die größeren Spannungen bei KI-Testverfahren, bei denen Unternehmen typischerweise durch NDAs und Genehmigungsanforderungen strenge Kontrolle über den frühen Zugang ausüben. Während „Red Teaming“ zu einem Industriestandard geworden ist, der sogar von Regierungsbehörden übernommen wurde, argumentieren Kritiker, dass dieser Ansatz unabhängige Forschung und Transparenz einschränkt. Red Teaming ist ein systematischer Ansatz, bei dem eine Gruppe von Experten (das „Red Team“) absichtlich versucht, Schwachstellen, Verwundbarkeiten oder potenzielle Missbrauchsfälle in einem System zu finden, indem sie eine gegnerische Position einnimmt.
Die protestierenden Künstler, die eine Minderheit von etwa 20 Personen aus Hunderten von Testern darstellen, erstellten ihren unauthorisierten Zugangspunkt, ohne tatsächlich den Code oder die geschützten Informationen von OpenAI zu kompromittieren. Währenddessen verteidigten einige Tester wie der Musiker André Allen Anjos das Programm und erklärten, die meisten Teilnehmer seien begeistert von ihrer Beteiligung und das Team mache seine Sache richtig.
Quellen: TechCrunch, Washington Post