OpenAI hat ein neues Sicherheitssystem namens „deliberative alignment“ für seine KI-Modelle entwickelt, berichtet Maxwell Zeff. Das System wurde in die neuen KI-Modelle o1 und o3 integriert. Die Technologie ermöglicht es den Modellen, vor jeder Antwort die Sicherheitsrichtlinien von OpenAI zu berücksichtigen. Dies geschieht in der Inferenzphase, nachdem ein Benutzer eine Anfrage gestellt hat. Die KI-Modelle prüfen automatisch relevante Teile der Sicherheitsrichtlinien, bevor sie Antworten generieren.
Tests zeigten eine deutliche Verringerung unangemessener Antworten während das System weiterhin legitime Fragen beantwortete. Das Unternehmen erstellte die Trainingsdaten synthetisch mit Hilfe eines KI-Modells zur Generierung von Beispielen und eines weiteren zur Bewertung. Das System übertraf in Sicherheitstests andere KI-Modelle wie GPT-4o, Gemini und Claude. OpenAI plant die Veröffentlichung von o3 mit diesen Sicherheitsfunktionen für 2025.