OpenAI ermöglicht es Entwicklern nun, das o4-mini-Sprachmodell mithilfe von Reinforcement-Fine-Tuning (RFT) anzupassen. Laut eines Berichts von Carl Franzen auf VentureBeat können Unternehmen dadurch eigene Versionen des Modells erstellen, die auf ihre spezifischen Anforderungen und internen Daten zugeschnitten sind. RFT funktioniert durch eine Feedback-Schleife während des Trainings, die Modellanpassungen basierend auf Bewertungen vornimmt. Frühe Anwender wie Accordance AI berichten von erheblichen Leistungsverbesserungen – in diesem Fall eine 39% höhere Genauigkeit bei Steueranalysen. Der Dienst kostet 100 Dollar pro Stunde aktiver Trainingszeit. OpenAI weist darauf hin, dass feinabgestimmte Modelle anfälliger für Jailbreaks und Halluzinationen sein können, obwohl sie deutliche Anpassungsvorteile bieten.