OpenAI hat zwei neue KI-Modelle veröffentlicht: GPT-5.4 mini und GPT-5.4 nano. Beide sind kleinere und schnellere Varianten des Hauptmodells GPT-5.4 und richten sich an Anwendungen, bei denen Geschwindigkeit und Kosten entscheidend sind.
Laut OpenAI läuft GPT-5.4 mini mehr als doppelt so schnell wie sein Vorgänger GPT-5 mini und zeigt Verbesserungen beim Programmieren, beim logischen Denken, beim Verstehen von Bildern und beim Einsatz von Software-Tools. In mehreren Benchmark-Tests kommt es nahe an das größere GPT-5.4-Modell heran. GPT-5.4 nano ist das kleinste und günstigste der beiden Modelle. Es eignet sich laut OpenAI für einfachere Aufgaben wie das Einordnen von Texten, das Extrahieren von Daten und das Sortieren von Ergebnissen.
OpenAI erklärt, diese Modelle seien für Situationen entwickelt worden, in denen langsame Antworten das Nutzererlebnis beeinträchtigen — etwa bei Programmierhilfen, Systemen, die Screenshots auslesen, oder Anwendungen, die Bilder in Echtzeit analysieren.
Ein wichtiges Einsatzszenario ist die Kombination verschieden großer Modelle. Ein größeres Modell übernimmt dabei Planung und Koordination, während kleinere Modelle wie GPT-5.4 mini einzelne Teilaufgaben parallel erledigen. OpenAI nutzt diesen Ansatz in seinem Programmierwerkzeug Codex.
Preise und Verfügbarkeit:
- GPT-5.4 mini: 0,75 $ pro Million Input-Token, 4,50 $ pro Million Output-Token; verfügbar über API, Codex und ChatGPT
- GPT-5.4 nano: 0,20 $ pro Million Input-Token, 1,25 $ pro Million Output-Token; nur über API verfügbar
- Zum Vergleich: GPT-5.4 kostet 2,50 $ pro Million Input-Token und 15,00 $ pro Million Output-Token
