OpenAI hat eine neue Familie von KI-Modellen namens GPT-4.1 veröffentlicht, die bessere Programmierfähigkeiten, präzisere Befolgung von Anweisungen und erweiterte Kontextfenster bietet – bei gleichzeitiger Preissenkung. Die neue Produktreihe umfasst drei Modelle: GPT-4.1, GPT-4.1 mini und GPT-4.1 nano, die alle sofort über die OpenAI-API, jedoch noch nicht in ChatGPT verfügbar sind.
Verbesserte Fähigkeiten mit Fokus auf Programmierung
Laut OpenAIs Ankündigung überzeugen die neuen Modelle besonders bei Programmieraufgaben. Beim SWE-bench Verified Benchmark, der Softwareentwicklungsfähigkeiten misst, erreichte GPT-4.1 einen Wert von 54,6%. Das ist eine deutliche Verbesserung gegenüber GPT-4o mit 33,2%. Das Unternehmen behauptet, die Modelle seien jetzt besser im Frontend-Coding, machten weniger unnötige Änderungen und befolgten Formatierungsanweisungen zuverlässiger.
Über das Programmieren hinaus zeigen die Modelle verbesserte Fähigkeiten bei der Befolgung von Anweisungen. Bei Scale’s MultiChallenge-Benchmark erzielte GPT-4.1 38,3% und übertraf GPT-4o um 10,5 Prozentpunkte. Diese Verbesserung soll die Modelle zuverlässiger für komplexe, mehrstufige Aufgaben machen.
Kontextfenster mit einer Million Token
Alle drei neuen Modelle können bis zu eine Million Token an Kontext verarbeiten, was etwa 750.000 Wörtern oder acht Kopien des gesamten React-Codebasis entspricht. Dies ist eine erhebliche Steigerung gegenüber dem bisherigen Limit von 128.000 Token bei GPT-4o-Modellen.
OpenAI gibt an, dass die Modelle durch diesen erweiterten große Codebasen, umfangreiche Dokumente und sogar längere Videos besser verarbeiten können. In Benchmark-Tests erreichte GPT-4.1 ein Spitzenergebnis von 72,0% bei Video-MME für lange Videos ohne Untertitel.
Aggressive Preisstrategie
Besonders bedeutsam für Entwickler und Unternehmen ist OpenAIs neue Preisstruktur:
- GPT-4.1: 2,00 $ pro Million Eingabe-Token, 8,00 $ pro Million Ausgabe-Token
- GPT-4.1 mini: 0,40 $ pro Million Eingabe-Token, 1,60 $ pro Million Ausgabe-Token
- GPT-4.1 nano: 0,10 $ pro Million Eingabe-Token, 0,40 $ pro Million Ausgabe-Token
Dies entspricht einer Reduzierung um 26% im Vergleich zu GPT-4o bei typischen Nutzungsmustern. Zusätzlich hat OpenAI seinen Prompt-Caching-Rabatt auf 75% erhöht (vorher 50%) und bietet Anfragen mit langem Kontext ohne zusätzliche Kosten über die Standard-Token-Raten hinaus an.
Dieser aggressive Preisschritt setzt Konkurrenten wie Anthropic, Google und xAI unter Druck. Zum Vergleich: Anthropics Claude 3.7 Sonnet kostet 3,00 $ pro Million Eingabe-Token und 15,00 $ pro Million Ausgabe-Token, was GPT-4.1 deutlich günstiger macht.
Praktische Anwendungen
Mehrere Unternehmenskunden, die die Modelle vor der Markteinführung testeten, berichteten von erheblichen Verbesserungen. Thomson Reuters verzeichnete eine 17%ige Verbesserung bei der Genauigkeit der Überprüfung mehrerer Dokumente bei Verwendung von GPT-4.1 mit seinem juristischen KI-Assistenten. Das Finanzunternehmen Carlyle meldete eine 50% bessere Leistung beim Extrahieren von Finanzdaten aus umfangreichen Dokumenten.
Windsurf, ein Anbieter von Programmiertools, stellte fest, dass GPT-4.1 das unnötige Lesen von Dateien im Vergleich zu anderen führenden Modellen um 40% reduzierte und 70% weniger unnötige Dateien modifizierte.
Verfügbarkeit und Zukunftspläne
Die neuen Modelle sind sofort über die OpenAI-API verfügbar. Das Unternehmen plant, Funktionen von GPT-4.1 nach und nach in ChatGPT zu integrieren.
OpenAI positioniert diese Veröffentlichung als Fokussierung auf praktischen Nutzen statt nur auf Benchmark-Ergebnisse, was auf eine strategische Verschiebung hin zu zugänglicheren und effizienteren KI-Modellen für Geschäftsanwendungen hindeutet. Die Betonung auf reduzierte Kosten und verbesserte Leistung in realen Szenarien zeigt OpenAIs Bestreben, seine Technologie für Entwickler und Unternehmen zugänglicher zu machen.
Quellen: OpenAI, TechCrunch, VentureBeat, VentureBeat