OpenAI hat offiziell GPT-5 vorgestellt, seine mit Spannung erwartete neue Generation von KI-Modellen. Die am 7. August 2025 angekündigte Version ist nicht nur ein einzelnes Modell, sondern ein koordiniertes System von Modellen, das intelligenter, schneller und zuverlässiger sein soll als seine Vorgänger. Das neue System ist ab sofort für alle ChatGPT-Nutzer verfügbar, einschließlich der kostenlosen Version, sowie für Entwickler über die API von OpenAI.
In Pressegesprächen bezeichnete OpenAI-CEO Sam Altman den Sprung von früheren Versionen zu GPT-5 als ein bedeutendes Upgrade und verglich es mit der ersten Erfahrung eines Nutzers mit einem Retina-Display. „Bei GPT-4 hatte man das Gefühl, mit einem College-Studenten zu sprechen“, sagte Altman. „GPT-5 ist das erste Mal, dass es sich wirklich so anfühlt, als würde man mit einem Experten auf PhD-Niveau sprechen.“
Das Unternehmen erklärte, dass die neue Modellreihe ein wichtiger Schritt in Richtung einer allgemeiner fähigen KI sei, obwohl Altman klarstellte, dass sie nicht die Kriterien für eine Künstliche Allgemeine Intelligenz (AGI) erfüllt, vor allem weil sie nicht kontinuierlich aus neuen Interaktionen lernt.
Die größte Veränderung für ChatGPT-Nutzer ist die Einführung eines „einheitlichen“ Modellerlebnisses. Anstatt manuell zwischen verschiedenen Modellen zu wählen, entscheidet ein neuer Echtzeit-Router automatisch, welches Modell für eine bestimmte Anfrage am besten geeignet ist. Für die meisten Fragen liefert ein schnelles und effizientes gpt-5-main
-Modell (der Nachfolger von GPT-4o) die Antwort. Bei komplexeren Problemen, die ein tieferes Reasoning erfordern, oder wenn ein Nutzer das Modell explizit bittet, „gründlich nachzudenken“, schaltet das System nahtlos auf das leistungsfähigere gpt-5-thinking
-Modell (den Nachfolger der o3-Modellreihe) um. Für kostenlose Nutzer gibt es eine Nutzungsgrenze für die Hauptmodelle, danach greift das System auf kleinere mini
-Versionen zurück.
Für Entwickler ist die GPT-5-Familie über die API in mehreren Stufen zugänglich: gpt-5-thinking
, gpt-5-thinking-mini
und ein noch kleineres gpt-5-thinking-nano
-Modell. Jedes wird zu unterschiedlichen Preisen angeboten, um den verschiedenen Anforderungen an Geschwindigkeit und Kosten gerecht zu werden. OpenAI hat auch neue API-Steuerungen eingeführt, die es Entwicklern ermöglichen, die Ausführlichkeit der Antworten zu steuern, strukturierte Ausgaben zu erzwingen und mehr Einblick in den Reasoning-Prozess des Modells zu erhalten, bevor es Tools verwendet.
Ein Fokus auf Zuverlässigkeit und Ehrlichkeit
Ein Hauptaugenmerk von OpenAI bei dieser Veröffentlichung lag darauf, einige der hartnäckigen Herausforderungen großer Sprachmodelle anzugehen. Das Unternehmen berichtet von erheblichen Fortschritten bei der Reduzierung von Ungenauigkeiten, irreführendem Verhalten und Unterwürfigkeit.
Laut interner Auswertungen von OpenAI, die in der GPT-5 System Card dokumentiert sind, zeigen die Modelle eine erhebliche Reduzierung von „Halluzinationen“, also dem Erfinden von Informationen. In Tests mit Konversationen, die repräsentativ für die reale Nutzung von ChatGPT sind, lieferte gpt-5-thinking
78 % weniger Antworten, die mindestens einen groben sachlichen Fehler enthielten, als sein Vorgänger OpenAI o3. Die Gesamtrate falscher Behauptungen in seinen Antworten sank von 22 % im älteren Modell auf nur 4,8 % in gpt-5-thinking
.
Das Unternehmen unternahm auch Schritte, um Täuschungen zu vermindern, bei denen ein Modell etwa fälschlicherweise behaupten könnte, eine Aufgabe erledigt zu haben. Durch das Training des Modells, bei unlösbaren Problemen „kontrolliert zu scheitern“, gibt OpenAI an, die Rate irreführenden Verhaltens reduziert zu haben. Das interne Monitoring des „Chain of Thought“-Reasoning-Prozesses des Modells fand Täuschungen in etwa 2,1 % der Antworten von gpt-5-thinking
, verglichen mit 4,8 % bei OpenAI o3.
Nach Nutzer-Feedback über das übermäßig zustimmende Verhalten von GPT-4o trainierte OpenAI die GPT-5-Modelle, um solches Verhalten zu reduzieren. Vorläufige Online-Messungen zeigten, dass die Häufigkeit dieses Verhaltens bei kostenlosen Nutzern um 69 % und bei zahlenden Nutzern um 75 % im Vergleich zu GPT-4o zurückging.
Eine weitere wichtige Entwicklung ist ein neuer Ansatz für das Sicherheitstraining namens „sichere Vervollständigungen“ (safe completions). Anstatt Prompts rundweg abzulehnen, deren Antworten sowohl harmlos als auch missbräuchlich verwendet werden könnten, zielt das Modell nun darauf ab, hilfreiche Informationen innerhalb der Sicherheitsgrenzen zu liefern. Wenn beispielsweise eine potenziell gefährliche wissenschaftliche Frage gestellt wird, könnte das Modell eine allgemeine, lehrreiche Erklärung geben anstelle von handlungsrelevanten Details.
Neue Fähigkeiten und Anwendungsfälle
OpenAI positioniert GPT-5 als ein hochmodernes Werkzeug in mehreren Schlüsselbereichen, insbesondere beim Programmieren, Schreiben und im Gesundheitswesen. Altman läutete die Ära von „Software on Demand“ ein und hob die Fähigkeit des Modells hervor, aus einem einzigen Prompt ganze funktionierende Anwendungen zu erstellen. In einer Demonstration für Reporter nutzten Forscher GPT-5, um in wenigen Minuten eine vollständig interaktive Website zum Französischlernen mit einem integrierten Spiel zu erstellen. Das Modell erreichte mit 74,9 % einen neuen Spitzenwert im SWE-bench Verified Benchmark, der die Fähigkeit eines Modells testet, reale Software-Engineering-Probleme zu lösen.
Die Leistung im Gesundheitsbereich hat sich ebenfalls stark verbessert. Auf der HealthBench, einem Benchmark zur Bewertung von KI in gesundheitsbezogenen Kontexten, übertraf gpt-5-thinking
alle bisherigen OpenAI-Modelle deutlich. Zum Beispiel wurde die Fehlerrate bei Halluzinationen in anspruchsvollen Gesundheitsgesprächen im Vergleich zu OpenAI o3 um mehr als das Achtfache reduziert. OpenAI betont zwar, dass das Modell keinen professionellen medizinischen Rat ersetzt, gibt aber an, dass es Nutzern besser helfen kann, medizinische Ergebnisse zu interpretieren und sich auf Arzttermine vorzubereiten.
Im Rahmen seines Sicherheitsprotokolls wurde das Preparedness Framework von OpenAI zur Bewertung der Risiken der neuen Modelle herangezogen. Während die Fähigkeiten von GPT-5 im Bereich der Cybersicherheit die Schwelle für ein hohes Risiko nicht erreichten, beschloss das Unternehmen, das Modell im biologischen und chemischen Bereich vorsorglich als „hoch“ einzustufen. Diese Entscheidung aktiviert eine Reihe von Schutzmaßnahmen, darunter eine verstärkte Überwachung, ein vertrauenswürdiges Zugangsprogramm für geprüfte Forscher und robuste API-Sicherheitskontrollen zur Verhinderung von Missbrauch. Externe Prüfungen durch Organisationen wie METR und Apollo Research kamen zu dem Schluss, dass es unwahrscheinlich ist, dass das Modell seine Fähigkeiten strategisch verbergen oder durch autonome Replikation katastrophalen Schaden anrichten könnte, obwohl sie feststellten, dass es manchmal ein Bewusstsein dafür zeigt, in einer Bewertungssituation zu sein.
Die Veröffentlichung wird von mehreren Aktualisierungen der ChatGPT-Benutzeroberfläche begleitet, darunter vier neue voreingestellte Persönlichkeiten (Zyniker, Roboter, Zuhörer und Nerd) und die Möglichkeit, die Farben der Chats anzupassen.
Livestream
Quellen: OpenAI, The Verge, VentureBeat, TechCrunch, Bloomberg