OpenAI ersetzt das Standardmodell in ChatGPT durch GPT-5.5 Instant. Ziel: weniger Halluzinationen, kompaktere Antworten und stärkere Personalisierung.
In Kürze
- Halluzinationen in sensiblen Bereichen um 52,5% gesunken
- Bessere Benchmark-Werte (AIME, GPQA, CharXiv u.a.)
- Neue ‚Memory Sources‘ zeigen genutzte Infos; Rollout startet sofort
OpenAI ersetzt das bisherige Standardmodell in ChatGPT: Ab sofort ist GPT-5.5 Instant das neue Default-Modell (über die API als „chat-latest“ verfügbar). Ziel laut Unternehmen: weniger Fehler, kompaktere Antworten und stärkere Personalisierung.
Weniger falsche Behauptungen
OpenAI meldet deutliche Rückgänge bei sogenannten Halluzinationen, also wenn das Modell Unrichtiges behauptet. In sensiblen Bereichen wie Medizin, Recht und Finanzen sank die Fehlerquote um 52,5 %. In besonders kniffligen Konversationen, die Nutzer zuvor wegen Faktenfehlern markiert hatten, ging die Fehlerquote um 37,3 % zurück. Als konkretes Beispiel nennt OpenAI ein Foto einer handschriftlichen Algebra-Aufgabe: GPT-5.5 Instant erkannte einen Rechenfehler im Umformungsschritt und löste die Gleichung korrekt, während das Vorgängermodell fälschlich behauptet hatte, es gebe keine reelle Lösung.
Bessere Ergebnisse in Tests
Auch in einer Reihe von Benchmarks verbessert sich das Modell deutlich:
- AIME 2025 (Mathematikwettbewerb): 65,4 % → 81,2 %
- GPQA (Doktoranden-Niveau, Naturwissenschaften): 78,5 % → 85,6 %
- CharXiv (visuelles Reasoning): 75,0 % → 81,6 %
- MMMU‑Pro (multimodales Expertenwissen): 69,2 % → 76,0 %
- OmniDocBench (Dokumenten-Parsing, geringere Fehlerrate besser): Fehlerrate 14,6 % → 12,5 %
Kürzere, persönlichere Antworten und kontextbasierte Nutzung
OpenAI betont, dass GPT-5.5 Instant knapper antworten soll, weniger unnötige Rückfragen stellen und auf überflüssige Emojis oder übermäßige Formatierung verzichten. Das Modell nutzt Kontext aus früheren Chats, hochgeladenen Dateien und verknüpften Gmail-Konten effektiver — allerdings nur, wenn du diese Funktionen aktivierst.
Neue Funktion „Memory Sources“
Neu ist die Anzeige sogenannter „Memory Sources“: Du kannst jetzt sehen, welche gespeicherten Informationen (zum Beispiel frühere Chats oder Erinnerungen) für eine Antwort herangezogen wurden. Einzelne Einträge lassen sich als relevant oder irrelevant markieren, korrigieren oder löschen. OpenAI weist darauf hin, dass Memory Sources möglicherweise nicht jede verwendete Quelle anzeigen – oft wird nur ein Teil der durchsuchten Chats gezeigt. Beim Teilen eines Chats werden diese Memory-Infos nicht mitübertragen. Temporäre Chats greifen nicht auf das Gedächtnis zu und aktualisieren es ebenfalls nicht.
Verfügbarkeit und Rollout
GPT-5.5 Instant wird laut OpenAI ab sofort an alle ChatGPT-Nutzer ausgerollt. Zahlende Nutzer können GPT-5.3 Instant noch drei Monate über die Einstellungen weiter nutzen. Erweitere Personalisierungsfunktionen (Nutzung früherer Chats, Dateien, Gmail) starten zunächst für Plus- und Pro-Nutzer im Web; die mobile Verfügbarkeit folgt später. Die Ausweitung auf Free-, Go-, Business- und Enterprise-Pläne soll in den nächsten Wochen erfolgen; regionale Unterschiede sind möglich. Memory Sources werden für alle Consumer-Pläne im Web verfügbar sein; mobil später.
Verhältnis zu anderen Modellvarianten
GPT-5.5 Instant ist laut OpenAI die für den Alltag optimierte Variante. Parallel dazu gibt es GPT-5.5 Thinking, das in anspruchsvolleren Aufgaben leistungsfähiger bleibt — etwa im Bereich Cybersecurity auf einem Niveau, das OpenAI mit anderen spezialisierten Modellen vergleicht. Außerdem ersetzt GPT-5.5 Thinking das früher genutzte Codex-Coding-Modell.
Quellen
- Quelle: OpenAI
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




