Nie musieliśmy długo czekać na ruch OpenAI po niedawnej premierze Claude Opus 4.7. Właśnie ogłoszono nową generację modeli: GPT-5.5 oraz GPT-5.5 Pro.
Z obszernego komunikatu wynika jedna bardzo jasna deklaracja: OpenAI odchodzi od promowania modelu jako inteligentnego chatbota, a pozycjonuje go jako w pełni autonomicznego agenta do skomplikowanej pracy na systemie, kodzie i ogromnych zbiorach danych.
Oto co konkretnie wnosi wersja 5.5:
1. Prawdziwa autonomia i kodowanie agentowe
OpenAI twierdzi, że skończyły się czasy prowadzenia modelu za rękę. GPT-5.5 potrafi dostać niedokładnie opisane zadanie (tzw. messy task), samodzielnie zaplanować kroki, użyć odpowiednich narzędzi, zdebugować własne błędy i kontynuować pracę aż do skutku.
W testach pracy w terminalu (Terminal-Bench 2.0) wykręca imponujące 82.7%, zostawiając w tyle Opus 4.7 (69.4%). CEO Cursora już potwierdził, że model znacznie rzadziej “poddaje się” w połowie długich zadań.
2. Większa “inteligencja” przy mniejszym zużyciu tokenów
Ciekawy ruch optymalizacyjny. GPT-5.5 trzyma zbliżone opóźnienia (latency) do wersji 5.4, ale rozwiązuje problemy szybciej i trafniej. OpenAI podkreśla, że dzięki mniejszej liczbie pomyłek i halucynacji, model zużywa znacznie mniej tokenów na “błądzenie”, co w ogólnym rozrachunku ma mocno obniżyć koszty pętli agentowych, mimo że sama cena za milion tokenów jest wyższa.
3. Ogromny kontekst: 1 milion tokenów
Modele (zarówno w interfejsach jak i nadchodzącym API) otrzymają okno kontekstowe na 1M tokenów. Z zaprezentowanych tabel wynika, że GPT-5.5 świetnie radzi sobie z wyciąganiem informacji z tak gigantycznych promptów, deklasując poprzedników przy testach w przedziale 512K - 1M tokenów.
4. Obejście cenzury dla ekspertów (Trusted Access for Cyber)
Podobnie jak Anthropic przy premierze Opusa 4.7, OpenAI dokręca śrubę z zabezpieczeniami i wdraża nowe klasyfikatory blokujące zadania związane z cyberbezpieczeństwem. Jednak – co jest świetną wiadomością dla branży – wprowadzają oficjalną ścieżkę Trusted Access. Zweryfikowani analitycy bezpieczeństwa, pentesterzy i organizacje mogą złożyć wniosek o dostęp do modeli ze zdjętymi filtrami, by legalnie pracować nad bezpieczeństwem infrastruktury bez ciągłych “odmów” (refusals) ze strony AI.
Ceny i dostępność
Modele trafiają od dziś do płatnych planów ChatGPT (Plus, Pro, Business, Enterprise) oraz do środowiska Codex. Dostęp przez API zapowiedziany jest na “bardzo niedługo”.
Cennik w API:
• GPT-5.5: 5$ / 1M tokenów wejściowych, 30$ / 1M wyjściowych.
• GPT-5.5 Pro (do najcięższych zadań logicznych): 30$ / 1M wejściowych, 180$ / 1M wyjściowych.
Zapowiada się fascynujący tydzień testów porównawczych w Cursorze i Cline. Ktoś z Was ma już aktywną wersję 5.5 w swoim ChatGPT i może potwierdzić, czy faktycznie działa zauważalnie mądrzej na długich repozytoriach kodu?

