OpenAI odpowiada uderzeniem: GPT-5.5 z oknem 1M tokenów i pełnym naciskiem na "agentowość"

Nie musieliśmy długo czekać na ruch OpenAI po niedawnej premierze Claude Opus 4.7. Właśnie ogłoszono nową generację modeli: GPT-5.5 oraz GPT-5.5 Pro.

Z obszernego komunikatu wynika jedna bardzo jasna deklaracja: OpenAI odchodzi od promowania modelu jako inteligentnego chatbota, a pozycjonuje go jako w pełni autonomicznego agenta do skomplikowanej pracy na systemie, kodzie i ogromnych zbiorach danych.

Oto co konkretnie wnosi wersja 5.5:

1. Prawdziwa autonomia i kodowanie agentowe

OpenAI twierdzi, że skończyły się czasy prowadzenia modelu za rękę. GPT-5.5 potrafi dostać niedokładnie opisane zadanie (tzw. messy task), samodzielnie zaplanować kroki, użyć odpowiednich narzędzi, zdebugować własne błędy i kontynuować pracę aż do skutku.

W testach pracy w terminalu (Terminal-Bench 2.0) wykręca imponujące 82.7%, zostawiając w tyle Opus 4.7 (69.4%). CEO Cursora już potwierdził, że model znacznie rzadziej “poddaje się” w połowie długich zadań.

2. Większa “inteligencja” przy mniejszym zużyciu tokenów

Ciekawy ruch optymalizacyjny. GPT-5.5 trzyma zbliżone opóźnienia (latency) do wersji 5.4, ale rozwiązuje problemy szybciej i trafniej. OpenAI podkreśla, że dzięki mniejszej liczbie pomyłek i halucynacji, model zużywa znacznie mniej tokenów na “błądzenie”, co w ogólnym rozrachunku ma mocno obniżyć koszty pętli agentowych, mimo że sama cena za milion tokenów jest wyższa.

3. Ogromny kontekst: 1 milion tokenów

Modele (zarówno w interfejsach jak i nadchodzącym API) otrzymają okno kontekstowe na 1M tokenów. Z zaprezentowanych tabel wynika, że GPT-5.5 świetnie radzi sobie z wyciąganiem informacji z tak gigantycznych promptów, deklasując poprzedników przy testach w przedziale 512K - 1M tokenów.

4. Obejście cenzury dla ekspertów (Trusted Access for Cyber)

Podobnie jak Anthropic przy premierze Opusa 4.7, OpenAI dokręca śrubę z zabezpieczeniami i wdraża nowe klasyfikatory blokujące zadania związane z cyberbezpieczeństwem. Jednak – co jest świetną wiadomością dla branży – wprowadzają oficjalną ścieżkę Trusted Access. Zweryfikowani analitycy bezpieczeństwa, pentesterzy i organizacje mogą złożyć wniosek o dostęp do modeli ze zdjętymi filtrami, by legalnie pracować nad bezpieczeństwem infrastruktury bez ciągłych “odmów” (refusals) ze strony AI.

Ceny i dostępność

Modele trafiają od dziś do płatnych planów ChatGPT (Plus, Pro, Business, Enterprise) oraz do środowiska Codex. Dostęp przez API zapowiedziany jest na “bardzo niedługo”.

Cennik w API:

GPT-5.5: 5$ / 1M tokenów wejściowych, 30$ / 1M wyjściowych.

GPT-5.5 Pro (do najcięższych zadań logicznych): 30$ / 1M wejściowych, 180$ / 1M wyjściowych.

Zapowiada się fascynujący tydzień testów porównawczych w Cursorze i Cline. Ktoś z Was ma już aktywną wersję 5.5 w swoim ChatGPT i może potwierdzić, czy faktycznie działa zauważalnie mądrzej na długich repozytoriach kodu?