GPT-5.4 Mini i Nano — mniejsze modele OpenAI, które zmieniają sposób używania AI
Prawie tak dobre jak flagowiec, kilkanaście razy tańsze, i zaprojektowane żeby pracować w zespole. OpenAI zmienia podejście do tego, czym jest model AI.

17 marca 2026 roku OpenAI wypuściło dwa nowe modele: GPT-5.4 Mini i GPT-5.4 Nano. To mniejsze, szybsze i tańsze wersje flagowego GPT-5.4, który zadebiutował na początku marca.
Omówiłem to w AITU #01 — mojej serii po polsku o AI i technologii — ale tutaj rozpisuję temat szerzej, z kontekstem i źródłami.
Co to są za modele
GPT-5.4 Mini to model średniej wielkości. Zaprojektowany pod zadania, gdzie liczy się szybkość — asystenty kodowania, narzędzia pracujące z obrazem i tekstem jednocześnie, systemy interpretujące to co widzisz na ekranie.
GPT-5.4 Nano to najmniejszy i najtańszy model w ofercie OpenAI. Przeznaczony do prostych zadań wykonywanych masowo — sortowanie, wyciąganie danych z dokumentów, klasyfikacja i lekkie wsparcie kodowania.
Żeby to zrozumieć bez technicznego żargonu — wyobraź sobie firmę. Jest dyrektor, który podejmuje strategiczne decyzje. I są pracownicy, którzy robią konkretne rzeczy — szukają w dokumentach, wypełniają formularze, sprawdzają dane. OpenAI mówi: róbcie to samo z AI. Duży model myśli i planuje. Mniejsze modele wykonują.
Wydajność — zaskakująco blisko flagowca
Na SWE-Bench Pro — teście, w którym model dostaje prawdziwe zadania programistyczne z GitHuba i musi je rozwiązać — Mini uzyskał 54,4%. Flagowy GPT-5.4 uzyskał 57,7%. Różnica to zaledwie 3,3 punktu procentowego.
Na OSWorld-Verified — teście mierzącym czy model potrafi „używać komputera” (klikać, nawigować po interfejsach, interpretować screenshoty) — Mini dostał 72,1%, a flagowy 75%.
Nano jest słabszy — 39% na OSWorld-Verified — więc nie nadaje się do skomplikowanych zadań. Ale w prostszej robocie (sortowanie, klasyfikacja, wywoływanie narzędzi) przewyższa starszego GPT-5 Mini.
Ile to kosztuje
Mini: $0,75 za milion tokenów na wejściu, $4,50 za milion na wyjściu.
Nano: $0,20 za milion tokenów na wejściu, $1,25 za milion na wyjściu.
Żeby to przełożyć na coś zrozumiałego — Nano za dwadzieścia centów przetworzy mniej więcej kilkaset stron tekstu. Flagowy GPT-5.4 kosztuje $2,50 za milion tokenów na wejściu. Nano jest ponad dwunastokrotnie tańszy.
Architektura subagentów — to jest najciekawsze
Benchmarki i ceny to jedno. Ale najważniejsze w tym wydaniu jest to, jak OpenAI mówi o sposobie użycia.
Firma wprost pozycjonuje Mini i Nano jako subagenty. W tym podejściu duży model (GPT-5.4) pełni rolę koordynatora — określa cel, rozbija go na mniejsze zadania i deleguje. Mniejsze modele wykonują te zadania równolegle — przeszukują kod, przeglądają pliki, przetwarzają dokumenty.
W platformie Codex (narzędzie OpenAI do kodowania z AI) Mini zużywa tylko 30% kwoty GPT-5.4. Czyli programista może realizować prostsze zadania za jedną trzecią kosztu.
To jest ten sam trend, który tydzień wcześniej widać było na NVIDIA GTC — Jensen Huang mówił o agentach AI i systemach, w których AI działa jako zespół modeli współpracujących ze sobą, a nie jako jeden wielki mózg.
Gdzie to jest dostępne
Mini działa w API OpenAI, w Codex i w ChatGPT. W ChatGPT użytkownicy darmowego planu mają dostęp przez funkcję Thinking. Obsługuje okno kontekstowe 400 tysięcy tokenów z wejściem tekstowym i graficznym.
Nano jest dostępne wyłącznie przez API — to narzędzie dla deweloperów, nie dla zwykłego użytkownika.
Dlaczego to jest ważne
GPT-5.4 Mini i Nano to sygnał, że era „jednego modelu, który robi wszystko” się kończy. Przyszłość AI to ekosystemy — różne modele o różnych rozmiarach, kosztach i specjalizacjach, które współpracują.
Dla zwykłego użytkownika to oznacza szybsze i tańsze usługi AI. Dla programistów — możliwość budowania systemów, w których AI deleguje zadania innym AI. Dla firm — realne oszczędności przy skalowaniu.
I co ważne — Mini jest na darmowym planie ChatGPT. Możesz to przetestować teraz, bez płacenia za cokolwiek.