OpenAI po raz kolejny udowodniła, że granice możliwości sztucznej inteligencji wciąż można przesuwać dalej. Na rynek trafiły właśnie dwa nowe modele językowe: zaawansowany i potężny o3 oraz szybki i ekonomiczny o4-mini. Wraz z nimi pojawiła się też nowa generacja GPT-4.1, oferująca imponujące możliwości.
Model o3 – mistrz analitycznego myślenia
Model o3 to flagowy produkt OpenAI, określany przez firmę jako ich „najpotężniejszy model do rozumowania”. Charakteryzuje się nie tylko imponującą mocą obliczeniową, ale również niezwykłą zdolnością do integracji informacji z różnych źródeł i narzędzi. Potrafi analizować tekst, obrazy, a nawet samodzielnie wykorzystywać dostępne narzędzia, takie jak przeglądarka internetowa, interpreter Pythona czy generator wykresów.
O3 posiada okno kontekstowe aż do 200 000 tokenów, co pozwala mu przetworzyć ilość tekstu odpowiadającą mniej więcej całej „Iliadzie” i „Odysei” naraz. Dzięki takiemu zakresowi może wykonać zadania, które wcześniej wymagały dużych zespołów analitycznych. OpenAI podaje, że nowy model redukuje liczbę krytycznych błędów aż o 20% w porównaniu do poprzednika.
O4-mini – szybki i ekonomiczny sprinter
Z kolei model o4-mini to młodszy kuzyn o3, stworzony z myślą o szybkości działania oraz niskich kosztach użytkowania. Mimo że jest znacznie tańszy od swojego potężnego odpowiednika, potrafi skutecznie pokonać wcześniejsze modele, takie jak o1 i o3-mini, w testach matematycznych oraz programistycznych. Jak podkreśla Sam Altman, CEO OpenAI, „o4-mini to absurdalnie dobry deal”, idealny szczególnie dla projektów o dużym wolumenie danych.



GPT-4.1 – koniec limitów
Oprócz modeli z serii o, OpenAI wprowadziło także GPT-4.1, oferujący niespotykany wcześniej zakres kontekstu – aż milion tokenów. To tak, jakby cały „Władca Pierścieni” stał się jednym krótkim komunikatem dla modelu. GPT-4.1 doskonale radzi sobie z dużymi repozytoriami kodu, bazami danych i pełnymi dokumentacjami, zapewniając przy tym dużą spójność analizowanych informacji.
Praktyczne zastosowania nowych modeli
Nowe modele OpenAI otwierają szereg możliwości praktycznego zastosowania w biznesie i edukacji. Przykładowo, o3 może samodzielnie przygotować kompleksowy raport rynkowy, od wyszukania danych, przez ich analizę, aż po stworzenie wykresów i końcowej prezentacji. Z kolei o4-mini świetnie sprawdzi się w zadaniach wymagających szybkiego i niedrogiego przetwarzania dużych zbiorów danych, jak streszczenia setek tysięcy recenzji produktów.
Ile to kosztuje?
Model | Input / 1 M tok. | Output / 1 M tok. | Komentarz |
---|---|---|---|
o3 | 10 $ | 40 $ | Flagowiec, topowe wyniki |
o4‑mini | 1 ,10 $ | 4 ,40 $ | ~10× tańszy – idealny do dużych wolumenów |
Bezpieczeństwo przede wszystkim
OpenAI podkreśla, że nowe modele przeszły rygorystyczne testy bezpieczeństwa i odporności na próby nadużyć (tzw. jailbreak). Dzięki zaawansowanemu monitoringowi niemal wszystkie próby wykorzystania modeli w nieodpowiedni sposób są skutecznie blokowane.
Gratka dla developerów – Codex CLI
Razem z premierą modeli o3 i o4‑mini OpenAI udostępniło Codex CLI – otwarto‑źródłowy interfejs wiersza poleceń, który przenosi możliwości ChatGPT do terminala (macOS, Linux, WSL). Narzędzie to pozwala generować i refaktoryzować kod, analizować lokalne pliki tekstowe oraz wysyłać zapytania do modeli bez konieczności otwierania przeglądarki; domyślnie korzysta z modelu o4‑mini, a przełącznik -
umożliwia wybór modelu o3. Tym samym Codex CLI staje się poręcznym, uniwersalnym narzędziem dla programistów i administratorów, poszerzając ekosystem OpenAI o pełnoprawne środowisko terminalowe.
Dostępność nowych modeli
Oba modele są już dostępne dla użytkowników subskrypcji ChatGPT Plus, Pro oraz Team. Dla klientów korporacyjnych i edukacyjnych dostęp zostanie zapewniony w ciągu tygodnia, a wszystkie modele są gotowe do użycia także poprzez API OpenAI.
Dzięki wprowadzeniu o3 oraz o4-mini OpenAI po raz kolejny znacząco podnosi poprzeczkę w świecie sztucznej inteligencji, dając użytkownikom narzędzia, które jeszcze niedawno były poza zasięgiem technologii.