Aktualności

GPT-5 z nowymi trybami pracy i większym kontekstem – Sam Altman zdradza szczegóły aktualizacji

ChatGPT-5 zmiany i limity

OpenAI ogłasza kolejną szybką aktualizację ChatGPT, która znacząco wpływa na sposób korzystania z modelu GPT-5. Sam Altman, CEO firmy, w nocnym wpisie na platformie X poinformował o wprowadzeniu nowych trybów działania: „Auto”, „Fast” oraz „Thinking”.

Nowe tryby ChatGPT 5 – większa kontrola nad sposobem pracy modelu

Tryb Auto ma być domyślnym wyborem dla większości użytkowników, automatycznie dobierając balans między szybkością a jakością odpowiedzi. Fast skraca czas oczekiwania kosztem bardziej powierzchownych analiz, natomiast Thinking umożliwia znacznie głębsze przetwarzanie informacji, co jest przydatne w skomplikowanych zadaniach, ale wymaga więcej zasobów obliczeniowych.

To właśnie tryb Thinking ma stać się flagową funkcją GPT-5, jego limit kontekstu wynosi aż 196 tys. tokenów, co pozwala modelowi operować na znacznie większych fragmentach tekstu naraz niż dotychczas. To rekord w historii publicznie dostępnych modeli OpenAI i oznacza możliwość pracy z wielkimi dokumentami, kodem czy skomplikowanymi analizami bez dzielenia ich na części.

Limity ChatGPT5 i dodatkowe modele w ofercie

OpenAI ustaliło limit 3000 wiadomości tygodniowo dla GPT-5 w trybie Thinking. Po jego przekroczeniu użytkownicy zyskają dostęp do lżejszej wersji – GPT-5 Thinking mini. Altman zaznaczył jednak, że limity mogą być w przyszłości zmieniane w zależności od obciążenia systemu.

Ważnym powrotem jest model GPT-4o, który ponownie pojawia się w selektorze dla wszystkich płacących użytkowników. W ustawieniach ChatGPT w wersji webowej dodano przełącznik „Show additional models”, który pozwoli uruchomić takie wersje jak o3, 4.1 czy GPT-5 Thinking mini. Natomiast GPT-4.5 będzie dostępny wyłącznie dla subskrybentów wersji Pro — jak podkreślił Altman, jego uruchamianie „kosztuje dużo GPU”.

Nowe tryby ChatGPT 5

Zmiany w osobowości GPT-5

CEO OpenAI zapowiedział także pracę nad nową osobowością GPT-5. Ma być ona „cieplejsza” niż obecna, ale jednocześnie mniej irytująca dla użytkowników, którzy krytykowali zbyt „rozmowną” naturę GPT-4o. Kluczową lekcją ostatnich dni jest jednak, że przyszłość modelu zmierza w stronę personalizacji osobowości – tak, by użytkownik mógł sam ustawić ton i sposób wypowiedzi modelu.

Po co te zmiany?

Zmiany wpisują się w szerszą strategię OpenAI, która musi balansować między kosztami utrzymania zaawansowanych modeli a rosnącymi oczekiwaniami użytkowników. Wprowadzenie trybów pracy i nowych limitów pozwala firmie kontrolować obciążenie serwerów, jednocześnie oferując bardziej zaawansowane funkcje tym, którzy naprawdę ich potrzebują.

Odpowiedź Altmana na pytanie jednego z użytkowników o to, czy abonenci wersji Plus mogliby otrzymać choć niewielką liczbę zapytań w wersji Pro, była szczera, ale bez konkretów: „Nie mamy teraz wystarczających zasobów obliczeniowych; chcielibyśmy w przyszłości!”. To pokazuje, że nawet lider rynku AI boryka się z ograniczeniami infrastrukturalnymi, a rozwój funkcji jest ściśle powiązany z dostępnością mocy GPU.

1 Komentarz

  • kołtun 13 sierpnia, 2025

    No nie wiem co znaczy 'aż’
    😉 https://www.anthropic.com/news/1m-context
    openai jest bardzo mało innowacyjny i zaczyna przepalać kasę. Możliwe, że robią coś na boku zupełnie innego, ale wątpię. Powoli firma do kasacji. A w SI dzieje się mnóstwo rzeczy.
    Ciągle czekamy na 'dyfuzyjne’ modele. Takie modele w grafice komputerowej były zawsze najlepsze (rendering śledzenie promieni vs. właśnie dyfyzyjne modele) ale wolniejsze. w SI jest ODWROTNIE!

    Niestety nadal podstawowym problemem jest bardzo krótki czas uczenia. Czasem uczenie sieci to jednokrotne 'patrzenie’ czy dopasowanie. Optymalizacja zabija wiedzę.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *