Kontekst jest kluczowym elementem, który determinuje, jak dużo informacji model AI może rozważyć w danym momencie. Ogłoszenie przez Google nowej wersji Gemini Pro 1.5, posiadającej kontekst o wielkości 1 miliona tokenów, zwróciło uwagę szerokiego grona. Wydaje się, że czeka nas bowiem znaczne poszerzenie możliwości przetwarzania danych przez model językowy w stosunku do triumfującego dotychczas ChatGPT.
Co to jest token i okno kontekstu?
Token to podstawowa jednostka danych przetwarzanych przez modele AI. Może reprezentować słowo, kilka liter, interpunkcję itp., w zależności od implementacji modelu. Okno kontekstu to ilość informacji, którą model AI może rozważyć w danym momencie. Można je postrzegać jako pamięć modelu dla konkretnej konwersacji.
Znaczenie milionowego okna kontekstu w Gemini
Milionowy kontekst wersji Pro 1.5 oznacza, że model może pamiętać lub brać pod uwagę 1 milion tokenów podczas odpowiadania na zapytania użytkowników. To umożliwia modelowi przetwarzanie znacznie większej ilości danych, co przekłada się na bardziej spójne, relewantne i użyteczne odpowiedzi.
Według Google, 1 milion tokenów może reprezentować mniej więcej:
- 1 godzinę wideo,
- 11 godzin audio,
- 30 000 linii kodu,
- 700 000 słów.
Trylogia „Władca Pierścieni” ma łącznie około 500 000 słów. Robi wrażenie, nie?
Dla porównania, GPT 4 Turbo od OpenAI, który zasila płatną usługę ChatGPT Plus, ma okno kontekstu 128 000 tokenów. To pokazuje, jak znaczący jest skok do 1 miliona tokenów oferowany przez model od Google.
Co przyniesie przyszłość?
Szczegóły dotyczące bardziej zaawansowanego Ultra 1.5 nie zostały jeszcze ujawnione. Google podzieliło się jednak informacją, że testowało Gemini 1.5 z kontekstem 10 milionów tokenów dla tekstu. Zapowiada to imponujące możliwości na przyszłość.
Google ogłosiło również, że wersja 1.5 posiada nową architekturę Mixture-of-Experts (MoE). Ma ona na celu uczynienie modelu szybszym i bardziej wydajnym. Zależnie bowiem od rodzaju dostarczonych danych, modele MoE uczą się aktywować tylko najbardziej relewantne ścieżki ekspertów w swojej sieci neuronowej. W ten sposób znacząco zwiększa się efektywność modelu.
Gemini będzie nową rewolucją?
Rozszerzenie kontekstu do 1 miliona tokenów w Gemini Pro 1.5 to krok milowy dla Google. Z cala pewnością otwiera to drzwi do nowych możliwości w dziedzinie sztucznej inteligencji. Zwiększenie okna kontekstu pozwala na przetwarzanie znacznie większych zbiorów danych, co przekłada się na lepszą jakość i spójność odpowiedzi generowanych przez modele AI. Ponadto, wraz z wprowadzeniem architektury MoE, możemy oczekiwać, że przyszłe modele będą jeszcze szybsze i bardziej efektywne.
Nasz artykuł opisujący nową wersję Gemini znajdziesz tutaj.