Artykuły Narzędzia AI Tekstowe

Nowe Gemini ma obsłużyć milion tokenów

google gemini

Kontekst jest kluczowym elementem, który determinuje, jak dużo informacji model AI może rozważyć w danym momencie. Ogłoszenie przez Google nowej wersji Gemini Pro 1.5, posiadającej kontekst o wielkości 1 miliona tokenów, zwróciło uwagę szerokiego grona. Wydaje się, że czeka nas bowiem znaczne poszerzenie możliwości przetwarzania danych przez model językowy w stosunku do triumfującego dotychczas ChatGPT.

Co to jest token i okno kontekstu?

Token to podstawowa jednostka danych przetwarzanych przez modele AI. Może reprezentować słowo, kilka liter, interpunkcję itp., w zależności od implementacji modelu. Okno kontekstu to ilość informacji, którą model AI może rozważyć w danym momencie. Można je postrzegać jako pamięć modelu dla konkretnej konwersacji.

Znaczenie milionowego okna kontekstu w Gemini

Milionowy kontekst wersji Pro 1.5 oznacza, że model może pamiętać lub brać pod uwagę 1 milion tokenów podczas odpowiadania na zapytania użytkowników. To umożliwia modelowi przetwarzanie znacznie większej ilości danych, co przekłada się na bardziej spójne, relewantne i użyteczne odpowiedzi.

Według Google, 1 milion tokenów może reprezentować mniej więcej:

  • 1 godzinę wideo,
  • 11 godzin audio,
  • 30 000 linii kodu,
  • 700 000 słów.

Trylogia „Władca Pierścieni” ma łącznie około 500 000 słów. Robi wrażenie, nie?

Dla porównania, GPT 4 Turbo od OpenAI, który zasila płatną usługę ChatGPT Plus, ma okno kontekstu 128 000 tokenów. To pokazuje, jak znaczący jest skok do 1 miliona tokenów oferowany przez model od Google.

Co przyniesie przyszłość?

Szczegóły dotyczące bardziej zaawansowanego Ultra 1.5 nie zostały jeszcze ujawnione. Google podzieliło się jednak informacją, że testowało Gemini 1.5 z kontekstem 10 milionów tokenów dla tekstu. Zapowiada to imponujące możliwości na przyszłość.

Google ogłosiło również, że wersja 1.5 posiada nową architekturę Mixture-of-Experts (MoE). Ma ona na celu uczynienie modelu szybszym i bardziej wydajnym. Zależnie bowiem od rodzaju dostarczonych danych, modele MoE uczą się aktywować tylko najbardziej relewantne ścieżki ekspertów w swojej sieci neuronowej. W ten sposób znacząco zwiększa się efektywność modelu.

Gemini będzie nową rewolucją?

Rozszerzenie kontekstu do 1 miliona tokenów w Gemini Pro 1.5 to krok milowy dla Google. Z cala pewnością otwiera to drzwi do nowych możliwości w dziedzinie sztucznej inteligencji. Zwiększenie okna kontekstu pozwala na przetwarzanie znacznie większych zbiorów danych, co przekłada się na lepszą jakość i spójność odpowiedzi generowanych przez modele AI. Ponadto, wraz z wprowadzeniem architektury MoE, możemy oczekiwać, że przyszłe modele będą jeszcze szybsze i bardziej efektywne.

Nasz artykuł opisujący nową wersję Gemini znajdziesz tutaj.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *