Google ogłosiło znaczące aktualizacje swoich modeli sztucznej inteligencji Gemini, które wprowadzają lepszą wydajność, niższe koszty i szerszy dostęp dla programistów. Google pokazuje, że dąży do obniżenia bariery wejścia, oferując tańsze, szybsze i bardziej wydajne modele.
Nowe modele na start – Gemini 1.5 Pro i Flash
Google właśnie zaprezentowało dwa nowe, gotowe do produkcji modele: Gemini-1.5-Pro-002 oraz Gemini-1.5-Flash-002. Oba oferują znaczną poprawę jakości w różnych zadaniach, w tym imponujący 20% wzrost wyników w benchmarkach matematycznych. Te modele nie tylko lepiej radzą sobie z przetwarzaniem danych matematycznych, ale również oferują dwukrotnie szybsze generowanie wyników i trzykrotnie niższą latencję w porównaniu do poprzednich wersji.
Dla deweloperów budujących aplikacje z użyciem sztucznej inteligencji najważniejsze może być jednak to, że Google znacząco obniżyło koszty korzystania z Gemini 1.5 Pro – o ponad 50% dla zapytań i odpowiedzi poniżej 128K tokenów. Co więcej, podniesiono limity przepustowości, co oznacza, że teraz można wykonywać znacznie więcej operacji w krótszym czasie, co otwiera drzwi dla tworzenia bardziej złożonych aplikacji w krótszym czasie.
Przyspieszenie rozwoju AI: Szybsze i mądrzejsze aplikacje
Google wprowadza te zmiany, aby ułatwić deweloperom budowanie inteligentnych aplikacji. Dzięki lepszemu rozumieniu długich kontekstów i poprawionym możliwościom wizualnym, nowe modele są gotowe do wdrożenia w jeszcze bardziej zaawansowanych scenariuszach. W dodatku zmiany w domyślnych ustawieniach filtrów dają większą kontrolę nad konfiguracją modeli, co jest kluczowe dla dostosowywania AI do specyficznych zastosowań.
„To znaczący krok naprzód w kierunku tworzenia szybszych, mądrzejszych i tańszych rozwiązań AI”, powiedział jeden z inżynierów Google. „Wprowadziliśmy te zmiany, aby deweloperzy mogli tworzyć innowacyjne produkty bez martwienia się o koszty i wydajność”.
Dlaczego to ma znaczenie?
Choć to jeszcze nie Gemini 2, najnowsza wersja stanowi dużą aktualizację w porównaniu do eksperymentalnych modeli, które były testowane wcześniej. Dzięki niej programiści mogą teraz budować aplikacje szybciej, taniej i z większą precyzją. Otwiera to nowe możliwości, szczególnie dla startupów i mniejszych firm, które dotychczas mogły napotykać bariery finansowe w rozwijaniu rozwiązań opartych na AI.
Nowe modele Gemini mogą przetwarzać dłuższe konteksty, co jest kluczowe dla rozwiązań z zakresu analizy dokumentów prawnych czy raportów finansowych – obszarów, które mają ogromny potencjał w Polsce. Dzięki temu, na przykład, aplikacje wspomagające prawników w analizie umów mogą działać szybciej i z większą precyzją.