W trakcie Meta Connect 2024, odbywającego się w dniach 25-26 września 2024, ogłoszono premierę nowego modelu sztucznej inteligencji – Llama 3.2.
Llama 3.2 obejmuje zarówno małe modele tekstowe (1B i 3B), jak i bardziej zaawansowane modele wizualne (11B i 90B), które wyróżniają się zdolnościami rozumienia obrazu i tekstu.
Llama 3.2 wyniki testów
Chociaż model Llama 3.2 nie zajmuje pierwszych miejsc w wynikach benchmarków, ma wiele cech, które czynią go wyjątkowym i wartym uwagi. Kluczową zaletą Llama jest jego otwartość i modifikowalność, co daje ogromne możliwości rozwoju dla programistów i firm. W przeciwieństwie do zamkniętych modeli, takich jak Claude 3 Haiku, Llama 3.2 umożliwia pełną kontrolę nad dostosowywaniem modelu do specyficznych potrzeb. Dzięki otwartemu ekosystemowi, deweloperzy mogą go fine-tuningować, wdrażać lokalnie i modyfikować, co jest nieosiągalne w zamkniętych rozwiązaniach.
Wyniki testów w porównaniu do innych modeli
Ponadto, Llama Stack, który został ogłoszony równocześnie z Llama 3.2, uprości proces wdrażania modeli w różnych środowiskach – od urządzeń brzegowych po chmurę. Dzięki temu, mimo że Llama nie jest liderem w każdej kategorii testów, oferuje wyjątkowe wsparcie dla rozwoju aplikacji zorientowanych na użytkownika i prywatność danych.
Model | Average | MMLU | GPQA | MMMU | HumanEval | MATH |
---|---|---|---|---|---|---|
Chat o1 | 84.50% | 92.30% | 77.30% | 78.10% | 89.00% | 94.80% |
o1-preview | n/a | 90.80% | 73.30% | n/a | n/a | 85.50% |
GPT-4o (0513) | 75.92% | 88.70% | 53.60% | 69.10% | 90.20% | 76.60% |
GPT-4 Turbo (0409) | 73.20% | 86.50% | 48.00% | 63.10% | 90.20% | 72.20% |
Claude 3.5 Sonnet | 79.85% | 88.70% | 59.40% | 68.30% | 92.00% | 71.10% |
Claude 3 Opus | 72.88% | 86.80% | 50.40% | 59.40% | 84.90% | 60.10% |
GPT-4o Mini | 67.36% | 82.00% | 40.20% | 59.40% | 87.20% | 70.20% |
GPT-4 (0314) | 67.36% | 86.40% | 35.70% | 56.80% | 67.00% | 52.90% |
Gemini 1.5 Pro | 64.18% | 81.90% | 46.20% | 62.20% | 71.90% | 58.50% |
Llama 3.2 90B | 61.47% | 86.0% | 46.7% | 45.2% | – | 68.0% |
Llama 3 70B | 63.90% | 82.00% | 39.50% | — | 81.70% | 50.40% |
Innowacje w Llama 3.2
Modele Llama 3.2, w wersjach 11B i 90B, wyróżniają się zdolnością do rozumienia obrazu. Dzięki nowej architekturze modele te mogą analizować dane wizualne, takie jak wykresy, grafiki i mapy, co umożliwia ich szerokie zastosowanie w różnych dziedzinach, od biznesu po naukę. Na przykład, Llama 3.2 może odpowiedzieć na pytania o wyniki finansowe na podstawie wykresów sprzedaży lub pomóc użytkownikowi zrozumieć mapę, oceniając, które trasy są najtrudniejsze do pokonania.
Modele 1B i 3B są natomiast zoptymalizowane pod kątem urządzeń brzegowych i mobilnych, oferując szybkie przetwarzanie tekstu bez potrzeby przesyłania danych do chmury. Dzięki temu aplikacje oparte na Llama 3.2 mogą działać lokalnie, zachowując pełną prywatność użytkowników.
Llama Stack – Nowe narzędzie dla programistów
Llama Stack, wprowadzony razem z Llama 3.2, oferuje programistom uproszczone środowisko pracy. Dzięki standardowemu interfejsowi API i obsłudze takich funkcji jak tool calling (wywoływanie narzędzi) czy RAG (generacja wspomagana wyszukiwaniem), Llama Stack umożliwia szybkie wdrażanie aplikacji AI w różnych środowiskach. Programiści mogą łatwiej i szybciej pracować z modelami Llama, obniżając jednocześnie koszty rozwoju.
Otwartość napędza innowacje
Llama 3.2 to nie tylko model AI – to kolejny ruch w kierunku większej otwartości w rozwoju sztucznej inteligencji. Od momentu ogłoszenia Llama 3.1, modele te zyskały olbrzymią popularność, a teraz, dzięki współpracy z partnerami takimi jak Qualcomm, MediaTek, Dell i AWS, Llama 3.2 będzie dostępna dla jeszcze większej liczby użytkowników.
Chociaż modele zamknięte, takie jak GPT-4 mini czy Claude 3 Haiku, oferują wysoką wydajność w niektórych testach, Llama 3.2 wyróżnia się dzięki swojej elastyczności, otwartości i możliwości pełnej kontroli przez programistów. Wierzymy, że otwartość napędza innowacje, dlatego kontynuujemy nasze działania, aby udostępniać modele Llama szerszej społeczności.