Słownik AI

Uczenie few-shot – ang. Few-shot Learning, FSL

Uczenie few-shot (Few-shot Learning) – definicja i przykłady

Czym jest Uczenie few-shot (Few-shot Learning)?

Uczenie few-shot określa procedury modelowania, w których algorytm potrafi generalizować na podstawie zaledwie kilku oznaczonych przykładów. Klasyczne podejścia nadzorowane wymagają tysięcy lub milionów danych, natomiast tutaj modele są projektowane tak, by zminimalizować zależność od dużych zbiorów. Termin zyskał popularność po pracach Fei-Fei Li z 2006 roku nad rozpoznawaniem obiektów z jednego zdjęcia oraz po publikacji Matching Networks (Vinyals i in., 2016), w której formalnie opisano metodę uczenia z kilku próbek.

Jak dokładnie działa Uczenie few-shot (Few-shot Learning)

Strategie few-shot często wykorzystują uczenie metapoziomowe. W fazie metatrainingu model odwzorowuje wiele zadań z ograniczoną liczbą przykładów, ucząc się wyodrębniać reprezentacje pozwalające szybko dostosować się do nowych klas. Klasycznym wzorcem jest epizodyczna nauka, w której każdy epizod imituje scenariusz małej próbki. Podczas faktycznego wdrożenia, zwłaszcza w systemach przetwarzania języka naturalnego lub rozpoznawania obrazów, sieć otrzymuje kilka przykładów wzorcowych i generuje predykcje dla nieznanych przypadków, wykorzystując wyuczone podczas metatrainingu wewnętrzne embeddingi. Oprócz metauczenia stosuje się też techniki takie jak Prototypical Networks, adaptacja gradientowa MAML czy transfer wiedzy z modeli typu foundation, gdzie część parametrów pozostaje zamrożona.

Zastosowania w praktyce

Uczenie few-shot przydaje się tam, gdzie oznaczenie danych jest kosztowne lub czasochłonne. Przykładowo, w diagnostyce medycznej można zbudować model rozpoznający rzadkie schorzenie skóry na bazie kilku opisanych obrazów dermatoskopowych. W przetwarzaniu języka naturalnego FSL ułatwia tworzenie klasyfikatorów sentymentu dla nowego języka, posiłkując się kilkoma przetłumaczonymi zdaniami. W robotyce metoda ta pozwala robotowi nauczyć się chwytu nowego przedmiotu bez pełnej rekalkulacji parametrów sieci.

Zalety i ograniczenia

Najważniejszą korzyścią jest redukcja kosztów anotacji, co przyspiesza tworzenie rozwiązań w domenach niszowych. Ponadto FSL zmniejsza ślad energetyczny, bo modele mogą być mniejsze lub krócej trenowane. Jednak skuteczność zależy od starannego doboru zadań metatrainingowych; jeżeli nie odzwierciedlają one docelowej dziedziny, dokładność spada. Problemem bywa także wrażliwość na szum — przy niewielkiej liczbie przykładów pojedyncza błędna etykieta może istotnie zaburzyć wnioskowanie.

Na co uważać?

Wdrażając FSL, warto upewnić się, że nowe klasy nie są skrajnie odmienne od tych widzianych w treningu meta. Kluczowe jest też monitorowanie niestabilności statystycznej — mała próbka oznacza duże odchylenia między sesjami uczenia. W praktyce rekomenduje się walidację krzyżową na poziomie epizodów oraz regularne sprawdzanie modeli pod kątem uprzedzeń pochodzących z zadania bazowego.

Dodatkowe źródła

Więcej informacji można znaleźć w artykule przeglądowym A Survey on Few-Shot Learning, a także w hasłach encyklopedycznych Few-shot learning oraz w oryginalnej publikacji Matching Networks for One Shot Learning.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *