Słownik AI

Uczenie leniwe – ang. Lazy Learning (LL)

Uczenie leniwe (Lazy Learning): definicja i zastosowania

Czym jest Uczenie leniwe (lazy learning)?

Uczenie leniwe opisuje rodzinę algorytmów uczenia maszynowego, które odraczają budowę uogólnionego modelu do chwili, gdy pojawia się potrzeba udzielenia odpowiedzi na zapytanie. W praktyce oznacza to, że faza trenowania polega głównie na zapisywaniu przykładów w pamięci, natomiast właściwe obliczenia wykonywane są dopiero w momencie prognozowania. Koncepcja została spopularyzowana na początku lat dziewięćdziesiątych przez Davida W. Ahę i współpracowników, którzy opisali ją w kontekście case-based reasoning i algorytmu k-najbliższych sąsiadów (k-NN).

Jak dokładnie działa Uczenie leniwe (lazy learning)

W odróżnieniu od metod nazywanych gorliwymi, które po jednorazowym przejściu przez dane budują skondensowany model, uczenie leniwe zachowuje pełny lub prawie pełny zbiór obserwacji. Gdy system otrzymuje nowe zapytanie, wyszukuje w tej pamięci przykłady najbardziej podobne według ustalonej miary odległości, a następnie wyprowadza odpowiedź na podstawie znalezionego sąsiedztwa. Dzięki temu może dostosowywać się do lokalnych niuansów danych i naturalnie radzić sobie z problemami nieliniowymi. Cena za tę elastyczność pojawia się w momencie predykcji, która wymaga przeszukania często dużych zbiorów oraz przechowywania znacznej liczby instancji.

Zastosowania w praktyce

Uczenie leniwe jest szczególnie popularne tam, gdzie liczy się szybkość prototypowania i klarowność decyzji. W systemach rekomendacyjnych k-NN potrafi dobrać produkty na podstawie preferencji użytkowników o podobnym profilu, w medycynie instance-based learning wspomaga diagnozy przez porównywanie pacjentów do historycznych przypadków, a w robotyce sensorycznej umożliwia adaptacyjne sterowanie bez długiej fazy kalibracji. W sieciach wyszukiwania grafów pamięć przypadków udostępnia natomiast gotowy zbiór szablonów rozwiązań, które można natychmiast wykorzystać.

Zalety i ograniczenia

Największą zaletą uczenia leniwego jest brak kosztownej fazy trenowania oraz łatwość aktualizacji: dodanie nowej obserwacji sprowadza się do zapisania jej w pamięci. Metody te wykazują wysoką przejrzystość, ponieważ decyzję można wyjaśnić poprzez wskazanie konkretnych przykładów źródłowych. Z drugiej strony wymagają znacznych zasobów pamięci oraz rosnącego czasu zapytań, gdy liczba instancji szybko się powiększa. Są także wrażliwe na nadmiarowe lub szumne cechy, dlatego praktycy często łączą je z selekcją atrybutów bądź redukcją wymiaru.

Na co uważać?

Wdrażając system oparty na uczeniu leniwym warto zadbać o właściwy wybór metryki podobieństwa, ponieważ to ona decyduje o jakości odpowiedzi. Wysoka liczba wymiarów może prowadzić do zjawiska curse of dimensionality, w którym wszystkie punkty stają się podobnie odległe. Dobrym rozwiązaniem bywa wtedy standaryzacja danych, redukcja wymiaru przez PCA albo wzbogacenie metryki o wagi cech. Trzeba także rozważyć strategie skracania pamięci, takie jak edycja prototypów czy przechowywanie tylko reprezentatywnych przykładów, by zminimalizować opóźnienia w predykcji.

Dodatkowe źródła

Pełniejsze omówienie koncepcji można znaleźć w artykule Davida W. Aha „Lazy Learning” opublikowanym w 1997 roku w Artificial Intelligence Review, dostępnym w serwisie SpringerLink. Kompendium przykładów i opisów implementacyjnych znajduje się na stronie Wikipedia – Lazy learning. Warto również przejrzeć przeglądowy tekst „Instance-Based Learning: A Survey” udostępniony w repozytorium arXiv, gdzie autorzy zestawiają uczenie leniwe z podejściami gorliwymi oraz omawiają zastosowania we współczesnych systemach produkcyjnych.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *