Czym jest Uczenie online (Online machine learning)?
Uczenie online, określane po angielsku jako Online Machine Learning, to grupa metod uczenia maszynowego, w których model aktualizuje swoje parametry po otrzymaniu każdego nowego przykładu lub niewielkiej partii danych. Przeciwieństwem jest klasyczne uczenie wsadowe, gdzie wszystkie dane są gromadzone, a następnie jednorazowo wykorzystywane do treningu. Strategia online pozwala algorytmowi reagować na zmieniające się warunki środowiska praktycznie w czasie rzeczywistym i bez konieczności przechowywania pełnego zbioru danych.
Krótki kontekst historyczny
Koncepcja adaptacyjnego uczenia sięga lat pięćdziesiątych XX wieku, kiedy Frank Rosenblatt zaproponował perceptron aktualizowany po każdym przykładzie. W latach siedemdziesiątych pojawiły się uogólnione algorytmy gradientu stochastycznego, które wciąż stanowią fundament większości współczesnych rozwiązań online. Przełomowym projektem badawczym w zakresie strumieni danych była platforma MOA (Massive Online Analysis) rozwijana od 2010 r. na Uniwersytecie Waikato, a zastosowania komercyjne popularyzowały się m.in. za sprawą systemów rekomendacyjnych w Netflix i Amazon.
Jak dokładnie działa Uczenie online (Online machine learning)
Proces rozpoczyna napływ pojedynczego rekordu lub mini-wsadu danych. Model generuje predykcję, po czym otrzymuje prawdziwą etykietę lub wartość zwrotną i natychmiast koryguje wagi. Najczęściej stosuje się warianty gradientu stochastycznego, algorytmy Winnow, perceptrony lub drzewka Hoeffdingowe, które dzięki statystyce Hoeffding’a potrafią decydować o rozgałęzieniach na podstawie części strumienia. Dzięki takiemu podejściu złożoność pamięciowa rośnie powoli, a opóźnienie obliczeń pozostaje niskie.
Subtelne porównanie z uczeniem wsadowym
W uczeniu wsadowym model budowany jest od podstaw na pełnym zbiorze, co przynosi stabilność parametrów i często wyższą ostateczną dokładność, lecz wymaga dużych zasobów obliczeniowych oraz przechowywania danych. Uczenie online natomiast faworyzuje szybkość aktualizacji i adaptację kosztem potencjalnie większej zmienności oraz ryzyka zapomnienia wcześniejszych wzorców.
Zastosowania w praktyce
Technika jest kluczowa w usługach, gdzie dane napływają nieprzerwanie i decyzja musi być podejmowana natychmiast. Systemy wykrywania nadużyć kartowych aktualizują swoje klasyfikatory po każdej transakcji, aby wyprzedzić zmieniające się schematy oszustw. W pojazdach autonomicznych moduły śledzenia obiektów adaptują się do warunków oświetlenia, a platformy e-commerce dynamicznie personalizują ofertę. Dobrym ilustracyjnym przykładem jest filtr antyspamowy pracujący w kliencie pocztowym: po oznaczeniu wiadomości jako niechcianej reguły zostają poddane delikatnej korekcie i kolejne e-maile są klasyfikowane z większą precyzją.
Zalety i ograniczenia
Największym atutem uczenia online jest zdolność bieżącego dostosowywania się do nowych trendów przy minimalnym zużyciu pamięci. Algorytmy te łatwo wdrożyć na urządzenia brzegowe, które dysponują ograniczonymi zasobami. Z drugiej strony podatność na szum i concept drift wymaga starannego doboru szybkości uczenia i mechanizmów regularizacji. Modele inkrementalne mogą także cierpieć na zjawisko katastrofalnego zapominania, gdy historyczne informacje są wypierane przez nowe, a tym samym tracą ogólną wiedzę.
Na co uważać?
W praktyce najwięcej trudności sprawia ocena jakości w środowisku strumieniowym. Standardowe miary walidacji krzyżowej nie mają zastosowania, dlatego badacze stosują okno przesuwne lub zestaw dwóch modeli – uczącego się i wzorcowego – których wyniki są okresowo porównywane. Należy także zapewnić niezawodne monitorowanie zmiany rozkładu danych, aby w razie nagłej anomalii spowolnić uczenie lub czasowo zamrozić parametry.
Dodatkowe źródła
Osoby zainteresowane pogłębioną analizą mogą sięgnąć do hasła Online Machine Learning na Wikipedii, przeglądu technik w artykule „A Survey on Concept Drift Adaptation” dostępnego w serwisie arXiv oraz dokumentacji platformy MOA – Massive Online Analysis. Cennym źródłem praktycznych wskazówek pozostaje książka „Online Learning and Online Convex Optimization” autorstwa Shalev-Shwartz.


