Słownik AI

Uczenie nadzorowane – ang. Supervised Learning, SL

Uczenie nadzorowane (Supervised Learning) – definicja

Czym jest uczenie nadzorowane?

Uczenie nadzorowane, określane w literaturze angielskiej jako Supervised Learning, stanowi jedną z najczęściej wykorzystywanych metod tworzenia modeli sztucznej inteligencji. W największym skrócie polega na trenowaniu algorytmu na oznakowanych przykładach, czyli parach wejście-wyjście, tak aby po zakończeniu procesu potrafił przewidywać wynik dla nowych, nieznanych danych.

Dlaczego powstało?

Początki tej koncepcji sięgają lat 50. XX w., kiedy to badacze tacy jak Frank Rosenblatt z Cornell Aeronautical Laboratory rozwijali perceptron, inspirowany działaniem biologicznych neuronów. W kolejnych dekadach uczenie nadzorowane zyskało na znaczeniu dzięki rosnącej dostępności gromadzonych danych oraz postępowi w mocy obliczeniowej. Instytucje akademickie, w tym University of Toronto i Massachusetts Institute of Technology, a także laboratoria przemysłowe IBM czy Google, sukcesywnie udoskonalały metody trenowania modeli, co przyczyniło się do ich praktycznej przydatności w analizie obrazów, mowy i tekstu.

Jak działa?

Proces rozpoczyna się od przygotowania zbioru treningowego, w którym każdemu rekordowi przyporządkowana jest etykieta, np. kategoria obrazu lub wartość liczby. Model oblicza wynik na podstawie bieżących parametrów, porównuje go z etykietą referencyjną i aktualizuje parametry, minimalizując błąd według przyjętej funkcji kosztu. Powtarzanie tego cyklu na wielu przykładach prowadzi do stopniowego obniżania różnicy między przewidywaniami a rzeczywistością. Po zakończeniu treningu model przechodzi weryfikację na danych testowych, aby potwierdzić zdolność generalizacji.

Praktyczny przykład

Rozpoznawanie cyfr pisanych odręcznie w popularnym zbiorze MNIST ilustruje działanie uczenia nadzorowanego. Algorytm sieci neuronowej otrzymuje tysiące obrazów cyfr z przypisanymi etykietami od 0 do 9. Po treningu potrafi poprawnie sklasyfikować nowe próbki, co znajduje zastosowanie m.in. w automatycznym odczycie kodów pocztowych.

Zastosowania w praktyce

Metodę wykorzystuje się w diagnozowaniu chorób na podstawie obrazów medycznych, filtrowaniu spamu w poczcie elektronicznej, prognozowaniu cen akcji, transkrypcji mowy czy personalizacji rekomendacji w serwisach streamingowych. W porównaniu z klasycznymi systemami regułowymi, które opierały się na ręcznie zapisanych instrukcjach, uczenie nadzorowane pozwala zakodować złożone zależności ukryte w danych bez potrzeby ręcznego definiowania wszystkich reguł.

Zalety i ograniczenia

Najważniejszą zaletą jest wysoka dokładność modeli, jeśli dysponujemy dużym i reprezentatywnym zbiorem danych. Metoda zapewnia też przejrzystość w ocenie wyników dzięki możliwości pomiaru błędu na etapie walidacji. Ograniczenia wynikają głównie z kosztu pozyskania i anotowania danych oraz ryzyka przeuczenia, gdy model zbyt ściśle dopasuje się do próbek treningowych.

Na co uważać?

Projektując system oparty na uczeniu nadzorowanym, warto zadbać o równowagę klas, unikać przecieku danych między zbiorem treningowym a testowym oraz monitorować ewentualne zniekształcenia wprowadzone przez uprzedzenia w danych. Nieprzestrzeganie tych zasad prowadzi do spadku jakości predykcji lub niesprawiedliwych decyzji algorytmu.

Dodatkowe źródła

Szczegółowe omówienie technik uczenia nadzorowanego można znaleźć w artykule Supervised learning – Wikipedia. Klasyczna praca akademicka A Practical Guide to Training Restricted Boltzmann Machines autorstwa Geoffreya Hintona opisuje zależności między strukturą sieci a jakością uczenia. Z kolei przegląd nowszych metod dostarcza publikacja na arXiv A Survey on Deep Transfer Learning.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *