Czym jest Analityka (analytics)?
Analityka to metodyczne przetwarzanie danych w celu dostarczania wiedzy, prognoz lub zaleceń, które wspierają podejmowanie decyzji. W odniesieniu do systemów sztucznej inteligencji pojęcie to obejmuje zarówno tradycyjne statystyczne analizy opisowe, jak i nowoczesne modele uczenia maszynowego, które samodzielnie wykrywają wzorce oraz przewidują zdarzenia przyszłe. Termin upowszechnił się pod koniec lat 90. XX w., kiedy to firmy analityczne, takie jak SAS Institute, IBM czy później Google, zaczęły integrować techniki eksploracji danych z algorytmami predykcyjnymi. W literaturze wyróżnia się trzy główne poziomy: opisowy, predykcyjny i preskrypcyjny, przy czym dwa ostatnie są najmocniej powiązane z AI.
Jak dokładnie działa Analityka (analytics)
Proces rozpoczyna się od pozyskania danych, które mogą pochodzić z baz transakcyjnych, czujników IoT, mediów społecznościowych lub rejestrów publicznych. Dane podlegają czyszczeniu, integracji oraz selekcji zmiennych, co minimalizuje ryzyko błędów i ułatwia uczenie modeli. W warstwie modelowania stosuje się algorytmy klasyfikacji, regresji, klasteryzacji bądź sieci neuronowe, w zależności od charakteru problemu. Po etapie trenowania następuje walidacja krzyżowa, która pozwala ocenić uogólnienie modelu na niewidzianych wcześniej przykładach. Wyniki przekładane są na raporty, pulpity decyzyjne lub interfejsy API, dzięki czemu mogą zostać zaimplementowane w systemach operacyjnych organizacji. Całość domyka pętla ciągłego monitoringu wydajności, ponieważ środowisko biznesowe i strumień danych podlegają zmianom.
Zastosowania w praktyce
Jednym z najczęściej cytowanych przykładów jest predykcyjne utrzymanie ruchu w fabrykach. Czujniki wibracyjne i temperaturowe rejestrują sygnały z maszyn, a algorytmy detekcji anomalii wskazują, kiedy może wystąpić awaria. Dzięki temu firma planuje przestoje serwisowe z wyprzedzeniem, oszczędzając koszty przestojów produkcyjnych. Analityka wspiera także bankowość w ocenie ryzyka kredytowego, zdrowie publiczne w prognozowaniu rozprzestrzeniania się chorób oraz handel detaliczny w personalizacji rekomendacji zakupowych. W porównaniu z klasycznymi raportami Business Intelligence, które opisują przeszłość, analityka oparta na AI tworzy prognozy oraz scenariusze „co-jeśli”, umożliwiając aktywne sterowanie procesami.
Zalety i ograniczenia
Największym atutem jest zdolność do wykrywania subtelnych zależności w dużych, złożonych zbiorach, co zwiększa trafność decyzji i pozwala automatyzować zadania analityczne. Jednakże wymagania związane z jakością danych, mocą obliczeniową i kompetencjami zespołu mogą podnieść bariery wejścia. Modele nadmiernie dopasowane do danych historycznych tracą skuteczność, gdy warunki ulegają zmianie, a brak przejrzystości algorytmów utrudnia wytłumaczenie decyzji interesariuszom.
Na co uważać?
Kluczowe ryzyka obejmują stronniczość danych, prowadzącą do dyskryminacji grup użytkowników, oraz wyciek informacji wrażliwych, który może skutkować naruszeniem przepisów RODO. W praktyce warto zwrócić uwagę na problem przecieku danych pomiędzy zbiorem treningowym a testowym, ponieważ zawyża on wyniki metryk i wprowadza w błąd co do realnej wydajności wdrożonego systemu. Istotne jest również zapewnienie nadzoru człowieka nad automatycznie generowanymi rekomendacjami, aby zapobiec niepożądanym konsekwencjom decyzyjnym.
Historia i kontekst rozwoju
Z perspektywy historii technologii pierwsze wzmianki o analityce danych pojawiły się w latach 60. XX w., kiedy to John Tukey spopularyzował pojęcie „eksploracyjnej analizy danych”. Przełomowe znaczenie dla rozwoju miało powstanie algorytmu CART w 1984 r. autorstwa Breimana, Friedmana, Olshen i Stone, który położył podwaliny pod nowoczesne drzewa decyzyjne. W 2001 r. Thomas H. Davenport opisał w Harvard Business Review rosnącą rolę kompetencji analitycznych w przedsiębiorstwach, co uznaje się za moment wejścia terminu „analytics” do głównego nurtu zarządzania. Z kolei boom na uczenie głębokie po 2012 r. rozszerzył zakres analityki o złożone modele sieci neuronowych.
Dodatkowe źródła
Osoby zainteresowane pogłębieniem tematu mogą sięgnąć do artykułu T. H. Davenporta „Competing on Analytics” dostępnego na stronie Harvard Business Review. Aktualne wyniki badań naukowych dotyczących zastosowań analityki w modelach głębokiego uczenia można znaleźć w repozytorium arXiv. Przegląd historyczny pojęcia oferuje Wikipedia, natomiast praktyczne przykłady wdrożeń przedstawia dokumentacja Google Cloud Solutions.


