Czym jest Sieć logiczna Markowa (Markov logic network)?
Sieć logiczna Markowa, w skrócie MLN, łączy probabilistykę Markowa z klasyczną logiką pierwszego rzędu. W jednym modelu współistnieją reguły logiczne, które opisują strukturę świata, oraz wagi liczbowe określające, jak silnie dana reguła oddziałuje na szacowanie niepewności. Dzięki temu MLN potrafi reprezentować złożone zależności symboliczne, a jednocześnie obliczać prawdopodobieństwa tak jak sieci Markowa.
Kontekst historyczny i geneza
Pomysł został zaprezentowany w 2006 roku przez Pedra Domingosa i Matta Richardsona z University of Washington. Prace te wywodziły się z wcześniejszych badań nad Statistical Relational Learning, które próbowało wypełnić lukę między logiką a grafami probabilistycznymi. Od tamtej pory MLN znalazły się w centrum zainteresowania grup badawczych na Stanford University, Carnegie Mellon University oraz w wielu laboratoriach przemysłowych.
Jak dokładnie działa Sieć logiczna Markowa (Markov logic network)
Model buduje się, definiując zestaw klauzul logicznych, takich jak Przyjaciel(x, y) ⇒ Przyjaciel(y, x), i przypisując im wagi. Klauzule te są następnie uziemiane dla wszystkich kombinacji obiektów w dziedzinie, co tworzy duży graf Markowa. Wagi przekładają się na funkcję energii, a inferencja polega na szukaniu najbardziej prawdopodobnych wartości zmiennych lub obliczaniu rozkładów marginalnych. Najczęściej stosuje się algorytmy takie jak Markov Chain Monte Carlo albo wariacyjne metody optymalizacji.
Krótki przykład
Wyobraźmy sobie system rekomendacji restauracji, który dysponuje informacją o tym, kto z kim jest znajomym oraz jakie potrawy lubią użytkownicy. MLN może reprezentować regułę: „jeśli Użytkownik A i B są znajomymi, a A lubi sushi, to istnieje większe prawdopodobieństwo, że B także polubi sushi”. Wagi uczą się automatycznie z danych, co pozwala modelowi poprawiać trafność rekomendacji wraz z pojawianiem się nowych przykładów.
Zastosowania w praktyce
Społeczności naukowe i branżowe korzystają z MLN w analizie sieci społecznych, ekstrakcji wiedzy z tekstu, robotyce oraz bioinformatyce. W porównaniu z czysto probabilistycznymi sieciami Bayesa, MLN pozwalają dodać semantyczne reguły domenowe, a w zestawieniu z klasyczną logiką są w stanie radzić sobie z niepewnością w danych.
Zalety i ograniczenia
Największym atutem jest elastyczność łączenia wiedzy symbolicznej z probabilistycznym wnioskowaniem, co poprawia interpretowalność modeli. Ograniczeniem pozostaje wysoka złożoność obliczeniowa podczas uziemiania oraz inferencji, zwłaszcza w domenach o dużej liczbie obiektów. W praktyce konieczna bywa redukcja przestrzeni lub stosowanie przybliżeń.
Na co uważać?
Podczas projektowania MLN ważny jest właściwy dobór reguł i unikanie nadmiernego ich nakładania się, co prowadzi do trudnej w konwergencji inferencji. Należy również zwracać uwagę na źródło danych treningowych, ponieważ błędne lub niepełne etykiety mogą zniekształcić wyuczony rozkład.
Dodatkowe źródła
Szczegółowe wprowadzenie można znaleźć w artykule Markov Logic: An Interface Layer for Probabilistic and Deterministic Reasoning autorstwa Domingosa i Richardsona. Warto również przejrzeć stronę Wikipedia – Markov logic network oraz repozytorium arXiv: Survey on Statistical Relational Learning.


