Aktualności

Czy AI ochroni nas przed hejtem?

Naukowcy wykorzystują uczenie maszynowe do wykrywania mowy nienawiści z 88-procentową dokładnością.

Zespół badaczy opracował nową metodę uczenia maszynowego, która wykrywa mowę nienawiści na platformach społecznościowych z 88-procentową dokładnością, oszczędzając pracownikom setki godzin emocjonalnie obciążającej pracy.

Zespół badaczy z Uniwersytetu w Waterloo opracował nową metodę uczenia maszynowego, która wykrywa mowę nienawiści na platformach społecznościowych z 88-procentową dokładnością, oszczędzając pracownikom setki godzin emocjonalnie obciążającej pracy.

Metoda, nazwana Multi-Modal Discussion Transformer (mDT), potrafi zrozumieć związek między tekstem a obrazami oraz umieszczać komentarze w szerszym kontekście, co odróżnia ją od wcześniejszych metod wykrywania mowy nienawiści. Jest to szczególnie pomocne w zmniejszaniu liczby fałszywych pozytywów, które często są błędnie oznaczane jako mowa nienawiści z powodu kulturowo wrażliwego języka.

Naprawdę mamy nadzieję, że ta technologia pomoże zmniejszyć emocjonalny koszt ręcznego przeszukiwania mowy nienawiści przez ludzi,” powiedział Liam Hebert, doktorant informatyki z Waterloo i pierwszy autor badania. „Wierzymy, że poprzez podejście skoncentrowane na społeczności w naszych zastosowaniach AI, możemy pomóc stworzyć bezpieczniejsze przestrzenie online dla wszystkich.”

Naukowcy od wielu lat budują modele do analizowania znaczenia ludzkich rozmów, ale te modele miały historycznie trudności z rozumieniem subtelnych rozmów lub kontekstualnych wypowiedzi. Wcześniejsze modele były w stanie zidentyfikować mowę nienawiści z dokładnością do 74 procent, co jest wynikiem znacznie niższym niż osiągnęli badacze z Waterloo.

Kontekst jest bardzo ważny przy rozumieniu mowy nienawiści,” powiedział Hebert. „Na przykład komentarz ’To obrzydliwe!’ może być niewinny sam w sobie, ale jego znaczenie zmienia się dramatycznie, jeśli jest odpowiedzią na zdjęcie pizzy z ananasem w porównaniu do osoby z grupy marginalizowanej.

„Zrozumienie tej różnicy jest łatwe dla ludzi, ale nauczenie modelu rozumienia kontekstualnych powiązań w dyskusji, w tym uwzględnienie obrazów i innych elementów multimedialnych, jest bardzo trudnym zadaniem.”

W przeciwieństwie do wcześniejszych prób, zespół z Waterloo zbudował i wytrenował swój model na zbiorze danych zawierającym nie tylko izolowane nienawistne komentarze, ale także kontekst tych komentarzy. Model został wytrenowany na 8 266 dyskusjach z Reddita zawierających 18 359 oznakowanych komentarzy z 850 społeczności.

Ponad trzy miliardy ludzi korzysta codziennie z mediów społecznościowych,” powiedział Hebert. „Wpływ tych platform społecznościowych osiągnął niespotykany dotąd poziom. Istnieje ogromna potrzeba wykrywania mowy nienawiści na dużą skalę, aby budować przestrzenie, w których każdy jest szanowany i bezpieczny.

Badanie, Multi-Modal Discussion Transformer: Integrating Text, Images and Graph Transformers to Detect Hate Speech on Social Media, zostało niedawno opublikowane w materiałach konferencji Thirty-Eighth AAAI Conference on Artificial Intelligence.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *