AI w nauce Artykuły

AI w wykrywaniu kłamstw: zagrożenie dla harmonii społecznej?

Obraz przedstawia urządzenie do wykrywania kłamstw oparte na AI

W obliczu gwałtownego rozwoju technologii sztucznej inteligencji, algorytmy wykrywające kłamstwa zyskują na znaczeniu jako narzędzie do walki z dezinformacją i oszustwami. Jednakże, ich wprowadzenie budzi pytania dotyczące wpływu na dynamikę społeczną i relacje międzyludzkie. Czy powszechne użycie takich algorytmów może zakłócić harmonię społeczną? Badanie przeprowadzone przez Alicję von Schenk, Victora Klockmanna, Jean-François Bonnefon, Iyada Rahwana i Nilsa Köbisa, opublikowane w czasopiśmie iScience, analizuje te zagadnienia.

Przebieg badania

Badania przeprowadzone przez naukowców z różnych instytucji, w tym Max Planck Institute for Human Development oraz University of Duisburg-Essen, miały na celu zbadanie wpływu algorytmów wykrywających kłamstwa na zachowania oskarżycielskie. W badaniu wzięło udział 986 uczestników, którzy napisali zarówno prawdziwe, jak i fałszywe oświadczenia. Następnie grupa 2040 sędziów oceniała ich prawdziwość.

Algorytm użyty w badaniu

W badaniu wykorzystano algorytm BERT (Bidirectional Encoder Representations from Transformers) opracowany przez Google. BERT jest modelem językowym, który analizuje tekst, biorąc pod uwagę kontekst zarówno przed, jak i po słowie kluczowym. Dzięki temu może lepiej rozumieć niuanse językowe i zależności między słowami.

Aby osiągnąć wysoką dokładność w wykrywaniu kłamstw, badacze podzielili zebrane oświadczenia na pięć równych części. Model był trenowany na 80% danych, a następnie testowany na pozostałych 20%. Proces ten powtórzono pięć razy, aby uzyskać miarodajne wyniki. Algorytm osiągnął dokładność 66,86%, co jest znacząco wyższe niż przeciętna ludzka zdolność rozpoznawania prawdy.

Procedura eksperymentalna

Eksperyment składał się z dwóch części: pisania oświadczeń oraz ich oceny przez sędziów. Uczestnicy, którzy pisali oświadczenia, mieli za zadanie napisać jedno prawdziwe i jedno fałszywe oświadczenie na temat planów na najbliższy weekend. Następnie, sędziowie oceniali te oświadczenia, mając możliwość skorzystania z algorytmu wykrywającego kłamstwa w różnych warunkach eksperymentalnych.

Warunki eksperymentalne

  1. Warunki bazowe: Sędziowie oceniali oświadczenia bez możliwości korzystania z algorytmu.
  2. Warunek przymusowy: Sędziowie zawsze otrzymywali przewidywanie od algorytmu.
  3. Warunek blokowany: Sędziowie mogli prosić o przewidywanie algorytmu, ale przewidywanie mogło zostać zablokowane.
  4. Warunek wyboru: Sędziowie mogli prosić o przewidywanie algorytmu i zawsze je otrzymywali, jeśli wyrazili taką chęć.

Wyniki badania

Zachowania oskarżycielskie

Badania wykazały, że dostępność algorytmów wykrywających kłamstwa zmienia zachowania ludzi w kontekście oskarżeń o kłamstwo. W warunkach bazowych, bez wsparcia technologicznego, ludzie byli zazwyczaj niechętni do oskarżania innych o kłamstwo. To potwierdza teorię domyślnej prawdy (Truth-Default Theory, TDT), która sugeruje, że ludzie z natury zakładają prawdziwość wypowiedzi innych, a sceptycyzm pojawia się dopiero w obliczu wyraźnych sprzeczności.

Kiedy algorytm był dostępny, mniejszość uczestników aktywnie poszukiwała jego prognoz i polegała na nich przy podejmowaniu decyzji o oskarżeniu. Osoby te były bardziej skłonne do oskarżeń, zwłaszcza gdy algorytm sugerował, że oświadczenie jest fałszywe. Co więcej, ci, którzy prosili o prognozy algorytmu, częściej polegali na nich niż ci, którzy otrzymywali prognozy bez aktywnego ich szukania.

Dokładność i adopcja algorytmu

Algorytm osiągnął dokładność 66,86%, przewyższając ludzkie możliwości, które w warunkach bazowych wynosiły 46,47%. Wyniki badania pokazały, że sędziowie, którzy otrzymali przewidywania od algorytmu, byli bardziej skłonni do oskarżeń, zwłaszcza gdy algorytm wskazywał na fałszywość oświadczenia.

Około 31% uczestników w warunku wyboru zdecydowało się poprosić o przewidywanie algorytmu, a ci, którzy to zrobili, w większości przypadków (ponad 84%) podążyli za sugestią algorytmu dotyczącą oskarżenia.

Społeczne implikacje automatycznego wykrywania kłamstw

Wprowadzenie algorytmów wykrywających kłamstwa może mieć znaczące konsekwencje społeczne i polityczne. W świecie, gdzie każdy ma dostęp do superdokładnych narzędzi do wykrywania kłamstw, mogłoby dojść do zwiększenia liczby oskarżeń, co z kolei mogłoby prowadzić do nowych wyzwań społecznych, prawnych i etycznych.

Jednym z głównych zagrożeń jest możliwość erozji zaufania społecznego. Wysokie wskaźniki oskarżeń mogą prowadzić do wzrostu ogólnej nieufności oraz dalszej polaryzacji w społeczeństwie. Ludzie mogą stać się bardziej podejrzliwi wobec siebie, co może zaszkodzić relacjom międzyludzkim i wspólnotowym.

Z drugiej strony, łatwiejsze oskarżenia mogą również prowadzić do pozytywnych efektów, takich jak zniechęcanie do nieszczerości i promowanie prawdomówności w komunikacji osobistej i zawodowej. Kluczowym czynnikiem jest tutaj dokładność algorytmów – muszą one być wystarczająco precyzyjne, aby uniknąć fałszywych oskarżeń, które mogłyby wyrządzić krzywdę zarówno oskarżonym, jak i oskarżycielom.

Wnioski i rekomendacje

Nasze badania podkreślają pilną potrzebę opracowania wszechstronnych ram polityki, aby sprostać wpływowi algorytmów wykrywających kłamstwa napędzanych przez AI. Decydenci powinni rozważyć środki ochrony prywatności konsumentów i zaufania, ponownie przemyśleć ramy prawne dotyczące oskarżeń i promować odpowiedzialne korzystanie z AI. Szczególnie ważne jest to w obszarach takich jak opieka zdrowotna i edukacja, gdzie konsekwencje fałszywych oskarżeń mogą być bardzo poważne.

Ekonomiczne implikacje obejmują sektory polegające na ludzkim osądzie w wykrywaniu kłamstw, takie jak systemy prawne i zasoby ludzkie. Organizacje mogą naciskać na wczesne przyjęcie tych technologii, co z kolei może prowadzić do ich szerszego zastosowania w społeczeństwie.

Podsumowując, choć algorytmy wykrywające kłamstwa mają potencjał, aby poprawić dokładność oskarżeń i promować prawdomówność, ich wprowadzenie musi być przeprowadzone z rozwagą. Konieczne jest uwzględnienie zarówno ich korzyści, jak i ryzyka, aby uniknąć zakłócenia harmonii społecznej.

Pełny opis przeprowadzonego eksperymentu można znaleźć w artykule opublikowanym w czasopiśmie iScience, dostępnym online pod adresem iScience 27, 110201.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *