W obliczu gwałtownego rozwoju technologii sztucznej inteligencji, algorytmy wykrywające kłamstwa zyskują na znaczeniu jako narzędzie do walki z dezinformacją i oszustwami. Jednakże, ich wprowadzenie budzi pytania dotyczące wpływu na dynamikę społeczną i relacje międzyludzkie. Czy powszechne użycie takich algorytmów może zakłócić harmonię społeczną? Badanie przeprowadzone przez Alicję von Schenk, Victora Klockmanna, Jean-François Bonnefon, Iyada Rahwana i Nilsa Köbisa, opublikowane w czasopiśmie iScience, analizuje te zagadnienia.
Przebieg badania
Badania przeprowadzone przez naukowców z różnych instytucji, w tym Max Planck Institute for Human Development oraz University of Duisburg-Essen, miały na celu zbadanie wpływu algorytmów wykrywających kłamstwa na zachowania oskarżycielskie. W badaniu wzięło udział 986 uczestników, którzy napisali zarówno prawdziwe, jak i fałszywe oświadczenia. Następnie grupa 2040 sędziów oceniała ich prawdziwość.
Algorytm użyty w badaniu
W badaniu wykorzystano algorytm BERT (Bidirectional Encoder Representations from Transformers) opracowany przez Google. BERT jest modelem językowym, który analizuje tekst, biorąc pod uwagę kontekst zarówno przed, jak i po słowie kluczowym. Dzięki temu może lepiej rozumieć niuanse językowe i zależności między słowami.
Aby osiągnąć wysoką dokładność w wykrywaniu kłamstw, badacze podzielili zebrane oświadczenia na pięć równych części. Model był trenowany na 80% danych, a następnie testowany na pozostałych 20%. Proces ten powtórzono pięć razy, aby uzyskać miarodajne wyniki. Algorytm osiągnął dokładność 66,86%, co jest znacząco wyższe niż przeciętna ludzka zdolność rozpoznawania prawdy.
Procedura eksperymentalna
Eksperyment składał się z dwóch części: pisania oświadczeń oraz ich oceny przez sędziów. Uczestnicy, którzy pisali oświadczenia, mieli za zadanie napisać jedno prawdziwe i jedno fałszywe oświadczenie na temat planów na najbliższy weekend. Następnie, sędziowie oceniali te oświadczenia, mając możliwość skorzystania z algorytmu wykrywającego kłamstwa w różnych warunkach eksperymentalnych.
Warunki eksperymentalne
- Warunki bazowe: Sędziowie oceniali oświadczenia bez możliwości korzystania z algorytmu.
- Warunek przymusowy: Sędziowie zawsze otrzymywali przewidywanie od algorytmu.
- Warunek blokowany: Sędziowie mogli prosić o przewidywanie algorytmu, ale przewidywanie mogło zostać zablokowane.
- Warunek wyboru: Sędziowie mogli prosić o przewidywanie algorytmu i zawsze je otrzymywali, jeśli wyrazili taką chęć.
Wyniki badania
Zachowania oskarżycielskie
Badania wykazały, że dostępność algorytmów wykrywających kłamstwa zmienia zachowania ludzi w kontekście oskarżeń o kłamstwo. W warunkach bazowych, bez wsparcia technologicznego, ludzie byli zazwyczaj niechętni do oskarżania innych o kłamstwo. To potwierdza teorię domyślnej prawdy (Truth-Default Theory, TDT), która sugeruje, że ludzie z natury zakładają prawdziwość wypowiedzi innych, a sceptycyzm pojawia się dopiero w obliczu wyraźnych sprzeczności.
Kiedy algorytm był dostępny, mniejszość uczestników aktywnie poszukiwała jego prognoz i polegała na nich przy podejmowaniu decyzji o oskarżeniu. Osoby te były bardziej skłonne do oskarżeń, zwłaszcza gdy algorytm sugerował, że oświadczenie jest fałszywe. Co więcej, ci, którzy prosili o prognozy algorytmu, częściej polegali na nich niż ci, którzy otrzymywali prognozy bez aktywnego ich szukania.
Dokładność i adopcja algorytmu
Algorytm osiągnął dokładność 66,86%, przewyższając ludzkie możliwości, które w warunkach bazowych wynosiły 46,47%. Wyniki badania pokazały, że sędziowie, którzy otrzymali przewidywania od algorytmu, byli bardziej skłonni do oskarżeń, zwłaszcza gdy algorytm wskazywał na fałszywość oświadczenia.
Około 31% uczestników w warunku wyboru zdecydowało się poprosić o przewidywanie algorytmu, a ci, którzy to zrobili, w większości przypadków (ponad 84%) podążyli za sugestią algorytmu dotyczącą oskarżenia.
Społeczne implikacje automatycznego wykrywania kłamstw
Wprowadzenie algorytmów wykrywających kłamstwa może mieć znaczące konsekwencje społeczne i polityczne. W świecie, gdzie każdy ma dostęp do superdokładnych narzędzi do wykrywania kłamstw, mogłoby dojść do zwiększenia liczby oskarżeń, co z kolei mogłoby prowadzić do nowych wyzwań społecznych, prawnych i etycznych.
Jednym z głównych zagrożeń jest możliwość erozji zaufania społecznego. Wysokie wskaźniki oskarżeń mogą prowadzić do wzrostu ogólnej nieufności oraz dalszej polaryzacji w społeczeństwie. Ludzie mogą stać się bardziej podejrzliwi wobec siebie, co może zaszkodzić relacjom międzyludzkim i wspólnotowym.
Z drugiej strony, łatwiejsze oskarżenia mogą również prowadzić do pozytywnych efektów, takich jak zniechęcanie do nieszczerości i promowanie prawdomówności w komunikacji osobistej i zawodowej. Kluczowym czynnikiem jest tutaj dokładność algorytmów – muszą one być wystarczająco precyzyjne, aby uniknąć fałszywych oskarżeń, które mogłyby wyrządzić krzywdę zarówno oskarżonym, jak i oskarżycielom.
Wnioski i rekomendacje
Nasze badania podkreślają pilną potrzebę opracowania wszechstronnych ram polityki, aby sprostać wpływowi algorytmów wykrywających kłamstwa napędzanych przez AI. Decydenci powinni rozważyć środki ochrony prywatności konsumentów i zaufania, ponownie przemyśleć ramy prawne dotyczące oskarżeń i promować odpowiedzialne korzystanie z AI. Szczególnie ważne jest to w obszarach takich jak opieka zdrowotna i edukacja, gdzie konsekwencje fałszywych oskarżeń mogą być bardzo poważne.
Ekonomiczne implikacje obejmują sektory polegające na ludzkim osądzie w wykrywaniu kłamstw, takie jak systemy prawne i zasoby ludzkie. Organizacje mogą naciskać na wczesne przyjęcie tych technologii, co z kolei może prowadzić do ich szerszego zastosowania w społeczeństwie.
Podsumowując, choć algorytmy wykrywające kłamstwa mają potencjał, aby poprawić dokładność oskarżeń i promować prawdomówność, ich wprowadzenie musi być przeprowadzone z rozwagą. Konieczne jest uwzględnienie zarówno ich korzyści, jak i ryzyka, aby uniknąć zakłócenia harmonii społecznej.
Pełny opis przeprowadzonego eksperymentu można znaleźć w artykule opublikowanym w czasopiśmie iScience, dostępnym online pod adresem iScience 27, 110201.