Ostatnie badania przeprowadzone przez grupę szwajcarskich i włoskich naukowców wykazały, że chatboty AI, takie jak GPT-4, są znacznie bardziej przekonujące w debatach niż ludzie. W eksperymencie, gdzie uczestnicy dyskutowali na różne tematy, takie jak na przykład przeprowadzanie testów laboratoryjnych na zwierzętach, AI okazało się efektywniejsze o 81,7% w perswazji czyli przekonywaniu ludzi do swoich racji.
Wykorzystanie danych demograficznych w debatach
Podczas eksperymentu, uczestnikom proponowano podać pewne informacje demograficzne, takie jak płeć, wiek, pochodzenie etniczne, wykształcenie, status zatrudnienia oraz przynależność polityczna. Te dane, gdy były dostępne, umożliwiały GPT-4 skuteczniejsze dostosowywanie argumentów, co przyczyniło się do większej przewagi nad ludzkimi oponentami. Zaskakująco, gdy podobne informacje były dostępne dla ludzkich dyskutantów, ich wyniki pogorszyły się.
Potencjalne zagrożenia i konsekwencje
Badanie podnosi poważne obawy dotyczące ryzyka manipulowania rozmowami online i zanieczyszczania ekosystemu informacyjnego przez LLM (Large Language Models). Głównie chodzi tutaj o rozprzestrzenianie dezinformacji. Specjaliści i liderzy branży, w tym CEO OpenAI Sam Altman, podkreślają konieczność monitorowania perswazyjnych zdolności AI.
Przyszłe kierunki badań i interwencje
Zespół badawczy planuje dalsze eksperymenty. Uczestnicy będą tym razem debatować na tematy, z którymi są bardziej związani emocjonalnie, aby sprawdzić, jak to wpłynie na wyniki.
Dodatkowo, istnieje potrzeba rozwoju lepszych metod wykrywania użycia AI. Niewątpliwie może bowiem pomóc to w skuteczniejszym zwalczaniu negatywnych skutków stosowania AI w mediach społecznościowych i na platformach online.
Platformy społecznościowe a siła perswazji AI
Manoel Ribeiro, jeden z autorów badania, zwraca uwagę, że platformy takie jak Facebook, Twitter czy TikTok będą musiały dostosować swoje podejścia do AI w zależności od kontekstu, czy to w przypadku oszustów, czy zagranicznych agentów wpływających na wybory. Rozwiązania te będą prawdopodobnie różnić się w zależności od specyfiki zagrożeń.
Czy powinna nas martwić siła perswazji AI?
Badania te rzucają światło na rosnące znaczenie i wpływ modeli językowych AI na interakcje online oraz konieczność ciągłego badania interakcji człowiek-AI. Staje się to coraz bardziej istotne w miarę rozwoju i popularyzacji tych technologii. Wiedza o potencjale perswazji AI jest kluczowa dla opracowania strategii, które pomogą chronić użytkowników internetu przed nieetycznym wykorzystaniem sztucznej inteligencji.