W ostatnich dniach, tuż przed ważnymi prawyborami, doszło do niepokojącego incydentu związanego z wykorzystaniem sztucznej inteligencji w polityce. Sztuczna inteligencja została wykorzystana do stworzenia robocall (rozmów wygenerowanych przez AI), które podszywały się pod prezydenta Joe Bidena, wzywając członków Partii Demokratycznej do niewzięcia udziału w głosowaniu.
Kathy Sullivan, znacząca postać w Partii Demokratycznej w stanie New Hampshire i była przewodnicząca partii w tym stanie, wezwała do postawienia sprawców przed sądem, nazywając ten incydent „atakiem na demokrację„. Robocall zaczynał się od słów „What a bunch of malarkey” – frazy kojarzonej z 81-letnim prezydentem – i następnie zniechęcał do głosowania w prawyborach, sugerując, że Demokraci powinni zachować swoje głosy na wybory listopadowe.
Sullivan, będąca prawnikiem, uważa, że robocall mogą naruszać kilka praw i jest zdeterminowana, aby odkryć osoby za nimi stojące. Prokurator generalny New Hampshire, John Formella, wezwał wyborców do zignorowania treści robocall.
Sprawa ta wywołała szereg dochodzeń, a NBC News opublikowało nagranie rozmowy. Włączenie numeru telefonu Sullivan do wiadomości budzi obawy o prywatność i potencjalne nękanie.
To wydarzenie wpisuje się w szerszą debatę na temat wykorzystania AI w kampaniach politycznych. OpenAI niedawno zawiesiło twórcę bota ChatGPT o nazwie Dean.Bot, który naśladował kandydata demokratów, Deana Phillipsa.
Wraz ze wzrostem obaw dotyczących manipulacji AI w wyborach, grupy adwokackie takie jak Public Citizen nawołują do federalnej regulacji wykorzystania AI w reklamach wyborczych. Przewodniczący Federalnej Komisji Wyborczej (FEC), Sean Cooksey, przyznał, że istnieje problem, ale stwierdził, że jego rozwiązanie może zająć do wczesnego lata.
Głęboka manipulacja głosu i boty naśladujące polityków zintensyfikowały wezwania do szybkiego działania w celu rozwiązania potencjalnego chaosu, jaki AI może wywołać w wyborach. Z uwagi na to, że ustawodawcy stanowi również rozważają ustawy mające na celu walkę z tą praktyką, incydent ten stawia pytania o podatność demokratycznych procesów na manipulację przez AI w kluczowym roku wyborczym.