Badanie przeprowadzone przez Imperial College London wykazało, że ludzie przejawiają współczucie i chronią sztuczne inteligencje (AI), które są wykluczane z zabawy.
Naukowcy twierdzą, że wyniki badania, które odbyło się w formie wirtualnej gry w piłkę, podkreślają skłonność ludzi do traktowania AI jak istoty społeczne. To istotna kwestia, którą należy brać pod uwagę podczas projektowania sztucznych inteligencji.
Badanie zostało opublikowane w czasopiśmie „Human Behavior and Emerging Technologies”.
Główna autorka badania, Jianan Zhou z Dyson School of Design Engineering przy Imperial College London, podkreśliła: „To wyjątkowy wgląd w interakcje ludzi z AI, niosący ze sobą interesujące wnioski zarówno dla projektowania sztucznych inteligencji, jak i psychologii”.
W miarę jak sztuczne inteligencje stają się coraz częstszym elementem naszego codziennego życia – zarówno w dostępie do usług, jak i w roli towarzyszy do rozmowy – wyniki te sugerują, że twórcy powinni unikać tworzenia AI zbyt podobnych do ludzi.
Dr Nejra van Zalk, starszy badacz i współautorka badania, również z Dyson School of Design Engineering, dodała: „Rośnie liczba badań dotyczących tego, jak ludzie traktują AI. Nasze wyniki pokazują, że uczestnicy badania byli skłonni traktować sztuczne inteligencje jak istoty społeczne, starając się je włączyć do gry, jeśli były one wykluczane. Ten mechanizm jest typowy dla interakcji międzyludzkich, a nasze badanie pokazuje, że działa on nawet wtedy, gdy mamy świadomość, że mamy do czynienia z AI. Co ciekawe, starsi uczestnicy częściej reagowali na wykluczenie AI”.
Ludzie nie lubią wykluczania – nawet wobec AI
Empatia i działania naprawcze wobec niesprawiedliwości są zakorzenione w ludzkiej naturze. Wcześniejsze badania, niezwiązane z AI, wykazały, że ludzie mają tendencję do rekompensowania krzywd osobom wykluczonym, na przykład częściej podając im piłkę, a także do negatywnego postrzegania osób dopuszczających się wykluczania.
W badaniu wzięło udział 244 uczestników w wieku od 18 do 62 lat, którzy obserwowali, jak sztuczna inteligencja jest wykluczana przez innego uczestnika podczas gry „Cyberball” – wirtualnej gry, w której gracze rzucają do siebie piłką na ekranie. W niektórych rozgrywkach ludzki uczestnik uczciwie dzielił się piłką z AI, w innych natomiast jawnie ją ignorował, rzucając piłkę tylko do drugiego człowieka.
Po zakończeniu gry uczestnicy zostali obserwowani i zapytani o ich odczucia, aby sprawdzić, czy próbowali zrekompensować niesprawiedliwość, częściej rzucając piłkę AI.
Okazało się, że większość uczestników starała się wyrównać krzywdę, częściej podając piłkę sztucznej inteligencji. Starsi uczestnicy częściej dostrzegali niesprawiedliwość.
Ostrożność wobec AI
Naukowcy zauważyli, że coraz większe zaangażowanie ludzi w interakcje z AI, zwłaszcza podczas zadań wymagających współpracy, może prowadzić do traktowania wirtualnych agentów jako prawdziwych członków zespołu, co z kolei może wpłynąć na społeczne relacje z nimi.
Może to być korzystne w pracy zespołowej, ale rodzi także obawy, gdy AI zaczynają pełnić rolę towarzyszy zastępujących ludzkie relacje lub doradców w kwestiach zdrowotnych.
Jianan Zhou zwróciła uwagę, że unikanie projektowania AI zbyt podobnych do ludzi może pomóc w rozróżnieniu interakcji wirtualnych od rzeczywistych. Sugeruje również, że twórcy mogliby dostosowywać projektowanie AI do wieku użytkowników, biorąc pod uwagę różnice w ich postrzeganiu.
Badacze zauważyli również, że gra „Cyberball” nie odzwierciedla w pełni realnych interakcji ludzi z AI, które często odbywają się za pomocą tekstu lub głosu. Dlatego obecnie projektują kolejne eksperymenty, w których będą badać interakcje twarzą w twarz z AI w różnych kontekstach, takich jak laboratorium lub codzienne sytuacje, aby sprawdzić, jak daleko sięgają ich dotychczasowe wnioski.
źródło: sciencedaily.com