Stanley Milgram, w swoim eksperymencie przeprowadzonym w 1963 roku, zgłębiał zagadnienie posłuszeństwa ludzi wobec autorytetu. Uczestnicy badania, pełnili rolę „nauczycieli”. Osoba występująca jako autorytet instruowała ich, by aplikowali coraz to silniejsze wstrząsy elektryczne „uczniom” za każdym razem, gdy ci popełniali błędy. Choć wstrząsy były symulowane, a aktorzy udawali ból, wielu uczestników kontynuowało zadawanie wstrząsów pomimo widocznego dyskomfortu. Eksperyment Milgrama ujawnił zaskakujące poziomy posłuszeństwa wobec autorytetów, nawet gdy zlecone działania były w konflikcie z osobistym kodeksem moralnym uczestników. Co wspólnego mają roboty z eksperymentem z lat 60-tych?
Badania nad posłuszeństwem wobec robotów
Naukowcy z Uniwersytetu SWPS postanowili odtworzyć eksperyment Milgrama, zastępując ludzki autorytet robotem. Eksperyment ten miał na celu zbadanie reakcji ludzi na polecenia wydawane przez roboty. Wyniki badania ukazały, że aż 90 procent uczestników bezwzględnie wykonywało polecenia robota. Prowadzi to do refleksji nad etycznymi i społecznymi implikacjami takiego posłuszeństwa.
Eksperyment rzuca także nowe światło na to, jaki stosunek mogą mieć ludzie do sztucznej inteligencji. Wyniki badania sugerują, że podejście ludzi do AI może być prawie zupełnie bezkrytyczne.
Roboty – bezwarunkowe zaufanie?
Przeprowadzone badania naukowe pokazują, że ludzie są skłonni podążać za poleceniami wydawanymi przez roboty, nawet gdy może to prowadzić do szkód. Postęp w technologii sprawia, że maszyny mogą szybko zbierać i analizować dane, czasem przewyższając ludzkie możliwości. Z czasem i wraz z coraz szerszym zastosowaniem roboty zapewne zyskają większą autonomię w podejmowaniu decyzji. Do jakiego stopnia ludzie będą wtedy ufać ich decyzjom?
Badanie implikuje, że zaufanie to może być czasami nadmierne. Na przykład, w jednym z eksperymentów, uczestnicy ufali robotowi wskazującemu drogę ewakuacji. Działo się tak nawet wtedy, gdy prowadził on do ciemnego pomieszczenia bez widocznego wyjścia. Taka ślepa wiara może prowadzić do poważnych konsekwencji, zwłaszcza w przypadku gdy roboty będą miały większą autonomię w przyszłości.
Jak zminimalizować zagrożenia?
Istnieją dwie główne ścieżki, które mogą pomóc zminimalizować potencjalne zagrożenia. Pierwsza to programowanie robotów, aby informowały ludzi o możliwościach popełnienia błędu. Druga to edukacja ludzi o ograniczeniach technologii od najmłodszych lat. Ważne jest, aby ludzie rozumieli, że choć roboty są pomocne, nie są one nieomylne. Sztuczna inteligencja i jej narzędzia tak samo.