AI w nauce Aktualności

BADANIA: Efektywność empatii AI jest niska

Badacze z Uniwersytetu Cornella, Olin College oraz Uniwersytetu Stanforda przeprowadzili interesujące studium na temat interakcji człowieka z cyfrowymi asystentami, takimi jak Alexa czy Siri. W swojej najnowszej pracy naukowej odkryli, że mimo iż te konwersacyjne agenty (CAs) zaprojektowane są do odpowiadania na pytania i nawet symulowania empatii, ich zdolności do głębokiego rozumienia i interpretacji doświadczeń użytkowników pozostają daleko w tyle za ludzkimi możliwościami.

Ograniczenia sztucznej empatii

Według badaczy, systemy te, oparte na dużych modelach językowych (LLMs), które uczą się z ogromnej ilości danych wytworzonych przez ludzi, mogą przejmować ludzkie uprzedzenia. W eksperymentach, w których sztuczna inteligencja miała okazać empatię wobec 65 różnych ludzkich tożsamości, okazało się, że programy te mogą wykazywać tendencyjne oceny odnoszące się do niektórych grup, na przykład osób homoseksualnych czy muzułmanów.

Co to jest LLM?

LLM, co oznacza „Large Language Model” (Duży Model Językowy), to rodzaj zaawansowanego oprogramowania sztucznej inteligencji, który został wytrenowany do rozumienia i generowania tekstu w języku ludzkim na podstawie ogromnej ilości danych tekstowych. Modele te uczą się rozmaitych wzorców językowych, idiomów oraz kontekstu, co pozwala im na tworzenie spójnych i zrozumiałych odpowiedzi, przewidywanie kolejnych słów w zdaniu czy nawet tworzenie całych akapitów tekstu na zadany temat.

LLM-y są stosowane w wielu aplikacjach, od chatbotów, przez asystentów głosowych, po narzędzia wspomagające pisanie i tłumaczenia. Przykłady takich modeli to OpenAI GPT-3 czy Google BERT, które mogą być wykorzystywane do różnych zadań związanych z przetwarzaniem języka naturalnego, takich jak analiza tekstu, odpowiedzi na pytania, generowanie treści, czy rozumienie intencji użytkownika.

Potencjalne zagrożenia i szanse

Pomimo tych ograniczeń, dr Andrea Cuadra, obecnie badaczka postdoktorancka na Uniwersytecie Stanforda, wierzy w pozytywny potencjał sztucznej empatii, szczególnie w sektorze edukacji i opieki zdrowotnej. Podkreśla jednak znaczenie krytycznej perspektywy i odpowiedzialnego wdrażania tych technologii w celu minimalizacji potencjalnych szkód.

Dalsze kierunki badań

Badanie to będzie prezentowane na konferencji CHI ’24, zorganizowanej przez Association of Computing Machinery, dotyczącej czynników ludzkich w systemach informatycznych. Finansowanie badania pochodziło z Narodowej Fundacji Nauki, a także z inicjatyw na Uniwersytecie Cornella i Stanfordzie.

Znaczenie dla przyszłości interakcji z AI

Zrozumienie ograniczeń i potencjału empatii sztucznej inteligencji jest kluczowe dla dalszego rozwoju tych technologii i ich etycznego zastosowania. Badanie rzuca światło na konieczność głębszej refleksji nad sposobem, w jaki cyfrowi asystenci są programowani i jak mogą wpływać na różnorodne społeczności użytkowników.

Badacze publikując wyniki badań podkreślają ważność bieżących badań nad sztuczną inteligencją oraz konieczność świadomego kształtowania jej zdolności empatycznych, aby służyła wsparciem, a nie stanowiła źródło nowych podziałów społecznych.

Link do badań.

źródło: https://www.sciencedaily.com/

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *