Współczesne technologie dążą do tworzenia robotów, które będą w stanie lepiej współpracować z ludźmi. Kluczem do osiągnięcia tego celu jest umożliwienie robotom reagowania na polecenia w języku naturalnym. W najnowszym projekcie przedstawionym przez Yujina Tanga i Wenhao Yu z Google, zatytułowanym „SayTap: Language to Quadrupedal Locomotion”, naukowcy prezentują innowacyjne podejście do tej kwestii.
Interakcja z Robotami Czteronożnymi
SayTap to system, który pozwala użytkownikom na elastyczne kształtowanie różnorodnych zachowań lokomocyjnych robotów czteronożnych. Kluczem jest wykorzystanie wzorców kontaktu stopy, które służą jako interfejs między poleceniami w języku naturalnym a kontrolerem lokomocji. Dzięki temu użytkownicy mogą prosić robota o chodzenie, bieganie, skakanie czy wykonywanie innych ruchów za pomocą prostego języka.
Jak Działa SayTap?
Chociaż duże modele językowe (LLM) wykazały potencjał w zakresie planowania na wysokim poziomie, nadal stanowi wyzwanie zrozumienie przez nie poleceń na niższym poziomie, takich jak kąty stawów czy momenty obrotowe. Metoda SayTap opiera się na szablonie wzorca kontaktu stopy. Jest to macierz składająca się z zer i jedynek, które reprezentują, czy noga robota jest w powietrzu, czy na ziemi. SayTap służy jako most między poleceniami użytkownika a kontrolerem lokomocji, który generuje niskopoziomowe polecenia dla robota. W praktyce oznacza to, że robot może reagować zarówno na proste i bezpośrednie polecenia, jak i na bardziej niejednoznaczne instrukcje.
Wyniki i Przyszłość
Eksperymenty pokazały, że system SayTap skutecznie tłumaczy różne polecenia ludzkie na odpowiednie wzorce kontaktu stopy. Co więcej, robot potrafi reagować na niejasne instrukcje, takie jak „Idziemy na piknik!”, prezentując odpowiednie zachowanie. W przyszłości naukowcy planują rozwijać system, dodając więcej funkcji i możliwości, takich jak reagowanie na bodźce wielomodalne, takie jak wideo czy dźwięk.