Aktualności

Nowe słuchawki AI pozwalają słuchać jednej osoby w tłumie

Inżynierowie opracowali system sztucznej inteligencji, który umożliwia użytkownikowi słuchawek skoncentrowanie się na głosie jednej osoby w tłumie, patrząc na nią przez zaledwie kilka sekund. System, nazwany „Target Speech Hearing”, umożliwia słuchanie tylko głosu wybranej osoby w czasie rzeczywistym, nawet jeśli obie osoby poruszają się w hałaśliwym otoczeniu.

Słuchawki z funkcją redukcji hałasu zyskały dużą popularność, jednak nadal wyzwaniem pozostaje dopuszczenie niektórych dźwięków z otoczenia użytkownika. Najnowsza wersja słuchawek Apple AirPods Pro automatycznie dostosowuje poziomy dźwięku, ale użytkownik ma ograniczoną kontrolę nad tym, kogo słuchać i kiedy.

Zespół z Uniwersytetu Waszyngtońskiego zaprezentował swoje rozwiązanie 14 maja na konferencji ACM CHI Conference on Human Factors in Computing Systems w Honolulu. Kod proof-of-concept jest dostępny dla innych badaczy do dalszego rozwijania. System nie jest jeszcze dostępny komercyjnie.

Zazwyczaj myślimy o AI jako o chatbotach internetowych, które odpowiadają na pytania” powiedział profesor Shyam Gollakota z Paul G. Allen School of Computer Science & Engineering na Uniwersytecie Waszyngtońskim. „W tym projekcie rozwijamy AI, aby zmieniać percepcję słuchową każdego, kto nosi słuchawki, według ich preferencji. Dzięki naszym urządzeniom można teraz wyraźnie słyszeć pojedynczego rozmówcę, nawet w hałaśliwym otoczeniu z wieloma ludźmi.

Aby skorzystać z systemu, użytkownik noszący słuchawki z mikrofonami naciska przycisk, kierując głowę w stronę mówiącej osoby. Fale dźwiękowe z głosu tej osoby docierają do mikrofonów po obu stronach słuchawek jednocześnie, z marginesem błędu wynoszącym 16 stopni. Słuchawki wysyłają sygnał do wbudowanego komputera, gdzie oprogramowanie uczy się wzorców głosu wybranej osoby. System koncentruje się na głosie tej osoby i odtwarza go użytkownikowi, nawet gdy obie osoby się poruszają. Im dłużej osoba mówi, tym bardziej system poprawia zdolność do skupienia się na jej głosie.

W testach systemu przeprowadzonych na 21 osobach, uczestnicy ocenili klarowność głosu wybranej osoby prawie dwukrotnie wyżej w porównaniu do niesfiltrowanego dźwięku.

Zespół planuje rozwijać system, aby był kompatybilny z wkładkami dousznymi i aparatami słuchowymi w przyszłości.

Dodatkowymi autorami pracy są doktoranci z Uniwersytetu Waszyngtońskiego: Bandhav Veluri, Malek Itani i Tuochao Chen oraz Takuya Yoshioka, dyrektor badań w AssemblyAI. Badania zostały sfinansowane przez Moore Inventor Fellow award, Thomas J. Cable Endowed Professorship i UW CoMotion Innovation Gap Fund.

źródło: sciencedaily.com

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *