Aktualności Narzędzia AI Tekstowe

ChatGPT: będzie widział, słyszał i mówił!

ChatGPT: będzie widział, słyszał i mówił!

OpenAI najwyraźniej postanowiło zagrać na nosie Google i wyprzedzić zapowiadany przez nich model Gemini. Dziś, 25 września, ogłosiło bowiem, że ChatGPT staje się multimodalny! Oznacza to nie mniej, nie więcej, ale to, że już za dwa tygodnie użytkownicy Plus i Enterprise będą mogli prowadzić z modelem rozmowy głosowe, pokazując mu jednocześnie obrazy, o których mówią.

Porozmawiasz z ChatGPT

Nowa funkcja głosowa pozwala na prowadzenie rozmów z Chatem w sposób naturalny. Jak zapowiada OpenAI, będziemy teraz w stanie rozmawiać z asystentem, prosić o opowiadanie bajek czy rozstrzygać rodzinne dyskusje. Wystarczy wejść w ustawienia aplikacji mobilnej, aby aktywować rozmowy głosowe. Podobno będziemy mogli również wybrać jeden z pięciu głosów dla swojego wirtualnego asystenta.

Pokażesz ChatGPT obrazek

Umiejętności językowe ChatGPT pozwolą mu teraz rozumieć obrazy, zdjęcia, zrzuty ekranu i dokumenty zawierające tekst. Możliwe będzie również omawianie wiele obrazów lub korzystanie z nowego narzędzia do rysowania.

Prezentacja nowej, wyglądającej bardzo imponująco, funkcji w filmie poniżej.

Video od OpenAI prezentujące zapowiadaną funkcję ChatGPT

Gdzie będą dostępne nowe funkcje?

Jak wspomnieliśmy we wstępie – nowe funkcje mają za dwa tygodnie stać się dostępne dla wszystkich użytkowników Plus i Enterprise. Ponadto funkcja rozmów głosowych zostanie udostępniona korzystającym z aplikacji mobilnej, zarówno dla platformy iOS jak i Android.

Tutaj znajdziesz całość informacji udostępnionej przez OpenAI (treść w języku angielskim).

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *