Podczas występu we wrocławskiej Hali Stulecia, raper Mata zaskoczył fanów czymś więcej niż tylko setlistą. W trakcie utworu „Schodki” ekrany nie wyświetliły standardowego podglądu publiczności, lecz tysiące kopii twarzy samego artysty nałożonych na sylwetki zgromadzonych osób. To spektakularne wykorzystanie AI na koncercie stanowi punkt zwrotny w sposobie, w jaki myślimy o interakcji między gwiazdą a odbiorcą, zamieniając bierny tłum w cyfrowe odbicie idola.
Technologia deepfake w czasie rzeczywistym
To, co zobaczyli fani we Wrocławiu, nie było prostym filtrem znanym z mediów społecznościowych, lecz zaawansowanym systemem operującym w czasie rzeczywistym. Za realizację odpowiadało studio MELT IMMERSIVE, które musiało zmierzyć się z ogromnym wyzwaniem obliczeniowym. Tradycyjne tworzenie materiałów typu deepfake wymaga godzin renderowania, aby algorytmy mogły precyzyjnie nałożyć jedną twarz na drugą, analizując mimikę i oświetlenie.
W przypadku wydarzenia na żywo, opóźnienia muszą być niezauważalne dla ludzkiego oka. System musiał błyskawicznie przetwarzać obraz z kamer, wykrywać twarze w tłumie i podmieniać je na wizerunek Michała Matczaka, zachowując przy tym dynamikę ruchu. Opiera się to na mechanizmach Generative Adversarial Networks (GAN), gdzie dwie sieci neuronowe współpracują ze sobą: jedna generuje obraz, a druga ocenia jego wiarygodność.
AI na koncercie jako narzędzie nowej narracji
Zastosowanie tej technologii wykracza poza zwykły efekt specjalny. Jak zauważa Kuba Matyka z MELT IMMERSIVE: „Nie chcieliśmy efektu specjalnego, tylko zaskakującego momentu dla fanów, w którym artysta i tłum stają się jednością”. AI na koncercie stało się tutaj nośnikiem symboliki – zatarciem granicy między nadawcą a odbiorcą. W momencie, gdy tłum śpiewał tekst utworu, widząc na ekranie tysiące twarzy Maty, powstała nowa, zbiorowa tożsamość cyfrowa.
To podejście pokazuje, jak sztuczna inteligencja może redefiniować doświadczenie muzyczne. Jeśli interesuje Cię, jak algorytmy wpływają na proces twórczy, warto sprawdzić, jak rozwija się sztuczna inteligencja w muzyce, oferując artystom narzędzia nie tylko do wizualizacji, ale i do komponowania.
Wyzwania techniczne i etyczne
Wprowadzenie tak zaawansowanych rozwiązań na masową skalę rodzi pytania o prywatność i etykę. Choć udział w imprezie masowej wiąże się z pewną zgodą na bycie filmowanym, dynamiczna modyfikacja wizerunku w czasie rzeczywistym to wciąż prawna szara strefa. Technologia ta, choć tutaj użyta w celach artystycznych, jest blisko spokrewniona z mechanizmami wykorzystywanymi do dezinformacji. Dlatego tak ważne jest zrozumienie, co to jest deepfake i jakie niesie ze sobą potencjalne zagrożenia poza sceną rozrywkową.
Z perspektywy technicznej, największym wrogiem AI na koncercie jest latencja. Aby iluzja była doskonała, system musi działać z opóźnieniem rzędu milisekund. Wymaga to potężnych jednostek GPU i zoptymalizowanych modeli uczenia maszynowego, które potrafią „przewidywać” ruch, zanim zostanie on w pełni przetworzony.
Przyszłość widowisk w cieniu algorytmów
Eksperyment z trasy Maty to dopiero początek. Możemy spodziewać się, że wkrótce artyści będą sięgać po jeszcze bardziej immersyjne rozwiązania, takie jak holograficzne awatary generowane na żywo czy scenografia reagująca na emocje tłumu analizowane przez AI. Technologia style transfer (transfer stylu) może w przyszłości zmieniać nie tylko twarze, ale i całe otoczenie koncertowe, przenosząc fanów w surrealistyczne, cyfrowe światy bez konieczności zakładania gogli VR.
Sukces wrocławskiego koncertu udowadnia, że publiczność jest gotowa na te zmiany, o ile służą one budowaniu głębszej relacji z artystą.



2 Komentarze