Mira Murati jest ważna dla AI, bo symbolizuje etap, w którym modele przestały być głównie demonstracją badawczą, a stały się produktem masowego użycia. Jej wpływ najlepiej widać w przejściu OpenAI od laboratorium do narzędzi takich jak ChatGPT i DALL-E oraz w badawczo-produktowej drodze Sory. Trzeba jednak zaznaczyć, że Murati odeszła z OpenAI w 2024 roku, a pełniejsze produktowe udostępnienie Sory nastąpiło później.
Dlaczego ta osoba jest ważna dla AI?
Murati była jedną z kluczowych osób odpowiedzialnych za to, jak modele OpenAI trafiały do użytkowników. To rola mniej efektowna niż autorstwo pojedynczej publikacji, ale w praktyce bardzo wpływowa: produkt decyduje, kto może korzystał z AI, w jakim interfejsie, z jakimi ograniczeniami i w jakim tempie nowe funkcje stają się normą.
Kim jest?
Mira Murati to inżynierka i liderka produktowo-technologiczna, była CTO OpenAI. W czasie jej pracy firma rozwijała i wdrażała między innymi ChatGPT i DALL-E oraz prowadziła prace nad Sorą. Po odejściu z OpenAI Murati została współzałożycielką i CEO Thinking Machines Lab, firmy mającej łączyć badania nad AI z produktami.
Konkretny wkład w rozwój AI
Wkład Murati polega na przekładaniu możliwości modeli na doświadczenie użytkownika. ChatGPT stał się produktem dlatego, że nie wymagał od milionów osób wiedzy o promptowaniu w API, trenowaniu modeli ani infrastrukturze. DALL-E przesunął rozmowę o AI w stronę obrazu, a Sora – rozwijana badawczo przed późniejszym udostępnieniem produktu – w stronę wideo, czyli mediów, w których kwestie praw autorskich, deepfake i odpowiedzialności są szczególnie widoczne.
Najważniejsze projekty, decyzje lub idee
- ChatGPT: produkt, który zmieniż oczekiwania wobec interfejsu AI i wprowadził modele językowe do codziennej pracy.
- DALL-E i multimodalność: przeniesienie generatywnej AI poza tekst, w stronę obrazów i kreatywnych przepływów pracy.
- Sora: przykład ambicji generowania wideo, rozwijany badawczo za czasów Murati i udostępniany produktowo później, ale też punkt zapalny w debacie o prawach twórców i autentyczności mediów.
Kontrowersje, ograniczenia i ryzyka
Największe ryzyko dotyczy odpowiedzialności za wypuszczanie modeli w świat. Produkt AI nie jest neutralnym opakowaniem badań: ustawienia domyślne, filtry, dostępność funkcji i komunikacja marketingowa wpływają na realne użycie. W przypadku narzędzi obrazowych i wideo dochodzą pytania o zgodę twórców, rozpoznawalność materiałów syntetycznych, nadużycia polityczne i granice automatyzacji kreatywnej pracy.
Co to oznacza dla użytkowników i firmę
Dla użytkowników praca Murati jest lekcja, że największa zmiana często pojawia się wtedy, gdy trudną technologię dostaje prosty interfejs. Dla firm oznacza to konieczność myślenia o AI nie jako o dodatku, lecz jako o produkcie z zasadami: kto ma dostęp, jakie dane można wprowadzać, jak oznaczać wynik i kiedy wymagać ludzkiej kontroli.
Dlaczego warto obserwować daleję
Warto obserwować, czy Thinking Machines Lab zaproponuje inny model budowy AI niż wielkie platformy, czy raczej wejdzie w ten sam wyścig o talenty, dane i moc obliczeniową. Murati pozostaje ważna, bo łączy język produktu z językiem badań, a to połączenie decyduje o tym, jak AI trafia do masowego użycia.
To część serii Ludzie, którzy kształtują AI, w której opisujemy osoby realnie wpływające na rozwój sztucznej inteligencji.







