Szef OpenAI, Sam Altman, opublikował na platformie X obszerny tekst, który wywołał poruszenie w świecie technologii. W eseju zatytułowanym „AI progress and recommendations” podzielił się wizją najbliższych lat rozwoju sztucznej inteligencji i ostrzegł, że to, co nadchodzi, może przekroczyć nasze wyobrażenia.
AI jest już 80% drogi do nowych odkryć
Altman zauważa, że większość ludzi wciąż myśli o AI jak o chatbotach i wyszukiwarkach, podczas gdy współczesne modele są już w stanie „pokonać najinteligentniejszych ludzi w najtrudniejszych intelektualnych zawodach”.
„Systemy AI, które potrafią rozwiązywać złożone problemy, są dziś bliżej 80% drogi do naukowca niż 20%” – napisał Altman.
Zdaniem CEO OpenAI, przeskok między tym, jak większość użytkowników korzysta ze sztucznej inteligencji, a tym, do czego jest ona realnie zdolna, jest „ogromny”.
W tekście podkreśla, że tempo zmian w ostatnich latach jest bezprecedensowe: jeszcze niedawno AI potrafiła wykonywać jedynie zadania, które człowiek rozwiązywał w kilka sekund, a dziś radzi sobie z tymi które zajmują godziny. Wkrótce przejdzie do zadań wymagających dni lub tygodni pracy.
Rok 2028: punkt zwrotny
Najbardziej elektryzujący fragment eseju dotyczy prognoz na najbliższe lata.
„W 2026 roku spodziewamy się systemów zdolnych do dokonywania niewielkich odkryć. W 2028 roku — znaczących” – zapowiedział Altman.
Zastrzegł jednak, że nawet w obliczu tak szybkiego postępu „społeczeństwo prawdopodobnie wciąż będzie żyło pozornie normalnie”, bo ludzie mają ogromną inercję w przyjmowaniu zmian.
Altman wierzy jednak, że technologia doprowadzi do „bardziej spełnionego życia” dla większej liczby osób.
Zastrzega jednak, że ekonomiczna transformacja będzie trudna, a być może konieczna będzie nawet „zmiana podstawowego kontraktu społecznego”.
Nie można wdrożyć superinteligencji bez kontroli
Choć ton tekstu Altmana momentami brzmi optymistycznie, szef OpenAI nie unika tematów ryzyka.
„Potencjalne korzyści są ogromne, ale traktujemy ryzyko systemów superinteligentnych jako potencjalnie katastrofalne” – napisał.
Wezwał do tworzenia wspólnych standardów bezpieczeństwa między największymi laboratoriami badawczymi, dzielenia się wiedzą o ryzykach i ograniczania tzw. „wyścigu zbrojeń AI”. Porównał ten proces do historycznego tworzenia przepisów budowlanych czy zasad ochrony przeciwpożarowej — norm, które powstały po tragediach i ocaliły później tysiące istnień.
Altman zaproponował również, by rządy i instytucje międzynarodowe opracowały system publicznego nadzoru nad AI, dostosowany do skali jej możliwości.
Jego zdaniem obecne technologie można regulować standardowymi metodami, ale przyszłe systemy o zdolnościach samodoskonalenia mogą wymagać „zupełnie nowego podejścia”.
AI jak elektryczność
W swojej wizji przyszłości Altman porównuje dostęp do zaawansowanych systemów AI do podstawowych dóbr cywilizacyjnych, takich jak woda czy elektryczność.
„Dorośli powinni móc korzystać z AI na własnych zasadach, w granicach wyznaczonych przez społeczeństwo. Dostęp do zaawansowanej AI stanie się fundamentalnym dobrem publicznym”
Jego zdaniem, kluczową rolę odegra „ekosystem odporności AI” sieć firm, instytucji i systemów monitorowania bezpieczeństwa, która pozwoli społeczeństwu funkcjonować w świecie napędzanym inteligentnymi maszynami.
Słowa Altmana wyznaczają nowy ton w debacie o przyszłości sztucznej inteligencji. Szef OpenAI – człowiek, który jeszcze niedawno ostrzegał przed „niekontrolowanym wyścigiem modeli” – dziś stawia na współpracę i odpowiedzialne wdrażanie postępu.
„AI pomaga odkrywać nową wiedzę. Naszym obowiązkiem jest pokierować tą mocą w sposób, który przyniesie szerokie i trwałe korzyści” – podsumował.


