Algorytmy uczą się fizyki szybciej, niż wielu się spodziewało. Coraz częściej AI proponuje rozwiązania problemów nad którymi naukowcy głowią się od 100 lat. Brzmi odważnie, ale nie chodzi o zastąpienie badaczy, tylko o nowy sposób eksploracji przestrzeni pomysłów i równań, a potem rzetelną weryfikację tego, co się znajdzie.
Wyobraźmy sobie kroplę wody spadającą na gładką taflę. To zwykła sytuacja, a jednak opis jej zachowania prowadzi do równań, które od dziesięcioleci sprawiają trudność: nieliniowe, wieloskalowe, podatne na niestabilności i powstawanie wirów. W takich układach nauka przez lata opierała się na klasycznych metodach analitycznych, rachunku zaburzeń czy podobieństwa wymiarowego. Dla wielu rodzin zjawisk udało się znaleźć rozwiązania szczególne, lecz inne pozostawały poza zasięgiem. W tym kontekście pojawia się sztuczna inteligencja, nie jako cudowne remedium, ale jako heurystyka, która może wskazać nieoczekiwane tropy, gdy tradycyjne sztuczki zawiodły.
Właśnie tak przedstawia to zespół badawczy z DeepMind w przystępnej relacji o odkrywaniu nowych rozwiązań równań przepływów, które wymykały się podręcznikom. Zastosowano algorytmy uczące się struktury równań i przestrzeni możliwych transformacji, aby szukać rodzin rozwiązań, także tych samopodobnych, które diagnozuje się przez odpowiednie przeskalowanie czasu i przestrzeni. Efekt? Nowe, zamknięte formy i uogólnienia znanych konstrukcji, opisane w tekście „Discovering new solutions to century-old problems in fluid dynamics”. To nie tylko efektowna demonstracja; to sygnał, że metody uczące się mogą przeglądać ogromne drzewo możliwości i proponować hipotezy, które następnie poddaje się rygorystycznym testom.
Dlaczego to ważne naukowo? Po pierwsze, bo wiele fundamentalnych zagadnień od istnienia i gładkości rozwiązań równań Naviera–Stokesa po przedziały stabilności w przepływach ścinających ciągle kryje niespodzianki. Sama kwestia istnienia i gładkości rozwiązań Naviera–Stokesa to problem milenijny, a jego serce bije właśnie w strefach, gdzie nieliniowość i dyssypacja ścierają się najostrzej. Po drugie, bo nowe rozwiązania analityczne lub półanalityczne działają jak latarnie: wskazują kierunki dla przybliżeń numerycznych, pomagają ocenić błędy i kalibrować metody obliczeniowe. Wreszcie po trzecie, bo AI daje szansę, by systematycznie przeszukać klasy transformacji, które człowiek rozważał punktowo. Tak AI proponuje rozwiązania problemów nad którymi naukowcy głowią się od 100 lat – i robi to w tempie, które trudno byłoby osiągnąć ręcznie.
Jak sztuczna inteligencja znajduje nowe ścieżki w fizyce płynów
W centrum zainteresowania leżą równania różniczkowe cząstkowe, które opisują dynamikę płynów. AI pomaga w dwóch komplementarnych trybach. Pierwszy to „rozwiązywanie” czyli aproksymacja konkretnego warunku brzegowego. Drugi to „odkrywanie” czyli szukanie postaci rozwiązania lub nawet samego równania, które najlepiej tłumaczy dane. W trybie rozwiązywania prym wiodą sieci respektujące prawa fizyki, które minimalizują niezgodność z równaniami i warunkami brzegowymi, zamiast dopasowywać się wyłącznie do przykładów. Klasycznym odniesieniem są Physics-Informed Neural Networks, gdzie funkcja straty wprost karze naruszenia równań i ograniczeń. W trybie odkrywania pracują metody symboliczne i operatorowe, które uczą się reguł transformacji między rozkładem sił, pól i prędkości a stanem w kolejnych krokach czasu. Tu często przywołuje się Fourier Neural Operators, które uczą się operatora przejścia między przestrzeniami funkcji i potrafią uogólniać na siatki oraz warunki nieobecne w treningu.
W przykładzie z kroplą wody kryją się wszystkie trudności: osobliwe krzywizny, szybko zmieniające się skale długości, cienkie warstwy przyścienne. Matematycy od dawna polowali na rozwiązania samopodobne, które „porządkują” te skale i odsłaniają strukturę przepływu. AI przyspiesza to polowanie: wędruje po parametrach skalowania, proponuje funkcje próbne, uczy się, gdzie równania „gasną” do zera i gdzie pojawiają się struktury dominujące. W rezultacie można odnajdywać nie tylko warianty klasycznych rozwiązań (jak te powiązane z warstwą przyścienną Blasiusa), ale także zupełnie nowe rodziny, które wcześniej przeoczono, bo nikt nie przetestował takiego połączenia skal i transformacji.
Co dalej dzieje się z taką propozycją? Najpierw weryfikacja numeryczna na niezależnych solverach i siatkach, potem analiza stabilności i próba wyprowadzenia zamkniętej formy. Gdy udaje się uzyskać dowód lub wiarygodny schemat asymptotyczny, propozycja awansuje do rangi wyniku matematycznego lub przynajmniej nowej hipotezy o znanej strukturze. Ten rytm od sugestii generowanej przez model po formalną kontrolę jest kluczowy, by uniknąć złudzeń. Właśnie taka ścieżka nadaje sens zdaniu: wspólny wysiłek człowieka i maszyny zamienia propozycje w twardą wiedzę.
Od danych do równań: modele, które respektują prawa fizyki
W praktyce sukces wymaga kompromisu między elastycznością a dyscypliną. Modele operatorowe świetnie interpolują i uogólniają, ale bez wiedzy fizycznej potrafią popaść w złe nawyki, ignorując subtelne zachowania na granicach. PINN-y wbudowują równania w funkcję straty, co stabilizuje uczenie, lecz bywa wrażliwe na skalowanie poszczególnych członów i kondycjonowanie problemu. Dlatego badacze łączą zalety obu światów: korzystają z operatorów uczonych na dużych korpusach, a następnie korygują je, wykorzystując straty fizyczne i znane symetrie. W zastosowaniach do przepływów pojawiają się dodatkowe sztuczki – na przykład jawne narzucanie nieściśliwości, zachowania strumienia, czy stosowanie zmiennych potencjalnych, które lepiej kondycjonują problem w pobliżu osobliwości.
Technicznym spoiwem tego podejścia jest solidna weryfikacja. W testach krzyżowych sprawdza się, czy rozwiązanie nie zależy od wyboru siatki i schematu numerycznego. W porównaniach z danymi eksperymentalnymi ocenia się zgody w wielkościach bezwymiarowych, a nie tylko w surowych liczbach, bo to te pierwsze ujawniają właściwą strukturę zjawiska. W publikacjach coraz częściej widzimy też udostępnianie kodów i zestawów danych, co pozwala niezależnym zespołom odtworzyć wyniki i sprawdzić, czy zadziałają na innych zadaniach brzegowych. Ten rygor jest konieczny, by mechanizmy uczące się zasłużyły na status równoprawnego narzędzia w arsenale fizyka i inżyniera.
Co oznaczają te odkrycia dla praktyki inżynieryjnej i nauki
Ten dialog AI – człowiek działa także poza fizyką płynów. W chemii obliczeniowej podobny schemat pozwolił przewidywać właściwości molekuł bez kosztownych symulacji. W kosmologii operatorowe modele uczą się mapować rozkłady gęstości materii we Wszechświecie na obserwowalne wielkości, a zgodność z równaniami zachowania pomaga utrzymać wyniki w ryzach.
Równolegle rosną wymagania co do transparentności. Sama sugestia modelu to dopiero początek. Potrzebna jest dokumentacja danych, jasny opis metryk błędu, testy odporności na szum i rozdzielczość. Zdolność do wyjaśnienia, skąd wzięło się rozwiązanie i dlaczego akurat takie skalowanie działa, bywa równie cenna, co szybkość obliczeń. Instytucje badawcze i zespoły projektowe coraz częściej ustalają procedury wewnętrznego „peer review” dla wyników AI – coś na kształt redakcyjnej kontroli faktów, zanim wniosek trafi do publikacji czy projektu urządzenia. To dobry kierunek, bo buduje zaufanie i klarowność ról w procesie odkrywania.
Gdzie kończy się magia, a zaczyna rzetelna weryfikacja
AI nie ma licencji na cud. Proponuje hipotezy, które trzeba sprawdzić. W praktyce oznacza to trzy poziomy kontroli. Pierwszy to zgodność z równaniami i warunkami brzegowymi, najlepiej sprawdzona niezależnym solverem i na wielu siatkach. Drugi to stabilność – czy rozwiązanie utrzymuje się po małych perturbacjach, czy też zapada się w nierealistycznych oscylacjach. Trzeci to uogólnienie – czy metoda, która zadziałała na kropli wody, poradzi sobie z falą uderzeniową, cienką warstwą przyścienną czy strugą w dyszy. Dopiero przejście przez te etapy pozwala mówić o wiedzy, a nie tylko o obliczeniowej ciekawostce.
Narzędzia wspierające ten rygor są już gotowe. Standardem stają się repozytoria z kodem i danymi, publikacje preprintów oraz otwarte dyskusje nad metrykami. Konserwatywne podejście do wnioskowania. Stawianie granic ważności i uczciwe przyznawanie, gdzie model się myli działa na korzyść środowiska. Dobrą praktyką jest także łączenie rozwiązań proponowanych przez AI z klasycznymi aproksymacjami i teoriami stabilności. Takie hybrydy nie tylko zwiększają dokładność, ale też pomagają lepiej zrozumieć, co model faktycznie „widzi”.
Jak przygotować zespoły badawcze na współpracę z AI
Najpierw wspólny język. Matematycy, fizycy i inżynierowie danych muszą rozumieć swoje ograniczenia i narzędzia. W praktyce pomaga to, co proste: krótkie notatki metodologiczne do każdego eksperymentu obliczeniowego, checklisty weryfikacji, jasne definicje metryk. Następnie kultura replikacji. Każda propozycja „nowego rozwiązania” powinna dać się odtworzyć na innym kodzie i innej siatce; najlepiej także na danych eksperymentalnych, o ile to możliwe. Wreszcie, otwartość na rewizję. To, że w pierwszej wersji model zaproponował atrakcyjną formułę, nie oznacza, że jest ona ostateczna. Współpraca z recenzentami i zespołami zewnętrznymi zwykle poprawia stabilność i zakres ważności odkrycia.


