Badacze z US Army eksperymentują z komercyjnymi AI chatbotami jako doradcami w symulacji wojennej – ale eksperci ostrzegają, że takie AI nie powinny być używane w sytuacjach o wysokim ryzyku. To, co brzmi jak scenariusz z filmu science fiction, staje się rzeczywistością – chatboty AI, czyli programy komputerowe, które mogą prowadzić rozmowy, są teraz testowane jako pomocnicy w planowaniu strategii wojennych.
Eksperyment US Army z wykorzystaniem technologii OpenAI
US Army Research Laboratory bada, czy technologia OpenAI może poprawić planowanie i podejmowanie decyzji na polu bitwy – ale tylko w kontekście wojskowej gry wideo. Wojsko USA już wcześniej badało wykorzystanie technologii AI do analizy obrazów z pola bitwy i nawet identyfikacji celów do nalotów – ale dopiero niedawno zaczęło testować duże modele językowe i inne rodzaje generatywnego AI.
Jak AI chatboty pomagają ludziom w grze wojennej
W tym duchu, badacze z US Army sprawdzili, jak dobrze taki AI chatbot poradziłby sobie w symulacji wojennej, opartej na popularnej grze StarCraft II. Gra ta wymaga od graczy zarządzania zasobami, budowania baz i armii, i prowadzenia walki z przeciwnikiem. Badacze użyli ChatGPT, podzielili się na dwie drużyny, z których każda miała po jednym człowieku i jednym AI chatbocie. Człowiek był odpowiedzialny za wykonanie działań w grze, a AI chatbot za doradzanie mu, co robić. AI chatbot komunikował się z człowiekiem za pomocą tekstu, który był wyświetlany na ekranie. AI chatbot mógł też zapytać człowieka o jego cel lub strategię, lub zaproponować własną.
Badacze odkryli, że AI chatboty były w stanie dać sensowne i użyteczne rady, takie jak sugerowanie, jakie jednostki zbudować, gdzie zaatakować, czy kiedy się wycofać. AI chatboty były też w stanie dostosować się do zmieniających się warunków i sytuacji w grze, i zmieniać swoje propozycje. Dodatkowo były też w stanie nauczyć się od ludzi, jak lepiej grać i komunikować się.
Ograniczenia i ryzyka AI chatbotów w symulacji wojennej
Aby nie było tak kolorowo odnotowano, że AI chatboty miały pewne ograniczenia i problemy. Na przykład, AI chatboty czasem dawały sprzeczne lub niejasne rady, lub nie do końca rozumiały planów oraz strategii prowadzonych przez ludzi. Czasem też nie były w stanie wyjaśnić swojej logiki lub motywacji, lub pominięta została przez nich kwestia niepewności lub ryzyka. AI chatboty czasem też popełniały błędy lub nie były w stanie zrealizować swoich planów.
Badacze podkreślają, że ich eksperyment był tylko wstępnym testem możliwości AI chatbotów jako doradców w symulacji wojennej, i że nie należy wnioskować z niego o ich przydatności w prawdziwych sytuacjach wojskowych. Eksperci ostrzegają, że takie AI nie powinny być używane w sytuacjach o wysokim ryzyku, ponieważ mogą być zawodne, nieprzewidywalne lub podatne na manipulację. Eksperci zwracają też uwagę na kwestie etyczne i prawne związane z wykorzystaniem AI do celów wojskowych, i apelują o odpowiedzialne i przejrzyste podejście do tej technologii.
Nie zmienia to faktu iż naukowcy z US Army planują kontynuować swoje badania nad AI chatbotami jako doradcami w symulacji wojennej, i sprawdzić, jak radzą sobie z innymi grami i scenariuszami. Chcą też zbadać, jak wpływa to na zaufanie i współpracę między ludźmi a AI, i jak poprawić komunikację i zrozumienie między nimi.
W kontekście obecnej sytuacji geopolitycznej, gdzie napięcia międzynarodowe są na porządku dziennym, a technologia staje się nowym polem rywalizacji, rola AI w wojskowości nabiera szczególnego znaczenia. Integracja AI z planowaniem operacji wojskowych może nie tylko zwiększyć efektywność i skuteczność działań armii, ale także przyczynić się do zmniejszenia ryzyka błędów ludzkich, które w kontekście wojennym mogą mieć tragiczne konsekwencje.