- Eksperci zwracają uwagę, że generatywna sztuczna inteligencja może usprawnić podejmowanie decyzji w manewrach.
- Wargaming boryka się z problemami związanymi z kosztami, przejrzystością i dostępnością, w rozwiązaniu których sztuczna inteligencja może pomóc.
- Pomimo potencjalnych korzyści AI istnieją również ograniczenia, które użytkownicy muszą wziąć pod uwagę.
Sposób, w jaki siły zbrojne przygotowują się do przyszłych wojen i w nich walczą, może się radykalnie zmienić, gdy maszyny w coraz większym stopniu nauczą się myśleć o złożonych scenariuszach zarówno na poziomie taktycznym, jak i strategicznym.
Wprowadzenie generatywnej sztucznej inteligencji do gier wojennych oraz wielkoskalowych symulacji wykorzystywanych przez ekspertów, decydentów i wojsko w celu opracowania strategii na wypadek wojny może usprawnić proces decyzyjny uczestników.
Jest to coś, co pojawiło się w fikcyjnej literaturze na temat wyobrażonych przyszłych wojen, ale obecnie jest również rozważane.
Sztuczna inteligencja „może kształtować gry wojenne, a nawet całą przyszłość działań wojennych” – powiedział Business Insider Yasser Atalan, specjalista ds. danych w Centrum Studiów Strategicznych i Międzynarodowych. „Dzięki temu decydenci i planiści będą wiedzieć, jakie są słabe strony, jakie są możliwości i jakie są wyzwania”.
W sztuka Atalan współpracował z Benjaminem Jensenem i Danem Tadrosem z CSIS, ponieważ do największych problemów związanych z grą wojenną należą jej koszt, przejrzystość i dostępność.
Gry wojenne mogą kosztować od tysięcy do milionów dolarów i są w pewnym stopniu ekskluzywne, ponieważ nie zawsze uwzględniają poglądy wykwalifikowanych graczy.
„W grach kładzie się nacisk na wysokiej jakości graczy, ale najlepsi gracze często mają overbooking i są mobilni” – czytamy w raporcie CSIS. „Zamiast polegać bezpośrednio na ludzkich graczach siedzących przy stole i grać w grę, analityk XXI wieku może wykorzystać generatywną sztuczną inteligencję i LLM do tworzenia agentów gier”.
W rozmowie z BI na temat możliwości związanych ze sztuczną inteligencją Atalan powiedział, że przy odpowiedniej motywacji i selekcji danych sztuczna inteligencja może pomóc graczom, wnosząc „różne perspektywy różnych sojuszników” oraz zapewniając rozkład prawdopodobieństwa i inne punkty danych w grach wojennych.
Gry wojenne są często błędnie rozumiane jako narzędzie do przewidywania wyników, ale Atalan wraz z innymi ekspertami podkreślają, że w grach wojennych nie o to chodzi.
„Chodzi o to, aby gracze, różne zespoły i zainteresowane strony wiedziały, jaki jest ich zestaw opcji politycznych, jakie są potencjalne możliwości i wyzwania” – powiedział.
Rozpoczęła się armia amerykańska sytuacja W 2015 r. wzrosło zapotrzebowanie na gry wojenne, a z biegiem lat, zgodnie z szumem medialnym, wzrosło zainteresowanie możliwościami sztucznej inteligencji. Na przykład w lutym 2023 r. armia amerykańska umożliwiła sztucznej inteligencji skuteczne pilotowanie myśliwca i udział w symulowanej walce powietrze-powietrze.
Rośnie świadomość, że oba interesy można połączyć, aby wykorzystać potencjał sztucznej inteligencji.
„Manewry i symulacje pozostają kluczowymi narzędziami dla decydentów w dziedzinie obronności”, 2023 Zostań Doszedł do wniosku z Instytutu Alana Turinga z siedzibą w Londynie. „Można je wykorzystać do szkolenia jednostek na potrzeby przyszłych konfliktów i zapewnić wgląd w kluczowe decyzje dotyczące walki, negocjacji pokojowych, kontroli zbrojeń i reagowania kryzysowego”.
Badanie wykazało również, że wykorzystanie sztucznej inteligencji w grach wojennych może zmniejszyć liczbę wymaganych graczy, przyspieszyć grę, opracować nowe strategie, lepiej zanurzyć graczy w grach i przyspieszyć ukończenie gry.
Sztuczna inteligencja ma również swoje ograniczenia w tym obszarze. Rand ostatni Zostań Odkryłem, że sztuczna inteligencja może nie działać dobrze w grze wojennej, jeśli infrastruktura cyfrowa gry jest ograniczona lub jeśli sztuczna inteligencja nie może bezpośrednio wchodzić w interakcję z niezbędnymi modelami obliczeniowymi i symulacjami.
Ekspert Wargaming Ivanka Barzaszka również wyraziła obawy, że sztuczna inteligencja może zaciemnić interpretacje działań, co może prowadzić do fałszywych wniosków.
„Obecny krajobraz manewrów skoncentrowanych na człowieku w połączeniu z algorytmami sztucznej inteligencji stoi przed znaczącym wyzwaniem związanym z czarną skrzynką, w przypadku której przyczyna pewnych wyników pozostaje niejasna” – stwierdziła. książki W artykule dla Biuletynu Naukowców Atomowych.
„Ta niejednoznaczność, w połączeniu z potencjalnymi błędami w danych szkoleniowych AI i projektowaniu manewrów, uwypukla pilną potrzebę etycznego zarządzania i odpowiedzialności w tej rozwijającej się dziedzinie” – stwierdziła Barzaszka.
Obecnie Atalan powiedział BI, sztucznej inteligencji trudno jest samodzielnie angażować się w manewry, ponieważ nie jest ona w stanie „myśleć strategicznie”, co może uwzględniać różne szkoły myślenia.
Organizacje takie jak OpenAI przygotowują się do stworzenia „autonomicznych agentów”, którzy będą w stanie samodzielnie wykonywać zadania, ale Atalan twierdzi, że obecna wersja agentów manewrowych jest w stanie zapewnić jedynie najbardziej prawdopodobne odpowiedzi na podstawie średnich kombinacji danych i Internetu.
Atalan powiedział, że chce zachować „ostrożność” w przypadku niezależnych agentów, ponieważ sztuczna inteligencja może odziedziczyć uprzedzenia i uprzedzenia w zależności od dużych modeli językowych lub kursów LLM, na których jest szkolona.
„Kiedy ludzie wykorzystują w swoim podejściu programy LLM, muszą zachować przejrzystość i pokazać swoje motywacje” – powiedział Atalan. „Dzięki nowym eksperymentom i badaniom zobaczymy, jakie rodzaje normatywnych uprzedzeń mają te modele w stosunku do określonych aktorów, a także w różnych językach”.
„Ludzie są nie do zastąpienia” – powiedział Atalan.
„Ludzie nadal znajdują się w centrum całego procesu, ale pomoc sztucznej inteligencji może być naprawdę pomocna w całym procesie myślenia i podejmowaniu decyzji przez ekspertów” – powiedział.