Jakie znaczenie dla nowych polityk bezpieczeństwa mają zmiany cywilizacyjne związane ze sztuczną inteligencją?

- Wydaje mi się, że ich wpływ będzie wieloaspektowy. Jesteśmy w takim momencie, jak w okolicach 2007 roku, kiedy Steve Jobs pokazywał całemu światu, czym jest smartfon. Wtedy bardzo wiele osób zobaczyło, że ta technologia nie konceptem teoretycznym, rozwijanym gdzieś w laboratoriach, tylko czymś, co może być wykorzystane w ich życiu. I teraz, z perspektywy bezpieczeństwa jeszcze czekamy na taki punkt, który pokaże nam wprost, co ta technologia może nam dać poza optymalizacją już istniejących procesów. Pokazanie Chata GPT w listopadzie zeszłego roku uświadomiło ludziom, że to jest nowa technologia, która może poprawiać ich codzienne funkcjonowanie. Jednak z perspektywy bezpieczeństwa już od dawna rozmawiamy o autonomicznych systemach bojowych i to nie jest żadna nowa debata. Historycznie rzecz ujmując, mina przeciwpiechotna też jest autonomicznym systemem bojowym. Autonomicznym systemem bojowym jest też pocisk typu Cruise, który trafia w cel...

To na czym ma polegać zmiana?

Na tym, że być może te systemy będą w stanie samodzielnie podejmować decyzje: czy razić dany cel i w jaki sposób. Czeka nas prawdziwie interesująca debata. Z perspektywy wszystkich aktywistów, nieśmiercionośne czy śmiercionośne systemy, skoro są autonomiczne, to powinny być zakazane. Ale z punktu widzenia logiki pola walki wydaje mi się, że nieśmiercionośne systemy bojowe, czyli takie, które obezwładniają, ale są robotami, wprowadzają bardzo ciekawe zniuansowanie tej sytuacji, bo nie musimy zabijać przeciwnika i nie narażamy w związku z tym życia naszych żołnierzy. Tego mogłaby dotyczyć debata humanitarna.

A odstraszanie nuklearne i systemy służące do wzmacniania obrony przeciwrakietowej i przeciw uderzeniom nuklearnym?

- Tu też pojawia się problem, ponieważ te sytuacje są na tyle skrajne, że wymagają optymalizacji systemu decyzyjnego. Pojawia się ryzyko, że znajdą się państwa gotowe na wdrożenie rozwiązań w pełni autonomicznych – po to, żeby usprawnić ten system. Na razie są to jednak bardziej akademickie dysputy, ponieważ politycy i wojskowi nie są skłonni łatwo oddać dostępu do tej sfery.

I wreszcie szeroko rozumiane cyberbezpieczeństwo…

- Machine learning i deep learning to technologie żywo rozwijane, aby w sposób automatyczny radzić sobie z diagnozowaniem niebezpieczeństw jak i ich zwalczaniem.

A czy nieśmiercionośne systemy bojowe mogą zrewolucjonizować prowadzenie działań wojennych? Gdyby np. zostały wykorzystane przez NATO w ramach strategii odstraszania albo w Ukrainie?

- A co, gdyby Polska chciała takie nieśmiercionośne systemy zainstalować po swojej stronie granicy w ramach zwalczania zagrożenia hybrydowego ze strony Białorusi? Wyślemy jasny komunikat: „Nie będziemy was zabijać, ale możecie zostać ogłuszeni, sparaliżowani”. Oczywiście to nie oznacza, że ktoś nie zginie, ale jasną intencją osób odpowiedzialnych za obronę granicy nie jest w pierwszej kolejności neutralizacja zagrożenia w rozumieniu odbierania życia, ale obezwładnienie po to, żeby służby mogły zareagować w odpowiednim momencie. I tu wydaje mi się, że istnieje pewna szara strefa. Aktywiści na rzecz praw człowieka zapewne oprotestują takie rozwiązanie – i ja to rozumiem, ale z drugiej strony musimy przyznać, że to nie jest działanie z intencją tego, żeby kogoś zabić. Chciałbym podkreślić, że nie popieram tego typu rozwiązań, ale jest to wątek intelektualnie ciekawy.

Jaką rolę w wojnie na Ukrainie odgrywają nowoczesne technologie? Czy one pozwalają na budowanie przewag na polu walki?

- Tak. Drony były wykorzystywane na Ukrainie już w 2014 roku i pisało się o tym, że straty powodowane przez artylerię były tak duże przede wszystkim dlatego, że była ona wspomagana właśnie przez drony. Teraz to poszło dalej. Nauczeni doświadczeniami z Iraku i Syrii, Ukraińcy i Rosjanie zaczęli przerabiać większe systemy bezzałogowe do tego, żeby były w stanie zrzucać ładunki na pozycje przeciwnika z dość dużą precyzją. Nie traktowałabym tego jednak jako gamechangera, bo nie znamy skali tego zjawiska. Druga kwestia to wykorzystanie amerykańskiego systemu Starlink, a kolejna to wykorzystanie chmury. Ukraińcy na kilka dni przed ukraińską inwazją migrowali znaczną część danych krytycznych do Francji, Estonii i Wielkiej Brytanii. To dość ciekawe, bo krytyczne dla funkcjonowania państwa dane zostały zabezpieczone w tzw. ambasadach cyfrowych. Inna rzecz to aplikacja „GIS Arta” stworzona przez Ukraińców po to, żeby wspierać i koordynować działania swojej artylerii w czasie niemal rzeczywistym. To coś takiego jak Uber dla artylerii ukraińskiej. To rozwiązanie ma już jednak swoje konsekwencje.

Jakie?

- Jeżeli widzi pani człowieka, który robi pani zdjęcie, a jest wojna, to zabicie go w świetle prawa humanitarnego konfliktów zbrojnych może być potraktowane niekoniecznie jako zbrodnia wojenna, ale jako w pewnych okolicznościach uzasadniona forma obrony. Dlatego, że ta osoba wysyłała do wojsk ukraińskich koordynaty, które następnie były wykorzystane do ataku na pani pozycje. Czyli mimo że nie była formalnie żołnierzem, to wykorzystując swój telefon przyczyniła się do tego, że pani mogła ponieść straty. Dlatego cywile mogą nie być bezpieczni podczas takiego konfliktu, bo mogą stanowić realne, pośrednie zagrożenie dla żołnierzy. To kontrowersyjny wątek. Wchodzimy tutaj w obszar etyki i prawa międzynarodowego konfliktów zbrojnych.

Czy zastosowanie określonych rozwiązań technologicznych może dać państwom większą przewagę militarną niż zakup tradycyjnego uzbrojenia?

- To bardzo złożona sprawa. Rozwiązania cyfrowe mogą usprawnić logistykę, zarządzanie dostawami amunicji, sprzętu i wszystkiego, co jest potrzebne. W związku z tym można zaobserwować bezpośredni wpływ software’u na działanie sił zbrojnych. Ale to też nie jest tak, że ludzie, którzy siedzą „za laptopami” i prowadzą działania w cyberprzestrzeni, zajmują teren, odbijają terytorium albo go bronią. Potrzebne są oba rodzaje działań – zarówno te nowoczesne, jak i konwencjonalne, z tym, że działania w cyberprzestrzeni wspierają te konwencjonalne i są wtórne. Konflikt w Ukrainie pokazał, że cyberprzestrzeń nie odegrała fundamentalnie ważnej roli.

Przed lutym 2022 r. żyliśmy w sferze pewnych mitów?

- Owszem, wszystkim wydawało się, że klasyczna operacja zbrojna sił europejskich będzie wyglądała w ten sposób, że będziemy mieli naloty rakietowe, potem ataki cybernetyczne i obezwładnienie infrastruktury krytycznej, a potem wkroczą siły specjalne i jednostki ciężkie. A okazało się, że tego komponentu cyfrowego nie mieliśmy.

Wpływ nowych technologii na przebieg współczesnych wojen to jeden głównych tematów, jakie zostaną poruszone podczas Krynica Forum 2023. Dr Błażej Sajduk, adiunkt w Katedrze Bezpieczeństwa Narodowego Uniwersytetu Jagiellońskiego, zastępca kierownika Centrum Badań Ilościowych nad Polityką, będzie ważnym uczestnikiem tej dyskusji.