Sztuczna inteligencja dla broni jądrowej

W rozwiniętej gospodarce rynkowej rynki kapitałowe oferują szeroki wachlarz kierunków inwestowania. Większy wybór instrumentów inwestycyjnych umożliwia realizację żelaznej zasady budowania zróżnicowanego portfela inwestycyjnego nie tylko na giełdach papierów wartościowych, ale również poza obrotem giełdowym.

Publikacja: 10.07.2024 06:00

Robert Nogacki, radca prawny, partner zarządzający, Kancelaria Prawna Skarbiec

Robert Nogacki, radca prawny, partner zarządzający, Kancelaria Prawna Skarbiec

Foto: materiały prasowe

W wymiarze militarnym sztuczna inteligencja ma potencjał przyspieszenia procesu podejmowania decyzji poprzez sortowanie dużych ilości danych w efektywniejszy sposób niż kiedykolwiek wcześniej. Uzbrojenie oparte na AI będzie dysponowało ogromną precyzją. Wojsko połączy systemy załogowe i autonomiczne, aby przeprowadzać złożone operacje, takie jak ataki rojów dronów, które będą miały dewastujące efekty. AI pozwoli operatorom lepiej identyfikować zagrożenia i słabości w sieciach komputerowych oraz pomoże zarówno w obronie przed cyberatakami, jak i w ich przeprowadzaniu. Wyrafinowanie i złożoność działań wojskowych radykalnie wzrosną.

Pierwsze kroki AI w systemach broni jądrowej

W obszarze broni jądrowych sztuczna inteligencja wprowadzana jest przede wszystkich do systemów zautomatyzowanego dowodzenia i łączności (Nuclear Command Control and Communication – NC3). Ze względu na globalny zasięg i śmiercionośny charakter tej broni zastąpienie człowieka sztuczną inteligencją wzbudza zrozumiałe emocje, ale trzeba zauważyć, że jej zastosowanie w systemach NC3 nie jest niczym nowym. AI traktowana jako zbiór algorytmów, rozkazów i danych, czyli program komputerowy, wykorzystywana była w tych systemach już od połowy XX wieku. Bez takich programów niemożliwe byłoby wykrywanie i jednoczesne śledzenie kilkuset celów w kosmosie, nie mówiąc o koordynacji prawie jednoczesnego odpalenia własnych rakiet balistycznych.

Podczas zimnej wojny zarówno USA, jak i Związek Radziecki stworzyły zaawansowaną infrastrukturę dowodzenia i kierowania, która miała na celu szybką identyfikację zagrożeń jądrowych i formułowanie odpowiednich decyzji w krótkim czasie. Na przykład oba kraje włączyły automatyzację z elementami AI dla zarządzania systemami broni jądrowej, a w tym do realizacji takich funkcji, jak planowanie zabezpieczenia logistycznego, wypracowanie rozkazów wycelowania rakiet, ich wystrzelenia i naprowadzanie na cel. Zarówno ZSRR, jak i USA pracowały również nad zautomatyzowaniem (do pewnego stopnia) systemów wczesnego ostrzegania o ataku rakietowym. Było to niezbędne, aby jak najszybciej dostarczyć decydentom kluczowych danych i dać im czas na rozważenie ewentualnego uderzenia odwetowego. Historycznie rzecz biorąc, rolą systemów NC3 z czasów zimnej wojny było dostarczanie informacji funkcjonariuszom znajdującym się w „łańcuchu dowodzenia”, którzy następnie musieli ocenić, czy przeciwnik zainicjował atak lub przygotowywał się do wystrzelenia rakiet z bronią jądrową. Oba kraje dostrzegały jednak ograniczenia związane z automatyzacją systemów odstraszania nuklearnego, w szczególności ze względu na ich skłonność do generowania fałszywych alarmów. W rezultacie stało się jasne, że do weryfikacji danych generowanych przez te systemy, a także do podjęcia ostatecznej decyzji o wystrzeleniu rakiet z bronią jądrową, niezbędny jest nadzór człowieka. Pełna automatyzacja procesów dowodzenia, kierowania i łączności była uznana za dopuszczalną (przez ZSRR) tylko w scenariuszu, w którym ludzcy decydenci byliby fizycznie ubezwłasnowolnieni i przez to niezdolni do oceny sytuacji i podjęcia działań. Najlepszym przykładem sztucznej inteligencji tamtych lat jest system „Perimeter”, nazywany na Zachodzie „Dead Hand” („martwa ręka”), pomyślany jako w pełni automatyczny system odwetu Moskwy na prewencyjny atak jądrowy ze strony USA.

Zrozumienie technologii

Techniki AI, włączone do systemów NC3 w epoce zimnej wojny, sprawdzały się w realizacji zadań z przewidywalnymi danymi na wejściu systemu, były jednak mniej wiarygodne w przypadku złożonych i niepewnych sytuacji. Zresztą trudno jest porównywać te systemy ze stosowaną obecnie sztuczną inteligencją ze względu na rozległe różnice między dzisiejszym głębokim uczeniem maszynowym a wcześniejszymi podejściami do procesów automatycznej obróbki danych.

Współczesną AI można opisać jako skomputeryzowane procesy wiernego naśladowania zadań tradycyjnie wykonywanych przez ludzi. Algorytmy uczenia maszynowego obejmują szeroką gamę technik, które umożliwiają maszynom „uczenie się” na podstawie danych, bez wyraźnych instrukcji. Obejmują one różne paradygmaty, począwszy od uczenia bez nadzoru, poprzez nadzorowane, aż do tzw. uczenia przez wzmacnianie. Istnieje również wiele skrzyżowań tych metod, tworzących swego rodzaju hybrydy.

Postępy w głębokim maszynowym uczeniu się doprowadziły do powstania tzw. dużych modeli językowych (LLM)2 i dużych generatywnych modeli sztucznej inteligencji (LGAIM). Generatywna sztuczna inteligencja obejmuje modele głębokiego uczenia się, które są trenowane w ogromnych bazach danych w celu generowania wysokiej jakości tekstu, obrazów, dźwięku, wideo, kodu i innych treści w odpowiedzi na monity. Tak potężne modele AI wykazały się ogromną umiejętnością rozwiązywania skomplikowanych zadań. Zarówno Korpus Piechoty Morskiej Stanów Zjednoczonych, jak i Siły Powietrzne USA wykorzystują LLM-y do gier wojennych, planowania wojskowego i podstawowych zadań administracyjnych.

Modelom tym brakuje jednak wiarygodności i interpretowalności, co sprawia, że w dużej mierze nie nadają się (w obecnym stanie) do integracji z systemami zautomatyzowanego dowodzenia siłami jądrowymi NC3, za pomocą których podejmowane są kluczowe dla bezpieczeństwa świata decyzje. Wystarczy zauważyć, że modele, które np. zostały nieodpowiednio przetestowane lub niewystarczająco poddane red teamingowi (szerokiemu zakresowi metod oceny ryzyka i testów warunków skrajnych), mogą dopuszczać możliwość manipulacji. Poza tym stwierdzono, że w takich modelach może wystąpić zjawisko halucynacji lub konfabulacji, w wyniku którego dostarczane są odpowiedzi, w których uwzględniono sfabrykowane lub bezsensowne dane, które wydają się autentyczne.

Nowoczesna AI a bezpieczeństwo jądrowe

Kwestia wdrażania sztucznej inteligencji (AI) w systemach wojskowych, w szczególności w systemach dowodzenia, kierowania i łączności bronią jądrową (NC3), jest coraz większym przedmiotem zainteresowania państw oficjalnie posiadających broń jądrową (nazywanych państwami P5). Jak już wspomniano, państwa te już wcześniej zintegrowały AI ze swoimi systemami NC3. Jednak stosowane od wielu lat algorytmy AI mają niewiele wspólnego z dominującymi obecnie modelami sztucznej inteligencji. Podstawowym celem wprowadzania współczesnych modeli AI do systemów NC3 jest poprawa bezpieczeństwa i odporności sił jądrowych. Sztuczna inteligencja może zapewnić ciągłą ocenę stanu tych systemów, sprawić, że systemy wczesnego ostrzegania będą reagować szybciej i lepiej scharakteryzują ataki. Poza tym AI zapewnia ogromne korzyści wynikające z możliwości działania w czasie rzeczywistym podczas przetwarzania ogromnych zbiorów danych. Takie korzyści w połączeniu z dążeniem do uzyskania przewagi militarnej i przewagi decyzyjnej, a także chęcią uniemożliwienia przeciwnikom zdobycia przewagi strategicznej, mogą skłonić państwa P5 do szybkiego wdrażania najnowszych modeli sztucznej inteligencji w systemy NC3, niekiedy z zaniedbaniem niektórych procedur przy ich wprowadzaniu.

Według autorów raportu ELN3 pt. „AI and nuclear command, control and communications: P5 perspectives” z 13 listopada 2023 r. w obecnym swoim kształcie zaawansowane modele AI mają luki w zabezpieczeniach, które nie wynikają wyłącznie z ograniczeń samej technologii, ale także z interakcji człowieka z takimi narzędziami. Dodatkowo z punktu widzenia bezpieczeństwa globalnego sztuczna inteligencja stwarza ryzyko błędnych obliczeń, fałszywych wyobrażeń i interpretacji, niezależnie od tego, czy stanie się tak z powodu awarii systemu, luk w zabezpieczeniach, czy niewłaściwego użycia. Sytuacje te mogą prowadzić do niezamierzonej lub przypadkowej eskalacji napięcia międzynarodowego lub wybuchu otwartego konfliktu nuklearnego. Wspomniany wyżej raport zawiera szereg ostrzeżeń przed pochopnym wprowadzaniem najnowszych modeli AI do systemów NC3 i dwie poważne sugestie. Zaleca wprowadzenie moratorium na integrację modeli sztucznej inteligencji wysokiego ryzyka w systemy NC3 i utrzymanie kontroli człowieka nad systemami jądrowymi w przypadku modeli AI, które nie niosą ze sobą wysokiego ryzyka.

Konkluzje

Niewłaściwie wykorzystana sztuczna inteligencja w operacjach nuklearnych może mieć katastrofalne skutki dla całego świata. Prawidłowo wdrożona mogłaby zmniejszyć ryzyko nuklearne poprzez poprawę wczesnego ostrzegania i wykrywania. Aby w pełni wykorzystać te atuty, systemy muszą uwzględniać mocne strony i ograniczenia ludzi i maszyn. Skuteczne łączone systemy kognitywne człowiek–maszyna wykorzystają precyzję i szybkość automatyzacji z elastycznością ludzkiego osądu i zrobią to w sposób, który pozwoli uniknąć stronniczości automatyzacji i oddania osądu maszynom. Ze względu na wczesny stan wdrażania sztucznej inteligencji Stany Zjednoczone mają potencjał, aby uczynić świat bezpieczniejszym poprzez wyraźniejsze określenie swojej polityki, dążenie do szerokiego międzynarodowego porozumienia i działanie jako normatywny wyznacznik trendów. USA wykazują się wyjątkową przejrzystością w swojej polityce dotyczącej wojskowej sztucznej inteligencji i systemów autonomicznych. W 2012 r. opublikowały swoją politykę w sprawie autonomii różnych rodzajów broni. W 2020 r. przyjęły zasady etyczne dotyczące wojskowej sztucznej inteligencji, a w 2023 r. uaktualniły swoją politykę w zakresie stosowania autonomicznych rodzajów broni. Jednocześnie Departament Obrony USA potwierdził formalnie i jednoznacznie w Nuclear Posture Review z 2022 r., że w rozwiązaniach związanych z systemami dowodzenia, kierowania i łączności sił jądrowych zawsze będzie uwzględniał czynnik ludzki. W listopadzie 2023 r. ponad 40 krajów dołączyło do Stanów Zjednoczonych, popierając deklarację polityczną w sprawie odpowiedzialnego wykorzystania sztucznej inteligencji w celach wojskowych. Wśród popierających ją państw znalazły się nie tylko sojusznicy USA, ale także narody Afryki, Azji Południowo-Wschodniej i Ameryki Łacińskiej.

Są to pozytywne sygnały, ale nie ma wątpliwości, że potrzebna jest dalsza dyskusja, w jaki sposób tworzyć regulacje w tak newralgicznych obszarach, jak np. militarny, by nie zachwiać globalnym bezpieczeństwem. Dobrym przykładem mogą tu być działania Unii Europejskiej, która oczywiście nie ma uprawnień, aby regulować wprowadzanie AI do systemów broni. Można jednak wyrazić nadzieję, że nowe rozporządzenie Rady UE z 21.05.2024 r., znane jako „AI Act”, już okrzyknięte jako „przełomowe”, a klasyfikujące technologie AI według poziomu ryzyka i ustanawiające surowe wymagania dla najniebezpieczniejszych systemów, wpłynie otrzeźwiająco również na gremia wojskowe decydujące o niezawodności najbardziej śmiercionośnych rodzajów broni.

1 Uczenie przez wzmacnianie (uczenie posiłkowane) (ang. reinforcement learning, RL) – jeden z trzech głównych nurtów uczenia maszynowego, którego zadaniem jest interakcja ze środowiskiem za pomocą polityki na podstawie zebranych przez nią informacji. W przeciwieństwie do uczenia nadzorowanego i nienadzorowanego w uczeniu przez wzmacnianie nie przygotowuje się zestawu danych uczących, tylko środowisko (ang. environment), z którego model będzie zbierał dane automatycznie; jego celem jest zmaksymalizowanie zwracanej przez nie nagrody.

2 LLM – duże modele językowe (ang. large language model) – to systemy sztucznej inteligencji wyszkolone na dużych zbiorach danych i generujące tekst na podstawie tego, co zostało napisane wcześniej, takie jak np. ChatGPT.

3 European Leadership Network (ELN) – Europejska Sieć Przywództwa – to niezależna, bezstronna, ogólnoeuropejska sieć zrzeszająca ponad 450 byłych, obecnych i przyszłych przywódców europejskich, których zadaniem jest dostarczanie praktycznych, rzeczywistych rozwiązań problemów politycznych i związanych z bezpieczeństwem.

Felietony
Deficyt jak bumerang
Materiał Promocyjny
Pieniądze od banku za wyrobienie karty kredytowej
Felietony
Fundamenty sprzyjają niższym rentownościom
Felietony
Nowe spółki a nowe emisje
Felietony
Pułapka samozadowolenia
Materiał Promocyjny
Sieć T-Mobile Polska nagrodzona przez użytkowników w prestiżowym rankingu
Felietony
Nowe obowiązki i nowe wątki w transakcjach M&A
Felietony
Porozmawiaj ze mną, a powiem ci, kim jesteś