Maszyny kontra ludzie. Wojna rodem z Matriksa nie jest przyszłością. To nasza teraźniejszość
Myślicie, że autonomiczne maszyny bojowe to przyszłość? Nieprawda: one już istnieją i są stosowane. Przyszłość stała się naszą teraźniejszością szybciej, niż ktokolwiek mógłby przypuszczać.
Ludzie kontra maszyny
Mam wrażenie, że gdy w różnych dyskusjach pojawia się wątek walki ludzi z maszynami, to zazwyczaj traktujemy to jako coś abstrakcyjnego. Jak historię rodem z Matriksa czy Terminatora. Taka opowieść ma jakieś tam logiczne uzasadnienie, rozgrywa się w czasie stosunkowo bliskim naszemu, ale mimo wszystko wydaje się jedynie popkulturową fikcją, eksploatowaną na niezliczone sposoby przez twórców filmów, pisarzy czy branżę gier wideo.
Problem polega na tym, że rzeczywistość zdążyła nadrobić dystans, jaki dzielił ją od fantastyki naukowej. To prawda, że nie kolonizujemy jeszcze nowych światów, nie sprowadzamy z odległych planet ksenomorfów ani nie nauczyliśmy się podróżować w czasie. Istnieje jednak wycinek świata technologii, w którym działamy bardzo aktywnie i z całkiem sporymi sukcesami. Czyli o sprzęt, przeznaczony do robienia innym ludziom krzywdy.
Prace nad nim są bardzo intensywne. O tych najważniejszych zapewne nieprędko się dowiemy, ale wystarczy wspomnieć choćby coraz bardziej zaawansowane testy drona X-47, który z kwartału na kwartał pokonuje kolejne wyzwania, stawiane przed autonomicznymi maszynami: potrafi już m.in. lądować na lotniskowcu, współdziałać z załogowym samolotem czy samodzielnie tankować z latających cystern.
Kwestią czasu i pieniędzy są samodzielne misje bojowe, a także szersze wykorzystanie takich i innych maszyn. Całkiem niedawno Pentagon zatwierdził kolejny program rozwoju autonomicznych dronów – tym razem nazywanych Gremlinami. Ich koncepcja zakłada użycie małych, tanich urządzeń, wypuszczanych i zbieranych w powietrzu przez większe samoloty. To jednak przyszłość, skupmy się zatem na tym, co już istnieje.
Autonomiczne maszyny bojowe
Rozkwit przeżywa cały sektor LARs (Lethal Autonomous Robots) i LAWS (Lethal Autonomous Weapons Systems), czyli maszyn, które mogą prowadzić walkę bez udziału człowieka. One już istnieją, działają i są stosowane, choć nie przypominają stereotypowego, humanoidalnego robota czy bojowego mecha.
20mm Phalanx CIWS Shooting Down a Missile Improved Version: Sparks Fly!
Rozwiązania tego typu znajdziemy choćby w autonomicznych systemach obrony przeciwlotniczej, które w przypadku zagrożenia reagują samodzielnie, bez udziału człowieka, który w łańcuchu decyzyjnym jest pod względem szybkości reakcji najsłabszym ogniwem. Podobne rozwiązania są wdrażane w automatycznych wieżyczkach strażniczych czy – jak w przypadku robotów TALON – w maszynach, których zadaniem jest towarzyszenie żołnierzom bezpośrednio na polu walki (choć w tym przypadku przede wszystkim w roli robotów saperskich).
Wartym wspomnienia jest również izraelski dron Harpy i jego wersja rozwojowa o nazwie Harop. Działanie człowieka ogranicza się w jego przypadku do polecenia startu i wskazaniu obszaru patrolowania – Harpy krąży nad zadanym terenem w poszukiwaniu aktywnych radarów. Po wykryciu celu porównuje jego charakterystykę z bazą danych, określa jako przyjazny lub wrogi i – w drugim przypadku – samodzielnie przechodzi w tryb bojowy, atakując wykryte stanowisko radaru.
Chyba nikt nie ma wątpliwości, czy jest to autonomiczna maszyna bojowa. Przyszłość dogoniła nas, zanim zdołaliśmy przetrawić jej dystopijne wizje, przedstawiane przez popkulturę.
מל"ט ההארופ - תוקף חשאי, עורב ומפתיע
Elon Musk i Stephen Hawking przeciwko robotom
Niektórzy już to dostrzegają i wygląda na to, że ten kierunek rozwoju wcale się im nie podoba. I można by to było zbyć wzruszeniem ramion – w końcu cały czas coś się komuś na tym świecie nie podoba – gdyby nie fakt, że ogłoszony niedawno apel o zaprzestanie rozwijania autonomicznych maszyn bojowych podpisali tacy ludzie, jak Stephen Hawking, Elon Musk, szef działu sztucznej inteligencji Google’a Demis Hassabis, czy profesor Massachusetts Institute of Technology Noam Chomsky. A nawet Steve Wozniak.
Choć obecność prof. Chomsky’ego w tym zacnym gronie wydaje się nieco przypadkowa, a Steve Wozniak od lat za sprawą swoich wypowiedzi wydaje się bardziej celebrytą, niż filarem technologicznego świata, to głosu Hawkinga, Muska czy Hassabisa ignorować nie sposób.
Bo o ile wcześniejsze apele – m.in. laureatów pokojowej nagrody Nobla, w tym Lecha Wałęsy – można uznać za głos ludzi, którzy o technologii mają nikłe pojęcie, to tym razem wypowiedzieli się specjaliści.
Humanitarne maszyny
To są bardzo mądrzy ludzie – z pewnością mądrzejsi od piszącego te słowa i większości mieszkańców naszej planety. Trudno uznać ich wspólny apel za próbę zaistnienia w mediach, czy – ze względu na to, że reprezentują zupełnie różne firmy czy instytucje badawcze – trudno posądzać ich o chęć załatwienia w ten sposób konkurenta czy jakichś własnych interesów.
Pozostaje zatem ich przekonanie, że bojowy, samodzielnie podejmujący decyzje robot może przynieść więcej problemów, niż korzyści. I nie chodzi tu o dość jałowe rozważania na polu etyki, dotyczące samego faktu, że maszyna może zabić człowieka, ale o coś znacznie bardziej wymiernego: rachunek potencjalnych zysków i strat, spowodowany masowym wprowadzeniem robotów na pole walki.
Entuzjaści tego scenariusza podkreślają brak emocji u maszyn, a zatem gwarancję, że – przy założeniu, że tego będą chcieli twórcy lub użytkownicy – roboty będą działać zawsze zgodnie z prawem. Że nigdy nie będą przestraszone, a zatem nie otworzą ognia do cywilów, nie zemszczą się z śmierć kolegi, a w razie niejasnej sytuacji nie będą strzelać na wszelki wypadek, bo sam fakt istnienia będzie im całkowicie obojętny.
Mała, zwycięska wojenka
Ta argumentacja wydaje się sensowna, podobnie jak przekonanie, że konflikt z udziałem maszyn będzie mniej krwawy od tradycyjnego. Nie ma emocji, nie ma zatem nienawiści czy wpojonego przez ideologów przekonania, że trzeba wybić wszystkich Tutsi, Bośniaków, Ormian, Żydów czy innej grupy, którą w niedalekiej przeszłości różni barbarzyńcy skazywali na zagładę. Nie ma zatem bezsensownych masakr, a zabijanie – jeśli już się zdarzy – zawsze będzie uzasadnione racjami wojskowymi.
Brzmi pięknie, ale warto pamiętać o drugiej stronie tego błyszczącego medalu. Mniej ofiar oznacza mniejsze zainteresowanie mediów i mniejszą presję opinii publicznej. To przede wszystkim obawa przed tym, jak fatalne wrażenie robią powracające z różnych zakątków planety trumny, przykryte flagami, powstrzymuje polityków przed wysyłaniem nastolatków w mundurach wszędzie tam, gdzie pan premier z panem ministrem obrony mieliby na to ochotę.
Gdy będzie wiadomo, że nikt z „naszych” nie zginie, kto powstrzyma jakiegoś ambitnego prezydenta przed małą, zwycięską wojenką gdzieś na końcu świata?
Gwarantowany brak strat po własnej stronie może oznaczać, że decyzje o rozpoczęciu wojen będą zapadać częściej, bo będą po prostu łatwiejsze i obarczone mniejszym ryzykiem. W takim kontekście istnienie autonomicznych robotów może stać się czynnikiem, zwiększającym ryzyko wybuchu kolejnych konfliktów.
Wojna jak „Gra Endera”
Si vis pacem, para bellum – kto chce mieć pokój, niech szykuje wojnę. Przez długie lata byłem przekonany o słuszności tej starożytnej maksymy, ale w przypadku bojowych maszyn sprawa wydaje mi się mniej jednoznaczna.
O ile rozwój broni jądrowej mógł – paradoksalnie – przysłużyć się pokojowi, wprowadzając do ewentualnej, globalnej konfrontacji gwarancję całkowitego, wzajemnego zniszczenia, to samodzielne maszyny wydają się raczej popychać świat ku kolejnym konfliktom, niż chronić go przed nimi.
Chyba, że z czasem dojdziemy do sytuacji, gdy na polach bitew walczyć będą wyłącznie roboty, a cała walka ograniczy się do gimnastyki rodem z „Gry Endera”. Albo do czegoś na kształt meczu Starcrafta. Tylko czy wtedy nie lepiej – zamiast budować te wszystkie maszyny – sprowadzić wszystko np. do starych, dobrych wojen rdzeniowych (core wars), polegających na walce dwóch programów w wydzielonym obszarze pamięci komputera?