Bunt maszyn w Iraku. Bojowe roboty zagroziły amerykańskim żołnierzom!
O wojskowych robotach piszemy często, jednak do tej pory były to przede wszystkim demonstratory technologii, prototypy i inne tego typu maszyny. Czyli sprzęt, który już powstał, jest testowany, ale do udziału w prawdziwej wojnie jeszcze mu daleko. Jak daleko? Tu niespodzianka – jak twierdzi Northrop Grumman, znacznie mniej, niż mogłoby się wydawać.
20.10.2013 | aktual.: 10.03.2022 11:48
O wojskowych robotach piszemy często, jednak do tej pory były to przede wszystkim demonstratory technologii, prototypy i inne tego typu maszyny. Czyli sprzęt, który już powstał, jest testowany, ale do udziału w prawdziwej wojnie jeszcze mu daleko. Jak daleko? Tu niespodzianka – jak twierdzi Northrop Grumman, znacznie mniej, niż mogłoby się wydawać.
Ponad rok temu w artykule „Autonomiczny bojowy dron X-47B. Kiedy pierwszy atak bez udziału człowieka?” cytowałem profesora Ronalda Craiga Arkina, zajmującego się etyką robotów bojowych. Jego rozważania na temat zastosowania takich maszyn na polu bitwy wydawały się wówczas o tyle ciekawe, co nieco oderwane od rzeczywistości.
Okazuje się jednak, że bojowe roboty stały się teraźniejszością, o czym można przekonać się na poligonie w Fort Benning w Georgii. Od początku XX wieku ćwiczą tam nie tylko żołnierze, ale również nietypowe oddziały strażaków – smokejumpers – którzy na kompletnych odludziach skaczą na spadochronach, by walczyć z pożarami niedostępnymi dla zwykłych jednostek straży pożarnej.
Do strażaków, czołgistów, żołnierzy piechoty i słynnych rangersów dołączyli niedawno nowi towarzysze. Cztery firmy: HDT Robotics, iRobot, Northrop Grumman i QinetiW wysłały tam swoje dzieła: uzbrojone w karabiny maszynowe i naszpikowane elektroniką roboty, abywzięły udział w pokazach o nazwie Robot Rodeo. Co w tym szczególnego? Jak stwierdził pułkownik Willie Smith z ośrodka badawczego Unmanned Ground Vehicles:
To nie są tylko narzędzia. Uczynienie z robota członka zespołu – taki właśnie jest cel tych ćwiczeń.
Warto w tym miejscu wspomnieć o wydarzeniach, które na kilka lat powstrzymały wdrażanie w wojsku bojowych robotów. Jeszcze w 2008 roku do Iraku przerzucono kilka autonomicznych robotów TALON w wersji SWORDS (Special Weapons Observation Reconneissance Direct-action System), wyposażonych w broń maszynową. Wcześniej roboty TALON w Iraku były, ale pełniły wyłącznie funkcje wartownicze (o tym, jak żołnierze traktują takie roboty, przeczytacie w artykule „Pogrzeb robota. Żołnierze zaczęli traktować maszyny jak towarzyszy broni”).
Ku przerażeniu wojskowych, podczas testów na miejscu okazało się, że roboty zamiast przykładnie zmasakrować jakiegoś brodacza w turbanie, zaczęły się obracać, kierując broń w stronę amerykańskich żołnierzy. W obliczu zagrożenia, nie czekając na dalszy rozwój wypadków, wyłączono uzbrojone maszyny.
I choć relacja z tego incydentu brzmi jak kiepskie nawiązanie do Skynetu i „Buntu maszyn”, to odnosi się do faktycznych wydarzeń, które miały miejsce, choć raczej nie były przesadnie nagłaśniane. Jak stwierdził wówczas Kevin Fahey, odpowiedzialny za wdrażanie autonomicznych systemów bojowych:
Gdy wydarzy się coś nieprzyjemnego, musi minąć jakieś 10-20 lat, nim odważymy się ponownie tego spróbować.
Jak widać Kevin mylił się – wystarczyło zaledwie 5 lat, by ponownie wrócić do pomysłu autonomicznych maszyn, które wykonywałyby nie tylko zadania patrolowe, ale brały czynny udział w walce. Swoją przydatność będzie mógł pokazać robot skonstruowany przez koncern Northrop Grumman o nazwie CaMEL (Carry-all Mechanized Equipment Landrover).
CaMEL ma gąsienicowe podwozie, a 13 litrów paliwa zapewnia mu ponad 20 godzin działania z ładunkiem sięgającym pół tony. Jak stwierdził Phil Coker z Northrop Grumman:
CaMEL to wielofunkcyjna platforma, która może szybko zmieniać swoją funkcję z zaopatrzeniowca na pojazd wsparcia, ochroniarza czy uzbrojonego partnera, który zwiększa siłę ognia swojego oddziału. Silnik hybrydowy sprawia, że CaMEL porusza się bardzo cicho, co jest nie do przecenienia na polu walki i może zapewnić wsparcie ogniowe tam, gdzie jest taka potrzeba.
Czy zapewni? Przypuszczam, że gdyby nie wykryto i nie poprawiono błędów, które były przyczyną wycofania robotów SWORD, nikt nie chwaliłby się nowymi testami. Ponieważ są jawne i znane mediom, można przypuszczać, że broń została już dokładnie przetestowana, a pokaz w Forcie Benning ma po prostu wykazać, ze amerykańska armia ma nową, gotową do działania broń. Na poniższym filmie można zobaczyć, jak CaMEL radzi sobie ze strzelaniem:
Gun-toting robots: Northrop Grumman live fire demonstration
To, co mnie zastanawia w tej sytuacji to reakcje świata na pierwszą ofiarę, zabitą nie przez kierującego robotem operatora, ale przez maszynę, która autonomicznie – wyłącznie na podstawie własnego AI – podejmie decyzję o uśmierceniu człowieka.
Jak bardzo naiwne i oderwane od rzeczywistości wydają się w takim kontekście sformułowane ponad pół wieku temu prawa Asimova, definiujące etykę robotów! Ich podstawowym założeniem było przekonanie, że maszyna nie powinna wyrządzać ludziom krzywdy.
- Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.
- Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
- Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
- Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.
Paradoksalnie, znacznie bliższe realiom wydają się prawa Davida Langforda. Zostały wymyślone jako żart, ale oceńcie sami, czy nie oddają ducha naszych czasów lepiej, niż idealistyczne mrzonki Asimova?
- Robot nie może działać na szkodę Rządu, któremu służy, ale zlikwiduje wszystkich jego przeciwników.
- Robot będzie przestrzegać rozkazów wydanych przez dowódców, z wyjątkiem przypadków, w których będzie to sprzeczne z trzecim prawem.
- Robot będzie chronił własną egzystencję przy pomocy broni lekkiej, ponieważ robot jest cholernie drogi.