Dron MQ-9 Reaper w bazie lotniczej Creech w Nevadzie

Dron MQ-9 Reaper w bazie lotniczej Creech w Nevadzie

Algorytm zabijania. Skynet istnieje i dzięki big data decyduje, kogo trzeba uśmiercić

Ahmad Zaidan jest dziennikarzem – kieruje biurem Al-Dżaziry w Islamabadzie. Rok temu dowiedział się, że Skynet chce go zabić. To nic, że Ahmad nie zrobił niczego złego – amerykańska maszyna uznała go za terrorystę i umieściła na liście celów do likwidacji.

Z tego artykułu dowiesz się:

  1. kto się boi buntu maszyn
  2. w jaki sposób Skynet wybiera cele do zabicia
  3. ile niewinnych osób zabiły amerykańskie drony
  4. czy można poddać się załodze atakującego śmigłowca

Jednym z największych, podsycanych przez popkulturę lęków związanych z technologią jest obawa przed buntem maszyn. Niezliczone książki, filmy czy gry wideo opowiadają o tym, jak dzieło ludzkiego geniuszu na jakimś etapie rozwoju zyskuje samoświadomość albo opacznie interpretuje wydane polecenia.

Efekt jest powszechnie znany: filmy takie jak „Matrix”, „Terminator”, „Ja, robot” czy liczne, mniej znaczące dzieła raczą nas wizją świata, w którym maszyny, zamiast posłusznie parzyć nam kawę, podwozić do pracy i wyręczać w uciążliwych czynnościach, zwracają się przeciwko swoim stwórcom, stają się nagle śmiertelnym wrogiem ludzkości.

Los nietrwałych, białkowych istot staje się wówczas nie do pozazdroszczenia: nie dość, że mamy wrażliwe na uszkodzenia ciała, to na dodatek wymiana uszkodzonych narządów, choć niekiedy możliwa, jest skomplikowana i kosztowna.

W tej wojnie maszyny mają przewagę którą zniwelować może – i z reguły o tym opowiada historia – jakiś przebłysk ludzkiego geniuszu, podparty zazwyczaj wielkim poświęceniem głównego bohatera.

Kto się boi buntu maszyn?

Zostawmy jednak na boku popkulturowe schematy – chyba każdy je zna i mógłby wymienić kilka własnych przykładów. Sednem jest coś innego – zakorzeniony w tych opowieściach lęk przed maszynami.

Mam nadzieję, że nie jesteśmy jedynie biologicznym bootloaderem dla cyfrowej superinteligencji. Niestety, wydaje się to coraz bardziej prawdopodobne.

Elon Musk

Nie ten z okładek brukowców, opisujących wielkimi literami historię babci, którą chciał zamordować toster, ale raczej obawa przed tym, dokąd zaprowadzi nas rozwój technologii.

Wbrew pozorom nie jest to lęk pozbawiony podstaw. Obawy wyrażają nie tylko różni ekstremiści, którzy boją się smartfonów i kuchenek mikrofalowych, a na zewnątrz wychodziliby najchętniej w czapeczkach z folii aluminiowej, ale również osoby bezpośrednio związane ze światem technologii.

Krytykiem kierunku, w którym prowadzi nas rozwój technologii jest od lat ojciec wirtualnej rzeczywistości, Jaron Lanier. Z bardziej znanych postaci warto wymienić choćby Elona Muska i Stephena Hawkinga, koncentrujących swoje obawy na sztucznej inteligencji i tzw. technologicznej osobliwości.

Zdefiniujmy maszynę ultrainteligentną jako maszynę, która przewyższa intelektualnie każdego człowieka. Skoro projektowanie maszyn jest jedną z prac umysłowych, maszyna ultrainteligentna mogłaby projektować jeszcze lepsze maszyny. Byłaby to bez wątpienia eksplozja inteligencji, która pozostawiłaby człowieka daleko w tyle. Maszyna ultrainteligentna będzie ostatnim wynalazkiem człowieka.

Irving J. Good, brytyjski matematyk i kryptolog, współpracownik Alana Turinga

Prawa robotyki Isaaca Asimova

Próbę okiełznania tego lęku podjął przed laty amerykański naukowiec i pisarz, Isaac Asimov, który sformułował trzy prawa robotyki, uzupełnione następnie o jeszcze jedno, zerowe prawo.

  • Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
  • Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
  • Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.
  • Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.

Rzecz jasna prawa Asimova nie mają żadnej mocy – to po prostu kilka pomysłów, w idealistyczny sposób definiujących zasady działania maszyn.

Biorąc pod uwagę realia i fakt, że ludzie budują maszyny w różnych, nie zawsze pokojowych celach, znacznie trafniejsza wydaje się szydercza wersja praw Asimova, czyli zasady sformułowane przez brytyjskiego pisarza SF, Davida Longforda:

  • Robot nie może działać na szkodę Rządu, któremu służy, ale zlikwiduje wszystkich jego przeciwników
  • Robot będzie przestrzegać rozkazów wydanych przez dowódców, z wyjątkiem przypadków, w których będzie to sprzeczne z trzecim prawem
  • Robot będzie chronił własną egzystencję przy pomocy broni lekkiej, ponieważ robot jest „cholernie drogi”.
Eksperymentalny, autonomiczny dron X-47B na pokładzie lotniskowca

Skynet zabija w Pakistanie

Kilka lat temu w artykule „Autonomiczny bojowy dron X-47B. Kiedy pierwszy atak bez udziału człowieka?” przytaczałem poglądy prof. Ronalda Arkina, zajmującego się etyką robotów na polu bitwy.

(…) jestem przekonany, że za pomocą technologii uda się wyeliminować część czynników negatywnie wpływających na zachowanie żołnierzy (…) Zamiast zasady "Najpierw strzelaj, potem pytaj" autonomiczne systemy będą kierowały się mniej agresywną strategią zgodnie z zasadą "Nie czyń niepotrzebnie krzywdy"(…) Roboty staną się etyczne, gdy zostaną wyposażone w oprogramowanie zmuszające je do przestrzegania praw wojny.

prof. Ronald Arkin

Od tamtego czasu wiele się zmieniło: odwaga ludzi takich, jak Edward Snowden uchyliła nieco rąbka tajemnicy nie tylko na temat masowej inwigilacji, ale i metod, stosowanych przez Amerykanów do kontrolowania innych krajów i ich obywateli.

Jednym z wykorzystywanych do tego celu narzędzi jest Skynet. Serio – ktoś w Langley, Fort Meade czy jeszcze innym ośrodku, zarządzającym globalną inwigilacją uznał to zapewne za zabawne i nazwał jedno z narzędzi wywiadu złowrogim słowem, znanym z „Terminatora”.

Skynet analizuje dane pochodzące z telefonów komórkowych kilkudziesięciu milionów Pakistańczyków i na tej podstawie – analizując zbiory big data – tworzy listę celów dla dronów. Jak się to odbywa?

Stanowisko pilotów dronów, baza LSA Anaconda (port lotniczy Al-Bakr), Irak

Big data i metadane: paliwo dla wojny z terrorystami

Wszystko to jest zasługą big data i metdanych. Nie trzeba podsłuchiwać konkretnych rozmów czy analizować treści wszystkich wiadomości. Czasem wystarczą informacje o tym, że kontakt pomiędzy określonymi numerami w ogóle miał miejsce.

Jeśli ktoś często zmienia numery telefonów, podróżuje w miejsca, uznawane za podejrzane, a na dodatek przebywa w tych samym miejscu i czasie, co inne, podejrzane numery – dla Skynetu jest potencjalnym celem dla drona.

Jak zostać terrorystą?

W taki właśnie sposób algorytm tworzy listę osób, które – po zatwierdzeniu – mają stać się ofiarami krążących gdzieś nad Pakistanem, uzbrojonych maszyn, kontrolowanych przez operatorów z drugiego końca świata.

MQ-9 Reaper odpalający rakietę Hellfire

Kogo Skynet uznaje za terrorystę?

Warto przy tym zastrzec, że o ile maszyna wybiera, kogo zabić, to ostateczną decyzję – czyli odpowiedź na pytanie, czy zabić – podejmuje na razie człowiek. I całe szczęście, bo jak się okazuje, metody typowania są wciąż dalekie od doskonałości.

Przekonał się o tym wspomniany na początku Ahmad Zaidan, który – według Skynetu – był modelowym terrorystą: często podróżował, zmieniał miejsce zamieszkania, przebywał w dziwnych lokalizacjach i kontaktował się z podejrzanymi ludźmi.

Klasyfikacja dziennikarza według Skynetu

Choć w przypadku dziennikarza Al-Dżaziry wszystko skończyło się dobrze i na którymś etapie weryfikacji wyrok śmierci został anulowany, nie wszyscy z wytypowanych przez Skynet mają tyle szczęścia.

Uzbrojony MQ-9 Reaper w Afganistanie

Rozterki pilota drona

Major Thomas Egan jest oficerem amerykańskich sił powietrznych. Służy w bazie lotniczej w Newadzie, ale nie lata już – jak na początku kariery – samolotami F-16. Jego służba to pilotowanie Reapera, bojowego drona, który po drugiej stronie globu zabija w Afganistanie wrogów pokoju, demokracji i podwójnych Maków.

Dobre wyniki i nienaganna służba sprawiają, że Egan wykonuje misje coraz trudniejsze, a zarazem coraz bardziej niejednoznacznie moralnie, co prowadzi w końcu do rozterek, niesubordynacji i samodzielnego wymierzania sprawiedliwości za pomocą Reapera.

Historia Thomasa Egana to fikcja – została opowiedziana w filmie „Dobre zabijanie”. Rozterki operatora drona wydają się jednak przedstawione wiarygodnie, podobnie jak fakt, że mimo nowoczesnego, precyzyjnego rozpoznania i zaawansowanej technologii, skutkiem ubocznym użycia dronów jest zabijanie niewinnych ludzi.

Jak rozpoznać, co krąży nad głową?

Drony zabiły setki niewinnych osób

Patrick Ball z Human Rights Data Analysis Group wskazuje, że – na podstawie szczątkowych danych, ujawnianych przez NSA – błędne wskazania mogą dotyczyć nawet 15 tys. Pakistańczyków.

Trudno ocenić, ilu z nich padnie ofiarą niespodziewanego nalotu. Ostrożne w obliczeniach organizacje, jak Bureau of Investigative Journalism czy New America Foundation, które trudno posądzić o szukanie taniej sensacji czy manipulowanie danymi, szacują liczbę cywilów zabitych przez bezzałogowce w Pakistanie na 600 – 1100 osób.

W pakistańskich górach dorasta właśnie pierwsze pokolenie dzieci, dla których bezchmurne niebo nie kojarzy się — jak dla ich rówieśników z innych zakątków planety — z piękną pogodą, zachęcającą do zabawy na zewnątrz. Bezchmurne niebo to dla nich synonim zagrożenia w postaci — dosłownie — gromu z jasnego nieba.

Niektóre dane wskazują, że wśród ponad 2300 zabitych w atakach zaledwie 84 osoby należały do Al-Kaidy, jeszcze inne, że 90 proc. zabitych nie było celami - to m.in. ofiary błędnej klasyfikacji przez Skynet lub ludzkich pomyłek w czasie ataku.

Wśród ornamentów na tradycyjnych, pakistańskich dywanach pojawiły się również drony

Dehumanizacja wojny: co się dzieje, gdy zabija maszyna?

Trudno traktować te dane bezkrytycznie, jednak bez wątpienia pokazują one istniejący problem.

Jest nim nie tylko liczba zabitych, niewinnych ludzi, ale również postępująca dehumanizacja wojny, która – co również znamienne – nie została przecież przez Stany Zjednoczone Pakistanowi wypowiedziana. Co więcej, oba państwa to – przynajmniej formalnie – sojusznicy.

Z punktu widzenia Pakistańczyka, ginącego właśnie w eksplozji rakiety nie ma raczej znaczenia, czy wystrzelił ją pilot samolotu, czy bezzałogowiec, kontrolowany przez odległego o tysiące kilometrów operatora. Znaczenie to pojawia się jednak, gdy zapytamy o przyszłość konfliktów zbrojnych.

Człowiek czy cel?

Jeszcze niedawno mogło się wydawać, że rację ma wspomniany wcześniej etyk, prof. Arkin. Jego zdaniem zaangażowanie w walkę pozbawionych emocji maszyn daje gwarancję „czystej”, pozbawionej okrucieństwa i niepotrzebnego cierpienia wojny.

Praktyka wydaje się wskazywać na coś innego: niwelując (choć wciąż jeszcze nie do końca) czynnik ludzki decydenci sprawili, że zabijanie stało się łatwiejsze. Pod względem tego, co widzi osoba decydująca o życiu i śmierci innych nie różni się od znanych nam wszystkim gier wideo.

Nie tylko nie ma ryzyka po stronie własnych sił, ale nie ma również ginących i cierpiących ludzi. Są tylko widoczne na ekranie cele.

MQ-9 Reaper

Czy można poddać się dronowi?

Niesie to z sobą kolejną zmianę. Wśród ujawnionych przez Snowdena materiałów znalazła się transkrypcja rozmowy pilota śmigłowca Apache z wojskowym prawnikiem. W 2007 roku podczas misji załoga śmigłowca o nazwie kodowej Crazyhorse 18 zaczęła ostrzeliwać talibów, którzy – będąc w beznadziejnym położeniu – rzucili w końcu broń i podnieśli ręce do góry.

Wobec nietypowej sytuacji pilot skontaktował się z dowództwem pytając, co ma w takich okolicznościach zrobić. Odpowiedź była jednoznaczna: strzelać dalej, bo „nie można poddać się samolotowi”.

Wygląda na to, że osoby odpowiedzialne za tworzenie wojskowych regulaminów mają teraz twardy orzech do zgryzienia. Przed nimi wyzwanie opracowania nowych zasad, dostosowanych do realiów, w których technologia zmieniła sposób wojowania. Mam wrażenie, że konflikty wcale nie staną się przez to bardziej humanitarne. Bo czy można poddać się dronowi?

MQ-1 Predator

Data oblotu: 1994 r.
Wejście do służby: 1995 r.
Uzbrojenie: 2 punkty podwieszeń (2 rakiety Hellfire lub 2 rakiety Stinger)
Prędkość maksymalna 217 km/h
Maksymalna masa startowa: 1020 kg
Producent: General Atomics

MQ-1C Grey Eagle

Data oblotu: 2005 r.
Wejście do służby: 2009 r.
Uzbrojenie: 4 punkty podwieszenia (4 rakiety Hellfire, do 8 rakiet Stinger lub 4 bomby GBU-44/B Viper Strike)
Prędkość maksymalna: 280 km/h
Maksymalna masa startowa: 1633 kg
Producent: General Atomics

MQ-9 Reaper

Data oblotu: 2001 r.
Wejście do służby: 2007 r.
Uzbrojenie: 7 punktów podwieszeń (4 rakiety Hellfire + 2 bomby GBU-12 Paveway II, pociski JDAM, rakiety Stinger i Brimstone)
Prędkość maksymalna: 482 km/h
Maksymalna masa startowa: 4760 kg
Producent: General Atomics

General Atomics Avenger (Predator C)

Data oblotu: 2009 r.
Wejście do służby: gotowy do służby, niewdrożony
Uzbrojenie: 1900 kg (wewnętrzna komora + 6 zewnętrznych punktów podwieszeń)
Prędkość maksymalna: 740 km/h
Maksymalna masa startowa: 8255 kg
Producent: General Atomics

Podziel się:

Przeczytaj także:

Także w kategorii Technologie:

Za kulisami rezerwacji online. Jak kupić tani bilet? Bill Gates: kradnij pomysły, zdradzaj przyjaciół, ciężko pracuj. Tak zostaniesz miliarderem Współczesne czołgi i pojazdy bojowe Wojska Polskiego. Ten sprzęt ma nas obronić Tajny projekt NASA: dlaczego rozsypano w Kosmosie miliony miedzianych igieł? Nieznane samoloty polskich konstruktorów, które nigdy nie weszły do produkcji Technologiczne mity. Sony timer, czyli planowe starzenie produktów Dzień z życia śmieciarza. Kosze na śmieci pełne telewizorów, komputerów i konsol? LG K10 LTE - test i recenzja TechFlash - Palmer Luckey jako kurier, tablet z Ubuntu i skutery przyszłości według Samsunga TechFlash - SI Microsoftu szerzy poglądy Hitlera, a Oculus Rift wkrótce trafi do pierwszych klientów TechFlash - obowiązkowa rejestracja prepaidów, Sony ForwardWorks i ładowarka dla fanów One Piece'a TechFlash - 40 lat Apple'a w 40 sekund, grafenowy plaster dla cukrzyków i śmierć byłego szefa Intela LG X cam oraz LG X screen wkrótce w Polsce. Oto ceny TechFlash - sterowanie mimiką innej osoby, robot demontujący iPhone'y i nietypowe logotypy znanych firm Konferencja Apple: nowy iPhone SE to telefon, dla którego mogę wrócić do iOS Najlepsze robotyczne odkurzacze: Roomba, Hom-Bot, Dyson, KOBOT i Neato TechFlash - Nokia OZO w sprzedaży, egzoszkielety Panasonica i robot dostawcą pizzy LG Stylus 2 już w Polsce. To pierwszy na świecie smartfon z radiem DAB+. Oto zalety tej technologii Pancerne smartfony. Ericsson R310, Sonim, Samsung Solid, Caterpillar i inne, niezniszczalne telefony TechFlash - AMD Radeon Pro Duo, objecujący Sulon Q VR i gadżety przyszłości według Sony Najlepsze gadżety dla wielbicieli kawy: niesamowite ekspresy, zaparzacze i akcesoria LG G5 już w przedsprzedaży z wartościowym prezentem TechFlash - rękawiczki dla HTC Vive, nowe ogniwa paliwowe i wycieczka po Wielkim Zderzaczu Hadronów Najlepsze małe, bezprzewodowe głośniki. Co oferują Harman Kardon, Creative, Marshall i Polk Audio?

Popularne w tym tygodniu:

Inteligentne rowery LeEco: wbudowana nawigacja, fitness tracker i komunikator Jak odzyskać hasło ukryte za gwiazdkami? DR ZĄBER Sentry: stworzona w Polsce obudowa o wymiarach konsoli Budynek, który walczy ze smogiem. Jest ratunek dla zatrutych miast! Renesans kaset magnetofonowych: trend na przekór cyfryzacji Bill Gates: kradnij pomysły, zdradzaj przyjaciół, ciężko pracuj. Tak zostaniesz miliarderem Siłownia jak starożytna galera. Ćwicz, aby dopłynąć do celu! Majsterkowanie dla zaawansowanych: Xbox One S w formie laptopa Aplikacje dla architektury x86 uruchomimy również na procesorach ARM Basslet: nadgarstkowy subwoofer pozwala poczuć odsłuchiwaną muzykę Najbardziej bezużyteczny klawisz na klawiaturze. Do czego służy? Płonące baterie w przyszłości ugasi wbudowany czynnik gaśniczy