Kogo zabije autonomiczny samochód: właściciela czy matkę z dzieckiem?
Czy twój autonomiczny samochód powinien cię zabić, aby uratować grupę przechodniów? Hamulcem rozwoju samochodów bez kierowcy nie jest już technologia, ale brak jasnych, powszechnie akceptowanych zasad etycznych.
30.01.2017 | aktual.: 10.03.2022 08:39
Czy robot powinien chronić właściciela kosztem innych ludzi?
Chyba nikt nie lubi ludzi, powtarzających co parę chwil „a nie mówiłem?” Ja też za nimi nie przepadam, ale tym razem mam naprawdę dobrą okazję, by powiedzieć te słowa. Wszystko za sprawą artykułu na temat autonomicznych samochodów i powiązanej z nimi etyki robotów, jaki napisałem ponad rok temu.
Chodziło w nim o dylemat związany z zachowaniem robota kierującego naszym pojazdem: ma chronić nas za wszelką cenę, czy działać w imię większego dobra, maksymalnie ograniczając straty spowodowane wypadkami drogowymi?
Wtedy były to jednak dość ogólne rozważania o tym, czego możemy oczekiwać od autonomicznych samochodów i jak rozwinie się ta branża. Dzisiaj tamte obawy zyskały naukowy fundament, a świat motoryzacji stoi przed poważnym wyzwaniem: jeśli nic się nie zmieni, nikt nie będzie chciał kupić samochodu kontrolowanego przez maszynę. Jak to możliwe?
Dylemat wagonika, czyli kogo zabić?
Wszystko za sprawą badania przeprowadzonego przez psychologów z University of California. Zadano w nim pytania, dotyczące tego, jak powinna zachować się kierująca pojazdem sztuczna inteligencja. Cały problem dotyczył wariacji na temat tzw. dylematu wagonika, znanego również jako dylemat zwrotnicy.
W motoryzacyjnym wydaniu sprowadza się do pytania, czy aby ratować np. grupę ludzi przechodzących chodnikiem, autonomiczny samochód powinien gwałtownie skręcić, zabijając swojego właściciela?
Nikt nie chce ginąć za innych
Odpowiedzi respondentów wskazywały, że samochodowa sztuczna inteligencja powinna kierować się zasadą mniejszego zła, czyli działać tak, by ucierpiało jak najmniej osób. Odpowiedzi zmieniały się jednak, gdy dotyczyły pojazdu, w którym siedzieliby uczestnicy badania.
Nic dziwnego: niemal każdy wyżej ceni swoje życie od życia innych ludzi. I niemal każdy wolałby, aby jego maszyna chroniła przede wszystkim swojego właściciela, a nie przypadkowych przechodniów. Tu pojawi się problem: aby ktokolwiek kupił autonomiczny samochód, producenci muszą ujawnić, jak zachowa się sztuczna inteligencja w sytuacji zagrożenia.
Będzie chronić kierowcę? Oczami wyobraźni widzę masowe protesty i traktowanie autonomicznych aut jako potencjalnych morderców, powszechny ostracyzm skierowany w stronę właścicieli i krytykę, spadającą na całą branżę. Będzie ograniczać straty? Nikt nie kupi samochodu wiedząc, że w razie problemów ta maszyna po prostu go zabije, aby ratować np. matkę z dzieckiem.
Nowa technologia, stare wyobrażenia
Warto jednak pamiętać, że wszelkie rozważania nad etyką autonomicznych maszyn są obarczone poważnym błędem. Dlaczego? Wszystko sprowadza się bowiem do naszych wyobrażeń i wiedzy, jak zachowują się na drogach ludzie. Przekładamy to na nasze wyobrażenia dotyczące autonomicznych kierowców.
To trochę jak z ostrzeżeniami, jakie przyniosła zorganizowana w 1898 roku w Nowym Jorku międzynarodowa konferencja urbanistyczna. Mądre głowy z całego świata zjechały się tylko po to, by rozwiązać niezwykle ważny problem końskiego nawozu zalegającego na ulicach miast.
Problem był poważny: prognozy sugerowały, że wraz ze wzrostem liczby ludności liczba dorożek zwiększy się tak bardzo, że w 1950 roku ulice Londynu znikną pod 3-metrową warstwą nawozu. Jeszcze gorzej miało być w Nowym Jorku: precyzyjne obliczenia wskazywały, że w 1930 roku końskie łajno będzie sięgać drugiego piętra kamienic na Manhattanie.
[photo position="undefined"]141971[/photo]
Człowiek: najsłabsze ogniwo
Nasze współczesne rozważania o autonomicznych samochodach przypominają nieco problemy XIX-wiecznych urbanistów: próbujemy tłumaczyć sobie świat za pomocą tego, co jest nam dobrze znane i nie dostrzegając, że wprowadzenie na drogi autonomicznych samochodów to coś więcej niż zastąpienie żywego kierowcy jego elektronicznym odpowiednikiem.
Wszystko za sprawą prostego faktu, że w łańcuchu wydarzeń prowadzących do wypadku zazwyczaj najsłabszym ogniwem jest człowiek. Dowiodły tego choćby testy samochodów Google’a – po przejechaniu setek tysięcy kilometrów jedyne stłuczki, jakie miały miejsce z ich udziałem, wynikały z błędów ludzi. Dobrze zaprogramowana maszyna była bezbłędna.
Autonomiczne samochody to większe bezpieczeństwo
Wyobraźmy sobie teraz sytuację, że na drogach mamy wyłącznie autonomiczne samochody. Samochody te nie tylko są kierowane przez zawsze czujnych i skupionych, wirtualnych kierowców, ale na dodatek komunikują się między sobą – ostrzegają o swojej obecności, podają parametry jazdy, a w razie problemów reagują jednocześnie i natychmiast.
Nie ma tu miejsca na typowe sytuacje z naszych dróg, gdzie jeden kierowca gwałtownie zahamuje, drugi cudem również zdąży, ale spóźniony o milisekundy trzeci już nie, najeżdżając poprzednikowi na tył. Nic z tych rzeczy – autonomiczne samochody mogą przecież kierować się inteligencją roju, płynnie i wspólnie reagując na zmieniające się warunki.
Co więcej, testy takich rozwiązań już trwają. Przykładem może być choćby miasteczko Ann Arbor, gdzie obecnie swoje rozwiązania testuje m.in. Ford czy – w mniejszej skali – szeroko opisywany przed kilkoma tygodniami, europejski „pociąg drogowy”, w którym szybko jadące ciężarówki jadą w minimalnych odległościach od siebie.
Gdyby kierował nimi człowiek, byłoby to niebezpieczne, ale ponieważ nad wszystkim czuwają komunikujące się maszyny, każdy z samochodów może reagować w tej samej chwili. Dlatego gwałtowne hamowanie pierwszego nie oznacza stłuczki – pozostałe hamują bowiem w ten sam sposób dokładnie w tym samym momencie. Takiej precyzji i czasu reakcji nie jest w stanie zapewnić żaden człowiek.
Etyka równie ważna, jak technologia
Blisko z tego miejsca do nieco utopijnej wizji ruchu drogowego zupełnie bez wypadków. W takiej sytuacji opisany wyżej problem przestaje mieć znaczenie: niezawodne maszyny po prostu nie dopuszczą, by doszło do wypadku. Tylko jak całkiem wyeliminować czynnik ludzki?
Powrócić do utopijnej idei z Futuramy, zakładającej całkowite oddzielenie ruchu pieszego i samochodowego? Wprowadzić model mieszany, gdzie np. na autostradach kieruje maszyna, a na osiedlowej uliczce za kierownicę chwyta człowiek? Radykalnie ograniczyć prędkość w miejscach, gdzie mogą pojawić się ludzie?
Wygląda na to, że kwestie techniczne stają się obecnie coraz mniej istotne – samochody półautonomiczne jeżdżą po naszych drogach od dawna, a współczesna technologia jest już o krok od tego, by bez obaw powierzyć jej prowadzenie naszych samochodów.
Aby było to możliwe, konieczne jest jednak coś jeszcze: opracowanie nowych, powszechnie znanych i akceptowanych zasad, według których maszyna ma decydować o ludzkim zdrowiu i życiu.