Kupisz autonomiczny samochód? Uważaj, twój robot będzie chciał cię zabić!
Wprowadzenie na nasze drogi autonomicznych pojazdów to nie tylko kwestia techniczna. Równie istotna jest etyka, którą mają kierować się algorytmy sterujące pojazdami. W czasach gdy prawa Asimova coraz bardziej odbiegają od rzeczywistości, staje się jasne, że potrzebujemy nowej etyki robotów.
19.05.2014 | aktual.: 10.03.2022 11:17
Dlaczego samochód zabije właściciela?
Wyobraź sobie, że jedziesz swoim nowym, autonomicznym SUV-em. Twój wybór padł na ten samochód, bo jest nie tylko wygodny, ale też bezpieczny. Dzięki sterującemu nim algorytmowi pozwala ci zapomnieć o obowiązkach kierowcy, choć droga wiedzie tuż nad wysokim, niebezpiecznym urwiskiem.
Nagle jadący z naprzeciwka mały samochód z dwójką starszych pasażerów niespodziewanie skręca, zajeżdżając ci drogę. Zanim zdążysz pomyśleć, jak zareagować, algorytm samochodu podejmie decyzję za ciebie. Aby nie dopuścić do zderzenia, skręci w jedynym możliwym w danej chwili kierunku, czyli w stronę przepaści, a Ty zginiesz w wypadku. Jak to możliwe?
Odpowiedź jest prosta: algorytm samochodu szybko ocenił, że zderzenie SUV-a z małym autkiem zakończy się śmiercią dwójki pasażerów mniejszego pojazdu. Aby do tego nie dopuścić, wybrał mniejsze zło: śmierć jednego człowieka zamiast dwóch. W praktyce twoje auto wydało na ciebie wyrok śmierci.
Dylemat wagonika, czyli zabić, aby ratować życie
W gruncie rzeczy problem sprowadza się do tzw. dylematu wagonika, czyli popularnego w etyce eksperymentu myślowego. W swojej podstawowej wersji brzmi on tak:
Wagonik kolejki wyrwał się spod kontroli i pędzi w dół po torach. Na jego drodze znajduje się pięciu ludzi przywiązanych do torów przez szalonego filozofa. Ale możesz przestawić zwrotnicę i w ten sposób skierować wagonik na drugi tor, do którego przywiązany jest jeden człowiek. Co powinieneś zrobić?
No właśnie: lepsze jest zaniechanie działania i śmierć pięciu osób czy uratowanie tej piątki poprzez spowodowanie śmierci jednego człowieka? Dylemat ten doczekał się z czasem wielu wariantów, jak możliwość zablokowania wagonika przez zrzucenie kogoś z wiaduktu czy wersji ze szpitalem i pacjentem, którego zabicie i pobranie organów uratuje życie wielu innym ludziom. Jaki wybór jest w takiej sytuacji słuszny?
Czy życie człowieka zawsze jest warte tyle samo?
Różne mądre głowy próbują udzielić na to pytanie odpowiedzi od co najmniej tysiąca lat. Dość wspomnieć, że nad tym problemem zastanawiał się m.in. św. Tomasz z Akwinu. Dylemat dostrzeżono również w przypadku dronów bojowych - pisałem o nim w artykule “Autonomiczny bojowy dron X-47B. Kiedy pierwszy atak bez udziału człowieka?”. Wszystko to jednak wydawało się jeszcze do niedawna zagadnieniem dość abstrakcyjnym.
Pojawienie się na drogach autonomicznych pojazdów sprawia jednak, że stajemy pod ścianą: gdy zamiast ludzkiego sumienia mamy algorytm, odpowiedź - choć można obwarować ją niezliczonymi warunkami - powinna być jednoznaczna. Jako nabywca chcę i mam prawo wiedzieć, czego mogę się spodziewać po swoim samochodzie.
I czy algorytmy sterujące samochodami będą tak samo obiektywnie ceniły życie wszystkich ludzi? A może zaczną kierować się chłodną matematyką i mając do wyboru starego i młodego, sprawią, że szkodę, obrażenia lub śmierć poniesie ten pierwszy? Uratują cenionego neurochirurga, a poświęcą bezrobotnego? Potraktują kobietę w ciąży jako jedno, półtora czy dwa życia?
Potrzebujemy nowej etyki robotów!
Te problemy mnożą kolejne, jak np. wspólne zasady dla wszystkich producentów autonomicznych aut. Jeśli tego zabraknie, łatwo wyobrazić sobie sytuację, w której jakikolwiek wypadek z udziałem np. Saaba i Forda będzie kończył się masakrą pasażerów tego drugiego, bo algorytm Saaba będzie chronił swojego kierowcę, a Ford dokonywał obiektywnej oceny i wybierał mniejsze zło, nawet kosztem właściciela. Albo na odwrót.
Z drugiej strony czy może powstać międzynarodowy, przestrzegany przez wszystkich producentów autonomicznych aut standard, dający wszystkim takie same szanse na przeżycie? A nawet jeśli powstanie, to czy nie pojawią się zaraz wąsaci magicy, którzy za sowitą opłatą dokonają drobnego tuningu, modyfikującego etykę automatycznego kierowcy tak, by za wszelką cenę chronił swojego właściciela?
Isaac Asimov, prawa robotów::
Zamiast odpowiedzi mnożą się pytania. Problem w tym, że do tej pory rozwojem autonomicznych pojazdów interesowaliśmy się głównie pod kątem kwestii technicznych. Teraz, gdy technologia przestaje być barierą, coraz łatwiej dostrzec, że kłopotem może być coś innego: etyka i system wartości, którymi mają kierować się roboty. Stworzone w latach 40. prawa robotów Isaaca Asimova to zdecydowanie za mało. Potrzebujemy nowej etyki robotów.
W artykule wykorzystałem informacje z serwisów Popular Science, Wired, Dziennik Internautów i Slate.