Roboty wkrótce będą nas oszukiwać!
Już wkrótce roboty będą potrafiły oszukać nie tylko inne mechaniczne maszyny, ale również ludzi. Ci z kolei sami dążą do tego, aby roboty były w stanie wypuści nas w maliny.
Już wkrótce roboty będą potrafiły oszukać nie tylko inne mechaniczne maszyny, ale również ludzi. Ci z kolei sami dążą do tego, aby roboty były w stanie wypuści nas w maliny.
Jak to się zaczęło?
Naukowy z Georgia Tech, sponsorowani przez Office of Naval Research, aktualnie rozwijają nowe algorytmy. Ich zadaniem jest przeprowadzanie takich obliczeń, które w określonych sytuacjach umożliwią oszukanie innego robota, człowieka czy też przeciwnika. Sęk w tym, aby nowa technologia nie zwróciła się przeciwko nam w najmniej odpowiedniej sytuacji.
O co w tym chodzi?
Skoro maszyna X będzie posiadała umiejętność oszukiwania, to może ją wykorzystać w sytuacji, którą ona sama uważa za najlepszą i odpowiednią w konkretnym momencie. Z powodu wielu pytań, niewiadomych i zupełnie nowych możliwości w tworzeniu oprogramowania dla robotów, powstała kompilacja dwóch teorii.
Mowa jest o tappingu i teorii gier, a konkretnie o ich współzależności. Zakłada się, że robot może posłużyć się nowym algorytmem i przyjąć zwodniczą taktykę jeżeli występuje jakiś konflikt w procesie przetwarzania kolejnych zachowań maszyny w momencie kiedy jest ona ścigana przez inny obiekt.
Jak to wygląda w praktyce?
Mocno uproszczonym przykładem może być taka oto sytuacja:
maszyna A jest śledzona przez inny obiekt B po linii prostej. Pościg A szybko zbliża się do robota B. Ten oblicza, że jeśli nie wyprowadzi przeciwnika "w pole", zostanie przerobiony na żyletki. W tym momencie ścigany obiekt może na przykład schować się za śmietnikiem, w korytarzu lub nawet w ślepej uliczce pomimo tego, że nie ma z niej innego wyjścia niż ta sama droga powrotna. Celem takich działań jest zgubienie "ogona" i uniknięcia przerobienia na surowce wtóre.
Jak wspomniałem wcześniej, kłopot tkwi w tym, aby ludzie wiedzieli kiedy maszyna może oszukać albo kiedy dopuściła się nieuczciwej manipulacji.
Aby móc dalej rozwijać złożoność takich algorytmów organizowane są między innymi robo-zawody w chowanego, w których bierze udział na przykład 20 maszyn. Do zabawy wyznaczona jest określona, zamknięta powierzchnia, w której są możliwe trzy miejsca do ukrycia się. Te z kolei oznaczono różnymi markerami. Następnie przygotowano dwie grupy robotów. Zadaniem pierwszych było ukrywanie się, a drugich odnalezienie zbiegłego obiektu.
Po wprowadzeniu odpowiednich algorytmów dla jednej i drugiej grupy urządzeń rozpoczęto mecz. Jego najciekawsza część tyczy się "zbiegów". Otóż 75% uciekinierów nie pozostawało w pierwszych lepszych kryjówkach (miejscach oznaczonych markerem) tylko obierało nową trasę i zmieniało miejscówkę na drugą, a potem trzecią.
I co dalej?
Rozwój podobnych algorytmów oznacza, że roboty zaczynają jakby "myśleć" w dość okrojonym tego słowa znaczeniu. Do publicznej informacji docierają jedynie skrawki istotnych informacji, które mogą dać nam szeroki pogląd na rozwój sztucznej inteligencji. Jednak to odkrycie mówi nam o tym, że w niedalekiej przyszłości powinniśmy ograniczyć zaufanie do robotów.
Źródło: popsci