Rozmowa kwalifikacyjna z awatarem? To nie SF, tylko zalecenie tajnych służb!

Rozmowa kwalifikacyjna z awatarem? To nie SF, tylko zalecenie tajnych służb!
29.07.2014 01:59
Rozmowa kwalifikacyjna z awatarem? To nie SF, tylko zalecenie tajnych służb!
Źródło zdjęć: © Fot. Redorbit.com

Na całym świecie rzesze headhunterów starają się wśród tłumu kandydatów znaleźć tych, pasujących do określonych zadań. Nabiera to szczególnego znaczenia podczas rekrutacji do pracy w służbach specjalnych i w czasie przyznawania certyfikatów bezpieczeństwa, zapewniających dostęp do tajnych danych. Jak wybrać tych, którzy naprawdę się do tego nadają? To proste – wystarczy zostawić proces rekrutacji robotowi!

Jak wykryć potencjalnych zdrajców?

W idealnym świecie pracownicy tajnych służb z pewnością byliby prawdziwą elitą – świetnie przygotowani do swoich zadań, całkowicie odporni na różne pokusy i bezwarunkowo lojalni w stosunku do kraju i instytucji, dla której służą.

Tak się jednak składa, że naszemu światu daleko do ideału. Nic zatem dziwnego, że do pracy w służbach trafiają ludzie, którzy trafić tam nie powinni. Wystarczy wspomnieć choćby skandale, jakie wynikły wraz z licznymi aferami , ujawnionymi przez Wikileaks czy zdradą ludzi takich, jak Edwards Snowden czy Bradley Manning. Co robić, aby w przyszłości nie dopuścić do takich sytuacji?

Bradley Manning i Edward Snowden
Bradley Manning i Edward Snowden

Odpowiedź na to pytanie przedstawił zespół psychologów z National Center for Credibility Assessment (NCCA) – instytucji, prowadzącej badania na rzecz amerykańskich służb, odpowiedzialnych za bezpieczeństwo i przyznawanie dostępu do tajnych informacji.

Nie tylko wykrywacz kłamstw

Standardowa, obowiązująca obecnie procedura zakłada, że przyznanie certyfikatu bezpieczeństwa poprzedza wypełnienie przez zainteresowaną osobę szczegółowego formularza, a następnie rozmowa na jego temat z pracownikiem NCCA, podczas której udzielone odpowiedzi są weryfikowane. Co zrobić, aby zagwarantować jak największą szczerość podczas takiej rozmowy?

Badanie wariografem
Badanie wariografem

Pomocne może okazać się np. przeprowadzenie jej w asyście tzw. wykrywacza kłamstw czy zastosowanie mniej znanych metod, polegających np. na analizie głosu. Tak w „Przeglądzie bezpieczeństwa wewnętrznego” pisał o nich dwa lata temu Piotr Herbowski:

Piotr Herbowski:

W latach 60. XX w. w Stanach Zjednoczonych, w odpowiedzi na oczekiwania wyrażane m.in. przez funkcjonariuszy wojskowych służb specjalnych, podjęto badania nad urządzeniami umożliwiającymi prowadzenie analizy reakcji psychofizjologicznych, ale bez kontaktu z ciałem osoby badanej. W wyniku tych prac już w 1970 r. na rynku pojawi! się pierwszy komercyjny analizator głosu.

Przyjmuje się, że ma on za zadanie rejestrować te same zewnętrzne korelaty emocji co tradycyjny poligraf, ale przez analizę niesłyszalnych dla ucha i niepoddających się kontroli mikrodrgań w zakresie częstotliwości od 8 do 12 Hz. (…) Badania nad technologią nadal trwają w wielu krajach, m.in. Izraelu, USA czy Rosji, a pojedyncze urządzenia są oficjalnie testowane np. na lotniskach.

Neutralny awatar

Przełomem, pozwalającym skuteczniej wykrywać niewłaściwe osoby może okazać się jednak coś innego – zastąpienie ludzi maszynami, a konkretnie awatarami, które przeprowadzałyby wywiad.

Wirtualny rozmówca, stworzony na potrzeby eksperymentu przez NCCA
Źródło zdjęć: © Fot. Engadget
Wirtualny rozmówca, stworzony na potrzeby eksperymentu przez NCCA

Przeprowadzone przez NCCA doświadczenia z udziałem żołnierzy wykazały, że ludzie znacznie częściej przyznają się do różnych, mało chwalebnych zachowań, jak nadużywanie alkoholu czy problemy ze zdrowiem psychicznym, gdy są przekonani, że rozmawiają nie z żywym człowiekiem, ale z robotem. Ponadto, gdy robot dopytywał, czy chcą coś jeszcze dodać, uczestniczący w eksperymencie ochotnicy chętniej niż w przypadku rozmowy z człowiekiem podawali dodatkowe informacje.

Najlepiej zrozumie nas robot

Co istotnie, opracowanie odpowiedniego awatara nie stanowi obecnie problemu i nie ma wiele wspólnego z zagadnieniami, związanymi z szeroko rozumianą sztuczną inteligencją. Zdaniem NCCA w tym przypadku wystarczy mechanizm, zdolny do śledzenia kilku wątków rozmowy i będący odpowiednikiem głosowego menu, prezentującego na bieżąco wplecione w konwersację różne opcje do wyboru.

Jak wynika z raportu, przygotowanego przez NCCA, zastosowanie się do tych zaleceń będzie dodatkowo oznaczało oszczędności, związane z czasem i zaangażowaniem żywych pracowników. Nie wiadomo, czy sugestie NCCA zostaną zastosowane w praktyce, jednak przedstawione sugestie zbliżają nas do sytuacji, w której to maszyna decyduje o karierze i procesie rekrutacji, trafniej od ludzi oceniając szczerość i intencje potencjalnego kandydata.

Do czego nas to doprowadzi? Elektroniczny psycholog? Spowiednik? A może mediator, który niezależnie od sytuacji, bez cienia emocji zawsze będzie kierował się chłodną logiką? Nie jest to wcale odległa przyszłość - wystarczy wspomnieć pokazanego przed rokiem, wirtualnego terapeutę, diagnozującego depresję dzięki rozmowie z pacjentem i analizie - za pomocą Kinecta - jego mimiki i mowy ciała.

SimSensei & MultiSense: Virtual Human and Multimodal Perception for Healthcare Support

Z punktu widzenia skuteczności będzie to zapewne słuszne rozwiązanie, ale przyznam, że czuję się trochę nieswojo na myśl, że to maszyna, a nie człowiek będzie w stanie najlepiej ocenić i „zrozumieć” innego człowieka.

W artykule wykorzystałem informacje z serwisów Motherboard, Engadget, Popular Science, The Washington Times i Gizmodo.

Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Udostępnij:
Wybrane dla Ciebie
Komentarze (4)