Poderwij każdą dziewczynę i sprzedaj dowolny towar. Tak działa maszyna, czytająca emocje
Jak rozpoznawać i wykorzystywać ludzkie emocje? Istnieją już maszyny, które radzą sobie z tym zagadnieniem lepiej od wielu ludzi. Nie tylko wskażą, co czuje nasz rozmówca, ale zasugerują, co powiedzieć, by wzbudzić jego zainteresowanie.
25.08.2015 | aktual.: 25.08.2015 17:43
Smutny robot
Zauważyliście, jak bardzo zmieniło się podejście popkultury do robotów? Jeszcze niedawno były przede wszystkim albo bezmyślną siłą – nomen omen - roboczą, albo makiawelicznymi oprawcami, usiłującymi narzucić swoje jarzmo ludzkości.
I choć motyw targanej emocjami maszyny pojawia się choćby w filmach „Łowca androidów” czy „A.I.: sztuczna inteligencja”, to ostatnio mamy z nim do czynienia zdecydowanie częściej. Weźmy tylko ostatnich kilkanaście miesięcy.
„Ona” z duchowym związkiem człowieka i systemu operacyjnego i „Ex Machina” ze świadomą włąsnej duchowości Avą. Do tego zjechana przez krytykę za udawanie Kubricka i ceniona przeze mnie mimo tego „Automata” z melancholijnymi robotami, szukającymi swojego raju, „Chappie” z demoralizowaniem sztucznej inteligencji w klimacie Zef czy efekciarski „Vice” z targaną wykasowanymi wspomnieniami ponętną androidką – to wszystko stawia na głowie stare schematy.
AUTOMATA Official Trailer (2014)
Poza „Nią” to właśnie człowiek występuje w roli zagrożenia, a maszyny są na swój – nie zawsze identyczny z naszym – sposób współczujące, empatyczne i bardziej ludzkie od ludzi. Najlepszy w tym wszystkim jest fakt, że oglądając odczuwające maszyny na ekranie, możemy nie zdawać sobie spray, że owszem – oglądamy „science”, ale już wcale nie „fiction”.
US+: nie mów tyle o sobie, zapyta o uczucia
Maszyny nauczyły się, albo raczej zostały nauczone, rozpoznawać i interpretować ludzkie emocje. Celowo nie piszę tu o odczuwaniu, bo za wszystko odpowiadają bezduszne algorytmy, ale – z punktu widzenia efektywności – robot jest w stanie dostrzegać i na swój sposób rozumieć emocje ludzi. Najlepszy jest w tym wszystkim fakt, że radzi sobie z tym lepiej od wielu z nas.
Kilka lat temu Lauren McCarthy i Kyle McDonald stworzyli narzędzie o nazwie US+, współpracujące z Hangoutami Google’a. US+ monitoruje nasze wypowiedzi i poddaje je analizie lingwistycznej, bazującej na narzędziach o tajemniczych nazwach LIWC (Linguistic Inquiry Word Count) i LSM (Linguistic Style Matching), a do tego analizuje zachowanie naszego rozmówcy.
Wszystko to dzieje się w czasie rzeczywistym, dzięki czemu US+ potrafi w czasie rozmowy wyświetlać nam informacje na temat jej przebiegu, przedstawiać czytelne statystyki, a prede wszystkim sugerować np. zmianę tematu.
W praktyce mamy zatem maszynę, która nie tylko uważnie przysłuchuje się naszym rozmowom, ale również potrafi – często lepiej od nas – odczytywać emocje rozmówcy i wskazać, jak na nie reagować. Trafnie opisał to Jakub Koźniewski z magazynu FUTU:
Klara łączy się ze swoją mamą za pośrednictwem Google Hangouts. Od razu zaczyna opowiadać o irytującej koleżance z zajęć jogi, która niedawno zaszła w ciążę i nieustannie o tym mówi. Potok słów dotyczących Klary i jej emocji zdaje się nie mieć końca. Nagle w rogu ekranu komputera Klary wyskakuje dyskretne powiadomienie: „Za dużo mówisz o sobie. Zapytaj o odczucia Twojego rozmówcy”. Klara powstrzymuje słowotok i pyta mamę o to, jak się czuje, dzięki czemu może się dowiedzieć od niej o pewnym ważnym problemie, który jej ostatnio dokucza.
SHORE - skanowanie rozmówcy
Brzmi niesamowicie? Zgadzam się – to nie tylko brzmi, ale jest niesamowite. Możliwości maszyn na tym jednak się nie kończą. W ich zasięgu jest również rozpoznawanie płci, wieku i stanu emocjonalnego naszych rozmówców, czego przykładem może być choćby opracowana przez mój ulubiony Instytut Fraunhofera aplikacja o nazwie SHORE, przeznaczona pierwotnie dla Google Glass.
Fraunhofer IIS - SHORE Google Glass 2014
Jest ona zarazem przykładem, jak wielki postęp dokonał się w tej dziedzinie w ostatnich latach – rozpoznawanie ludzki emocji było możliwe już wcześniej, ale bazowało na szeregu różnych danych, dostarczanych m.in. przez czujniki tętna czy potliwości skóry. To już nie jest potrzebne – wystarczy po prostu widok twarzy.
Dzięki współczesnej technologii możemy mieć – przy zdalnym kontakcie – inteligencję emocjonalną na poziomie polodowcowego głazu, ale mimo tego bezbłędnie wiedzieć, co czują w danym momencie nasi rozmówcy. Przykładem może być choćby narzędzie o nazwie Real Eyes, stworzone z myślą o analizie reakcji osób, oglądających materiał wideo.
Rozpoznawanie mikroekspresji
Pamiętam, jak wiele lat temu z wielkim zainteresowaniem oglądałem serial „Lie to me”, którego tytuł przetłumaczono na polski – ja zwykle bez polotu - jako „Magia kłamstwa”. Serial opowiadał o granym przez Tima Rotha doktorze Calu Lightmanie, który wraz ze swoim zespołem czytał z ludzi może nie jak z otwartej księgi, ale w stopniu wystarczającym, by zastąpić dowolnie czuły wariograf.
Serial bazował na rzeczywistych badaniach, prowadzonych przez amerykańskiego psychologa Paula Ekmana i jego teoriach dotyczących komunikacji niewerbalnej, a w szczególności mikroekspresji. Są to mimowolne, trwające około 50 milisekund skurcze mięśni, wyrażające – za pomocą mimiki – nasze prawdziwe emocje.
LIE TO ME Trailer Promo
Problem polega na tym, że (niezależnie od kontrowersji, związanych z tym zagadnieniem) dla większości ludzi mikroekspresje są niedostrzegalne. Co innego maszyna – dobra kamera, rejestrowanie wielu klatek na sekundę i oprogramowanie do analizowania obrazu potrafią w tej kwestii zdziałać cuda. Dowodem na to mogą być choćby narzędzia takie, jak Affectiva czy Emotinet, analizujące zachowanie filmowanych ludzi.
Na sprzedaży się nie skończy
Po co to wszystko? Na razie celem jest przede wszystkim sprzedaż: analiza reakcji na reklamy czy różne produkty czyli wykorzystanie „odczuwających” maszyn do wyciągania od nas pieniędzy. Ich możliwości sięgają jednak znacznie dalej.
Why New Technology May Know How You Feel
To, co proponuje nam US+ czy SHORE to przecież tylko przedsmak możliwości tej technologii. Jeżeli już dzisiaj potrafi w czasie rzeczywistym analizować naszą rozmowę, sugerować tematy i sprawdzać reakcje rozmówców, to niedaleka przyszłość zapowiada się bardzo interesująco: wraz ze wsparciem technologii każdy z nas będzie mógł zostać duszą towarzystwa, skutecznym podrywaczem czy akwizytorem, od którego tacy weterani sprzedaży, jak z John Bosworth z „Halt and Catch Fire” będą mogli się uczyć.
Zastanawiam się jednak, co się stanie, gdy wszyscy zaczniemy stosować takie udoskonalenia, nosząc je przy sobie choćby w postaci okularów czy jakichś neurowszczepek. Wyobrażacie sobie, jak będzie wyglądać świat, gdy zaczniemy mówić to, co podsuną nam maszyny, analizujące nawzajem skuteczność działania własnych algorytmów?
Żyjemy w ciekawych czasach.