Sztuczna inteligencja Google'a czyta z ruchu warg lepiej, niż ludzie. Wystarczy nagranie, by podsłuchać rozmowę
Możliwości oprogramowania Google’a po raz kolejny zaskakują. Po przeanalizowaniu tysięcy godzin nagrań wideo, sztuczna inteligencja potrafi – wyłącznie na podstawie obrazu – odczytać wypowiadane słowa z ruchu warg.
27.11.2016 | aktual.: 10.03.2022 09:00
Demonstracja możliwości
Tworzone przez Google’a oprogramowanie bywa często nazywane – nieco na wyrost – sztuczną inteligencją. Niezależnie od tego, jak zdefiniujemy SI, możliwości algorytmów Google’a nie przestają nas zaskakiwać.
Jeszcze dwa lata temu wydawało się, że niebywałym osiągnięciem jest nauczenie się przez nią gry w Arkanoida, kiedy to oprogramowanie Google’a samodzielnie opanowało reguły gry, a następnie wypracowało optymalną strategię rozgrywki, osiągając w niej biegłość, o której ludzie mogą zazwyczaj tylko pomarzyć.
Sztuczna inteligencja lepsza od ludzi
Od tamtego czasu Google (a właściwe Alphabet, ale mało kto używa poprawnej nazwy koncernu) co pewien czas zaskakuje nas kolejnymi doniesieniami o postępach swojego oprogramowania.
Całkiem niedawno mogliśmy dowiedzieć się np. o tym, że automatyczny tłumacz Google’a potrafi tłumaczyć z par języków, których nie był bezpośrednio uczony, odczytując sens i znaczenia na podstawie innych, znanych zestawów języków.
Nowe doniesienia są równie zaskakujące. Okazuje się bowiem, że oprogramowanie o nazwie Watch, Listen, Attend, and Spell, tworzone przez Google’a, a właściwie przez należącą do Alphabetu firmę DeepMind i zespół z Oxford Uniersity, opanowało trudną sztukę czytania z ruchu warg. Co więcej, jest w tym skuteczniejsze od ludzi.
Nauka przez oglądanie filmów
Aby nauczyć je odczytywania ruchów warg, badacze poddali analizie 5000 godzin nagrań materiałów wideo, pochodzących ze stacji BBC, w tym m.in. kłótni prowadzonych przez polityków. Dało to w sumie 118 tys. różnych zdań, budowanych z około 16 - 17 tys. słów.
Dla porównania – słowniki języka angielskiego wyróżniają około 170 tys. słów. Słowniki polskiego – około 150 tys. Do codziennej komunikacji wystarcza zazwyczaj znajomość około 2 tys. słów.
Na podstawie filmów Watch, Listen, Attend, and Spell nauczył się analizować ruchy warg z niebywałą dokładnością – o ile najlepsi spośród ludzi są w stanie odczytać w ten sposób około 12 - 20 proc. wypowiadanych słów, to oprogramowanie Google’a osiąga skuteczność niemal 50 proc.!
Czytanie z ruchu warg – nowe możliwości
Zdaniem Google’a nowa technologia – choć wciąż jeszcze daleka od doskonałości i zależna od jakości materiału wideo – może pomóc w codziennym życiu osobom z dysfunkcjami słuchu, przydać się do udźwiękowienia niemych filmów albo być wykorzystana np. do obsługi asystentów głosowych – dzięki analizie obrazu będzie bowiem możliwe sterowanie nimi za pomocą bezgłośnych, niesłyszalnych dla otoczenia komend.
Brzmi to całkiem sensownie, ale nie byłbym sobą, gdybym – podziwiając skuteczność oprogramowania Google’a – nie zwrócił uwagi na zagrożenia. Nowa technologia wydaje mi się bowiem kolejnym krokiem, zmniejszającym i tak iluzoryczny obszar naszej prywatności.
Wielki Brat patrzy i słucha
Jeszcze do niedawna obraz z kamer, którymi obwieszone są nasze ulice, mógł co najwyżej pokazać, że dwie osoby spotkały się i rozmawiały. W połączeniu z rosnącą popularnością wideo wysokiej jakości i nowymi możliwościami oprogramowania Google’a, prawdopodobne wydaje się zarejestrowanie nie tylko faktu spotkania, ale i treści prowadzonej rozmowy.
Wygląda zatem na to, że orwellowski slogan o Wielkim Bracie nabrał nowego znaczenia. Dzięki nowym technologiom Wielki Brat patrząc, przy okazji również słucha.