Project Soli - Google ma pomysł, jak sterować gestami ubieralną elektroniką
Co nowego można wymyślić w kwestii sterowania gestami? Google udowadnia, że temat nie jest zamknięty, a analiza wideo nie jest jedynym rozwiązaniem. Zamiast kamery, śledzącej ruchy użytkownika firma z Mountain View zaproponowała coś znacznie ciekawszego.
02.06.2015 | aktual.: 10.03.2022 10:16
Bariery interfejsu
Jak w wygodny sposób sterować ubieralną elektroniką? Różni producenci sięgają do różnych rozwiązań, jak gesty, ruchy dłoni, głos, przyciski czy w końcu niewielkie ekrany dotykowe. Trudno uznać to za szczyt wygodne – korzystamy z tych rozwiązań dlatego, że zazwyczaj nie mamy lepszej alternatywy.
A raczej do niedawna nie mieliśmy. Google ujawnił Project Soli – warty uwagi pomysł na sterowanie ubieralną elektroniką, o którym wspominał ostatnio Adam w artykule „Sterowanie jeansami czy machaniem ręką? Sam nie wiem co wybrać: pomysły Google są świetne!”.
Nie tylko obraz!
Project Soli zakłada sterowanie za pomocą gestów. Na pozór to żadna nowość – w końcu trudno ekscytować się wymyśleniem Kinecta na nowo. Innowacja polega na tym, że do tej pory sterowanie gettami było możliwe dzięki kamerom. Czy to w urządzeniach takich, jak Kinect, czy w smartfonach, telewizorach czy laptopach, gesty były „dostrzegane” przez urządzenie dzięki analizie widzianego przez kamerę obrazu.
Nowa propozycja Google’a wydaje się znacznie ciekawsza. Zamiast analizy obrazu wykorzystuje fale radiowe i efekt Dopplera, czyli – w praktyce – radar, śledzący ruchy użytkownika. Precyzja urządzenia jest na tyle duża, że udało się opracować wzorce odbicia fal, odpowiadające różnym ułożeniem i ruchom dłoni.
Welcome to Project Soli
Sądzę, że jest to znacznie lepsze rozwiązanie niż np. wtopienie w tkaninę włókien, tworzących na ubraniu rodzaj touchpada. Dlaczego?
Do nowości trzeba się przyzwyczaić
Sednem jest tu brak typowego urządzenia sterującego. Zamiast niego mamy nasze dłonie i to wystarczy. Bez trudu wyobrażam sobie sterowanie w ten sposób np. goglami VR czy smartwatchem. I choć zgadzam się, że nasze ruchy rękami mogą dla osoby postronnej wyglądać dość osobliwie, to zapewne jest to jedynie kwestią przyzwyczajenia i upowszechnienia tej technologii.
Przed laty ktoś rozmawiający przez telefon za pomocą zestawu słuchawkowego też wydawał się wariatem, mówiącym do siebie. Przywykliśmy, więc do innych nowinek też przywykniemy. Problem polega na tym, że Project Soli jest na razie jedynie demonstratorem technologii. Google nie zdradza, czy i kiedy ma zamiar zastosować to rozwiązanie w dostępnych na rynku urządzeniach.
Interfejs przyszłości
Gdzie mogłoby się sprawdzić? Moim zdaniem idealnym połączeniem byłoby użycie go np. w następcy Google Glass. Gesty dłoni zamiast sięgania do touchpada w oprawce okularów? To może się sprawdzić!
Niezależnie od tego, czy kiedykolwiek doczekamy się wdrożenia tego rozwiązania w konsumenckim sprzęcie, cieszy mnie fakt, że producenci różnych urządzeń szukają nowych rozwiązań na komunikację z elektroniką i starają się wyjść poza ograniczenia, jakie narzucają różne warianty sterowania głosowego i dotykowych ekranów. Pytanie tylko, czy zdążą je wdrożyć, zanim doczekamy się powszechnie dostępnego sprzętu sterowanego myślami?