Intel® Real Sense™: kiedy komputery nauczyły się widzieć świat wokół siebie?
Komputery od dawna nie są jedynie biernymi maszynami,czekającymi,aż użytkownik wyda im jakieś polecenie. Nauczyły się obserwować i rozumieć przestrzeń wokół siebie, a jedną z ciekawszych technologii, która to umożliwia jest Intel® Real Sense™, zastosowana m.in. w laptopie Lenovo Z51-70.
07.12.2015 | aktual.: 28.04.2016 12:36
Są ludzie, dla których idealnym sposobem porozumiewania się z komputerem jest sama klawiatura. Po opanowaniu bezwzrokowego pisania i przyswojeniu niezliczonych skrótów klawiaturowych potrafią – nie odrywając rąk od klawiszy – skutecznie poruszać się zarówno w tekstowym, jak i graficznym środowisku pracy z biegłością, nieosiągalną dla większości z nas.
To jednak dość nieliczna grupa komputerowych specjalistów. Co zostaje dla reszty? Tu zdania są podzielone – ja na przykład nie wyobrażam sobie pracy z touchpadem czy jego udoskonaloną wersją, znaną jako trackpad. Przez lata wzorem wygody był dla mnie trackpoint, czyli rodzaj niewielkiego joysticka, umieszczonego pomiędzy klawiszami G, H i B. Dla kogoś innego ulubionym rozwiązaniem może okazać się trackball albo myszka, być może o nietypowym kształcie i funkcjach.
Wszystkie te metody łączy jedno – albo są dalekie od optimum, albo zapewniają komfort i szybkość, ale wymagają treningu i przyzwyczajenia. A gdyby tak poszukać metody uniwersalnej? Takiej, która pozwoli każdemu na wygodną i szybką komunikację z komputerem, a jednocześnie nie wymaga długiej nauki?
Rozmowa i gesty
Znamy co najmniej dwa takie rozwiązania. Pierwszym z nich jest sterowanie głosem. Ta metoda może wydawać się atrakcyjna, ale – nawet dzisiaj, gdy komputerowe algorytmy naprawdę dobrze radzą sobie z rozpoznawaniem i interpretacją tego, co mówimy, ten sposób jest po prostu wolny i mało precyzyjny.
Zamiast o coś prosić albo opisywać jakiś proces, dużo łatwiej po prostu wcisnąć klawisz albo przesunąć kursor. Albo – co dostrzegli twórcy interfejsów dotykowych – po prostu pokazać palcem. Stąd tylko krok do drugiej, znacznie bardziej efektywnej metody. Są nią gesty i sterowanie komputerem za pomocą ruchów naszych dłoni.
Content Agility 2013 - Minority Report UI [Congility]
W całkiem niedalekiej przeszłości takie rozwiązanie wydawało się bardzo futurystyczne. Do historii przeszła słynna scena z filmu „Raport mniejszości”, gdzie Tom Cruise obsługuje bazę danych, przesuwając przed sobą obrazy za pomocą dłoni, ubranych w elektroniczne rękawice.
Technologia wyprzedziła film
To, co robiło wielkie wrażenie w dniu premiery tamtego filmu, dzisiaj jest anachronizmem. Wystarczyło kilkanaście lat, by tamto – wówczas superfuturystyczne rozwiązanie – dzisiaj było rozczulająco przestarzałe.
Wszystko za sprawą możliwości, jakie daje komunikowanie się z komputerami czy – ujmując sprawę szerzej – z maszynami, za pomocą gestów. Wbrew pozorom to rozwiązanie ma zaskakująco długą historię.
Discover Intel® RealSense™ potential with Lenovo PC's
Sterowanie gestami? Kiedyś to już było!
Nie było niczym niezwykłym już na początku lat 80., kiedy to firma DataSoft Inc. zaproponowała użytkownikom konsoli Atari VCS kontroler o nazwie Le Stick.
Był to rodzaj joysticka, pozbawionego kabla i przyssawek, wykorzystujący dość prostą technologię – trzymany pionowo w dłoni gadżet mierzył wychylenia, na które gra reagowała dokładnie tak samo, jak na wychylenia zwykłego joysticka. Pomysł był o tyle ciekawy, co mało praktyczny, bo tradycyjne rozwiązanie było od niego znacznie bardziej precyzyjne.
Równie niecodzienny był gadżet o nazwie Joyboard, czyli rodzaj deski, zastępującej joystick – gracz stawał na niej i sterował wychyleniami ciała, co np. w niektórych grach sportowych całkiem nieźle wzmacniało realizm. W większości przypadków było to jednak rozwiązanie mniej wygodne od tradycyjnego joysticka.
I love the Power Glove... its so bad.
Jak złapać wirtualny przedmiot?
Dużym krokiem naprzód okazała się rękawica Power Glove, pod względem działania przypominająca nieco sprzęt ze wspomnianego wcześniej filmu „Raport mniejszości”. Co ciekawe, technologia wyprzedziła w tym przypadku kino, bo rękawica pojawiła się na rynku w 1996 roku, co poprzedziły m.in. eksperymenty, prowadzone w VPL Research przez Jarona Laniera.
Wszystkie te rozwiązania – choć zrywały z tradycyjnym sterowaniem – miały jednak jedną, podstawową wadę – wymagały od użytkownika skorzystania z czegoś poza własnym ciałem. Blisko ideału znalazła się SEGA, która w 1999 roku zaoferowała kontroler o nazwie Activator. Był to rodzaj obręczy z czujnikami podczerwieni, którą należało położyć na podłodze. Użytkownik stawał na środku, a czujniki miały odczytywać ruchy jego rąk i tułowia. Miały, bo precyzja odczytów pozostawiała wiele do życzenia.
Sega Activator
Przełom nastąpił dopiero za sprawą kolejnej generacji akcesoriów konsolowych. Pokazana przez Sony kamera EyeToy, a przede wszystkim stworzony przez Microsoft Kinect otworzyły nowy rozdział w historii sterowania gestami. Co istotne, szybko pojawiły się różne modyfikacje tych pomysłów, których twórcy inaczej rozłożyli akcenty, skupiając się na specjalizacji w jakichś dziedzinach, czego przykładem może być choćby Leap Motion, pomyślany jako uzupełnienie klasycznego zestawu w postaci myszki i klawiatury.
Intel® Real Sense™: technologia dla wymagających
Dla wymagających użytkowników istnieje już jednak inne, alternatywne rozwiązanie, mające nad konkurentami kilka istotnych przewag, jak wsparcie wielkiej firmy wraz z jej zapleczem badawczo – rozwojowym czy stworzenie systemu, wykorzystującego kilka różnych metod wykrywania i analizowania widzianego ruchu i obiektów.
Rozwiązaniem tym jest Intel® Real Sense™, mające nad konkurencją jeszcze jedną, ważną przewagę – nie jest to bowiem jedynie obiecujący pomysł, ale technologia, która została już przekształcona w działający i oferowany na rynku produkt.
Intel RealSense 3D camera with Lenovo
Sensor jak oko
Czym dokładnie jest i jak działa Intel® Real Sense™? Sensor, który znajdziemy m.in. w multimedialym laptopie Lenovo Z51-70 (dostępny od 2399 zł) składa się z trzech kluczowych elementów.
Pierwszym z nich jest kamera, pod względem działania nie odbiegająca od tego, co znamy ze standardowych kamer laptopów czy smartfonów. Drugim elementem jest laserowy nadajnik, rzutujący na otoczenie siatkę, widoczną w podczerwieni, a trzecim kamera, umożliwiająca rejestrację wyglądu i zniekształceń tej siatki.
W praktyce oznacza to, że Intel® Real Sense™ jest w stanie nie tylko zarejestrować obraz otoczenia, ale również nadać mu głębię i na swój sposób rozumieć okoliczną przestrzeń, układ przedmiotów i ich wzajemne zależności.
Real Sense robi zatem mniej więcej to samo, co my – ludzie – osiągamy przekształcając w naszym mózgu sygnały z dwóch, odsuniętych nieco od siebie, źródeł obrazu. Efekt jest podobny: zarówno my, jak i Intel® Real Sense™ widzimy świat nie jako płaski obrazek, ale jako trójwymiarową przestrzeń, w której przedmioty posiadają głębię i mogą znajdować się bliżej lub dalej.
Do czego można to wykorzystać?
Możliwości wykorzystania faktu, że komputer jest w stanie widzieć głębię obrazu, są ograniczone niemal wyłącznie wyobraźnią programistów. Dość wspomnieć, że w czasie pokazów zaprezentowano np. skaner, który przy wejściu na lotnisko na bieżąco ocenia, czy bagaż spełnia normy wyznaczone przez przewoźników.
Kolejnym przykładem może być np. użycie tej technologii w samochodzie, dzięki czemu w razie pojawienia się na drodze przeszkody komputer sam oceni, w jaki sposób zmienić parametry pracy zawieszenia, by przejechać przez nią możliwie płynnie i bez żadnego uszczerbku.
A co z komputerami? W przypadku Z51-70 czy innych urządzeń z Intel® Real Sense™, jak gamingowy Y700 czy AIO700 pierwszą korzyść zauważymy już w momencie uruchomienia sprzętu – Intel® Real Sense™ pozwala na zalogowanie się widokiem twarzy. Nie trzeba przy tym jakoś specjalnie jej skanować, ustawiać się czy dobierać właściwy profil. Po prostu siadamy przed komputerem i… już. Głowa może być przechylona nawet o kilkadziesiąt stopni, a Intel® Real Sense™ i tak sobie poradzi. Poradzi sobie również z rozpoznaniem naszego brata bliźniaka albo faktu, że zamiast głowy przed kamerę wepchnięto jakąś maskę.
Ogranicza nas tylko wyobraźnia
Intel® Real Sense™ można również wykorzystać do sterowania oprogramowaniem – urządzenie jest w stanie rozpoznawać nie tylko proste gesty, ale również znacznie bardziej złożone czynności, jak np. manipulowanie różnymi obiektami w przestrzeni.
Można sobie tylko wyobrazić, jak niesamowitą rozrywką będą niebawem gry strategiczne, obsługujące to rozwiązanie. Intel® Real Sense™ sprawdzi się również w czasie wideokonferencji czy pracy z materiałami wideo, pozwalając na łatwą zmianę tego, co znajduje się za nami bez stosowania powszechnego w takich przypadkach, jednolitego tła.
Innym przykładem mogą być np. zakupy – gdy chcemy spakować jakąś rzecz leżącą za naszymi plecami nie musimy wstawać i mierzyć jej, aby dobrać odpowiednie rozmiary pudełka. Wystarczy wskazać ją na ekranie, a algorytm zajmie się resztą – sprawdzi wymiary wskazanego przedmiotu i znajdzie dla niego odpowiednie opakowanie. O tego już tylko krok do funkcji skanera 3D, pozwalającego na łatwe przenoszenie do komputera trójwymiarowych modeli przedmiotów z naszego otoczenia.
Możliwości – podobnie jak np. w przypadku samochodów – są tu ograniczone jedynie wyobraźnią programistów. Co więcej, Intel® Real Sense™ jest platformą otwartą na deweloperów, którym twórcy sprzętu udostępniają różne narzędzia, wspomagające tworzenie oprogramowania. W związku z tym użytkownicy laptopów Lenovo Z51-70 i innych, wyposażonych w tę technologię mogą przypuszczać, że najlepsze dopiero przed nimi, a przykłady kreatywnego zastosowania Intel® Real Sense™ będzie można w niedalekiej przyszłości mnożyć.
Artykuł powstał we współpracy z firmą Lenovo.