Roomba przestraszyła testerów. Czują się wprowadzeni w błąd

Roomba przestraszyła testerów. Czują się wprowadzeni w błąd11.01.2023 11:10
Testerzy odkurzacza Roomba czują się wprowadzeni w błąd
Testerzy odkurzacza Roomba czują się wprowadzeni w błąd
Źródło zdjęć: © iRobot

Testerzy Roomby czują się wprowadzeni w błąd po tym, jak intymne nagrania jednej z użytkowniczek trafiły na Facebooka. iRobot twierdzi, że ma zgodę na zbieranie tego typu danych z wnętrza domów – ale testerzy twierdzą inaczej.

Roomba firmy iRobot to jeden z najbardziej popularnych inteligentnych odkurzaczy na rynku. Pod koniec grudnia 2022 r. wyszło na jaw, że urządzenie robiło zdjęcia użytkownikom – m.in. podczas wizyty w toalecie czy dzieciom – a później fotografie wylądowały na Facebooku. Skandal był tak oczywisty, że producent nawet nie próbował zaprzeczać.

W związku z nietypową sytuacją wśród testerów i użytkowników Roomby zrodziły się obawy o ich prywatność. Twierdzą oni, że zostali wprowadzeni w błąd przez producenta – zauważa MIT Technology Review, który niedawno przeprowadził śledztwo w sprawie wycieku zdjęć do internetu. Warto w tym miejscu zaznaczyć, że według iRobot problem dotyczył jedynie wersji testowej odkurzacza. Mimo to jego użytkownicy i tak mają pewne obawy o prywatność.

Dalsza część artykułu pod materiałem wideo

Zgoda na wykorzystanie danych

Wszyscy uczestnicy testu musieli wyrazić zgodę na wykorzystanie ich danych do uczenia maszynowego i szkolenia w zakresie wykrywania obiektów. W szczególności sekcja "Wykorzystanie informacji o badaniach" w Globalnej Umowie Testowej wymagała potwierdzenia, że "tekst, wideo, obrazy lub dźwięk mogą być wykorzystane przez iRobot do analizy statystyk i danych dotyczących użytkowania, diagnozowania problemów technologicznych, poprawy wydajności produktu, innowacji produktów i pokazów, badań rynkowych, prezentacji handlowych i szkoleń wewnętrznych, w tym uczenia maszynowego i wykrywania obiektów".

Tymczasem zdaniem użytkowników został zatuszowany fakt, że iRobot prowadzi szkolenie z zakresu uczenia maszynowego za pośrednictwem ludzkich dostawców danych, którzy uczą algorytmy rozpoznawania poszczególnych elementów uchwyconych w surowych danych. Innymi słowy, umowy, nigdzie wyraźnie nie wspominają, że osobiste obrazy będą przeglądane i analizowane przez innych ludzi.

James Baussmann, rzecznik prasowy firmy iRobot, twierdzi, że warunki, na które muszą przystać testerzy "obejmują różne scenariusze testowe" i nie są specyficznie określone dla obrazów wysyłanych w celu dokonania adnotacji danych. "Na przykład, testerzy są czasami proszeni o zrobienie zdjęć lub nagranie wideo zachowania robota, np. gdy utknie on na jakimś obiekcie lub nie do końca zadokuje, i wysłanie takich zdjęć lub filmów do iRobota" – wyjaśnia rzecznik, dodając, że "w przypadku testów, w których obrazy będą przechwytywane w celu dokonania adnotacji, istnieją konkretne warunki, które są opisane w umowie dotyczącej tego testu".

Użytkownicy nie czytają polityki prywatności

Prawnicy i eksperci ds. prywatności poproszeni przez MIT Technology Review o przegląd umów o wyrażeniu zgody, stwierdzili, że dokumenty i wynikające z nich naruszenia prywatności są symbolem złamanych ram zgody, które dotyczą nas wszystkich – niezależnie od tego, czy jesteśmy beta testerami, czy zwykłymi konsumentami.

Eksperci twierdzą, że firmy doskonale zdają sobie sprawę z tego, że ludzie rzadko czytają politykę prywatności. Tymczasem Ben Winters, prawnik Electronic Privacy Information Center, który koncentruje się na sztucznej inteligencji i prawach człowieka twierdzi, że nawet jeśli użytkownik przeczyta umowę nadal, może nie uzyskać jasnego komunikatu.

Wręcz przeciwnie, "duża część tego języka wydaje się zaprojektowana w celu zwolnienia firmy z obowiązujących przepisów dotyczących prywatności, ale żadna z nich nie odzwierciedla rzeczywistości, w jaki sposób działa produkt" – mówi Albert Fox Cahn, dyrektor wykonawczy Surveillance Technology Oversight Project, organizacji ds. nadzoru nad technologią. Odnosząc się do mobilności robotów odkurzających, wskazuje on niemożność kontrolowania, gdzie w danym momencie w ich własnym domu znajdują się potencjalnie wrażliwe osoby lub przedmioty, zwłaszcza dzieci.

W ostatecznym rozrachunku to "nakłada ciężar odpowiedzialności na użytkownika końcowego" – zauważa Jessica Vitak, informatyk z University of Maryland's College of Information Studies, która bada najlepsze praktyki w zakresie polityki użytkowania i wyrażania zgody. Jej zdaniem umowa nie dostarcza użytkownikom prawdziwego opisu tego, co może pójść nie tak, co jej zdaniem stanowiłoby cenną informacją przy podejmowaniu decyzji o uczestnictwie w testach czy zwyczajnym użytkowaniu sprzętu.

Konrad Siwik, dziennikarz Gadżetomanii

Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Udostępnij:
Wybrane dla Ciebie
Komentarze (3)