Facebook i Google: wyborcze manipulacje. Jeśli zechcą, wybiorą Polakom prezydenta

Facebook i Google: wyborcze manipulacje. Jeśli zechcą, wybiorą Polakom prezydenta

Facebook i Google: wyborcze manipulacje. Jeśli zechcą, wybiorą Polakom prezydenta
Łukasz Michalik
16.06.2016 13:18, aktualizacja: 10.03.2022 09:41

Największy serwis społecznościowy i największa wyszukiwarka świata mają narzędzia, pozwalające wpływać na wyniki wyborów. Mogą ich użyć bez naszej wiedzy i nic na to nie poradzimy.

Co mogą internetowe korporacje?

Wizja świta, w którym demokracja jest tylko fasadą, kryjącą machlojki wielkich korporacji, to popularny wątek w popkulturze, eksploatowany zwłaszcza przez entuzjastów cyberpunku i zwolenników różnych teorii spiskowych.

Problem w tym, że obawy, będące do niedawna domeną paranoików, zaczynają się sprawdzać. Za sprawą rozwoju technologii powstają narzędzia, dzięki którym wielkie firmy mogą zrobić to, czego wielu z nas się obawia: wynieść do władzy tych polityków, których zechcą. A my im w tym pomożemy.

Brzmi nieprawdopodobnie? Być może, ale na poparcie tej tezy istnieją całkiem sensowne argumenty.

Jak technologia przewiduje przyszłość?

Jesteśmy przewidywalni. Choć nasze indywidualne wybory mogą odbiegać od prognoz, to – za sprawą prawa wielkich liczb – można z dużym prawdopodobieństwem przewidzieć, jak zachowa się większa grupa ludzi. Jakie decyzje podejmą, co kupią, ile wydadzą, gdzie pojadą na urlop albo w końcu na kogo oddadzą swój głos w czasie wyborów.

Nie bez powodu Amazon opatentował rozwiązanie, pozwalające na wysłanie transportu określonych towarów zanim zostaną zamówione. Dzięki bogatym statystykom firma mniej więcej wie, gdzie i kiedy wystąpi zapotrzebowanie na dany produkt, więc może wysyłać go w drogę z wyprzedzeniem. Gdy oczekiwane zamówienie w końcu wpłynie, towar będzie już prawie na miejscu.

Dostawczy dron Amazonu
Dostawczy dron Amazonu

"House of Cards": skąd wiadomo, że serial odniesie sukces?

Fakt, że dzięki analizie dużych baz danych można w wielu przypadkach przewidzieć przyszłość, nie jest tajemnicą. To m.in. w ten sposób Netflix zaprojektował sukces serialu „House of Cards”: kręcenie tradycyjnego odcinka pilotażowego nie było potrzebne, bo firma nie musiała niczego testować. Miała pewność, że serial odniesie sukces, więc wydała 100 milionów dolarów z góry zamawiając dwa sezony.

Na tej samej zasadzie Microsoft mógł pokusić się o wytypowanie, kto zdobędzie Oscara. Skuteczność cyfrowej wyroczni była zadziwiająca, bo trafiła w 21 z 24 przypadków. Niebawem przekonamy się, czy równie skutecznie wytypowała wyniki Euro 2016.

Podobnie przedstawia się kwestia uczestnictwa w wyborach – w końcu polityk czy partia polityczna to dokładnie taki sam produkt, jak kostka toaletowa czy tabletka na wzdęcia. Zamiast sięgać po niego na półce w sklepie, zaznaczamy odpowiednie pole na karcie do głosowania, ale różnice na tym się kończą.

Netflix dobrze wie, co lubią jego użytkownicy
Netflix dobrze wie, co lubią jego użytkownicy

Facebook prowadzi testy na użytkownikach

Kilka miesięcy temu pisałem o praktykach Facebooka, prowadzącego na nas nieustanne testy. Nigdy nie mamy pewności, z czego wynika taki, a nie inny dobór treści, prezentowanych w naszym streamie.

Choć oczywiście można domyślać się pewnych reguł, jak zbieżność z naszymi zainteresowaniami, wiadomości od znajomych, lokalizacja czy spełnianie kryteriów, podanych przez reklamodawców, to w praktyce nasza aktywność na Facebooku jest przedmiotem nieustannej analizy. Cokolwiek robimy w serwisie Marka Zuckerberga, jest przez Facebooka rejestrowane.

Co śledzą algorytmy? Obiektem zainteresowania są lajki, czas spędzony na poszczególnych stronach, oglądane filmy, sieć znajomych czy nawet statusy, których nie opublikowaliśmy, ale zaczęliśmy wpisywać w formularzu na stronie czy w aplikacji. To wszystko pozwala zazwyczaj na stworzenie dość szczegółowego obrazu naszej osoby: Facebook wie, co lubimy, z kim się przyjaźnimy, albo czy mamy depresję i skłonności samobójcze. Znajomość poglądów i sympatii politycznych jest w tym przypadku oczywistością.

Gdzie w tym wszystkim zagrożenie?

Mark Zuckerberg na Mobile World Congress 2016
Mark Zuckerberg na Mobile World Congress 2016

Kogo popiera Mark Zuckerberg?

Jego zwiastunem okazał się eksperyment, przeprowadzony w czasie amerykańskich wyborów prezydenckich. Facebook udostępnił wówczas funkcję, pozwalającą pochwalić się znajomym, że byliśmy na wyborach.

Grupa, na której przeprowadzono test została podzielona na połowy. Jednej z nich wyświetlano informacje o tym, że znajomi już zagłosowali. Drugiej takiego komunikatu nie wyświetlono. Jak nietrudno zgadnąć użytkownicy, którzy widzieli, że ich znajomi oddali już głos, byli bardziej skłonni by również zagłosować.

I właśnie w tym miejscu pojawia się zagrożenie. Bo kto zabroni Facebookowi wyświetlać taką informację tylko wybranej grupie użytkowników? Np. tylko tym, którzy popierają polityka popierającego maksymalną deregulację internetu.

Obraz
© Fot. YouTube

Wyszukiwarki mogą zmienić wynik wyborów

To jednak nie koniec zagrożeń. Pamiętacie ostatni sezon wspomnianego już serialu „House of Cards”? Kluczowym atutem w wyścigu o wyborcze zwycięstwo była tam kontrola nad wyszukiwarką internetową.

Doświadczenie pokazuje, że nie jest to jedynie fantazja scenarzystów. Jak wynika z eksperymentu przeprowadzonego na setkach tysięcy użytkowników przez Roberta Epsteina i Ronalda E. Robertsona, manipulacja kolejnością wyników wyszukiwania jest w stanie dodać lub odjąć dowolnemu kandydatowi 20 proc. głosów niezdecydowanych, czyli w praktyce przesądzić o zwycięstwie. Mechanizm ten został nazwany skrótem SEME (Search Engine Manipulation Effect).

Problem w tym, że scenariusz, rozważany do tej pory jedynie w akademickich dyskusjach być może zaczyna się właśnie spełniać w Stanach Zjednoczonych. Choć Google zdecydowanie dementuje te doniesienia, to eksperyment, przeprowadzony przez serwis SourceFed zademonstrował, w jaki sposób można manipulować wyborcami.

Fragment klipu SourceFed, pokazującego rzekomą manipulację
Fragment klipu SourceFed, pokazującego rzekomą manipulację

Kto popiera Hillary Clinton?

Chodzi o system autopodpowiedzi, pojawiających się podczas wpisywania zapytania. Według SourceFed gdy w konkurencyjnych wyszukiwarkach wpisze się frazę „Hillary Clinton cri”, to algorytm uzupełni ją do „Hillary Clinton crime”. W Google’u inaczej – „Hillary Clinton crime reform”. Czyli zamiast zbrodni – reforma prawa.

Podobnie z frazą „Hillary Clinton ind” – konkurencyjne wyszukiwarki rozwijają ostatni wyraz do „indictment” (oskarżenie), gdy Google sugeruje wyrazy „Indiana” i „India”. Co ciekawe, rozbieżności dotyczą wyłącznie postaci Hillary Clinton – w przypadku pozostałych kandydatów zarówno Google, jak i inne wyszukiwarki podpowiadają mniej więcej tak samo. I choć rewelacje SourceFeed zostały obalone i wyjaśnione, w niczym nie zmienia to faktu, że Google (albo inna wyszukiwarka) jeśli zechce, może taki mechanizm uruchomić.

Korporacje kontra demokracja

Choć – co podkreślam raz jeszcze – Google zdecydowanie odcina się od sugestii, że manipuluje algorytmem wyszukiwarki, potencjalny wpływ internetowych monopolistów na wynik wyborów jest warty rozważenia.

Niezależnie od tego, czy i w jaki sposób Facebook i Google wykorzystają swoje narzędzia, by wpłynąć na wyborcze decyzje, warto mieć świadomość, że takimi narzędziami dysponują. Jeśli zdecydują się ich użyć to nie tylko wybiorą sobie takich polityków, jakich zechcą, ale na dodatek zrobią to naszymi rękami.

Źródło artykułu:WP Gadżetomania
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (13)