Jak uchronić się przed deepfake'ami? Specjaliści z NASK radzą

Eksperci z NASK biją na alarm z powodu rosnącej liczby oszustw wykorzystujących technologię deepfake. Filmy fałszujące wizerunki znanych osób mogą stać się początkiem poważnych przekrętów.

Jak uchronić się przed deepfake'ami? Specjaliści z NASK radzą
Źródło zdjęć: © pexels

20.05.2024 | aktual.: 20.05.2024 18:12

Specjaliści z Naukowej i Akademickiej Sieci Komputerowej (NASK) ostrzegają przed filmami, które powstają za pomocą technologii deepfake. Ta metoda manipulacji polega na ingerencji w materiały audiowizualne, w tym głosy i twarze znanych postaci, przy użyciu sztucznej inteligencji. Używana jest w różnych celach, od zabawnych i kreatywnych (np. w filmach i sztuce), po bardziej niebezpieczne, takie jak tworzenie fałszywych informacji (fake news), szantaż, czy manipulacja opinią publiczną.

Z informacji przekazanych przez ekspertów NASK wynika, że w sieci pojawia się coraz więcej oszustw bazujących na filmach wykorzystujących wizerunki publiczne. Przykładowo, mogą to być filmy z udziałem osób takich jak piłkarz Robert Lewandowski czy minister zdrowia Izabela Leszczyna. Poprzez technikę "lip sync" dopasowuje się sztucznie wygenerowany głos do ruchów ust i gestykulacji postaci na ekranie. W efekcie osoba na ekranie wydaje się mówić słowa, których nigdy nie wypowiedziała. Co gorsza, odpowiednie zastosowanie tej techniki daje iluzję naturalnego mówienia.

W komentarzu NASK podaje przykład z marca bieżącego roku, kiedy to na jednym z serwisów społecznościowych pojawił się film typu deepfake z Rafałem Brzoską, właścicielem i prezesem firmy InPost. Mimo szybkiej reakcji Brzoski i zgłoszenia sprawy do administratorów serwisu Meta, film był dostępny na platformie przez wiele dni.

Na jakich zasadach działają deepfaki?

Ewelina Bartuzi-Trokielewicz, kierownik zespołu NASK ds. analizy deepfake, tłumaczy, że dzisiejsze technologie pozwalają przestępcom na łatwe manipulacje materiałami audiowizualnymi. Użycie funkcji "text-to-speech" umożliwia przestępcom tworzenie nowego podkładu dźwiękowego na podstawie zaledwie kilku sekundach nagranego głosu. Podkład ten mogą oni następnie zsynchronizować z dowolnym wideo, np. z przemówieniem czy wiecem politycznym. Z kolei w przypadku technologii "speech-to-speech", gdzie intonacja i emocje są bardziej złożone, potrzeba dłuższego fragmentu - przynajmniej minuty oryginalnego materiału.

Warto dodać, że technologia "text-to-speech" (TTS) analizuje próbki głosu, ucząc się jego specyfiki i intonacji, a następnie generuje mowę na podstawie wprowadzonego tekstu Według badań przeprowadzonych przez Google, model TTS o nazwie WaveNet jest w stanie generować bardzo naturalnie brzmiącą mowę, która jest trudna do odróżnienia od prawdziwego głosu.

Natomiast zaawansowane algorytmy używane w STS potrafią uchwycić subtelne niuanse głosu, takie jak modulacja, tempo i emocje, co utrudnia tradycyjnym metodom wykrywania fałszerstw odróżnienie wygenerowanej mowy od autentycznej. Nawet nowoczesne systemy biometryczne mogą mieć problemy z identyfikacją takich podróbek, co stanowi poważne wyzwanie dla ekspertów ds. bezpieczeństwa i obrony przed dezinformacją.

Ekspert NASK zaapelował do użytkowników mediów społecznościowych o to, aby zachowywali ostrożność wobec nieweryfikowanych lub podejrzanych treści wideo, zwłaszcza tych, które mogą wpłynąć na publiczne postrzeganie znaczących postaci i instytucji.

Użycie deepfake'ów np. w kampaniach politycznych do dyskredytacji kandydatów może nawet wpływać na wyniki wyborów i tym samym destabilizować procesy demokratyczne. Co więcej, rozprzestrzenianie fałszywych informacji za pomocą deepfake'ów może podważać wiarygodność autentycznych treści, co prowadzi do wzrostu sceptycyzmu wśród odbiorców.

W jaki sposób można sprawdzić, czy dany materiał to deepfake?

NASK podkreśla, że oszustwa tego typu stają się coraz trudniejsze do wykrycia. Sztuczna inteligencja stale się rozwija, co umożliwia coraz dokładniejsze generowanie fałszywego głosu. Niemniej, eksperci zaznaczają, że wykrycie takich materiałów jest wciąż możliwe, pod warunkiem dokładnej analizy technicznej filmu i jego treści.

Specjaliści wskazują kilka możliwych symptomów oszustwa, m.in.: zniekształcenia w okolicach ust, problemy z odwzorowaniem uzębienia, nienaturalny ruch głowy i mimika, błędy w odmianie słów czy nietypowa intonacja. Bartuzi-Trokielewicz dodaje, że przestępcy coraz częściej stosują techniki dodawania szumów i plam, aby zakłócić klarowność obrazu, ukryć artefakty generowane przez sztuczną inteligencję oraz zdezorientować algorytmy detekcji deepfake'ów.

NASK zaznacza, że w filmach tego typu stosowane są różne socjotechniki, mające na celu manipulację odbiorcą, takie jak: obietnica szybkiego zysku, wyjątkowość oferty ograniczona czasowo, ponaglanie do działania i odwoływanie się do emocji odbiorcy.

Do kogo można zgłosić podejrzane materiały?

W przypadku zauważenia podejrzanego materiału NASK zaleca szybką reakcję i zgłoszenie treści odpowiednim organom, aby chronić innych przed oszustwem. Można zgłosić materiał do zespołu CERT Polska poprzez SMS (numer: 8080) lub stronę incydent.cert.pl. Istnieje również możliwość przesłania materiału na adres mailowy instytutu (deepfake@nask.pl), co pozwoli na analizę i rozwinięcie strategii zapobiegania takim praktykom w przyszłości.

O ile wzrosła liczba deepfake'ów w ostatnich latach?

W ostatnich latach liczba deepfake'ów wzrosła znacząco, co potwierdzają różne źródła. Raport Sumsub z 2023 roku wskazuje na dziesięciokrotny (10x) wzrost liczby deepfake'ów na całym świecie między 2022 a 2023 rokiem, z zauważalnymi regionalnymi wzrostami: 1740% w Ameryce Północnej, 1530% w Azji i na Pacifku, 780% w Europie, 450% na Bliskim Wschodzie i w Afryce i 410% w Ameryce Łacińskiej​​.

Firma Onfido z kolei raportuje, że w 2023 roku próby oszustw z użyciem deepfake'ów wzrosły 31-krotnie, co stanowi wzrost o 3000% w porównaniu z rokiem poprzednim​​. Tymczasem firma Sentinel odnotowała, że między 2019 a 2020 rokiem liczba deepfake'ów online wzrosła z 14,678 do 145,227, co oznacza wzrost o około 900%.

Te dane wskazują na gwałtowne przyspieszenie rozwoju i użycia technologii deepfake, co stanowi rosnące wyzwanie dla bezpieczeństwa informacji i prywatności. Dlatego wielu ekspertów zawraca uwagę na konieczność wdrożenia bardziej zaawansowanych metod wykrywania deepfake'ów oraz wzmocnienia regulacji prawnych, aby przeciwdziałać negatywnym skutkom ich zastosowania.

Źródło artykułu:PAP
Wybrane dla Ciebie
Komentarze (0)
© Gadżetomania
·

Pobieranie, zwielokrotnianie, przechowywanie lub jakiekolwiek inne wykorzystywanie treści dostępnych w niniejszym serwisie - bez względu na ich charakter i sposób wyrażenia (w szczególności lecz nie wyłącznie: słowne, słowno-muzyczne, muzyczne, audiowizualne, audialne, tekstowe, graficzne i zawarte w nich dane i informacje, bazy danych i zawarte w nich dane) oraz formę (np. literackie, publicystyczne, naukowe, kartograficzne, programy komputerowe, plastyczne, fotograficzne) wymaga uprzedniej i jednoznacznej zgody Wirtualna Polska Media Spółka Akcyjna z siedzibą w Warszawie, będącej właścicielem niniejszego serwisu, bez względu na sposób ich eksploracji i wykorzystaną metodę (manualną lub zautomatyzowaną technikę, w tym z użyciem programów uczenia maszynowego lub sztucznej inteligencji). Powyższe zastrzeżenie nie dotyczy wykorzystywania jedynie w celu ułatwienia ich wyszukiwania przez wyszukiwarki internetowe oraz korzystania w ramach stosunków umownych lub dozwolonego użytku określonego przez właściwe przepisy prawa.Szczegółowa treść dotycząca niniejszego zastrzeżenia znajduje się  tutaj.