
Polscy youtuberzy celem ataków? Deepfake w służbie scamów
W ostatnim czasie technologia AI zyskuje na popularności. Z jednej strony otwiera ona nowe możliwości dla twórców internetowych, oferując narzędzia do tworzenia imponujących efektów i angażujących treści. Z drugiej strony, deepfake niesie ze sobą ryzyko coraz skuteczniejszych scamów, nadużyć i manipulacji, co może mieć negatywny wpływ na wiarygodność informacji oraz zaufanie do twórców internetowych.
Wzrastające zagrożenie
W listopadzie 2023 roku, w amerykańskim Senacie miało miejsce wysłuchanie ofiar oszustw internetowych oraz ekspertów ds. technologii. Jeden z zaproszonych gości, profesor Tahir Ekin związany z Centrum Analizy i Data Science powiedział, że: „(…) sztuczna inteligencja wzmacnia wpływ oszustw, zwiększając ich wiarygodność i oddziaływanie emocjonalne”. Dzieje się tak przede wszystkim dzięki personalizacji przekazu, którym posługują się oszuści.
To właśnie personalizacja przekazu ma ogromną rolę w oszustwach, o czym przekonujemy się w naszej pracy każdego dnia. Umiejętne wykorzystanie perswazji i intensyfikacji lęku, roztargnienia ofiary, a także jej słabości, wszystko to wpływa na skuteczność scamów. Niestety kolejną cegiełkę do coraz solidniejszej ściany oszustw dokłada sztuczna inteligencja, która pozwala na dokładniejszą analizę potencjalnych ofiar oraz lepsze dopasowanie fałszywych treści.
Czym jest deepfake?
Deepfake to technologia, która pozwala na tworzenie materiałów wideo, audio lub zdjęć, wykorzystując sztuczną inteligencję i algorytmy głębokiego uczenia się. Może być używana do celów rozrywkowych, artystycznych, edukacyjnych lub naukowych, ale także do manipulacji, dezinformacji, szantażu czy nękania. W Polsce coraz częściej spotyka się zjawisko wykorzystywania deepfake’ów do imitowania znanych polityków, dziennikarzy czy youtuberów.
Z pewnością wielu z nas pamięta czasy, gdy technologia deepfake była trudno dostępna, a stworzone przez nią materiały można było łatwo rozpoznać. Obecnie, narzędzia do tworzenia fałszywych treści są w zasięgu każdego użytkownika sieci, w tym również cyberprzestępców.
Przykłady?
Na początku stycznia w serwisie Youtube pojawiło się fałszywe wideo z prezydentem Andrzejem Dudą, który opowiadał o możliwościach inwestycyjnych. Schemat był niezwykle prosty — po wpłaceniu dowolnej kwoty na wskazaną platformę, można było zarobić co najmniej 4 tysiące złotych dziennie. Materiał to oczywiste oszustwo, głowa państwa nie poleca żadnych inwestycji. YouTube obiecał, że przyjrzy się sprawie, a jego zespół specjalistów w przypadku znalezienia reklam naruszających zasady serwisu, podejmie odpowiednie działania.

W ostatnich tygodniach zjawisko deepfake’ów przybrało na sile, zwłaszcza na Facebooku. Jedną z osób, które padły ofiarą tego procederu jest youtuber Budda. Jego kanał zajmuje się głównie tematyką motoryzacyjną, jednak zyskał on również popularność dzięki organizacji loterii i wielu akcji charytatywnych. W specjalnie spreparowanym filmiku ma on informować fanów o otwarciu kasyna, w którym można wygrać ogromne pieniądze. Ale to nie wszystko! Z wideo dowiadujemy się, że youtuber zdecydował się rozlosować swoich 7 samochodów i 30 drogich nagród wśród osób, które pobiorą aplikację, zarejestrują się i wpłacą depozyt. Żeby uwiarygodnić materiał, zamieszczono w nim również wypowiedzi dziennikarzy ze studia TVP Info, potwierdzających, że coraz więcej osób dzieli się wiadomościami o wygranej na portalach społecznościowych.


W kolejnym filmiku przestępcy wykorzystali wizerunek Friza, czyli Karola Wiśniewskiego, jednego z najpopularniejszych youtuberów w Polsce. Jego kanał śledzi ponad 5 milionów osób. Tak jak w poprzednim wideo, również w tym pojawia się studio TVP Info, a dziennikarz informuje, że Friz stworzył specjalną aplikację, dzięki której każdy może wygrać ogromne pieniądze. Dowiadujemy się również, że z apki skorzystały już setki Polaków, którzy zgarnęli od 8 do 20 tysięcy złotych w zaledwie kilka dni!

To, co z pewnością zwraca uwagę w przygotowanych przez oszustów materiałach, to naprawdę dobra jakość wideo. Synchronizacja dźwięku oraz ruchu warg wypada bardzo naturalnie. Wygląda to jak zwykły wycinek programu informacyjnego i właśnie dlatego jest to takie niebezpieczne. Wielu użytkowników Internetu będzie miało problem z wyłapaniem drobnych niuansów, takich jak nienaturalny ruch warg, oczu czy dziwna postawa ciała.
Co możemy z tym zrobić?
Niestety nie mamy dobrych wiadomości. Niejednokrotnie zwracaliśmy uwagę podczas rozmów z naszymi Klientami lub w naszych wpisach, na ogromny problem z weryfikacją treści na Facebooku. Mimo wielu zgłoszeń takie reklamy wciąż pojawiają się w serwisie i nie są banowane. Bardzo często dostajemy odpowiedź (zapewne automatyczną), że Facebook nie zauważył naruszenia Zasad Społeczności w fałszywym materiale.
Trochę inna sytuacja jest na YouTube, gdzie system zgłoszeń działa nieco lepiej. Jeśli twórca znajdzie choćby krótki filmik (tzw. shorts) ze swoim wizerunkiem, może łatwo o tym poinformować administratorów serwisu. Takie wideo jest dosyć szybko ściągane.
W tym momencie warto wspomnieć, że nawet jeśli youtuber zgłosi fakt scamu, nie oznacza to, że sprawcy zostaną złapani. Oszuści bardzo często działają spoza granic naszego kraju, możliwe, że również spoza granic Unii Europejskiej, co zdecydowanie utrudnia namierzenie i ustalenie ich tożsamości. Niestety w ogromnej większości przypadków takie sprawy kończą się umorzeniem z powodu niewykrycia sprawców.
A co z regulacjami?
Zasadnicze pytanie, jakie powinniśmy sobie zadać brzmi: W jaki sposób dokonać regulacji korzystania z technologii AI? Na pewno wiele do zrobienia powinny mieć instytucje Unii Europejskiej, które posiadają więcej możliwości nacisku na wielkie korporacje, jak Meta, TikTok czy X. Pod koniec 2023 roku osiągnięto pierwsze porozumienie podczas trójstronnych negocjacji Rady, PE i KE. Przed nami jeszcze kolejne miesiące dopracowywania projektu AI Act, a potem okres aż dwuletniego vacatio legis zanim wejdzie w życie. Jednak wprowadzenie regulacji prawnych jest konieczne, nawet jeśli nie powstrzyma to powstawania coraz doskonalszych scamów. Należy wywierać nacisk na rządzących, by nie ustawali w tworzeniu i udoskonalaniu prawa dotyczącego sztucznej inteligencji. Potrzebne są rozwiązania, które wymuszą na kreatorach treści odpowiedzialność za swoje działania, tak by technologia była wykorzystywana w sposób etyczny i transparentny.
Zachowaj czujność
Jeśli obserwujesz danego youtubera, zwróć uwagę, czy w swoich Stories na Instagramie lub w inny sposób, nie poinformował, że doszło do wykorzystania jego wizerunku. Tak zrobił, np. Budda, który dał znać swoim fanom, że nie promuje kasyn online, aplikacji giełdowych, czy kryptowalut.

Na co zwrócić uwagę w wideo-reklamie?
- Na mimikę, ruchy i mowę ciała. Czy wyglądają na nienaturalne?
- Czy mowa brzmi jakby była generowana przez syntezator?
- Zastanów się, czy wideo wpasowuje się w kontent youtubera.
Co zrobić jeśli podejrzewasz oszustwo?
- Nie klikaj linków i nie podawaj żadnych danych.
- Nie pobieraj nieznanych aplikacji.
- Zgłoś film lub nagranie do platformy, na której został opublikowany.
- Daj znać youtuberowi, że jego wizerunek został wykorzystany, np. zostaw komentarz pod jego postem. Taka postawa może uratować kolejne osoby przed oszustwem!
Zachęcamy również do samodzielnego zgłębiania tematu, korzystając z wiarygodnych i sprawdzonych źródeł, a także zwiększania świadomości wśród najbliższych. Nie zapomnij zapoznać się z naszymi wpisami oraz artykułami o zagrożeniach i ciekawostkach ze świata cyberbezpieczeństwa.
A jeśli potrzebujesz krótszej i szybszej formy, z pewnością przypadnie Ci do gustu nasz:
Masz wątpliwości, czy reklama, post lub wiadomość są prawdziwe? Śmiało się do nas odzywaj! Czekamy na Messengerze.
Podsumowanie
W Internecie, tak jak w prawdziwym życiu, nie wszystko jest tym, czym się wydaje. Dlatego tak ważne jest, by nie ustawać w edukacji na temat zagrożeń związanych ze sztuczną inteligencją. Bo mimo niewątpliwych korzyści, jakie ze sobą niesie, może zostać wykorzystana do wielu oszustw. Nie możemy powstrzymać rozwoju technologii deepfake, dlatego powinniśmy skupić się na wypracowaniu odpowiednich mechanizmów zapewniających odpowiedzialne i bezpieczne korzystanie z niej. W ten sposób możemy w niewielkiej skali przyczynić się do tego, by Internet był choć trochę bezpieczniejszym miejscem.
co w razie gdyby ktoś padł ofiarą takiego oszustwa?
Hej! Jeśli aktywowałaś usługę CyberRescue, odezwij się do nas na help@cyberrescue.me 🙂
co zrobic jeśli ktoś padnie ofiarą scamu?
Hej! Jeśli aktywowałaś usługę CyberRescue odezwij się do nas na help@cyberrescue.me 🙂