Kamil Ćwikowski, Bank Pocztowy: Deepfake wykorzystuje stare socjotechniki

– Inwestorzy indywidualni ze strategią inwestycyjną raczej nie pokuszą się o inwestycję, którą polecił deepfake z wizerunkiem Roberta Lewandowskiego – mówi Kamil Ćwikowski, kierownik zespołu bezpieczeństwa systemów teleinformatycznych w Banku Pocztowym.

Publikacja: 19.08.2024 18:24

Kamil Ćwikowski, kierownik zespołu bezpieczeństwa systemów teleinformatycznych w Banku Pocztowym

Kamil Ćwikowski, kierownik zespołu bezpieczeństwa systemów teleinformatycznych w Banku Pocztowym

Foto: parkiet.tv

W co może wierzyć inwestor w internecie czy w swoim telefonie? Jest coraz więcej prób oszustwa, które wykorzystują zaawansowane technologie, jak deepfaki, akcje phishingowe, fałszywe inwestycje, fałszywe reklamy na Facebooku i w innych social mediach. Skalę zagrożenia podbija kompletna bierność wielkich firm, bo Facebook po prostu nie reaguje na zgłoszenia tych fałszywych reklam. Może się nawet wydawać, że przestępcy nie biorą jeńców, bo po internecie krążyły filmy z prezydentem Andrzejem Dudą, z Robertem Lewandowskim, z minister zdrowia Izabelą Leszczyną. I oni wszyscy namawiali do inwestycji, o czym oczywiście nie mieli pojęcia, bo to były spreparowane materiały. Jakie jeszcze przykłady takich prób oszustwa widzi pan z punktu widzenia banku?

Przestępcy bazują na autorytetach. Jest też taki zakaz promowania leków, gdzie osoba, która bierze udział w reklamie, nie może być doktorem. Nie możemy bazować na czyichś emocjach, żeby potencjalny klient nie za bardzo uwierzył danej reklamie. Nie możemy oszukiwać, że lekarze coś proponują. Tak samo wykorzystywane są takie autorytety, jak prezydent czy inne osoby medialne, jak Robert Lewandowski. Inwestorzy indywidualni ze strategią inwestycyjną raczej nie złapią się na inwestycję, którą polecił deepfake z wizerunkiem Roberta Lewandowskiego, tylko dlatego, że jest ona, z tego co on mówi, bez ryzyka. Natomiast rośnie prawdopodobieństwo, że nabiorą się na to osoby, które próbują szybko zarobić.

Jakie próby w praktyce państwo obserwują?

To mogą być reklamy w social mediach, to mogą być telefony, może to być technika prowadzona przez aplikacje randkowe. Atakujący mogą przyciągnąć naszą uwagę zdjęciami atrakcyjnej osoby, próbując zainteresować rozmową, a następnie prowadzić do tego, abyśmy przesłali im pieniądze. Klasyczny przykład: oto atrakcyjna kobieta właśnie próbuje dostać się do nowego kraju, ale niestety – brakuje jej na bilet. Nasza rozmowa w tej aplikacji randkowej bardzo dobrze poszła, więc chcielibyśmy ją kontynuować. Więc co robimy? Przesyłamy jej te pieniądze. Oczywiście to nie jest żadna kobieta, to jest model wygenerowany przez AI. I tutaj właśnie jest to największe ryzyko, że te modele są tak bardzo dostępne. Dosłownie każdy z dostępem do przeglądarki może teraz wygenerować nową postać, może wygenerować nowe nagranie. Nie potrzebujemy nawet podkładać głosu, żeby wprowadzić te dialogi. W obecnych czasach możemy wziąć głos osoby, którą znamy. Weźmy przykład bardzo słynnego deepfake’a z Barackiem Obamą. Głos Obamy jest bardzo rozpoznawalny, więc łatwo wykryć, że to nie jest prawdziwe nagranie. Co możemy w tym przypadku zrobić – spróbować odnaleźć prawdziwe nagranie, np. za pomocą analizy wstecznej. Deepfake nie jest jednak jedynym zagrożeniem. Firmy zdecydowanie częściej będą narażone na maile, również generowane przez AI, która jest już w stanie tworzyć maile bez błędów językowych. Oszuści mogą też wykorzystywać autorytety z wewnątrz organizacji, takich jak np. dyrektor finansowy. To autentyczna sytuacja, która miała miejsce w Hongkongu. Skradziono wtedy 25 mln dolarów na skutek sprawnie zaplanowanego podstępu, osobie, która miała wykonać przelew, przesłano zaproszenie do wideokonferencji, podczas której ten pracownik miał dostać instrukcje o tajnych przelewach do wykonania.

Czyli jeśli chcemy się upewnić, gdy dostajemy przez telefon nagłe informacje o potrzebie zapłaty za coś czy pomocy finansowej, to lepiej się upewnić osobiście u danej osoby? Czy w jaki sposób można to ograć?

W każdej sytuacji, gdy ktoś próbuje wywrzeć na nas presję albo sprowokować niestandardowe zachowanie, np. dostajemy telefon, że znajomemu brakuje pieniędzy i prosi o szybki przelew na BLIK-a, albo dostajemy wiadomość na Messengerze czy też wiadomość mailową w pracy, nie bójmy się spróbować zadzwonić do tej osoby, spróbować jakoś się z nią skontaktować, dowiedzieć się, czy na pewno to ona napisała. To może być właśnie atakujący. Nie powinniśmy się wstydzić, że próbujemy się jakoś skontaktować i zweryfikować daną informację. W czasach, gdy tak łatwo generować fałszywe wiadomości i przekazy, powinniśmy wprost weryfikować wszelkie informacje, które dostajemy. Są też inne cele, atakujący wcale nie muszą chcieć ukraść pieniędzy, mogą chcieć wywołać chaos w danym państwie czy też w danej organizacji. Gdzieś na początku wojny pojawiła się informacja, że na stacjach może zabraknąć paliwa, co wywołało tzw. run na stacje i faktycznie zaczęło go brakować.

Jakie jeszcze widzi pan skuteczne socjotechniki wykorzystywane w atakach?

Warto uważać na przekazy wywołujące pozytywne emocje, nie muszą być to od razu gigantyczne sumy, nawet jeśli obiecamy 500 zł, i tak przyciągniemy potencjalne ofiary, żeby kliknęły w nasz link czy też pobrały jakieś złośliwe oprogramowania. Można też straszyć, jak w popularnej metodzie, gdy oszust jako policjant np. starszej osobie wmawia, że jej pieniądze są zagrożone i musi szybko je przekazać policji, żeby je ochronić. I to się niestety cały czas udaje. Jeżeli chodzi o sztuczną inteligencję, wydaje mi się, że jesteśmy pomiędzy zachwytem a politowaniem nad tym, co widzimy. Bo na wygenerowanych przez AI filmach pojawiają się często problemy z emocjami czy też z ruchem rąk, z gestykulacją. Można to czasami zobaczyć na zwolnionym tempie wideo, czy też obserwując dokładnie mimikę twarzy. Nie można natomiast twierdzić, że jeżeli to nie jest AI, to nie jest też zagrożenie. Świetnym przykładem była sytuacja Krzysztofa Stonowskiego ze Zbigniewem Stonogą. To nagranie zostało przeanalizowane pod kątem tego, czy zostało wygenerowane przez sztuczną inteligencję, a gdy okazało się, że nie, wiele osób było przekonanych, że jest prawdziwe.

Inwestycje
Przewodnicząca ESMA: Europa musi wesprzeć obywateli w inwestowaniu na przyszłość
Materiał Promocyjny
Z kartą Simplicity można zyskać nawet 1100 zł, w tym do 500 zł już przed świętami
Inwestycje
Złoto po 3000 dolarów za uncję w 2025 roku?
Inwestycje
Daniel Kostecki, CMC Markets: Spadki na GPW nawet do końcówki 2025 r.
Inwestycje
Sobiesław Kozłowski, Noble Securities: Rośnie ryzyko korekty na Wall Street
Materiał Promocyjny
Samodzielne prowadzenie księgowości z Małą Księgowością
Inwestycje
Piotr Kuczyński, DI Xelion: W USA możliwy jest wzrost inflacji
Inwestycje
Janusz Jankowiak: Inwestorzy słyszą co innego niż wyborcy