W co może wierzyć inwestor w internecie czy w swoim telefonie? Jest coraz więcej prób oszustwa, które wykorzystują zaawansowane technologie, jak deepfaki, akcje phishingowe, fałszywe inwestycje, fałszywe reklamy na Facebooku i w innych social mediach. Skalę zagrożenia podbija kompletna bierność wielkich firm, bo Facebook po prostu nie reaguje na zgłoszenia tych fałszywych reklam. Może się nawet wydawać, że przestępcy nie biorą jeńców, bo po internecie krążyły filmy z prezydentem Andrzejem Dudą, z Robertem Lewandowskim, z minister zdrowia Izabelą Leszczyną. I oni wszyscy namawiali do inwestycji, o czym oczywiście nie mieli pojęcia, bo to były spreparowane materiały. Jakie jeszcze przykłady takich prób oszustwa widzi pan z punktu widzenia banku?
Przestępcy bazują na autorytetach. Jest też taki zakaz promowania leków, gdzie osoba, która bierze udział w reklamie, nie może być doktorem. Nie możemy bazować na czyichś emocjach, żeby potencjalny klient nie za bardzo uwierzył danej reklamie. Nie możemy oszukiwać, że lekarze coś proponują. Tak samo wykorzystywane są takie autorytety, jak prezydent czy inne osoby medialne, jak Robert Lewandowski. Inwestorzy indywidualni ze strategią inwestycyjną raczej nie złapią się na inwestycję, którą polecił deepfake z wizerunkiem Roberta Lewandowskiego, tylko dlatego, że jest ona, z tego co on mówi, bez ryzyka. Natomiast rośnie prawdopodobieństwo, że nabiorą się na to osoby, które próbują szybko zarobić.
Jakie próby w praktyce państwo obserwują?
To mogą być reklamy w social mediach, to mogą być telefony, może to być technika prowadzona przez aplikacje randkowe. Atakujący mogą przyciągnąć naszą uwagę zdjęciami atrakcyjnej osoby, próbując zainteresować rozmową, a następnie prowadzić do tego, abyśmy przesłali im pieniądze. Klasyczny przykład: oto atrakcyjna kobieta właśnie próbuje dostać się do nowego kraju, ale niestety – brakuje jej na bilet. Nasza rozmowa w tej aplikacji randkowej bardzo dobrze poszła, więc chcielibyśmy ją kontynuować. Więc co robimy? Przesyłamy jej te pieniądze. Oczywiście to nie jest żadna kobieta, to jest model wygenerowany przez AI. I tutaj właśnie jest to największe ryzyko, że te modele są tak bardzo dostępne. Dosłownie każdy z dostępem do przeglądarki może teraz wygenerować nową postać, może wygenerować nowe nagranie. Nie potrzebujemy nawet podkładać głosu, żeby wprowadzić te dialogi. W obecnych czasach możemy wziąć głos osoby, którą znamy. Weźmy przykład bardzo słynnego deepfake’a z Barackiem Obamą. Głos Obamy jest bardzo rozpoznawalny, więc łatwo wykryć, że to nie jest prawdziwe nagranie. Co możemy w tym przypadku zrobić – spróbować odnaleźć prawdziwe nagranie, np. za pomocą analizy wstecznej. Deepfake nie jest jednak jedynym zagrożeniem. Firmy zdecydowanie częściej będą narażone na maile, również generowane przez AI, która jest już w stanie tworzyć maile bez błędów językowych. Oszuści mogą też wykorzystywać autorytety z wewnątrz organizacji, takich jak np. dyrektor finansowy. To autentyczna sytuacja, która miała miejsce w Hongkongu. Skradziono wtedy 25 mln dolarów na skutek sprawnie zaplanowanego podstępu, osobie, która miała wykonać przelew, przesłano zaproszenie do wideokonferencji, podczas której ten pracownik miał dostać instrukcje o tajnych przelewach do wykonania.