
Image generated with DALL·E through ChatGPT
Opinia: Oszustwa typu Deepfake wykorzystują miłość i zaufanie jak nigdy dotąd
Rośnie liczba oszustw napędzanych przez sztuczną inteligencję, a cyberprzestępcy wykorzystują technologię deepfake, aby tworzyć przekonujące filmy i obrazy manipulujące ofiarami. Od Francuzki, która uwierzyła, że pomaga Bradowi Pittowi, do ofiary przekonanej przez wysokiej jakości deepfake – granice między rzeczywistością a oszustwem zacierają się. Wraz z ewolucją narzędzi AI, rosną również ryzyka.
Wielu z nas widziało to w wiadomościach w styczniu: Francuzka straciła ponad 850 000 dolarów na rzecz oszustów, ponieważ wierzyła, że przekazuje pieniądze Bradowi Pittowi – mężczyźnie, z którym sądziła, że jest w związku od ponad roku.
Oszuści wykorzystali zaawansowaną generatywną sztuczną inteligencję, aby stworzyć „selfie” i sfałszować dowody, przekonując swoją ofiarę, Anne – 53-letnią projektantkę przechodzącą przez rozwód – o tragicznej historii fałszywego Pitta z naglącymi potrzebami medycznymi. Twierdzili, że jego fundusze zostały zamrożone z powodu rozwodu z Angeliną Jolie.
Anne podjęła odważną – i ryzykowną – decyzję, aby podzielić się swoją historią publicznie, stawiając czoła milionom drwin, obelg i wirtualnych ataków. „Jak głupiec, zapłaciłam… Za każdym razem, gdy go wątpiłam, udawało mu się rozwiać moje wątpliwości,” powiedziała w francuskim programie na Youtube, jak podaje BBC. „Po prostu dałam się nabrać, przyznaję to, i właśnie dlatego zdecydowałam się wystąpić, bo nie jestem jedyna.”
Nie jest. Kilka miesięcy później hiszpańska policja aresztowała 5 osób, które wyłudziły pieniądze od dwóch innych kobiet, udając Pitta. Kilka dni temu, Chińczyk również został oszukany, wierząc, że jego internetowa dziewczyna potrzebowała pieniędzy na zabiegi medyczne i dofinansowanie swojego biznesu.
Ofiary otrzymały spersonalizowane filmy i zdjęcia – obrazy, które nie były dostępne nigdzie indziej w internecie – dalej przekonując ich o skomplikowanych kłamstwach swoich oszustów.
Niedawny raport od Entrust sugeruje, że próby Deepfake występują co 5 minut. Codziennie pojawiają się nowe przypadki osób oszukanych za pomocą generatywnej AI, co jest niepokojącym trendem, zwłaszcza biorąc pod uwagę tysiące, a nawet miliony ludzi pogrążonych w długach i wstydem, którzy nie odważają się zgłosić tego do władz, nie mówiąc już o upublicznieniu tego.
Wzrost liczby oszustw z wykorzystaniem DeepFake
Wiele badań i raportów zwraca uwagę na rosnącą liczbę oszustw i ataków cybernetycznych zasilanych przez AI. Niedawne dane z TrustPair’s 2025 Fraud Trends and Insights wykazały 118% wzrost rok do roku w oszustwach napędzanych przez AI, jak podaje CFO.
Cześć, Hiya, amerykańska firma specjalizująca się w rozwiązaniach z zakresu bezpieczeństwa głosowego i wydajności, niedawno udostępniła wyniki ankiety, ujawniając, że 31% klientów z sześciu krajów otrzymało w 2024 r. fałszywe rozmowy telefoniczne (deepfake calls), a 45% z nich zostało oszukanych. 34% tej grupy straciło pieniądze, a 32% padło ofiarą kradzieży danych osobowych. Średnio ofiary telefonicznych oszustw tracą ponad 500 dolarów każda.
Kilka dni temu The Guardian ujawnił, że zorganizowana sieć w Gruzji – w Europie Wschodniej – wykorzystała fałszywe reklamy na Facebooku i Google, aby oszukać ponad 6 000 osób w całej Europie, Kanadzie i Wielkiej Brytanii, zarabiając 35 milionów dolarów na swoich działaniach.
Około 85 dobrze opłacanych gruzińskich oszustów wykorzystywało publiczne postacie, takie jak angielski dziennikarz Martin Lewis, pisarz i podróżnik Ben Fogle oraz Elon Musk, do swoich oszustw. Oszuści promowali fałszywe kryptowaluty i inne schematy inwestycyjne, zmuszając ofiary do przesyłania pieniędzy za pośrednictwem cyfrowych banków, takich jak Revolut – który niedawno otrzymał licencję bankową w Wielkiej Brytanii.
Zaawansowana SI, bardziej wyrafinowane oszustwa
Przestępcy komputerowi korzystają z generatywnych SI od kilku lat, wykorzystując narzędzia takie jak ChatGPT do tworzenia i tłumaczenia angażujących e-maili oraz generowania przekonujących treści opartych na tekście. Teraz, w miarę ewolucji narzędzi SI, wzrosło użycie obrazów i filmów generowanych przez SI.
Kilka tygodni temu, ByteDance wprowadziło swoje najnowsze narzędzie do tworzenia filmów AI, OmniHuman-1, zdolne do generowania jednego z najbardziej realistycznych deepfake’ów na rynku. Tymczasem coraz więcej firm AI rozwija podobne technologie. Wydaje się, że to tylko kwestia czasu, zanim te narzędzia zostaną również wykorzystane do oszustw.
Podczas gdy te technologie mogą być używane „w dobrej wierze” i nawet do przeciwdziałania wzrostowi oszustw – jak AI ‚Babcia’ Daisy firmy O2, zaprojektowana do angażowania oszustów w rozmowy w czasie rzeczywistym i odwracania ich uwagi od prawdziwych ofiar – konsekwencje ich złośliwego użycia wydają się niezmierzone.
W Wizcase niedawno zgłosiliśmy 614% wzrost ataków typu „Scam-Yourself”, zwracając uwagę na to, jak hakerzy korzystają z technologii deepfake, aby fałszywe treści wyglądały „bardziej realistycznie”, i jak firmy mediów społecznościowych, takie jak Meta, musiały interweniować w oszustwach związanych ze świńskim ubojem, ponieważ wiele grup przestępczych korzysta z tych platform. W badaniu Meta zauważyła, że wiele oszustw zaczyna się na aplikacjach randkowych, co potwierdza, że romantyczna miłość jest jednym z najczęściej stosowanych przynęt – teraz i historycznie.
Miłość: Potężna Przynęta
Cyberprzestępcy nie tylko doskonale rozumieją i wykorzystują zaawansowaną sztuczną inteligencję – mają również głębokie zrozumienie ludzkiej inteligencji. Grupy przestępcze wiedzą, jak identyfikować słabe punkty, budować zaufanie i wystosować swoje prośby w odpowiednim momencie.
Badanie Czy kochasz mnie? Psychologiczne cechy ofiar oszustw romantycznych, opublikowane w 2018 roku przez doktor Monica T. Whitty, wyjaśnia, jak międzynarodowe grupy przestępcze przeprowadzały oszustwa romantyczne od wielu lat – jeszcze przed powstaniem Internetu -, i jak kobiety w średnim wieku, dobrze wykształcone, są podatne na tego typu oszustwa – tak jak Anne.
Czego możemy się spodziewać teraz, osiem lat po tym badaniu, w dobie technologii rodem z science-fiction? Prawdopodobnie jesteśmy wszyscy bardziej narażeni, niż myślimy.
„Ofiarami tego rodzaju oszustwa są często ludzie szukający sensu, emocjonalnie podatni na manipulacje” – napisała Annie Lecompte, profesor nadzwyczajny na Uniwersytecie Quebec w Montrealu (UQAM) w niedawnym artykule opublikowanym na The Conversation. „Chociaż jest to często wyśmiewane i niezrozumiane, oszustwo romansowe opiera się na złożonych mechanizmach psychologicznych, które wykorzystują zaufanie, emocje i podatność ofiar na manipulacje.”
Złamane serce, pusta kieszeń
Liu – nazwisko Chińczyka, który niedawno stracił 200 000 juanów, czyli około 28 000 dolarów, w oszustwie opartym na sztucznej inteligencji – naprawdę wierzył, że jego dziewczyna z AI jest prawdziwa, ponieważ widział spersonalizowane zdjęcia, a nawet filmy. Budując coraz silniejszy emocjonalny związek… z jego oszustami.
Podczas gdy on nie dostarczył więcej szczegółów na temat kontekstu w raportach, zrobiła to inna ofiara, 77-letnia kobieta Nikki MacLeod. Również myślała, że jest w prawdziwym związku z dziewczyną AI i wysłała jej £17,000 – około $22,000 – poprzez przelewy bankowe, PayPal i karty podarunkowe.
„Nie jestem głupią osobą, ale ona zdołała przekonać mnie, że jest prawdziwą osobą i że zamierzamy spędzić razem całe życie,” powiedziała MacLeod dla BBC.
MacLeod czuła się samotna i smutna, gdy poznała Allę Morgan na grupowym czacie. Po pewnym czasie MacLeod poprosiła o rozmowę na żywo przez kamerę, ale Morgan odpowiedziała, że to niemożliwe, ponieważ pracuje na platformie wiertniczej. Kiedy MacLeod zaczęła podejrzewać, Morgan zaczęła wysyłać realistyczne filmy. „Wysłała mi filmik, na którym mówi ‚Cześć Nikki, nie jestem oszustką, jestem na mojej platformie wiertniczej’, i byłam tym całkowicie przekonana,” wyjaśniła MacLeod. Treść jest dostępna na stronie internetowej BBC, i łatwo zrozumieć, dlaczego MacLeod uwierzyła, że to prawda – jest to wysokiej jakości deepfake.
BBC poprosiło eksperta ds. cyberbezpieczeństwa i interakcji człowieka z komputerem na Uniwersytecie Abertay, dr. Lynsay Shepherd, aby przeanalizowała zdjęcia i filmy, które otrzymała MacLeod. „Na pierwszy rzut oka wygląda to na prawdziwe, jeśli nie wiesz, na co zwrócić uwagę, ale jeśli spojrzysz na oczy – ruchy oczu nie są do końca prawidłowe,” powiedziała dr Shepherd.
„Dokumenty wyglądały na prawdziwe, filmy wyglądały na prawdziwe, bank wyglądał na prawdziwy,” powiedziała MacLeod. „Z wprowadzeniem sztucznej inteligencji, każda pojedyncza rzecz może być fałszywa.”
Zostaw komentarz
Anuluj odpowiedź