Ataki phishingowe generowane przez SI stają się coraz skuteczniejsze w celowaniu w kierowników wyższego szczebla
Wysocy przedstawiciele korporacji coraz częściej stają się celem zaawansowanych oszustw typu phishing, przy wykorzystaniu technologii AI do tworzenia hiperpersonalizowanych fałszywych e-maili.
W pośpiechu? Oto najważniejsze informacje!
- Boty AI analizują profile online, aby zdobyć osobiste dane potrzebne do ukierunkowanych oszustw.
- Więcej niż 90% ataków cybernetycznych zaczyna się od wiadomości phishingowej, twierdzą eksperci.
- Oszustwa zasilane przez AI mogą ominąć tradycyjne filtry pocztowe i obronę cyberbezpieczeństwa.
W miarę szybkiego rozwoju AI, przestępcy cybernetyczni wykorzystują tę dynamicznie rozwijającą się technologię do tworzenia ataków, które nie tylko są bardziej przekonujące, ale także trudniejsze do wykrycia.
Czołowe firmy, w tym brytyjski ubezpieczyciel Beazley oraz gigant e-commerce eBay, wydały ostrzeżenia dotyczące wzrostu liczby oszustw typu phishing, które wydają się posiadać osobiste dane szefów, jak zauważono dzisiaj w Financial Times (FT).
FT zauważa, że prawdopodobnie te oszustwa są napędzane przez zdolność sztucznej inteligencji do analizowania profili online i gromadzenia ogromnych ilości danych, które hakerzy wykorzystują do budowania celowanych ataków. Dodatkowo, niedawne badania ujawniły, że malware generowany przez AI uchodzi niezauważony przez programistów w 88% przypadków.
„To staje się coraz gorsze i staje się bardzo osobiste, a to dlatego podejrzewamy, że za dużą część tego stoi AI” – powiedziała Kirsty Kelly, główna oficer ds. bezpieczeństwa informacji w Beazley, jak donosi FT. „Zaczynamy widzieć bardzo ukierunkowane ataki, które zgromadziły ogromną ilość informacji o osobie”.
FT zauważa, że zdolność AI do przetwarzania i replikowania konkretnych tonów i stylów jest kluczowym czynnikiem napędzającym te rozwinięcia. Może ona szybko analizować wzorce komunikacji firmy, a także indywidualną aktywność w mediach społecznościowych, aby dostosować email phishingowy, który nie tylko jest wiarygodny, ale także związany z zainteresowaniami lub ostatnimi działaniami odbiorcy.
„Dostępność narzędzi AI generujących obniża próg wejścia do zaawansowanej cyberprzestępczości” – wyjaśniła Nadezda Demidova, badaczka bezpieczeństwa cyberprzestępczości w eBay, w rozmowie z FT. „Obserwujemy wzrost ilości wszelkiego rodzaju ataków cybernetycznych, szczególnie w przypadku wyrafinowanych i precyzyjnie skierowanych prób phishingu.”
Wzrost ataków sterowanych przez AI stanowi coraz większe zagrożenie, ponieważ AI umożliwia hakerom tworzenie „doskonałych” wiadomości phishingowych, które mogą ominąć tradycyjne środki bezpieczeństwa cybernetycznego.
Kip Meintzer, dyrektor w Check Point Software Technologies, podkreślił w rozmowie z FT, że AI daje hakerom niespotykaną dotąd możliwość tworzenia wiadomości e-mail, które wydają się nie do odróżnienia od prawdziwej korespondencji.
Konsekwencje takich oszustw mogą być poważne. Zgodnie z informacjami Agencji Obrony Cybernetycznej USA, ponad 90% udanych ataków cybernetycznych zaczyna się od wiadomości phishingowej. Wraz ze zwiększeniem zaawansowania ataków, koszty związane z naruszeniem danych rosną. IBM donosi, że globalny średni koszt naruszenia danych wzrósł o prawie 10% do 4,9 miliona dolarów w 2024 roku.
Sztuczna inteligencja okazuje się szczególnie skuteczna w oszustwach biznesowych związanych z e-mailem, które są rodzajem phishingu polegającego na oszukiwaniu odbiorców w celu przekazania środków lub ujawnienia poufnych informacji – informuje FT. Scam’y phishingowe oparte na sztucznej inteligencji nie tylko są trudniejsze do wykrycia, ale mają także większe prawdopodobieństwo ominięcia podstawowych filtrów emailowych i szkoleń z zakresu cyberbezpieczeństwa.
FT wyjaśnia, że tradycyjne filtry, które są zaprojektowane do blokowania masowych, powtarzalnych prób phishingu, mogą mieć trudności z wykryciem oszustw, które są ciągle zmieniane przez sztuczną inteligencję, co dodatkowo zwiększa ryzyko dla biznesów i osób prywatnych.
Zostaw komentarz
Anuluj odpowiedź