Warianty Malware’u Wygenerowane przez SI Unikają Wykrycia w 88% Przypadków

Image by pvproductions, from Freepi

Warianty Malware’u Wygenerowane przez SI Unikają Wykrycia w 88% Przypadków

Przeczytasz w: 3 min

Najnowsze badania wykazały, że sztuczna inteligencja mogłaby potencjalnie generować do 10 000 nowych wariantów złośliwego oprogramowania, unikając wykrycia w 88% przypadków, jak podaje The Hacker News.

W pośpiechu? Oto najważniejsze fakty!

  • LLM-y przepisują złośliwe oprogramowanie, aby uniknąć wykrycia, tworząc naturalnie wyglądające warianty kodu.
  • Iteracyjny algorytm przepisywania badaczy zachowuje złośliwe funkcje, omijając systemy wykrywania.
  • Obfuskacja LLM przewyższa tradycyjne narzędzia, skuteczniej naśladując oryginalny kod.

Ten przełomowy moment podkreśla rosnące ryzyko wykorzystania dużych modeli językowych (LLMs) do celów złośliwych.

Badania, prowadzone przez ekspertów ds. cyberbezpieczeństwa z Palo Alto Networks, wykorzystały algorytm uczenia maszynowego przeciwnika, aby stworzyć nowe, niewykrywalne formy złośliwego oprogramowania. Dzięki użyciu LLM do przepisania złośliwego kodu JavaScript, zespół był w stanie wygenerować tysiące nowych wariantów, nie zmieniając przy tym podstawowej funkcjonalności złośliwego oprogramowania.

Głównym wyzwaniem było obejście ograniczeń tradycyjnych narzędzi do wykrywania złośliwego oprogramowania, które często mają problemy z technikami utrudniającymi wykrycie, takimi jak zmiana nazwy zmiennych czy minifikacja kodu.

Jednym z najbardziej niepokojących odkryć było to, że te warianty generowane przez AI mogły łatwo uniknąć wykrycia przez narzędzia bezpieczeństwa, takie jak VirusTotal, które oznaczyło tylko 12% zmodyfikowanych próbek jako złośliwe.

Zdolność LLM do wykonania wielu, subtelnych transformacji kodu – takich jak wstawianie martwego kodu, dzielenie ciągów i usuwanie białych znaków – umożliwiła atakującym przepisanie istniejącego złośliwego oprogramowania w formę, która była prawie nie do odróżnienia od łagodnego kodu.

Te przekształcenia były tak skuteczne, że nawet modele głębokiego uczenia nie były w stanie ich wykryć, obniżając stopień złośliwości z prawie 100% do mniej niż 1%.

Badania również podkreśliły znaczącą przewagę obfuskacji opartej na LLM nad tradycyjnymi narzędziami. Podczas gdy istniejące obfuskatory malware są powszechnie znane i dają przewidywalne wyniki, LLM tworzą bardziej naturalnie wyglądający kod, co znacznie utrudnia systemom bezpieczeństwa identyfikację złośliwej aktywności.

Ta organiczna transformacja sprawia, że złośliwe oprogramowanie generowane przez AI staje się bardziej odporne na wykrycie, podkreślając znaczenie dostosowania strategii wykrywania w odpowiedzi na ewoluujące zagrożenia.

Aby przeciwdziałać tym zaawansowanym atakom opartym na LLM, zespół badawczy zastosował strategię obronną, przeprowadzając ponowne szkolenie ich klasyfikatora złośliwych skryptów JavaScript przy użyciu dziesiątek tysięcy próbek generowanych przez LLM.

To przekwalifikowanie poprawiło skuteczność wykrywania o 10%, znacząco zwiększając zdolność do identyfikacji nowo generowanych wariantów złośliwego oprogramowania. Pomimo tych wysiłków, wyniki podkreślają pilną potrzebę ciągłej innowacji w cyberbezpieczeństwie, aby nadążać za ewoluującymi możliwościami związanymi z cyberprzestępczością sterowaną przez sztuczną inteligencję.

Co więcej, równolegle nastąpił wzrost złośliwego oprogramowania skierowanego przeciwko macOS, napędzany przez generatywne narzędzia AI. Wraz ze wzrostem udziału rynkowego macOS o 60% w ciągu trzech lat, złośliwe oprogramowanie jako usługa (MaaS) uczyniło atakowanie wrażliwych danych, takich jak portfele kryptowalut i szczegóły kluczy Keychain, tańszym i łatwiejszym.

Dodatkowo, roboty sterowane przez AI stały się potencjalnym zagrożeniem dla bezpieczeństwa. Badacze odkryli, że odblokowanie robotów kontrolowanych przez AI może prowadzić do niebezpiecznych działań, takich jak spowodowanie wypadków przez samochody autonomiczne lub wykorzystanie robotów do szpiegostwa.

Rozwój RoboPAIR, algorytmu omijającego filtry bezpieczeństwa, wykazał 100% skuteczność w manipulowaniu robotami do wykonania szkodliwych zadań, w tym użycia broni i lokalizowania urządzeń wybuchowych.

W miarę jak cyberprzestępcy coraz częściej wykorzystują AI do przeprowadzania bardziej zaawansowanych ataków, zarówno organizacje, jak i pojedyncze osoby muszą pozostać czujne, nieustannie aktualizując swoje mechanizmy obronne.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Zostaw komentarz

Loader
Loader Pokaż więcej...